Ein potentes 4 bay sollte es schon sein
Das würde mich die Sache doch nochmal überdenken lassen.
Ein potentes 4 bay sollte es schon sein
Das würde mich die Sache doch nochmal überdenken lassen.
Vielleicht will es der TE auch nur lokal machen...
Falls lokal: Die Fotos müssen für den Client (TV, Tablet etc) vermutlich erst indiziert werden.
Nutze aber das QFoto nicht. Wenn das erfolgt ist, sollten diese sich über z. B. DLNA wiedergeben lassen. Wobei DLNA aber keine Zugriffsrechte kennt.
Falls über WAN: s. #2
Von meiner Homebase leider zu weit....
die Daten werden nur bei Zugriff vom NAS geholt.
das ist für jegliche Backupzwecke unbrauchbar.
Ja, wenn bei einem Zugriff die Daten "on the fly" erst auf den Client geladen werden....
Ist das dann tatsächlich eine 1:1 Kopie oder so eine Art Schattenkopie? Bzw. was passiert nach dem Bearbeiten - Komplette Datei wieder aufs NAS geschubst?
Aber unter diesem Aspekt ist das wahrlich kein valides Backupkonzept. Bei den heute gängigen Speichergrößen...braucht man da noch den "Speicherplatzsparmodus" nicht mehr wirklich.
Ich meine jetzt den typischen Endverbraucher und keine Spieleentwickler wo es um TB/PB geht.
Früher mag das so alles funktioniert haben, selbst wenn das NAS nicht erreichbar war, da waren alle Daten auf NAS und Rechner vorhanden. Mit Qsync 5.0.0 wurde aber der platzsparende Modus eingeführt und automatisch aktiviert, der nun zu diesem Problem führt.
Schadenfreude bringt hier auch keinen Meter weiter. Schon alles gesagt, aber noch nicht von jedem...
Nutze keinen Sync, daher keine Erfahrungswerte. Aber nach meinem Verständnis sollten sich die Dateien auf dem Client als auch auf dem NAS befinden.
Ziel eines Syncs ist doch einen konsistenten und einheitlichen Stand der Daten auf versch. Clients vorzuhalten. Zumindest über eine bidirektionale Synchronisation, wo die letzte Dateiänderung "gewinnt". Und so ein Konstrukt kann man auch unter einer Art Datensicherung sehen. Wenngleich ohne Versionierung, 3-2-1, Offsite etc.
Wenn nun (warum auch immer) das Netzteil abraucht sind die Daten doch noch auf dem Clientrechner.
Anderen Browser hab ich auch probiert.
Deren Cookis auch gelöscht?
Irgendein supermegageilesmusthavewebblocker-Plugin/Addon installiert?
Weiter im Süden - z.B. München - wäre definitiv etwas kürzer. Aber in Verbindung mit einem Urlaub. Was gibt es da noch sehenswertes?
Weißwürst mit Brezn, englischer Garten, Feldherrenhalle, Odeonsplatz, Marienplatz. Frauenkirche, Asamkirche, Schweinsbraten, Fußgängerzone, diverse Frei,-Hallenbäder.....
So ganz auf die Schnelle.
Ne, München passt perfekt.
Und wenn das nicht funktioniert, in der File Station nen Remote-Ordner einbinden.
Bei Synology gibts rsync und rsync Einzelkopie. Ersteres sichert in eine DB wo man die Daten am Ziel nicht als "Klartext" abrufen kann. Bietet dafür aber Versionierung usw.
Beim zweiterern werden die Daten 1:1 kopiert und liegen als Ziel auch lesbar vor. Hier gibts keine Versionierung.
Klar funktioniert RSYNC von Synology zu QNAP
Mache ich seit Jahren so. Klappt hervorragend.
Das ganze errinnert mich an das selbe Problem welches ich vor drei (!) Jahren schonmal hatte.
Hast Du nach der Erstinfektion das NAS auf Werkseinstellung/Löschen aller angelegten Partitionen durchgeführt? Eine zweite Infektion ohne aktive Portweiterleitung ist ungewöhnlich.
So einen Thread hatten wir doch schon mal, ála "meiner ist länger...online"
Nun, so leid es mir tut, aber irgendwie muß ich Dir da Recht geben.
Obgleich es nicht mein Anspruch und Intention dahinter ist eine Art Wettbewerb zu initiieren.
Ich bin nur stolz drauf. Nicht mehr, aber auch nicht weniger.
Ich starte meine 24/7 NAS einmal wöchentlich über diese Funktion neu. Einfahc nur weil es sich für mich gut anfühlt es zu tun
Gleich mal tiermutter ein wenig aus dem konzept bringen.
Sorry, habe mich vertan. Ich meinte DLNA. Da hat der Router nichts damit zu tun.
Wird vermutlich über UPnP geschehen.
Das kennt keine Zugriffsrechte.
Keinerlei Erfahrung, klingt aber spannend.