Beiträge von Anthracite

    Theoretisch ja.

    Mit Billigswitchen hatte ich aber auch schon schlechte Erfahrungen.


    Den sfp+-Port kannst du für 10GbE nutzen, aber da der Mac (höchstwahrscheinlich) kein sfp+, sondern rj45 hat, brauchst du noch einen Transceiver, der womöglich mehr als der Switch kostet. Die vier 2,5GbE-Ports sollten sich aber direkt nutzen lassen.

    Einmal den 1G Port mit zB IP 192.168.178.5 der am Switch hängt und den 2,5G Port mit der IP zB 192.168.178.6. Der Rechner sollte dann aber eine feste IP an seinem Port haben (Internet kommt dann über WLAN???),

    Da die Macs üblicherweise nur einen Port haben, den aber manchmal mit 10GbE, würde ich diesen Weg nicht weiter verfolgen. Dann müsste das NAS den Datenverkehr routen, oder Mac über WLAN, oder ein zusätzlicher USB-C zu Ethernet-Adapter am Mac.


    Dann gleich eine vernünftige Lösung, ein Switch mit mindestens 2 2,5Gbe- oder gleich 10GbE-Ports. Ein 10GbE-Switch bringt dir praktisch noch keinen Geschwindigkeitsgewinn, ist aber besser für die Zukunft gerüstet, da du schon ein 10GbE-Gerät hast. Wenn 10GbE, achte darauf einen lüfterlosen Switch zu nehmen.

    Wäre das ok oder brauche ich z.B. eine Mindestgröße des RAM?

    Wenn das NAS wirklich nur für Backups gebraucht wird, dann ist die Leistungsfähigkeit ziemlich egal. Das Backup läuft sinnvollerweise unbemerkt und nachts, da kommt es auf die Geschwindigkeit nicht drauf an. Der begrenzende Faktor wird vermutlich die Geschwindigkeit des Internetanschlusses sein, insbes. die des Uploads.

    Verbindung, gerade wenn es um ein Firmen NAS geht, nur über einen VPN Tunnel einrichten!

    Ein ssh-Tunnel lässt sich auch sicher konfigurieren und verwenden.

    Ich mache nichts mit Snapshots sondern übertrage die Daten 1:1.

    Dann ist es aber kein echtes Backup. Für die genannten Zwecke, Feuer und Wasser, reicht es aber. Gegen Ransomware und Verschlüsselungstrojaner hilft das nicht.


    Wenn man ein echtes Backup haben will, kann man auf dem Zweit-NAS noch einen Backup-Job mit Historisierung anlegen, der entgegen sonstiger Empfehlungen sogar dieselbe Platte als Ziel haben dürfte (besser eine zweite Platte im gleichen NAS, um Kopfbewegungen zu reduzieren). Dieser hätte den Charme, automatisch ein sicheres Backup gegen Schadsoftware zu erstellen, weil Schadsoftware auf dem Haupt-NAS zwar die direkte Kopie auf dem fernen NAS erreichen könnte, nicht aber deren Historisierung. Wenn man es ganz sicher möchte, nimmt man ein NAS eines anderen Herstellers (unwahrscheinlich, dass beide gleichzeitig eine ausgenutzte Sicherheitslücke haben). Nachteil: Mit der zusätzlichen Historisierung wird ein Mehrfaches des Speicherplatzes benötigt.

    Meins hat sich in der Nacht sang- und klanglos aufgehängt. Ohne Fehlereintrag. Musste durch manuellen Shutdown wieder zum Leben erweckt werden da kein Zugriff über Browser o.ä.

    Kommst du dann über ssh noch rein?

    Ich hatte mal den Fall, dass die Ramdisk (enthält das Root-Verzeichnis) voll war, das gab einen ähnlichen Effekt. Mit ssh könntest du versuchen, den Fehler zu finden.

    Moin, danke für die Rückmeldungen. Ich fasse meine Erfahrungen mal zusammen:

    Aber dabei hast du noch kein Raid über beide Baugruppenträger angelegt, wenn ich das recht verstehe? Du hast die Konfiguration, von der wir dir hier abraten, also noch nicht anlegen können?

    Ich halte es für vermessen, etwas als Dummheit zu bezeichnen,

    Da du scheinbar ohnehin vor hast, das auszuprobieren, schreib dann mal, wie das ausgegangen ist. Wirst du vor der Produktivsetzung auch den Test machen, im Betrieb bei einem Baugruppenträger den Netzstecker zu ziehen?


    Dann wirst entweder du mir mit der "Dummheit" zustimmen, oder ich werde die "Dummheit" zurücknehmen. ;)

    Damit läuft auch das Raid wieder.

    So optimistisch wäre ich nicht. Sobald der eine Baugruppenträger weg ist (und sei es nur kurzfristig, weil jemand den falschen Stecker gezogen hat), geht das Rest-Raid in den Status "defekt" (und nicht "degradiert", wenn nur eine Platte fehlt). Aus diesem Status gibt es keine Rückkehr (im Gegensatz zu degradiert, dass durch Hinzufügen einer neuen Platte wieder repariert werden kann). Das heißt, selbst wenn du den ausgefallenen Baugruppenträger wieder in Betrieb nimmst, wird der Status bei "defekt" bleiben. Möglicherweise kann man mit Low-Level-Befehlen in der Shell den Status wieder ändern und die beiden Raid-Teile zusammenfügen (ich habe da durchaus meine Zweifel), so gibt es dennoch keine Funktionen, um das Ergebnis wieder sauber zu synchronisieren.


    => Gib die Idee auf. Ein Raid über mehrere Geräte zu erstellen ist eine Dummheit, die sich schnell rächen kann. Mach zwei getrennte Raids daraus und gut ist.

    Welche SSD? Ein Billigprodukt? Manche SSDs haben Probleme, wenn der Schreibcache der SSD voll ist.


    Dann empfehle ich, den Cache (jetzt den vom NAS) abzuschalten und die SSD lieber als eigenes Volume zu verwenden. Der Cache erhöht die Komplexität, bringt aber in deinem Szenario vermutlich nichts. Du hast wahrscheinlich mehr davon, wenn du die SSD als eigenes Volume einrichtest.

    Meine Hoffnung ist dahingehend, dass das Gerät länger als die Garantie läuft.

    Wenn ich daran denke, zu was für alten NAS hier teilweise Fragen gestellt werden, dann stehen die Chancen gut. Die meisten NAS halten relativ lange.

    Die Frage ist echt: Macht nur QNAP das so, oder gibts das auch bei anderen Herstellern?

    Ja, das ist bei den meisten Herstellern so. Was getestet und offiziell freigegeben ist, ist relativ teuer, weil der Hersteller dann auch finanziell dafür einstehen muss, wenn es nicht funktioniert. Was billig und nicht offiziell freigegeben ist, wird nie als Möglichkeit genannt, weil dann der Support dafür einstehen müsste, wenn es nicht funktioniert, und das kann der einzelne Supportmitarbeiter nicht verantworten.

    Aber mir scheint, es wird über das WAN jedes Bit verglichen,

    Das lässt sich konfigurieren unter Bearbeiten -> Regeln -> Richtlinien -> Dateiinhalte prüfen.

    Auch frage ich mich wieso überhaupt ein Abbruch stattfand. Es handelt sich doch um eine dauerhafte real time Synchronisation.

    So real-time ist die Synchronisation nicht. Es laufen Jobs, die die Daten abgleichen, und diese Jobs können abbrechen, wenn die Verbindung zwischenzeitlich weg ist.

    Kann ich denn irgendwie mit einer USB Festplatte zum Quellsystem gehen, eine Kopie machen, diese Dann auf das Zielsystem kopieren (eine Art initial Seed), und dann den Job starten?

    Vielleicht, vielleicht nicht. Erst einmal prüft Rsync (auch RTRR setzt auf Rsync auf) Eigentümer, Größe und Zeitstempel der Dateien. Wenn zum Beispiel beim Kopieren die Zeitstempel verloren gehen, werden alle Dateien neu übertragen. Daher unbedingt mit cp -Rp kopieren.


    Ich hatte das anders gemacht und das ferne NAS für das initiale Backup zu mir geholt und das Backup mit HBS im LAN laufen lassen. Einmal hat das funktioniert, nachdem ich das ferne NAS zurückgebracht hatte, wurde nur inkrementiell gesichert. Beim zweiten Mal hat HBS nicht erkannt, dass die Dateien schon vorlagen und wollte partout ein Vollbackup von 850 GByte machen. Was beim zweiten Mal schief gelaufen war, weiß ich nicht. Und natürlich brach das Vollbackup von 850GByte über das Internet mehrmals ab. Ich habe aber beobachtet, dass nach dem Neustart des Jobs dieser lange brauchte um die ersten 5% durchzuführen, genau wie beim Komplettbackup, dann aber ging die Prozentanzeige sehr schnell auf 60% hoch oder wo vorher der Abbruch war. Es wurden also nur die noch fehlenden Teile übertragen.


    Ich nutzte übrigens Rsync, nicht RTRR. Die Erfahrungen könnten aber übertragbar sein.

    Nicht an allem Unglück ist Qnap Schuld.


    Gestern nach dem Update ging nichts mehr. Die Freigaben fehlten, die Apps wurden nicht gestartet, nicht mal das Hintergrundbild wurde geladen. Ich wollte schon zurück auf die 5.1.5, hab's aber zum Glück doch nicht gemacht, sondern mir die Sache näher angeschaut. Ergebnis war, auf Grund einer Netzstörung bei Vodafone vor zwei Wochen und Zurücksetzen der Fritzbox war die Konfiguration letzterer fehlerhaft, so dass mein Autorun-Skript nicht mehr an die Verzeichnisse mit den Schlüsseldateien zum Entsperren der Volumes kam. Dieser Fehler wäre also bei jedem Neustart des NAS aufgetreten.


    Das Update selbst auf 5.1.6 war dann problemlos, und bisher läuft alles, was ich nutze. Auf TS-877.

    In der Shell kann man mit mdadm aus einem degradierten Raid eine Einzelplatte machen.


    Auf Synology habe ich das mit Erfolg durchgeführt. Siehe auch hier im Beitrag #6 den Befehl. Aber bitte nicht einfach /dev/md2 abtippen, sondern vorher nachschauen, z. B. über cat /proc/mdstat, welches das korrekte Gerät ist.


    Ich kann dir nicht versprechen, dass das auch auf Qnap funktioniert. Auf Linux-Ebene hast du dann eine korrekte Einzelplatte, aber ich will nicht ausschließen, dass eine Qnap-Konfigurationsdatei dir in die Suppe spuckt und dann das GUI herumzickt. (Auf Synology ist das nicht der Fall, da läuft das GUI einwandfrei, als wäre die Platte nie etwas anderes als eine Einzelplatte gewesen.)


    Ein funktionierendes Backup musst du in jedem Falle haben. Wenn etwas schief geht, bleibt nur, das System neu aufzusetzen. Aber du du Letzteres ohnehin überlegst, kannst du den Versuch mit mdadm wagen.

    Schließ mal den Mac an das NAS an und geh auf dem Mac in die Systemeinstellungen/Netzwerk.


    In welcher Reihenfolge sind die Netzwerkadapter dort aufgelistet?


    Hat die Thunderbolt-Verbindung dort eine eigene IP-Adresse? Kommt diese aus dem gleichen Subnetz wie dein übriges LAN oder aus einem anderen Subnetz? (Sie muss aus einem anderen Subnetz kommen, damit es sauber funktioniert.)

    Ich hatte mal eine Inkompatibilität zwischen einem Qnap QSW-308S und einem alten Thunderbird-10G-Adapter. Pings gingen sehr langsam durch, alles andere gar nicht. Das war kein Gerätedefekt, sondern mit einem Austauschgerät trat derselbe Fehler auf. Ein Switch einer anderen Firma hat das Problem behoben.


    Zwischen dem Qnap-Switch und der Fritzbox hatte ich jedoch nie Probleme.


    In der Fritzbox kann man LAN-Ports auf 100MBit/s zurückschalten. Bitte einmal prüfen, nicht dass es daran liegt.


    Die meisten Switche zeigen durch Farbe und Anzahl der Lämpchen an, mit welcher Geschwindigkeit sie sich verbunden haben. Bei managed Switchen kann man das auch im GUI sehen. Was sagt da der Qnap-Switch?


    Dann sind individuelle Defekte, z. B. Kabelbruch, defekter Port oder Defekt im Switch möglich. Bitte mal Ports und Kabel tauschen, ob das was ändert.


    Die Fritzbox kann einen iperf-Server (nicht iperf3) für Geschwindigkeitstest starten. Wie ist das Ergebnis damit?

    Ich komme mit 10Gbe bei Festplatten im Raid 5 lesend auf 800MByte/s, lesend deutlich weniger. Mit SSDs schaffe ich über 900MByte/s und da fehlt dann nicht mehr viel zum theoretischen Limit.


    Meine Werte sind mit einem Geschwindigkeitstestprogramm ermittelt. Praktische Werte liegen darunter, weil zusätzliche Verzögerungen ins Spiel kommen. Oft kopiert man von der PC-Festplatte auf das NAS (oder umgekehrt), und dann hat man nicht nur die Schreibzeit auf das NAS, sondern auch die Lesezeit auf dem PC.


    Daher würde ich erst mal mit Geschwindigkeitstests anfangen, um andere Faktoren auszuschließen und die reine LAN- und NAS-Geschwindigkeit zu testen.


    Mit iperf3 kannst du ziemlich unverfälscht die Netzwerkgeschwindigkeit testen. Das wäre mein erster Ansatz.


    Danach kommt dann ein Testprogramm, dass die Lese- und Schreibgeschwindigkeit im NAS testet.