Beiträge von Anthracite

    Leider gibt es aber Leute wie mich. Mein Backup ist (zu) alt und meine Daten verschlüsselt.

    Versuch mal, ob du mit photorec noch was retten kannst.


    Ich kopiere mal einen Text, den ich neulich schon einmal geschrieben hatte:


    Es kann einen Versuch wert sein, mit Photorec gelöschte Dateien wieder herzustellen. Photorec ist ursprünglich für Fotos gedacht, stellt aber auch beliebige andere Dateien wieder her - allerdings nur solange, wie der durch das Löschen freigegebene Speicherplatz noch nicht wieder erneut verwendet wurde. Qnap hat photorec auch in das Produkt Qrescue integriert und stellt ein Verfahren "für Dumme" bereit. Schau dort mal in den Punkt "QRescue-Bedienungsanleitung für fortgeschrittene Benutzer".


    Alternativ kann man die Platten in ein USB-Gehäuse einbauen und photorec an einem Linux-Rechner ausführen. Dies hat dann Vorteile, wenn man nicht weiß, ob der Verschlüsselungstrojaner noch aktiv ist. Bei anderen Raid-Typen als Raid 1 ist das aber schwierig

    Mod: Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    hier kommt die Meldung

    Code
    1. ssh ..... port 22: Connection refused

    Das heißt, dass ssh und Telnet nicht eingeschaltet sind. Das ist normal, da dies die Werkseinstellung ist, aber das heißt auch, dass du auf diesem Wege nicht weiter kommst.


    Kann es sein, dass du im Browser https:// statt http:// eingegeben hast oder umgekehrt? Versuch einmal, das 's' hinzuzufügen oder wegzunehmen und erneut aufzurufen.


    Ein anderer Browser (z. B. Firefox statt Safari) ist auch einen Versuch wert. Vereinzelt verschluckt sich ein Browser mit seinem Cache.


    Es gibt für Mac doch bestimmt auch einen Qfinder!?

    Ja, gibt es, und ist einen Versuch wert.

    Darüber kann "Anmeldung" oder "Konfiguration" aufgerufen werden.


    Ansonsten ist der 3-Sekunden-Reset eine Überlegung wert. Die bei dem Reset gemachten Änderungen müssen später wieder rückgängig gemacht werden.

    Blödsinn, vergiss Putty, das brauchen nur die Windows-Nutzer mit ihrem kastrierten Betriebssystem 8o.


    Das Terminal hat das, was du brauchst. Gib

    Code
    1. ssh admin@192.168.x.x

    (bzw. ein anderer Benutzer stall admin, hat den, den du auch im Browser zur Anmeldung benutzen würdest) oder

    Code
    1. telnet 192.168.x.x

    ein.


    Das funktioniert allerdings nur (egal ob Mac oder Putty oder Sonstwas), wenn du vorher den SSH- oder Telnet-Zugriff im Browser freigeschaltet hast.

    Ich möchte ein offsite BackUp aufstellen und würde das erste BackUp lokal aufspielen. Muss ich bei der Einrichtung des BackUp-Jobs etwas berücksichtigen? Kann ich den Jobs später einfach von lokal auf remote ändern?

    Ja, geht. Das habe ich auch so gemacht.


    Ein Standort mehrere 100km entfernt hat trotzdem seine Nachteile. Ich habe neulich mein externes NAS heimgeholt, weil ich 850GByte Daten zurückspielen wollte. Und am anderen Standort brauchst du jemanden, der nachschauen kann, was ist, falls mal jemand am Netzstecker hängen geblieben war.


    dann würde ich nach Alternativen suchen.

    Eine machbare, sichere und stabile Alternative (mMn. stabiler als VPN) ist ein Backup über einen ssh-Tunnel. Allerdings sollte man sich dafür etwas mit ssh auskennen, denn ssh kann man im Gegensatz zu VPN auch unsicher betreiben (z. B. übersehener Admin-Zugang mit Standardpasswort). Sicher ist ssh u. A. dann, wenn die Anmeldung auf dem Zielsystem ausschließlich per ssh-Schlüssel möglich ist.

    Bei meinem initialen Backup habe ich das externe Gerät zu Hause im LAN eingerichtet und auch das erste Backup im LAN durchgeführt. Dann kam das NAS an den externen Standort, die HBS-Jobs wurden angepasst (andere Netzwerkadressen), und die folgenden Backups liefen ab, ohne die ganzen unveränderten Daten zu übertragen, also genau so wie geplant.


    Vor einigen Wochen brauchte ich eine große Datenmenge von dem externen NAS (insges. 850 GByte). Dafür habe ich das externe NAS wieder nach Hause geholt, die Daten rüberkopiert unter Beibehaltung des Datums (wobei sie die originalen Daten, von denen das Backup kam, ersetzt haben) und das NAS wieder zurückgebracht. Beim ersten Backup danach wollte HBS partout wieder alle 850 GByte abgleichen, obwohl Datum und Dateigröße bei allen Dateien gleich waren, also genau wie bei dir. Ich nehme an, dass HBS irgendwo noch so was wie eine Datenbank hat, wo drin steht, was gelaufen ist, oder dass das Verzeichnis als Ganzes als neu eingestuft wurde.


    Ich denke, ich hätte, nachdem ich die Daten vom externen NAS zurückgespielt hatte, das erste Backup danach zu Hause im LAN laufen lassen sollen. Dann wären zwar auch 850 GByte abgeglichen worden, aber zu Hause, nicht über die externen Leitungen. Das war aber unterblieben, da ich zu faul gewesen war, die Adressen der Backup-Jobs dafür vorher auf LAN-Adressen zu ändern und nach dem Lauf wieder zurück auf den alten Wert für extern zu stellen. Na ja, zu der Zeit war gerade Weihnachten, der Internet-Anschluss am externen Standort wurde sonst nicht gebraucht, und da habe ich HBS dann den kompletten Abgleich machen lassen. Der hat drei Tage gebraucht, und seitdem laufen die Backups wieder normal.


    => MoeD : Hast du den HBS-Job einmal bei dir im LAN laufen lassen? Wenn nein, hole das externe NAS zurück und starte den Job einmal im LAN.

    Wichtiger wäre, dass das auf den Cable-Boxen implementiert wird. Die haben wesentlich größere Baustellen mit DS-Lite, non IPv4 etc.

    Wenn es an der fehlenden IP4-Adresse scheitert:

    Du kannst bei Vodafone anrufen und fragen, ob sie dir nicht eine eigene IP4-Adresse (eine dynamische, keine feste) geben können. Oftmals machen sie das ohne Aufpreis. Es ist nicht so, dass sie gar keine IP4-Adressen hätten, aber nicht genug für alle, und die meisten Kunden brauchen so etwas ohnehin nicht.

    ... HBS3 sichert weiterhin wie gewohnt ...

    HBS nutzt intern rsync, und das ist stabil bei schlechten Netzwerkverbindungen und setzt nach Unterbrechungen automatisch wieder auf, oftmals ohne dass man davon was mitbekommt. (Der mehrere Tage dauernde Abgleich von 850 GByte Daten lief trotz mehrerer Reboots des Routers durch.)


    Im Eingangsbeitrag (und auch bei Onkel_Tom?) geht es aber um eine Kopieraktion über SMB-Mounts und VPN. Das ist nach meinen Erfahrungen wesentlich empfindlicher gegenüber Verbindungsabbrüchen oder langen Ping-Zeiten. Ein Aussetzer bedeutet idR. den Abbruch des Kopiervorganges.


    Wenn sich das Problem mit den Abbrüchen nicht lösen lässt (hier sind ja auch noch mindestens zwei Internetprovider mit beteiligt), dann würde ich den Dateitransfer über (S)FTP machen (z. B. mit Filezilla). FTP ist bei schlechten Verbindungen ebenfalls stabiler als SMB.

    Ist unter Diensterkennung "Bonjour" eingeschaltet?


    Falls das nicht hilft:

    1. Im Finder die Time-Machine-Freigabe mounten ("mit Server verbinden"), dabei Name und Passwort des Benutzers für TM eingeben
    2. In Systemkonfig, Time-Machine die so gemountete Freigabe auswählen
    3. TM-Freigabe wieder trennen
    4. Initiales Backup starten ("Backup jetzt erstellen")

    Ich bin mir nicht sicher, ob Punkte 3. und 4. nicht vielleicht in anderer Reihenfolge ausgeführt werden müssen. Ist schon ein bisschen her, dass ich das gemacht habe. Für alle folgenden Backups braucht die Freigabe jedenfalls nicht mehr per Hand verbunden zu werden. Das macht TM automatisch.

    Die TS-453 ist erst zwei Wochen alt, die HDDs also kaum gelaufen, also sollten sie noch keine Schreib-Lesefehler haben.

    Das ist kein Argument. Meine erste Platte im NAS hat nach zwei Tagen die ersten Fehler angezeigt (und wurde vom Händler anstandslos getauscht). Die Ausfallwahrscheinlichkeit folgt der Badewannenkurve. Gerade zu Anfang fallen relativ viele Geräte auf Grund von in der Qualitätssicherung nicht bemerkten Fehlern aus.


    Schau mal auf den Smart-Status deiner Festplatten (wird im Browser in qts angezeigt). Wenn da eine Platte orange (Warnung) oder rot (Fehler) ist, retourniere sie direkt, ohne noch weitere Versuche vorzunehmen.

    Ich hatte die Probleme mit doppelten IPs mit Fritzboxen von AVM, nachdem ich Fehlkonfigurationen auf anderen Geräten vorgenommen hatte. Je nachdem, in welcher Reihenfolge die Geräte mit falsch konfigurierten IPs sich erstmals anmelden, kann auch ein "korrekter" DHCP-Server eventuell nicht mehr darauf reagieren und der IP-Konflikt tritt auf.

    Meine Fragen sind, kann ich das NAS über TB3 primär konfigurieren?

    Meiner Meinung nach müsste das gehen, aber ich nutze kein TB am NAS, kann dir also keine eindeutige Aussage dazu geben.


    Falls es nicht geht,


    kann ich das dann ohne Router/Switch machen mit einen Netzkabel direkt vom MAC zu NAS(Adapter QNA-T310G1S vorausgesetzt),

    das geht in jedem Falle. Gerät-zu-Gerät-Direktverbindung ist möglich.

    Der QSW-M2108R-2C ist managed und ggf. musst du hier Multicast erst erlauben und das ggf. noch pro VLAN.

    In den Werkseinstellungen dürfte es keine VLANs geben. Und die Ports sollten "auf Durchzug" geschaltet sein, d. h. keine Einschränkungen, damit der Switch erst einmal wie ein unmanaged Switch funktioniert. Zumindest bei meinen Mikrotik Switchen ist das so.


    Ich würde erst mal testen, ob das überhaupt am Switch liegt. Das Kabel, eine Fehlkonfiguration oder gestörtes WLAN auf dem weiteren Wege kann ebenso eine Ursache sein. Also mal testweise Ports tauschen (hatte schon defekte Ports im Switch), insbesondere das, was in den 10GbE-Ports hängt mal in die normalen Gigabit-Ports stecken (bei einem Qnap-Switch hatte ich mal eine Inkompatibilität im 10GbE-Port), Kabel tauschen, direkt an den anderen Switch anschließen, bis du merkst welche Komponente nicht sauber funktioniert.


    Hat die HUE Bridge schon mal irgendwo funktioniert? Das könnte auch ein Konfigurationsfehler in der Bridge sein.


    Und die Sunrise-Box am 10GbE-Anschluss ist auch fragwürdig. Ich weiß nicht, welche Modelle es von Sunrise gibt und was du hat, aber zumindest einige Modelle haben nur Fast-Ethernet (100MBit/s). Die nutzen den 10GbE-Port dann nur zu 1% aus. Schwerwiegender noch mag sein, dass manche 10GbE-Ports Probleme haben sollen, wenn sie nur mit langsamen Fast-Ethernet genutzt werden.


    Der Qnap-Switch ist deutlich Oversized. Ein 20-Euro-Gigabitswitch aus dem Geizmarkt bringt bei den Geräten ohne jede Einschränkung dieselbe Leistung.

    Dann werd ich vermutlich noch mal ein 2. QNAP besorgen müssen befürchte ich.

    Nein, nicht nötig.


    Mach in HBS einen einfachen Job über Rsync ohne Historisierung, "gelöschte Dateien beibehalten" wird nicht angekreuzt.


    Auf dem Syno, also dem Backup-NAS, erstellst du einen Job mit Hyperbackup (oder bei DSM 6.x mit Ultra-Backup), der von den so durch HBS übertragenen Dateien ein Backup mit der gewünschten Historisierung macht, und zwar von interner Platte auf interne Platte (wenn das nicht dieselbe Platte ist, geht das schneller, weil das Kopfbewegungen einspart). Dann hast du dein erwünschtes historisiertes Backup.


    Dann werden die Originaldaten vom Qnap zwar doppelt auf dem Syno abgelegt, aber es braucht natürlich keine SSD zu sein, sondern eine billige Festplatte reicht (SSD ist bei Backup eh Verschwendung), und es hat den Charme, das ein etwaiger Verschlüsselungstrojaner auf dem Qnap zwar an das erste Backup auf dem Syno kommen könnte, nicht aber an das zweite Backup (das mit der Historisierung), weil dieses vom Qnap aus nicht sichtbar ist (vorausgesetzt, das Syno ist diesbezüglich richtig konfiguriert). Auch bieten ein Syno und ein Qnap eine höhere Sicherheit gegen automatisierte Angriffe als zwei Qnaps, weil es unwahrscheinlich ist, dass Syno und Qnap gleichzeitig von Schadsoftware angegriffen werden.


    (Der Workaround von tiermutter ging in die richtige Richtung, war aber nicht ganz durchdacht. Der historisierende Job muss auf dem Zielsystem laufen, weil der Abgleich nur der Originaldateien über das Netz viel schneller geht als der komplette Abgleich eines bereits historisierten Backups.)

    Ich muss mal schauen wo der Verlust dann beim Kopieren war.

    Wenn du die Geschwindigkeit durch Kopieren testest, dann liest du vom NAS und schreibst danach auf die interne Platte, und dies geht nicht parallel, sondern immer (stückchenweise) nacheinander. Die Zeit, die du so misst, ist also nicht nur die Lesezeit vom NAS, sondern zusätzlich die Schreibzeit auf die interne Platte. Dadurch ist die Zeit zwangsläufig länger und die (fehlerhaft) berechnete Übertragungsrate geringer.


    Wenn du mit Indesign oder PS vom NAS Daten lädst, werden diese nicht auf der internen Platte gespeichert, sondern nur in den Hauptspeicher geladen. Daher ist der Kopiertest von NAS zu Platte für deine Anwendung keineswegs realistischer.


    Noch ein anderer Gedanke: Welchen Mac hast du (inkl. Jahrgang) oder welche TB-Version hat dein Mac?

    Wenn es nicht nur "so in etwa" war, sondern "exakt so" und die Verschlüsselung mit dem Programm 7z erfolgt ist, dann schau mal im Verzeichnis /share/CE_CACHEDEV1_DATA/.system/3213/ nach (geht nur in der Shell nach Login mit ssh). Wenn du Glück hast, stehen dort log-Dateien, die das Passwort zur Entschlüsselung enthalten.


    Statt CE_CACHEDEV1_DATA kann das Verzeichnis auch anders heißen. Im Zweifelsfall liefert dir getcfg SHARE_DEF defVolMP -f /etc/config/def_share.info das Verzeichnis.


    Ob das letzte Unterverzeichnis immer 3213 ist, weiß ich nicht mit Sicherheit. Ein ls -l im Verzeichnis .system liefert Auskunft.


    Ansonsten kann es einen Versuch wert sein, mit Photorec gelöschte Dateien wieder herzustellen. Photorec ist ursprünglich für Fotos gedacht, stellt aber auch beliebige andere Dateien wieder her - allerdings nur solange, wie der durch das Löschen freigegebene Speicherplatz noch nicht wieder erneut verwendet wurde. Qnap hat photorec auch in das Produkt Qrescue integriert und stellt ein Verfahren "für Dumme" bereit. Schau dort mal in den Punkt "QRescue-Bedienungsanleitung für fortgeschrittene Benutzer".


    Alternativ kann man die Platten in ein USB-Gehäuse einbauen und photorec an einem Linux-Rechner ausführen. Dies hat dann Vorteile, wenn man nicht weiß, ob der Verschlüsselungstrojaner noch aktiv ist. Bei anderen Raid-Typen als Raid 1 ist das aber schwierig.


    Spätestens bevor du am Linux-Rechner anfängst, solltest du noch schnell ein Backup von den Dateien machen, von denen du noch kein Backup hast.

    Was mir noch einfällt:


    Mach einmal einen Test mit iPerf3 (Gibt es bei qnapclub.eu als App, und auf dem Mac brauchst du noch einen Client). Das testet die reine Netzwerkgeschwindigkeit, hält also Einflüsse von SSD und Prozessor (letzteres weitgehend) raus. Dann weißt du schon mal, ob es am Netzwerk liegt oder ob dein SSD-Raid einen Schaden hat.


    Mit SSD würde ich den Blackmagic Speedtest empfehlen. Der liefert bei mir die konsistentesten Ergebnisse. Mit dem Speedtest vermeidest du Messfehler durch z. B. die Mac-Festplatte oder durch zu viele kleine Dateien in den kopierten Daten.


    Evtl. rüste ich auf 10GbE um wenn mein MacBook im März kommt. Das dürfte ja laut QNAP schneller als Thunderbolt sein oder?

    Nein, eigentlich nicht. TB kann auf dem Papier 40Gbit/s. Das kriegst du allerdings nicht "auf die Straße", weil bei der Umsetzung von TB zum IP-Protokoll deutliche Verluste entstehen. Machbar halte ich Geschwindigkeiten von 20-25Gbit/s, was immerhin noch das Doppelte der 10GbE-Leistung wäre. In der Praxis ist der bemerkbare Unterschied deutlich geringer, weil die Leistung eines Programmes nicht nur an der Netzwerkgeschwindigkeit hängt.


    10GbE hat aber anderswo klare Vorteile. So ist es wesentlich flexibler (keine Punkt-zu-Punkt-Verbindung, sondern ein Netz, so können mehrere Rechner mit 10GbE auf das NAS zugreifen und umgekehrt kann ein Rechner mit der Geschwindigkeit auf mehrere Geräte zugreifen) und bietet deutlich größere Kabellängen (TB-Kabel mit mehr als fünf Metern sind extrem teuer, und es ist eine gute Idee, das NAS außer Hörweite zu platzieren).


    Falls du auf 10GbE umsteigst: Nimm den 10GbE-TB-Adapter von Qnap mit sfp+-Port. Der ist relativ günstig, taugt was und ich lüfter- und damit lautlos. Der Adapter mit rj45-Anschluss hat hingegen einen Lüfter.


    (Ich selbst habe TB für die Verbindung zum NAS nie genutzt. Ich habe 10GbE mit dem erwähnten Adapter.)

    Da bin ich konstant auf 110MB/s gelaufen.

    Das ist ziemlich genau die maximale Geschwindigkeit von Gigabit-LAN.


    Kann es sein, dass sowohl NAS als auch Mac an (z. B.) an einer Fritzbox hängen und die Daten darüber geroutet werden statt über die LAN-Verbindung?


    Zieh testweise alle LAN-Kabel vom NAS ab, so dass TB die einzige Verbindung ist, und miss noch einmal die Geschwindigkeit.

    hab das Ganze jetzt als RAID 6 mit 4 Samsung EVO SSDs konfiguriert

    Das ist Verschwendung bei nur vier SSDs. Raid 5 reicht völlig aus. So oft gehen SSDs nicht kaputt. Und um ein Backup kommst du ohnehin nicht herum. Wenn du unbedingt zwei SSDs verschwenden willst, dann nimm Raid 10, das hat eine potentiell höhere Geschwindigkeit und es bietet im Gegensatz zu Raid 5 eine Trim-Möglichkeit (die Ausfallsicherheit ist aber geringer als bei Raid 6, wobei das mMn. bei vier SSDs das nicht praxisrelevant ist).