Lass doch mal LAN Speed Test laufen Totusoft | LAN Speed Test und poste die Ergebnisse hier.
Beiträge von der_wahre_prinz
-
-
Da ich mich zur Zeit auch mit dem Thema Datensicherung zu AWS Glacier Deep Archive befasse, hier mal meine Rechnung.
Daten sollen in der AWS Region Europa (Frankfurt) gespeichert werden. Datenmenge ca. 1.300GB.
Kosten für Speicherung:
1.300GB * $0,0045 pro GB (nach aktuellem Wechselkurs = 0,0037€ pro GB) = 4,81€ pro Monat
Sollte ich im Fall der Fälle die Daten wiederherstellen müssen, fallen folgende Kosten an:
Datenabrufpreis (Bulk Abruf): $0,003 (nach aktuellem Wechselkurs = 0,0025€) / GB * 1.300GB = 3,25€
+
Abrufanforderungspreis (Alle Daten in 1 Archiv gespeichert, daher auch nur 1x berechnet): $0,03 (nach aktuellem Wechselkurs = 0,0246€) / 1000 = 0,0000246€
+
Datenübertragungspreis: $0,09 (nach aktuellem Wechselkurs = 0,0737€) / GB * 1.300GB = 95,81€
Monatlich "laufende" Kosten bei 1.300GB & Speicherung in Frankfurt: 4,81€ + 19% MwSt.: 5,72€
Einmalige Kosten im Falle einer Wiederherstellung der Daten: (3,25€ + 0,0000246€ + 95,81€) + 19% MwSt: 117,88€
Stand 28.12.2020
-
Hi, das geht mit Hybrid Backup Sync. App starten, Unidirektionale Synchronisierung auswählen und los gehts.
-
Hallo,
ich möchte meine TS-128 verkaufen und daher die Daten auf der Festplatte sicher löschen.
Nachdem ich das Volume auf der Festplatte entfernt habe und den sicheren Löschvorgang starte, bricht dieser wenige Sekunden danach mit folgender Fehlermeldung ab:
CodeWarnung 2019/02/28 08:54:11 System 127.0.0.1 --- --- [Secure Erase] The last disk (Disk 1) of system RAID can not be erased.
Könnt ihr mir ggf. helfen den Löschvorgang zum laufen zu bekommen?
Besten Dank vorab und viele Grüße.
-
Das würde mich auch interessieren.
-
Ist deine Linux Station denn über die IP Adresse deines Heimnetzes (192.168.1.105) erreichbar? Genau das ist sie bei mir nämlich nicht.
-
Ich habe mich damit abgefunden dass es aktuell offenbar nicht geht, und habe daher nicht weiter nach Lösungen gesucht.
-
Ich habe das ganze jetzt in einem NAS Gehäuse testen können. Gleiches Ergebnis:
Code
Alles anzeigen[~] # qcli_storage -d Enclosure Port Sys_Name Type Size Alias Signature Partitions Model NAS_HOST 1 /dev/sdb HDD:free 7.28 TB -- QNAP 5 Seagate ST8000AS0002-1NA17Z [~] # cat /proc/partitions | grep sd 8 0 503808 sda 8 1 5244 sda1 8 2 240768 sda2 8 3 240768 sda3 8 4 1 sda4 8 5 8304 sda5 8 6 8688 sda6 8 16 7814026584 sdb 8 17 530125 sdb1 8 18 530142 sdb2 8 19 7804071763 sdb3 8 20 530144 sdb4 8 21 8353796 sdb5 [~] # mdadm --examine /dev/sdb3 mdadm: No md superblock detected on /dev/sdb3. [~] # mkdir /tmpmnt [~] # mount -t ext4 /dev/sdb3 /tmpmnt mount: wrong fs type, bad option, bad superblock on /dev/sdb3, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so [~] # pvscan No matching physical volumes found [~] # mount -t ext3 /dev/sdb3 /tmpmnt mount: wrong fs type, bad option, bad superblock on /dev/sdb3, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so
Über die Weboberfläche sagt mir die NAS, dass die Festplatte in einem anderen NAS verwendet wurde. Ich hatte die Hoffnung Zugriff auf die DAten zu erhalten nachdem die NAS auf Werkseinstellungen zurückgesetzt wurde. Dies ist aber leider nicht der Fall. Der Speichermanager sagt dass keine Pools oder Volumes auf der Festplatte zu finden sind.
-
-
-
Die Suche nach dem Raid Verbund ergibt folgendes:
Die Suche nach lvm Volumes ergibt folgendes:
Zu meinem alten Setup:
Ich hatte 2 Festplatten in 1 Speicherpool, allerdings nicht als Raid konfiguriert, sondern jede als separates Volume.
Alle 2 Stunden wurden bestimmte Daten vom Volume 1 auf Volume 2 kopiert, quasi als interne Sicherung. Abends wurden die Daten dann nochmals auf eine externe HDD gesichert.
-
Danke für den Hinweis. Kannst du mir sagen wie ich weiter vorgehen muss um auf die Daten zugreifen zu können?
-
Hallo,
leider ist mir meine TS-251+ "abgeraucht", die Festplatten sind allerdings noch intakt. Ein Ersatzsystem habe ich bereits erstellt, allerdings benötige ich Zugriff auf Daten welche ich zuvor nicht gebackuped habe (ich habe diese nicht als wichtig eingestuft - was sich nun als falsch erwiesen hat).
Wenn ich die Festplatte an meinen Linux PC anschließe und mit fdisk scanne, erhalte ich folgende Ausgabe:
Code
Alles anzeigenMedium /dev/sdc: 7,3 TiB, 8001563222016 Bytes, 15628053168 Sektoren Einheiten: sectors von 1 * 512 = 512 Bytes Sektorengröße (logisch/physisch): 512 Bytes / 4096 Bytes I/O Größe (minimal/optimal): 4096 Bytes / 4096 Bytes Typ der Medienbezeichnung: gpt Medienkennung: D3BE8916-E14A-4AF6-8BBF-ECA3EE1C2064 Gerät Start Ende Sektoren Größe Typ /dev/sdc1 40 1060289 1060250 517,7M Microsoft basic data /dev/sdc2 1060296 2120579 1060284 517,7M Microsoft basic data /dev/sdc3 2120584 15610264109 15608143526 7,3T Microsoft basic data /dev/sdc4 15610264112 15611324399 1060288 517,7M Microsoft basic data /dev/sdc5 15611324408 15628031999 16707592 8G Microsoft basic data Medium /dev/md127: 517,7 MiB, 542834688 Bytes, 1060224 Sektoren Einheiten: sectors von 1 * 512 = 512 Bytes Sektorengröße (logisch/physisch): 512 Bytes / 4096 Bytes I/O Größe (minimal/optimal): 4096 Bytes / 4096 Bytes Medium /dev/md126: 448,1 MiB, 469893120 Bytes, 917760 Sektoren Einheiten: sectors von 1 * 512 = 512 Bytes Sektorengröße (logisch/physisch): 512 Bytes / 4096 Bytes I/O Größe (minimal/optimal): 4096 Bytes / 4096 Bytes Medium /dev/md125: 517,6 MiB, 542769152 Bytes, 1060096 Sektoren Einheiten: sectors von 1 * 512 = 512 Bytes Sektorengröße (logisch/physisch): 512 Bytes / 4096 Bytes I/O Größe (minimal/optimal): 4096 Bytes / 4096 Bytes Medium /dev/md124: 6,9 GiB, 7408779264 Bytes, 14470272 Sektoren Einheiten: sectors von 1 * 512 = 512 Bytes Sektorengröße (logisch/physisch): 512 Bytes / 4096 Bytes I/O Größe (minimal/optimal): 4096 Bytes / 4096 Bytes
Meine Daten scheinen auf md124 zu liegen, beim Versuche diese zu mounten erscheint allerdings folgende Meldung:
Die Festplatte war als einzelnes Volume in der NAS eingerichtet. Installiert war bis zuletzt die aktuellste Firmware.
Hat jemand eine Idee wie ich an die Daten komme?
-
Hallo zusammen,
seit heute habe ich die Linux Station mit Ubuntu 16.04 im Einsatz. Alles klappt soweit gut.
Einzig die VPN Verbindung via ExpressVPN (expressvpn.com) klappt leider nicht.
Der Verbindungsaufbau bricht regelmäßig ab.
Die Netzwerkkonfiguration der NAS habe ich mir angeschaut, konnte aber soweit keinen Fehler erkennen. Könnt ihr mir bei der Fehleranalyse unter die Arme greifen? Ich habe keine Idee wo ich am besten anfange.
Besten Dank vorab!
Nach einigen Recherchen bin ich zu der Erkenntnis gekommen, dass die Linux Station eine IP Adresse innerhalb eines von der Container Station erstellten Netzes erhält. Statt der im Heimnetz verwendet 192.168.xxx.xxx wird eine IP aus dem Bereich 10.0.3.x verwendet. Bei Verwendung von Containern innerhalb der Container Station kann das Problem mit Portweiterleitungen gelöst werden, da die Linux Station allerdings nicht im der Container Station geführt wird lässt sich das Problem aktuell offenbar nicht beheben.
-
Vielen Dank für die Hinweise. Die Möglichkeit des erweiterten Loggings kann ich bei mir allerdings nicht finden. Ich werde lediglich gefragt ob ich die Größe der Log-Datei beschränken möchte. Reicht es diese Option zu deaktivieren um ein detailiertes Logging zu erhalten?
-
Ich habe den Time Out mal von 60 auf 600 Sekunden angehoben und den Job neu gestartet. Mal sehen ob das Abhilfe schafft.
Edit: keine Abhilfe. Allerdings kommt jetzt die Fehlermeldung -110, welche ebenfalls auf einen Time Out hindeutet.
-
Das ist auch meine Vermutung. Könnte es ggf. helfen, die Time-Out Settings anzupassen?
Wobei der Upload der TS-128 ja vernachlässigt werden kann, da sie die Daten ja nur empfängt.
-
Kannst du den Job mal nachts laufen lassen? Wie schnell ist denn das Internet an beiden Orten überhaupt?
Die TS-128 verwendet einen Magenta Zuhause Hybrid Anschluss, 16Mbit im Download, 2.4Mbit im Upload.
Die TS-251+ verwendet einen 150Mbit Kabelanschluss.@RedDiabolo
Wo finde ich denn die Einstellung ob ich den RTRR via FTP oder rync laufen lassen möchte? -
machst du eine One-Way-Sicherung, oder irgendeine Synchronisation?
Es handelt sich um eine One-Way-Sicherung.
@dr_mike
Ahja, den Link hatte ich wohl übersehen . Danke!Ein Update der Apps auf beiden Modellen hat keine Besserung gebracht:
Code[2018/01/30 08:50:43] # ERROR: Unable to create file "Backup/xxx". (-62) [2018/01/30 08:50:47] The synchronization stopped with errors. [2018/01/30 08:50:47] Sync statistic: Total number of the folders: 109. Total number of the files: 3264. Total updated size: 2.30 GB. Average updating speed: 401.06 (KB/sec). Time elapsed: 1 hour 40 minutes 22 seconds [2018/01/30 08:50:57] # ERROR: Connection timed out: Poor network connection or the server connection closed unexpectedly.
Der letzte Meldung deutet darauf hin dass es an der Verbindung liegt. Würde eine VPN Verbindung zwischen beiden Geräten hier evtl. Abhilfe schaffen?
-
Aktuellste HB App installiert, da kam heute ein Update. Auf beiden Seiten aktualisieren.
Probiere ich gleich und stoße den Auftrag erneut an.
Folgendes Thema ist in diesem Forenbereich oben angepinnt.RTRR error Codes
In dem Thema habe ich geschaut. Der Fehlercode 62 wird dort allerdings nicht aufgelistet - oder ich bin blind.