TS-509 Raid defekt nach Migration?

  • Hallo an alle die sich die Zeit nehmen dies zu lesen.


    Mein TS-509 hatte bisher 4x 1TB Platten. Nun wollte ich die 5. (identische) Platte migrieren. Die Platten waren in einem Raid 5. Nach etwas mehr als 1,5 Tagen, als ich schlafen ging war die Migration bei ca. 40%. Am nächsten Morgen blinkte die Kontrollampe am NAS nicht mehr rot, sondern grün, und ich kam nicht mehr per Web an das NAS. Der Finder hat ihn gefunden, aber der Zugag blieb aus.


    Irgendwie konnte ich mich dann einloggen und sah das die Festplatten 2-5 vorhanden waren, nur Platte 1 gab es nicht mehr. dann plötzlich wurde auch Platte 1 wieder angezeigt. So ging es immer hin und her.
    In der Raidverwaltung zeigt er mir ein Raid 5 mit allen Platten an, aber kein Dateisystem, und ich kann nur Recover auswählen.


    Natürlich habe ich kein Backup, und leider auch keine Ahnung von Raid und Konsorten. Ich bin ein User, und entsprechend ist mein Wissen.


    Was kann ich tun damit mein NAS wieder funktioniert? Die Platten werden gerade auf schadhafte Blöcke untersucht, aber auch das dauert ewig.


    Ich danke allen für Ratschläge und Tipps! Diese aber bitte für einen Laien verständlich schreiben.


    Vielen Dank!

    Einmal editiert, zuletzt von Wile Beck ()

  • Hi Wile,


    eine RAID Migration kann immer gut oder auch schlecht ausgehen. Was dabei raus kommt kann keiner Sagen. In der Branche IT ist es eher üblich das RAID anstatt es zu migrieren neu aufzusetzen (zumindest für Produktivsysteme).


    Zuerst solltest DU mal via SSH / SCP drausfschauen, ob Du noch vor dem Plattenwechsel (der Defekten) ein Backup machen kannst.
    Dazu gibt es hier ein Screencast:
    http://forum.qnapclub.de/viewtopic.php?f=80&t=8700


    Auf dem NAS schaust Du dir dann mal den Ordner:

    Code
    /share/MD0_DATA


    an. Mit ein bissi glück findest Du darin die Shares und Deine Daten, die Du dann noch mal manuell sichern könntest.


    Falls das nicht der Fall sein sollte, dann einfach die Defekte durch eine neue Ersetzen. Das RAID sollte dann mit einem RESYNC anfangen.


    Wobei es noch nicht mal ein Festplattenfehler sein muss, ich würde nach dem Backup zu einem neuaufsetzen raten.


    Grüsse, David

  • Hallo David,


    vielen Dank für Deine Antwort.
    Per SSH bekomme ich leider die Antwort "-sh: /share/MDO_Data: No such file or directory"
    Das heißt also das nichts mehr dort ist? Schade!
    Dann werde ich mal losgehen und eine neue Platte kaufen, allerdings befürchte ich das dies auch nichts bringt, da ja irgendwo bei 40-50% die Migration durch die defekte Platte abgebrochen sein muss.


    Kann es was bringen, wenn ich versuche die Platte mit TestDisc zu reparieren, oder sollte ich das lieber lassen? Ich hatte davon hier irgendwo gelesen.


    Wile


    EDIT:
    Ich habe nun eine neue Festplatte eingesetzt, leider ohne Erfolg.
    Raid 5 wird noch immer als nicht aktiv deklariert. Beim Neustart hat er "Building System" angezeigt, mehr nicht.


    In der Raidverwaltung bleibt mir immer noch nur die Recover Funktion als Auswahl. Hilfe, was kann ich tun um meine Daten zu retten?


    Wile

    Einmal editiert, zuletzt von Terz () aus folgendem Grund: Doppelte Beiträge vermeiden, siehe Forenregeln!

  • Hi ,


    lasse das NAS ruhig weiter laufen und lasse Dir mal ein:

    Code
    cat /proc/mdstat


    ausgeben.
    Wenn da eine Zeit steht, dann ist er am Resyncen. Das ganze dauert halt schon ein paar Stunden / Tage...


    Grüsse, David

  • Danke für das Editieren David, und sorry für den zweiten Thread. Damit wollte ich nur meine Unwissenheit zum Thema Recover aufbessern.


    Putty sagt mir bei

    Code
    cat /proc/mdstat

    folgendes:



    Das sieht wohl eher nicht nach einem Resync aus, oder?

  • Ohje. Bei Dir fehlt schon der komplette MD0. Das ist wesentlich mehr als Degraded. Deshalb bringt da Plattenwechseln oder so auch nix mehr...


    Ich schreibe Dir mal eine PM ich denke wir sollten uns mal unterhalten bevor wir hier den Result Posten.


    EDIT: Das Ergebnis.
    Joah, bisher das schwierigste RAID Recovery. Die Platten sahen aus wie ein Schweizer käse... Alle schritte werde ich nicht nennen können. Ein Teil der Daten wurde gesichert. Der Rest war leider nicht mehr zu retten. :(


    Grüsse, David

  • Hallo David,


    welche Schritte, wären denn empfehlenswert vor dem "Herumspielen" am RAID? Reicht es den smart-Status der bereits verbauten Platten zu überprüfen und die neue Platte an einem PC mit Adapter zu checken? Was könnte den hier der Fehler gewesen sein?


    Gruß
    Andreas

  • Hi,


    vor dem Herumspielen am RAID? :D Besser eigentlich sein lassen.... Also das herumspielen ;)
    Joah, und halt vorher ein Backup haben. :|


    In diesem Fall hier hatten sich während / bei einer migration 2 Platten verabschiedet. Die migration war aber noch nicht vollständig zu ende. Die Platte sda (1. HDD) hatte auch zig fehlerhafte Blocks, die sich dann über den kompletten Verbund erstrekte. War ein "gefrickel" um überhaupt den Verbund noch einmal aktiv zu bekommen.
    Sobald eine Platte degraded ist, hat se ja was. ;) Da kannst Du einen SMART versuchen oder badblocks durchlaufen lassen.


    Durch die defekten Blöcke war es nur möglich ein Verzeichnis zu sichern. Ich glaube das waren aber auch 250 GB? Bin mir da nicht sicher.
    Diese müssten dann halt noch einmal kontrolliert werden.
    Sicherlich geht da noch mehr, wenn man die Platten zu einem Professionellen Datenrettungslabor sendet - jedoch halt nicht wirklich bezahlbar.


    Grüsse, David

  • Hallo David,


    was habt ihr den noch für Schritte gemacht um den Verbund wieder zu aktivieren?
    Wenn ich "cat /proc/mdstat" aufrufe siehts bei mir fast identisch aus wie bei Wile Beck.



    Wollte mein NAS TS-439 vergrößern. Hab dazu mein NAS ausgemacht und eine Platte gegen eine größere ausgetauscht. Das NAS hatte gerade angefangen die platte zu resync als ich irgendwie an ein Kabel gekommen sein muss. Jedenfalls war auf einmal der Strom weg und beim neubooten will das NAS jetzt eine neuen Konfiguration haben. Hab jetzt die "alte" Festplatte wieder eingestckt aber das brachte auch nix.


    Hab jetzt einige Threads hier durchgelsen, haubsächlich deine Kommentare die ja sehr oft zum erfolgreichen Ende geführt haben. Für jeden Hinweis bin ich dankbar.


    Die WebGUI geht nicht.
    Mit Putty komme ich aber noch auf das NAS drauf.


    Gruß Pete

  • Hi Pete,


    beim Wile war es noch ein bissl was anderes.
    Es kommt drauf an, was genau mit dem RAID ist. Ab und zu ist es nur was kleines, kann aber auch was grösseres sein. Eine Anleitung / eher eine übersicht was man alles machen könnte verfasse ich irgendwann mal.... Und poste es in den HowTo's.


    Probiere mal ob Du via:

    Code
    mdadm --assemble --scan --verbose


    noch mal an den MD0 heran kommst -
    solltest Du danach via

    Code
    cat /proc/mdstat


    wieder "sehen" können.


    Dann versuche es mal zu mounten.


    Grüsse, David

  • Die befehle hatte ich schon mal ausgeführt. Habs jetzt noch mal gemacht:


    Code
    [~] # mdadm --assemble --scan --verbose...mdadm: /dev/sdx is not one of /dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3mdadm: /dev/sdd3 is identified as a member of /dev/md0, slot 3.mdadm: /dev/sdc3 is identified as a member of /dev/md0, slot 2.mdadm: /dev/sdb3 is identified as a member of /dev/md0, slot 1.mdadm: /dev/sda3 is identified as a member of /dev/md0, slot 0.mdadm: added /dev/sdb3 to /dev/md0 as 1mdadm: added /dev/sdc3 to /dev/md0 as 2mdadm: failed to add /dev/sdd3 to /dev/md0: Invalid argumentmdadm: added /dev/sda3 to /dev/md0 as 0mdadm: /dev/md0 assembled from 2 drives - not enough to start the array.


    :( da hätte ich zumindest 3 von 4 Laufwerke erwartet.


    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : inactive sda3[0](S) sdc3[2](S) sdb3[1](S)      2193016704 blocksmd4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [4/4] [UUUU]      bitmap: 1/57 pages [4KB], 4KB chunkmd9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]      530048 blocks [4/4] [UUUU]      bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>


    so mein MD0 hab ich jetzt, ist aber inactiv.



    werde jetzt mal schauen was der Superblock ist und wie ich den wieder hinbekomme.


    Gruß Pete

  • Du kannst den MD0 nicht mounten wenn er inaktiv ist.


    Ich würde versuchen den RAID zu reassembeln.
    zuerst einmal versuchen die sdd3 hinzuzufügen.

    Code
    mdadm /dev/md0 --add /dev/sdd3


    oder direkt reassembeln:

    Code
    mdadm /dev/md0 --remove /dev/sd[abcd]3


    Code
    mdadm /dev/md0 --add /dev/sd[abcd]3


    Alle alternativen kann ich so nicht wirklich durchgehen (via Forum), da man bei einem Recovery lieber selbst davor sitzt.... Aus der Ferne immer schwer / fast unmöglich zu sagen. Meistens gehen noch ein paar Sachen mehr.


    Grüsse, David

  • so hab das direkt mal probiert. leider ohne erfolg:

    Code
    [~] # mdadm /dev/md0 --add /dev/sdd3mdadm: cannot get array info for /dev/md0


    werde jetzt mal weiter googlen um mich etwas schlauer zu machen.


    hier schon mal weitere infos:

    Code
    [~] # cat /etc/mdadm.confARRAY /dev/md0 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3


    hier hätte ich etwas mehr erwartet. Eine Zeile mit DEVICE infos und ein bei ARRAY das Attribut UUID.


    Code
    [~] # mdadm --misc --examine /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 00.90.00           UUID : bf2e16d1:6fe12520:32a669b4:dff21915  Creation Time : Sun Nov 15 00:25:52 2009     Raid Level : raid5  Used Dev Size : 731005568 (697.14 GiB 748.55 GB)     Array Size : 2193016704 (2091.42 GiB 2245.65 GB)   Raid Devices : 4  Total Devices : 3Preferred Minor : 9    Update Time : Sun Sep 12 14:07:25 2010          State : clean Active Devices : 3Working Devices : 3 Failed Devices : 1  Spare Devices : 0       Checksum : adf2a22c - correct         Events : 0.10490         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     0       8        3        0      active sync   /dev/sda3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       0        0        3      faulty removed


    mdadm --misc --examine /dev/sd[abc]3 unterscheiden sich nur in den checksummen und in der this Zeile


    Code
    this     0       8        3        0      active sync   /dev/sda3this     1       8       19        1      active sync   /dev/sdb3this     2       8       35        2      active sync   /dev/sdc3


    das ist die Platte die ich getauscht hatte gegen die neue größere.

    Code
    [~] # mdadm --misc --examine /dev/sdd3/dev/sdd3:          Magic : a92b4efc        Version : 00.90.00           UUID : bf2e16d1:6fe12520:32a669b4:dff21915  Creation Time : Sun Nov 15 00:25:52 2009     Raid Level : raid5  Used Dev Size : 731005568 (697.14 GiB 748.55 GB)     Array Size : 2193016704 (2091.42 GiB 2245.65 GB)   Raid Devices : 4  Total Devices : 4Preferred Minor : 0    Update Time : Sat Sep 11 13:11:37 2010          State : clean Active Devices : 4Working Devices : 4 Failed Devices : 0  Spare Devices : 0       Checksum : adf1431f - correct         Events : 0.10378         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     3       8       51        3      active sync   /dev/sdd3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3   3     3       8       51        3      active sync   /dev/sdd3


    Code
    [~] # mdadm -EsARRAY /dev/md9 level=raid1 num-devices=4 UUID=02efea4d:43a14528:a93875cb:5c3b9ff9ARRAY /dev/md4 level=raid1 num-devices=2 UUID=300130cb:01e2e22e:5ad39d35:27639990   spares=2ARRAY /dev/md0 level=raid5 num-devices=4 UUID=bf2e16d1:6fe12520:32a669b4:dff21915ARRAY /dev/md13 level=raid1 num-devices=4 UUID=f469d5cc:d629b6be:92581e7d:ed4a75a3



    werde jetzt nebenher mal images der platten erstelle damit ich ggf noch mal alles probieren kann wenns schief läuft.


    Gruß Pete

  • Hab das Raid5 wieder zum laufen gebraucht.


    hab die 4te Platte weggelassen und siehe da es startet mit 3 Platten.

    Code
    [~] # mdadm --assemble --force -v /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3mdadm: looking for devices for /dev/md0mdadm: /dev/sda3 is identified as a member of /dev/md0, slot 0.mdadm: /dev/sdb3 is identified as a member of /dev/md0, slot 1.mdadm: /dev/sdc3 is identified as a member of /dev/md0, slot 2.mdadm: added /dev/sdb3 to /dev/md0 as 1mdadm: added /dev/sdc3 to /dev/md0 as 2mdadm: no uptodate device for slot 3 of /dev/md0mdadm: added /dev/sda3 to /dev/md0 as 0mdadm: /dev/md0 has been started with 3 drives (out of 4).


    jetzt nur noch mounten

    Code
    [~] # mount -t ext4 /dev/md0 /share/MD0_DATA/


    alles wieder da. jetzt erst mal nen backup ziehen und das raid neu machen.