TS-419p+ RAID 5 lässt sich nicht wiederherstellen

  • Guten Tag,


    ich habe ein TS-419p+ mit drei 2,0 TB Segate Platten als RAID5. Für Disk zwei wurde ein Read/Write Error gemeldet. Ich habe einen Block-Scan durchführen lassen, die Platte scheint wieder ok zu sein. Leider schlägt die Wiederherstellung des RAIDs fehl. Kann mir jemand helfen?


    Code
    [/] # fdisk -lDisk /dev/sda: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sda1               1          66      530125   83  Linux/dev/sda2              67         132      530142   83  Linux/dev/sda3             133      243138  1951945693   83  Linux/dev/sda4          243139      243200      498012   83  LinuxDisk /dev/sda4: 469 MB, 469893120 bytes2 heads, 4 sectors/track, 114720 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/sda4 doesn't contain a valid partition tableDisk /dev/sdb: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdb1               1          66      530125   83  Linux/dev/sdb2              67         132      530142   83  Linux/dev/sdb3             133      243138  1951945693   83  Linux/dev/sdb4          243139      243200      498012   83  LinuxDisk /dev/sdc: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdc1               1          66      530125   83  Linux/dev/sdc2              67         132      530142   83  Linux/dev/sdc3             133      243138  1951945693   83  Linux/dev/sdc4          243139      243200      498012   83  LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md9 doesn't contain a valid partition tableDisk /dev/md4: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md4 doesn't contain a valid partition table



    Danke & schöne Grüße
    Finn

  • Hi Finn,


    zwei Fragen die weh tun. Wie viele Platten dürfen bei einem RAID 5 rausfliegen? Hast Du ein Backup?


    Grüsse, David

  • Hallo David,


    ich weiss, dass eine Platte "drauf" gehen darf. Bisher bin ich auch der Meinung, dass es nur eine Platte ist, die nicht richtig funktioniert. Da die Kiste noch relativ neu ist, ist noch nichts drauf, dass ich nicht noch wo anders hätte...
    Vielleicht gibst Du mir ein paar Details zu Deiner Vermutung?


    Danke & Gruss
    Finn

  • So.


    Gerade noch mal drüber geschaut… Sorry. Das 1. mal hatte ich es nur überflogen :oops: :roll:


    Platte 1,2,3 ist noch da. Platte 4 nicht.


    Mal überlegen…
    Hast Du ST2000DL003 Platten verbaut?


    Kannst Du die sdd (4. Platte) mal kurzzeitig wo anders dran halten und nochmal die Partitionsinformationen & superblocks löschen und dann noch einmal resyncen lassen?
    Ich würde das mit einem:

    Code
    dd if=/dev/zero of=/dev/sdd bs=1024k count=1


    tun. (geht ratzfatz)


    Danach wieder in das NAS rein und beobachte mal ob er resynct.
    Bei dem mdstat müsste dann so etwas herauskommen:
    Beim md4:

    Code
    md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0]


    und bei den md13, md9, md0:

    Code
    [4/4] [UUUU]


    Der md0 ist der grösste Verbund. Das wären deine Daten. Warum genau der komplett stopped wurde müssen wa mal versuchen zu ermitteln.
    Die Platten sind in 4 Partitionen aufgeteilt. Es kann sein, das Du auf irgend einer anderen Platte noch auf der Partition BadBlocks hast.


    Sobald Du wieder einen MD0 hast, so würde ich den mal von der Konsole aus via badblocks prüfen lassen. (Das Logfile könntest Du auch "im RAM legen, falls Du das Terminal schliessen möchtest).
    Mal schauen was passiert, wenn der MD0 wieder da ist und ein badblock scan sich durch den kompletten md0 arbeitet.


    Am einfachsten fangen wir aber mal mit dem "löschen" der Partitionsinformationen und 'nen resync an ;)


    Grüsse, David

  • Guten Morgen,


    herzlichen Dank für Deine ausführlich Antwort.


    Bei den Platten liegst Du richtig, es sind drei ST2000DL003 verbaut (Schacht 1, 2, 3).
    Plattenschacht 4 ist leer, eine 4. Platte ist nicht installiert. Daher wird's mit dem löschen etwas schwierig :D


    Hast Du noch andere Ideen?
    Waren die ST2000DL003 keine gute Entscheidung?


    Herzliche Grüße und Danke für Deine Unterstützung
    Finn

  • :mrgreen: Du hast 3 Platten lese ich gerade :D:D
    Also nach dem 4. mal lesen weiss ich jetzt echt bescheid ^^


    Mit der ST2000DL003 gab es hier in Forum die gleichen Probleme.
    http://forum.qnapclub.de/viewt…&hilit=ST2000DL003#p87046


    Woran es genau liegt wollte QNAP ermitteln. Bisher aber nix neues im ENG Forum.
    Ich würde das auf jede fall erst einmal beobachten.


    + Versuche noch mal den MD0 via Badblock scan zu bauen.
    Dann machst DU mal ein

    Code
    cat /proc/mdstat


    und

    Code
    dmesg


    Dann versuche mal den Stand von jetzt hin zu bekommen und wieder die beiden kommandos einzugeben.
    Eventuell sieht man via dmesg was. ;)


    Grüsse, David

  • Hallo David, hallo Kollegen,


    der "Bad Block Scan" hat leider keine Verbesserung gebracht. Das RAID lässt sich nicht reaktivieren.
    Gibt es weitere Idee?
    Ich würde als nächstes Platte 2 formatieren und dann noch mal ein Recover versuchen. Ist das ein guter Plan?


    Ich bin für Hilfe und Ideen dankbar.


    Es grüßt
    Finn

    Code
    [~] # dmesg                                                                                                                    device-mapper: ioctl: 4.16.0-ioctl (2009-11-05) initialised: dm-devel@redhat.comusbcore: registered new interface driver usbhidusbhid: USB HID core driverusbcore: registered new interface driver usblpsysinfo: Module loaded.ufsd: module license 'Commercial product' taints kernel.Disabling lock debugging due to kernel taintufsd: driver U82 (May 20 2011 01:16:45)  LBD=OFF with ioctl loaded at bf18a000NTFS read/write support includedHfs+/HfsX read/write support includedSlow work thread pool: Starting upSlow work thread pool: Readylib80211: common routines for IEEE802.11 driverslib80211_crypt: registered algorithm 'NULL'cfg80211: Calling CRDA to update world regulatory domainEnable WDT...usbcore: registered new interface driver snd-usb-audiousbcore: registered new interface driver snd-usb-caiaqeth0: mac address changedeth0: link downeth0: startedeth1: mac address changedeth1: startedeth0: link up, full duplex, speed 1 Gbpskjournald starting.  Commit interval 5 secondsEXT3-fs (md9): using internal journalEXT3-fs (md9): mounted filesystem with writeback data modemd: bind<sda2>raid1: raid set md4 active with 1 out of 1 mirrorsmd4: detected capacity change from 0 to 542769152 md4: unknown partition tableAdding 530040k swap on /dev/md4.  Priority:-1 extents:1 across:530040k md: bind<sdb2>RAID1 conf printout: --- wd:1 rd:2 disk 0, wo:0, o:1, dev:sda2 disk 1, wo:1, o:1, dev:sdb2md: recovery of RAID array md4md: minimum _guaranteed_  speed: 5000 KB/sec/disk.md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.md: using 128k window, over a total of 530048 blocks.md: bind<sdc2>active port 0 :139active port 1 :445active port 2 :20md: md4: recovery done.RAID1 conf printout: --- wd:2 rd:2 disk 0, wo:0, o:1, dev:sda2 disk 1, wo:0, o:1, dev:sdb2md: md0 stopped.md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...eth1: stoppedeth0: stoppedeth1: startedeth0: link downeth0: startedeth0: link up, full duplex, speed 1 Gbpseth1: stoppedeth1: startedactive port 0 :139active port 1 :445active port 2 :20warning: process `pic_raw' used the deprecated sysctl system call with 8.1.2. Set Adpater:port=1:0 standby to 180 (900 secs). Set Adpater:port=1:1 standby to 180 (900 secs). Set Adpater:port=1:2 standby to 180 (900 secs).rule type=1, num=1eth0: link up, full duplex, speed 1 GbpsWOL disableWOL disableLoading iSCSI transport class v2.0-871.iscsi: registered transport (tcp)md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)nfsd: last server has exited, flushing export cacheactive port 0 :139active port 1 :445active port 2 :20md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)


    Code
    [~] # cat /proc/mdstatPersonalities : [raid1] [raid6] [raid5] [raid4] [linear] [raid0] [raid10] md4 : active raid1 sdc2[2](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdb4[2] sdc4[1]      458880 blocks [4/3] [UUU_]      bitmap: 41/57 pages [164KB], 4KB chunkmd9 : active raid1 sda1[0] sdb1[2] sdc1[1]      530048 blocks [4/3] [UUU_]      bitmap: 65/65 pages [260KB], 4KB chunkunused devices: <none>


  • So, liebe Freundinnen und Freunde,


    das Problem scheint gelöst zu sein, jedenfalls läuft das RECOVER und zugreifen kann ich auch wieder. :thumb:


    Mit mdadm --examine konnte ich rausfinden, dass eine der drei RAID Komponenten einen älteren Zeitstempel hat. Das ist auch die Komponente auf jener Festplatte (sdc), die Husten hatte.


    Code
    [~] # mdadm /dev/sda3 --examine/dev/sda3:          Magic : a92b4efc        Version : 00.90.00           UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca  Creation Time : Sat May 14 13:19:49 2011     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 3903891200 (3723.04 GiB 3997.58 GB)   Raid Devices : 3  Total Devices : 2Preferred Minor : 0    Update Time : Sun Jun 12 14:39:19 2011          State : clean Active Devices : 2Working Devices : 2 Failed Devices : 1  Spare Devices : 0       Checksum : d8843a82 - correct         Events : 0.90432         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     0       8        3        0      active sync   /dev/sda3   0     0       8        3        0      active sync   /dev/sda3   1     1       0        0        1      faulty removed   2     2       8       35        2      active sync   /dev/sdc3[~] # mdadm /dev/sdb3 --examine/dev/sdb3:          Magic : a92b4efc        Version : 00.90.00           UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca  Creation Time : Sat May 14 13:19:49 2011     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 3903891200 (3723.04 GiB 3997.58 GB)   Raid Devices : 3  Total Devices : 3Preferred Minor : 0    Update Time : Sat Jun 11 09:35:00 2011          State : clean Active Devices : 3Working Devices : 3 Failed Devices : 0  Spare Devices : 0       Checksum : d88249f5 - correct         Events : 0.79181         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     1       8       19        1      active sync   /dev/sdb3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3[~] # mdadm /dev/sdc3 --examine/dev/sdc3:          Magic : a92b4efc        Version : 00.90.00           UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca  Creation Time : Sat May 14 13:19:49 2011     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 3903891200 (3723.04 GiB 3997.58 GB)   Raid Devices : 3  Total Devices : 2Preferred Minor : 0    Update Time : Sun Jun 12 14:39:19 2011          State : active Active Devices : 2Working Devices : 2 Failed Devices : 1  Spare Devices : 0       Checksum : d882d966 - correct         Events : 0.90433         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     2       8       35        2      active sync   /dev/sdc3   0     0       8        3        0      active sync   /dev/sda3   1     1       0        0        1      faulty removed   2     2       8       35        2      active sync   /dev/sdc3


    Mit mdadm /dev/sdb3 --zero-superblock habe ich die defekte Komponente gelöscht (Verwaltungsinformationen vom Datenträger entfernt).


    Nach einem Neustart des NAS wird das RAID nun neu gebaut.



    Vielleicht hilft das jemanden in einer ähnlichen Situation.


    Herzliche Grüße
    Finn

  • Brav :D :thumb:
    Das vergleichen wäre der nächste schritt gewesen ;) Supi das Du es selbst gefunden hast. :thumb:


    Grüsse, David

  • Hallo,
    habe das gleiche Problem.
    Kann auch alles Nachvollziehen.


    Bin nun leide kein Linux Speci :(


    Wenn ich den letzten Step durchführe: /dev/sdb3 --zero-superblock
    bekomme ich ein "Permission Deinied"


    Was muß ich da Eingeben um die Rechte zu bekommen?
    Habe schon Gegooogelt, funzt aber alles net.


    Danke und Gruß Barny

  • Hallo,


    ich habe in etwas das selbe Problem mit meiner TS-409 Pro...


    Leider bin ich eine absoluter Linux DAU und kenn mich überhaupt nicht aus.


    Ich habe 4 x 1.5 TB SATA HDDs im RAID 5. - Das Array ist aber inactive...davor wollte ich sichern und konnte von 3,8TB ca. 1,6TB kopieren.
    Nach einem Neustart startet die NAS den Dienst nicht mehr, die Shares sehe ich aber...


    Bitte um Hilfe, ich denke, dass ich mit eurer Hilfe zumindest den Rest meiner Daten kopieren kann.


    Ich starte mit

    Code
    fdisk -l


    Dabei bekomme ich:


    Disk /dev/sda4 doesn't contain a valid partition table


    Disk /dev/md9 doesn't contain a valid partition table


    Disk /dev/md4 doesn't contain a valid partition table


    ...und jetzt komme ich nicht mehr weiter...


    Bitte um Hilfe.


    Danke


    Ciao


    Lukas



    ---Edit---



    Update:


    Ich habe nun folgendes noch gefunden...
    df -k
    mount
    mdadm --detail /dev/md0
    mount /dev/md0 /share/MD0_DATA
    mount: /dev/md0: can't read superblock


    Vielleicht hilft es bei der Fehlerbehebung...


    DANKE

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Doppelte Beiträge vermeinden siehe Forenregeln