Problem beim Raid TS-859U+ Raid unmounted

  • Hallo zusammen,
    ich habe ein Problem mit meiner QNAP TS-859U+ (FW: 3.4.1 Build 0315T).
    In der Nacht hat das System versucht die Spare Drive zu beschreiben, was wohl angeblich nicht funktionierte?!
    Nun ist das Raid in dem Zustand "unmounted".


    Kann mir jemand sagen was nun zu tun ist?
    Die HDD 8 ist de SpareDrive.
    Technisch ist auf allen HDDs ein Raid 5 mit einer SpareDrive konfiguriert.


    Anbei das Log:


    System, Log:

    Code
    2016-01-04	05:01:21	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Rebuilding skipped.	2016-01-04	05:01:18	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Start rebuilding.	2016-01-04	05:01:14	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Rebuilding skipped.	2016-01-04	05:00:55	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Mount the file system read-only failure.	2016-01-04	04:59:40	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Error occurred while accessing the devices of the volume in degraded mode.	2016-01-04	04:16:09	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Error occurred while accessing Drive 8.	2016-01-04	03:01:07	System	127.0.0.1	localhost	[RAID5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk: 8] Start rebuilding.


    Im Raid Management steht nun folgendes:

    Code
    RAID 5 Disk Volume: Drive 1 2 3 4 5 6 7 Hot Spare Disk 8  -- 	No	Unmounted	No operation can be executed for this drive configuration.



    Kann mir jemand hier unterstützen.


    Danke und Gruß
    Andreas

    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Code Blocks hinzugefügt, siehe Forenregeln!

  • Welcher Festplattentyp?
    FW: 3.4.1 Build 0315T ist jetzt knapp 5 Jahre alt, enthält massenweise Sicherheitslücken und Beschränkungen, was die Platten betrifft. Ich empfehle ein Update auf wenigstens eine letzte Stable 3.8.x wenn das NAS wieder läuft.
    Poste bitte die Ausgaben von

    Code
    dmesg
    cat /proc/mdstat
    mdadm -D /dev/md0
  • Hab die Befehle einzelnt abgesetzt.
    Das FW Update mache ich natürlich auch sobald das System wieder rennt :)


    [~] # dmesg


    Code
    [4296450.057289] ata6.00: failed command: READ FPDMA QUEUED[4296450.057364] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296450.057367]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296450.057604] ata6.00: status: { DRDY ERR }[4296450.057667] ata6.00: error: { UNC }[4296450.065487] ata6.00: configured for UDMA/133[4296450.065570] ata6: EH complete[4296451.857151] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296451.857230] ata6.00: irq_stat 0x40000008[4296451.857295] ata6.00: failed command: READ FPDMA QUEUED[4296451.857369] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296451.857371]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296451.857608] ata6.00: status: { DRDY ERR }[4296451.857672] ata6.00: error: { UNC }[4296451.865288] ata6.00: configured for UDMA/133[4296451.865368] sd 5:0:0:0: [sdh] Unhandled sense code[4296451.865435] sd 5:0:0:0: [sdh] Result: hostbyte=DID_OK driverbyte=DRIVER_SEN                                                            SE[4296451.865556] sd 5:0:0:0: [sdh] Sense Key : Medium Error [current] [descripto                                                            r][4296451.865682] Descriptor sense data with sense descriptors (in hex):[4296451.865754]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00[4296451.865855]         21 4d 93 af[4296451.865923] sd 5:0:0:0: [sdh] Add. Sense: Unrecovered read error - auto rea                                                            llocate failed[4296451.866086] sd 5:0:0:0: [sdh] CDB: Read(10): 28 00 21 4d 93 a8 00 00 10 00[4296451.866188] end_request: I/O error, dev sdh, sector 558732207[4296451.866262] raid5:md0: read error not correctable (sector 556611616 on sdh3                                                            ).[4296451.866381] raid5: some error occurred in a active device:5 of md0.[4296451.866487] raid5:md0: read error not correctable (sector 556611624 on sdh3                                                            ).[4296451.866618] raid5: some error occurred in a active device:5 of md0.[4296451.866729] ata6: EH complete[4296453.665476] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296453.665555] ata6.00: irq_stat 0x40000008[4296453.665621] ata6.00: failed command: READ FPDMA QUEUED[4296453.665695] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296453.665698]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296453.665936] ata6.00: status: { DRDY ERR }[4296453.665999] ata6.00: error: { UNC }[4296453.674100] ata6.00: configured for UDMA/133[4296453.674196] ata6: EH complete[4296455.473838] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296455.473918] ata6.00: irq_stat 0x40000008[4296455.473982] ata6.00: failed command: READ FPDMA QUEUED[4296455.474057] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296455.474060]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296455.474311] ata6.00: status: { DRDY ERR }[4296455.474374] ata6.00: error: { UNC }[4296455.481912] ata6.00: configured for UDMA/133[4296455.481994] ata6: EH complete[4296457.307151] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296457.307230] ata6.00: irq_stat 0x40000008[4296457.307295] ata6.00: failed command: READ FPDMA QUEUED[4296457.307370] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296457.307373]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296457.307609] ata6.00: status: { DRDY ERR }[4296457.307672] ata6.00: error: { UNC }[4296457.315747] ata6.00: configured for UDMA/133[4296457.315823] ata6: EH complete[4296459.140514] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296459.140593] ata6.00: irq_stat 0x40000008[4296459.140658] ata6.00: failed command: READ FPDMA QUEUED[4296459.140733] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296459.140735]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296459.140973] ata6.00: status: { DRDY ERR }[4296459.141052] ata6.00: error: { UNC }[4296459.148588] ata6.00: configured for UDMA/133[4296459.148676] ata6: EH complete[4296460.948825] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296460.948904] ata6.00: irq_stat 0x40000008[4296460.948970] ata6.00: failed command: READ FPDMA QUEUED[4296460.949044] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296460.949047]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296460.949306] ata6.00: status: { DRDY ERR }[4296460.949371] ata6.00: error: { UNC }[4296460.957394] ata6.00: configured for UDMA/133[4296460.958280] ata6: EH complete[4296463.065504] ata6.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0[4296463.065583] ata6.00: irq_stat 0x40000008[4296463.065648] ata6.00: failed command: READ FPDMA QUEUED[4296463.065723] ata6.00: cmd 60/10:00:a8:93:4d/00:00:21:00:00/40 tag 0 ncq 8192                                                             in[4296463.065726]          res 41/40:00:af:93:4d/e0:00:21:00:00/40 Emask 0x409 (m                                                            edia error) <F>[4296463.065962] ata6.00: status: { DRDY ERR }[4296463.066054] ata6.00: error: { UNC }[4296463.092090] ata6.00: configured for UDMA/133[4296463.092171] sd 5:0:0:0: [sdh] Unhandled sense code[4296463.092237] sd 5:0:0:0: [sdh] Result: hostbyte=DID_OK driverbyte=DRIVER_SEN                                                            SE[4296463.092359] sd 5:0:0:0: [sdh] Sense Key : Medium Error [current] [descripto                                                            r][4296463.092485] Descriptor sense data with sense descriptors (in hex):[4296463.092556]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00[4296463.092657]         21 4d 93 af[4296463.092726] sd 5:0:0:0: [sdh] Add. Sense: Unrecovered read error - auto rea                                                            llocate failed[4296463.092854] sd 5:0:0:0: [sdh] CDB: Read(10): 28 00 21 4d 93 a8 00 00 10 00[4296463.092952] end_request: I/O error, dev sdh, sector 558732207[4296463.093050] raid5:md0: read error not correctable (sector 556611616 on sdh3                                                            ).[4296463.093174] raid5: some error occurred in a active device:5 of md0.[4296463.093283] raid5:md0: read error not correctable (sector 556611624 on sdh3                                                            ).[4296463.093415] raid5: some error occurred in a active device:5 of md0.[4296463.093524] ata6: EH complete[4296463.971236] md: recovery skipped: md0[4296464.068360] RAID5 conf printout:[4296464.068438]  --- rd:7 wd:6[4296464.068515]  disk 0, o:1, dev:sda3[4296464.068593]  disk 1, o:1, dev:sdb3[4296464.068668]  disk 2, o:1, dev:sdf3[4296464.068750]  disk 3, o:1, dev:sdd3[4296464.068893]  disk 4, o:1, dev:sde3[4296464.068956]  disk 5, o:1, dev:sdh3[4296464.069066]  disk 6, o:1, dev:sdg3[4296464.069147] RAID5 conf printout:[4296464.069208]  --- rd:7 wd:6[4296464.069267]  disk 0, o:1, dev:sda3[4296464.069328]  disk 1, o:1, dev:sdb3[4296464.069394]  disk 2, o:1, dev:sdf3[4296464.069456]  disk 3, o:1, dev:sdd3[4296464.069527]  disk 4, o:1, dev:sde3[4296464.069600]  disk 5, o:1, dev:sdh3[4296464.069672]  disk 6, o:1, dev:sdg3[4296464.069838] md: recovery of RAID array md0[4296464.069909] md: minimum _guaranteed_  speed: 5000 KB/sec/disk.[4296464.069979] md: using maximum available idle IO bandwidth (but not more tha                                                            n 200000 KB/sec) for recovery.[4296464.070110] md: Recovering started: md0[4296464.070194] md: using 128k window, over a total of 1951945600 blocks.[4296464.070267] md: resuming recovery of md0 from checkpoint.[4296525.038735] nfsd: last server has exited, flushing export cache[4296540.342038] md: md_do_sync() got signal ... exiting[4296540.342125] md: recovery skipped: md0[4296540.366484] md: md0 switched to read-only mode.[4296540.379172] EXT3-fs (md0): error: couldn't mount because of unsupported opt                                                            ional features (240)[4296544.131319] active port 0 :139[4296544.131389] active port 1 :445[4296544.131448] active port 2 :20[4296552.244916] NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery                                                             directory[4296552.245081] NFSD: starting 90-second grace period



    cat /proc/mdstat


    Code
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active (read-only) raid5 sda3[0] sdf3[7] sdg3[6] sdh3[5] sde3[4] sdd3[3] sdc3[8](F) sdb3[1]      11711673600 blocks level 5, 64k chunk, algorithm 2 [7/6] [UU_UUUU]md8 : active raid1 sdh2[2](S) sdg2[3](S) sdf2[4](S) sde2[5](S) sdd2[6](S) sdc2[7](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sdf4[8](F) sda4[0] sdh4[7] sdg4[6] sde4[4] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [8/7] [UUUUU_UU]      bitmap: 17/57 pages [68KB], 4KB chunkmd9 : active raid1 sdf1[8](F) sda1[0] sdh1[7] sdg1[6] sde1[5] sdd1[3] sdc1[2] sdb1[1]      530048 blocks [8/7] [UUUU_UUU]      bitmap: 38/65 pages [152KB], 4KB chunk


    mdadm -D /dev/md0


    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Code Blocks hinzugefügt, siehe Forenregeln!

  • Den Plattentyp hast du noch verschwiegen.


    Insgesamt sieht das erstmal nicht gut aus. Die Platte sdh meldet Medienerror ist aber noch im RAID md0. Platte sdf ist aus den System-RAID's schon rausgefallen, soll aber als Spare in md0 eingebunden werden. Platte sdc ist in md0 als faulty rausgefallen. Zusätzlich scheint das Filesystem schaden genommen zu haben.


    Ich hoffe du hast ein Backup.

  • Hallo,
    entsculdigt für die später Rückmeldung.


    Es sind "WDC WD2003FYYS-02W0B01.0" (Western Digital) Platten.


    Würde das nicht bedeuten, wenn ich in Slot 8 eine neue HDD einsetze und das Raid wieder mounte, das er dann wieder enen Rebuild starten wird.
    Es ist docvh im Raid 5 Versbund nur eine HDD ausgefallen???


    Kann ja nicht sein, das einfach bei einem Fehler Kopier auf einer Spare Drive das gnze Raid hinüber ist.
    Ein Backup bei der Datengröße, natürlich nicht. :)

  • Zitat von "av800"

    Würde das nicht bedeuten, wenn ich in Slot 8 eine neue HDD einsetze

    Nein, diese Platte ist ja schon ordnungsgemäß im RAID eingebunden.

    Zitat von "av800"

    Ein Backup bei der Datengröße, natürlich nicht. :)

    Das ist ne Ausrede. Die wichtigen Daten passen immer auf ne externe Platte.