RAID5 mit 3 Platten Inaktiv

  • Liebe Forum-Mitglieder,


    Nach einem Problem habe ich versucht einen Rebuild zu machen, welches dummerweise bei mir mit folgendem Fehler, RAID Inaktiv, endete.


    Ich habe im versch. Forum nachgelesen und konnte infos via putty rauskopieren.
    Bitte kann mir jemand helfen das Problem zu beseitigen.


    Anbei meine
    NAS Model: QNAP TS-431 Firmware: 4.1.4 (2015/08/04)
    Ich habe hier 4x4TB Western Digital WD400EFRX-68WT0N0
    Raid5 3+1 GlobalSpare
    Auf der Platte waren nur noch mehr ca. 400GB frei.


    Vielen Dank im Vorraus.



  • Dann hast du dir wohl mit deiner Aktion das RAID zerschossen.
    Laut deinen obigen Angaben hat dein RAID 3 Member aber 4 aktive Platten. Wobei die Rollen so verteilt sind:


    Platte 1 - Active device 0
    Platte 2 - Active device 2 (aktuell)
    Platte 3 - Active device 2 (veraltet)
    Platte 4 - Active device 1


    Aus den Platten 1, 2 und 4 sollte also das RAID md1 zusammengesetzt worden sein. cat /proc/mdstat
    Was dann der Volumemanager, der darauf aufbaut, macht, ist nochmal eine ganz andere Sache.

  • Gibt es eine Möglichkeit diesen wiederherzustellen oder die Daten zu beschaffen?


    Vor dem Problem war die Platte 1 und 4 aktiv


    Die Platte 2 war vorher als Gloabl Spare.


    Ich weiss nicht ob dies jetzt somit hinfällig wäre. ;(

  • Du meinst diesen Befehl?

    cat /proc/mdstat


    Ich habe diesen jetzt ausgeführt, jedoch ohne die 3. Platte.

  • Was sagt dmesg?

  • Ich weiß zwar nicht ob du dies gemeint hast. Hoffe war das was du verlangt hast.
    Aber dennoch keine Berechtigung für diesen Befehl.


    Code
    [~] # /etc/logs/kmsg
    -sh: /etc/logs/kmsg: Permission denied
    [~] #
  • Code
    <6>[   47.305975] md: md1 stopped.<6>[   47.319539] md: bind<sdb3><6>[   47.322607] md: bind<sda3><6>[   47.325409] md: md1 stopped.<6>[   47.328307] md: unbind<sda3><6>[   47.371937] md: export_rdev(sda3)<6>[   47.375280] md: unbind<sdb3><6>[   47.411932] md: export_rdev(sdb3)<6>[   47.446093] md: md1 stopped.<6>[   47.459535] md: bind<sdb3><6>[   47.462634] md: bind<sda3><6>[   47.468334] md/raid:md1: device sda3 operational as raid disk 0<6>[   47.477191] md/raid:md1: allocated 12712kB<3>[   47.481365] md/raid:md1: not enough operational devices (2/3 failed)<7>[   47.487789] RAID conf printout:<7>[   47.487796]  --- level:5 rd:3 wd:1<7>[   47.487803]  disk 0, o:1, dev:sda3<7>[   47.487808]  disk 2, o:1, dev:sdb3<1>[   47.490602] md/raid:md1: failed to run raid set.<3>[   47.495265] md: pers->run() failed ...<6>[   47.499125] md: md1 stopped.<6>[   47.502042] md: unbind<sda3><6>[   47.531966] md: export_rdev(sda3)<6>[   47.535317] md: unbind<sdb3><6>[   47.591950] md: export_rdev(sdb3)

    Sieht so aus, als ob 2 von 3 Platten Probleme haben, wobei eine davon gar nicht erkannt wird.


    Versuche mal folgendes

    Code
    mdadm -AfR /dev/md1 /dev/sd[abd]3
    cat /proc/mdstat
  • Ich habe folgendes erhalten:

    Code
    [~] # mdadm -AfR /dev/md1 /dev/sd[abd]3mdadm: /dev/sda3 is busy - skippingmdadm: /dev/sdb3 is busy - skipping[~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi                                                                                                                                                             path]md0 : active raid5 sda3[0] sdb3[4] sdc3[3]      7794127232 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/2] [UU_]      [==>..................]  recovery = 10.4% (408195456/3897063616) finish=87                                                                                                                                                             0.9min speed=66760K/secmd256 : active raid1 sdc2[2](S) sdb2[1] sda2[0]      530112 blocks super 1.0 [2/2] [UU]      bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdc4[3] sdb4[24]      458880 blocks super 1.0 [24/3] [UU_U____________________]      bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sda1[0] sdc1[3] sdb1[24]      530048 blocks super 1.0 [24/3] [UU_U____________________]      bitmap: 1/1 pages [4KB], 65536KB chunkunused devices: <none>
    Code
    md0 : active raid5 sda3[0] sdb3[4] sdc3[3]
    7794127232 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/2] [UU_]
    [==>..................] recovery = 10.4% (408195456/3897063616) finish=87 0.9min speed=66760K/sec


    Das ist eigenartig hier wird ein Recovery durchgeführt: