Kritischer RAID Bug in 4.0.1 !?!?

  • Hi@ all,


    wir haben seit zwei Wochen auf allen QNAPs von uns (459, 659, 869) die 4.0.1.
    Beim 869 ist das Raid6 im AA seit letzer Woche, siehe Thread "Raid inactiv..." weiter unten hier.


    Nun ist uns via SSH folgendes aufgefallen:



    beim 869:

    Code
    [~] # mdadm -E /dev/sda3/dev/sda3:Magic : a92b4efcVersion : 1.0Feature Map : 0x0Array UUID : 11e923c4:1e61961c:d868c959:229253c6Name : 0Creation Time : Thu Jul 25 16:04:43 2013Raid Level : raid6Raid Devices : 8Used Dev Size : 7810899112 (3724.53 GiB 3999.18 GB)Array Size : 46865394432 (22347.16 GiB 23995.08 GB)Used Size : 7810899072 (3724.53 GiB 3999.18 GB)Super Offset : 7810899368 sectorsState : activeDevice UUID : e1856e9e:9226fe37:1b3fa2b7:40cef4f2Update Time : Thu Jul 25 16:28:08 2013Checksum : 42ef4cd5 - correctEvents : 3Chunk Size : 64KArray Slot : 0 (0, 1, 2, 3, 4, 5, 6, 7, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed, failed)Array State : Uuuuuuuu 376 failed[~] #


    Das selbe beim 459:


    (Das 659 überprüfe ich heute abend, da nicht in unserem Standort.)


    Leider kann ich nicht sagen ob das auch bei 3.8.3 so war.


    Wie sieht es bei euch mit 4.0.1 aus? (Einfach "mdadm -E /dev/sda3" via SSH absetzen)

    2 Mal editiert, zuletzt von martix ()

  • Im 469: Seagate ST3000DM001 (3TB - 4x)
    Im 659: Seagate ST33000651AS (3TB - 6x)
    Im 869: Hitachi HDS724040ALE640 (4TB - 8x)

  • Das ist kein Fehler.

    Code
    Array Slot : 0 (0, 1, 2, 3, 4, 5, 6, 7, failed ...... failed, failed, failed)Array State : Uuuuuuuu 376 failed


    Besagt nur, dass beim Test auf 384 mögliche Array Slots die ersten 8 gefunden wurden und bei den restlichen 376 der Test fehlschlug. Das ist ja auch logisch, da du keine 384 Platten im RAID hast.
    Um etwas über den RAID-Status zu erfahren sind folgende Kommandos besser geeignet

    Code
    mdadm -D /dev/md0.....XX
    cat /proc/mdstat
  • Ok, ergibt sinn, auch beim dritten NAS wird das so angezeigt.


    Aber warum taucht das bei anderen nicht so auf, die den befehl abstetzen.
    z.B. hier:
    Extern verlinktes Bild entfernt! Der Grund!

    Einmal editiert, zuletzt von GorillaBD () aus folgendem Grund: Extern verlinktes Bild entfernt, mehr dazu siehe Forenregeln!

  • Zitat von "martix"

    Aber warum taucht das bei anderen nicht so auf, die den befehl abstetzen.


    Ich vermute mal, weil du nicht das mdadm von QNAP verwendest sondern ein eigenes per Optware installiert hast?

    Zitat von "martix"
    Code
    [~] # mdadm -E /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 1.0  <------------------------...............


    sieht bei mir so aus

    Code
    [~] # mdadm -E /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 00.90.00................


    Code
    [~] # which mdadm
    /sbin/mdadm
    [~] # mdadm -V
    mdadm - v2.6.3 - 20th August 2007
    [~] #