Qnap859URP+ Raid zum zweiten Mal defekt

  • Hallo,


    ich bin angepisst,
    Das Raid in meiner Qnap ist am Wochenende wieder zusammengebrochen.
    Aktuell sehe ich


    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sda3[0] sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]      20500882752 blocks super 1.0 level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]      [===>.................]  resync = 17.2% (506312308/2928697536) finish=936.2min speed=43119K/secmd8 : active raid1 sdh2[2](S) sdg2[3](S) sdf2[4](S) sde2[5](S) sdd2[6](S) sdc2[7](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdh4[7] sdg4[6] sdf4[5] sde4[4] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [8/8] [UUUUUUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]      530048 blocks [8/8] [UUUUUUUU]      bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>


    und beim Versuch
    mount /dev/md0 /share/MD0_DATA/
    in dmesg


    Hat jemand Tips ausser die Qnap in die Tonne zu treten?


    Gruss

    2 Mal editiert, zuletzt von rprengel ()

  • Zitat von "rprengel"

    20500882752 blocks super 1.0 level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]
    [===>.................] resync = 17.2% (506312308/2928697536) finish=936.2min speed=43119K/sec


    Lass es doch erstmal fertig resyncen, dann kannst du weiter schauen.

  • yeap
    aber was zum Henker passiert da.
    Das Gerät ist mir im schon einmal auseinandergeflogen.
    Im Moment stehe ich ohne Backup diverser virtueller Systeme da.


    Gruß

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Volltextzitat entfernt! - siehe Forenregeln!

  • Evtl steht was im Log welche Platte Schwierigkeiten macht... Im Falle eines Wackelkontaktes findet er diese wieder und synct neu...

  • Zitat von "HelmutF"

    Was sind eigentlich für Platten verbaut? Sind diese für RAID-Systeme geeignet?


    Verbaut sind Seagate ST3000VX000-9YW1CV13.
    http://www.qnap.com/de/index.php?sn=4098&lang=de
    Sind in der Kompatibilitätsliste aufgeführt.


    Gruss



    ---Edit---



    Zitat von "NewQNASFan"

    Evtl steht was im Log welche Platte Schwierigkeiten macht... Im Falle eines Wackelkontaktes findet er diese wieder und synct neu...


    Es macht keine einzelne Platte Probleme. Es sieht alles gut aus.


    Gruss


    ---Edit---



    Tja
    leider eine Niete.
    Nach Durclauf und reboot kein /dev/md0 gemounted


    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sda3[0] sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]      20500882752 blocks super 1.0 level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]md8 : active raid1 sdh2[2](S) sdg2[3](S) sdf2[4](S) sde2[5](S) sdd2[6](S) sdc2[7](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdh4[7] sdg4[6] sdf4[5] sde4[4] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [8/8] [UUUUUUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]      530048 blocks [8/8] [UUUUUUUU]      bitmap: 1/65 pages [4KB], 4KB chunkunused devices: <none>[~] #[~] # mdadm --detail /dev/md0/dev/md0:        Version : 01.00.03  Creation Time : Mon Nov 19 09:39:17 2012     Raid Level : raid5     Array Size : 20500882752 (19551.17 GiB 20992.90 GB)  Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)   Raid Devices : 8  Total Devices : 8Preferred Minor : 0    Persistence : Superblock is persistent    Update Time : Tue Feb 12 07:01:01 2013          State : clean Active Devices : 8Working Devices : 8 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 64K           Name : 0           UUID : 1184de45:f1b3f847:258db06d:b58c2eeb         Events : 1261667    Number   Major   Minor   RaidDevice State       0       8        3        0      active sync   /dev/sda3       1       8       19        1      active sync   /dev/sdb3       2       8       35        2      active sync   /dev/sdc3       3       8       51        3      active sync   /dev/sdd3       4       8       67        4      active sync   /dev/sde3       5       8       83        5      active sync   /dev/sdf3       6       8       99        6      active sync   /dev/sdg3       7       8      115        7      active sync   /dev/sdh3[~] #[~] # mount /dev/md0 /share/MD0_DATA/[  779.947410] EXT3-fs (md0): error: couldn't mount because of unsupported optional features (2c0)[~] #


    Tips?


    Gruss


    Edit:



    per Hand noch mal komplett ausgeführt hat das device wieder in den Zugriff gebracht.
    Neustart der Qnap zeigt das die Reperatur bootfest ist.
    Was zum Henker kann da passiert sein.
    Hat Qnap versteckte Probleme mit devices grösser z.B. 16 TB oder was auch immer?
    Gruss

    2 Mal editiert, zuletzt von bladekiller () aus folgendem Grund: Doppelte Beiträge vermeiden - Siehe Forenregeln - Code Block hinzugefügt, siehe Forenregeln! - Volltextzitat entfernt! - siehe Forenregeln!

  • Leider nein.
    Btw:
    hast du eine Info ob man Partitionen auf Qnaps verkleinern kann?


    Gruss

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Volltextzitat entfernt! - siehe Forenregeln!

  • Zitat von "rprengel"

    Neustart der Qnap zeigt das die Reperatur bootfest ist.
    Was zum Henker kann da passiert sein.


    Bei deinem ersten mount - Versuch fehlte nur der Parameter -t ext4
    Warum ein RAID fehlerhaft sein kann und sich selbst rebuildet kannst du hier im Forum über die Suche rausfinden.


    Zitat von "rprengel"

    Hat Qnap versteckte Probleme mit devices grösser z.B. 16 TB oder was auch immer?


    Nein, es gibt ein allgemeines Problem mit Volumes grösser 16TB unter Linux. Das steht auch explizit in den Anleitungen und in der Kompatibilitätsliste.

  • Hallo,
    meinst du das?
    xxx
    Ein Laufwerk kann durch Online-RAID-Kapazitätserweiterung oder das Hinzufügen von Festplatten nur auf maximal 16 TB erweitert werden. Online-RAID-Kapazitätserweiterung und das Hinzufügen von Festplatten werden bei einem Laufwerk mit mehr als 16 TB nicht unterstützt.Bitte rüsten Sie die NAS-Firmware zur Nutzung dieser Modelle mit QNAPs NAS auf v3.4.0 oder aktueller auf.
    xxx
    Das bezieht sich aber doch nur auf bestehende Devices und nicht auf neu erstellte oder übersehe ich etwas ?


    Gruss

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Volltextzitat entfernt - Siehe Forenregeln

  • Zitat von "rprengel"

    meinst du das?


    Jup.
    Das bezieht sich auf alle Volumes über 16TB. Auch neu erstellte über 16TB kannst du nicht nachträglich erweitern.

  • ok
    aber ein frisch erstelltes Volume mit 8 * 3 GB sollte doch eigentlich stabil laufen sofern man es nicht ändern (erweiteren) will.
    /dev/md0 ist ok aber das Filesystem ist wieder durcheinander. Der check wird wohl noch 2 bis 3 Stunden laufen.


    In den Logfiles finde ich:

    Code
    2013-02-27	01:57:46	System	127.0.0.1	localhost	System started.
    2013-02-27	01:57:45	System	127.0.0.1	localhost	The system was not shut down properly last time.


    Das Teil ist mitten in einem Sucherungslauf einfach neu gestartet und hat dabei dann wohl sein Filesystem "verstrubbelt".
    Tja:
    Hardwareproblem oder Bug das wäre jetzt die Frage.
    Der Qnap-Support meldet sich auch nicht und die kostenpflichtige Rufummer ist auch nur eine Unverschämtheit.


    Gruß

    Einmal editiert, zuletzt von bladekiller () aus folgendem Grund: Volltextzitat entfernt /Ciodeblock eingefügt - Siehe Forenregeln

  • @ rprengel


    Bitte Halte dich an die Forenregeln.


    Beim nächsten mal werde ich Deinen Beitrag in gänze entfernen.

  • Beitrag vom Mod entfernt, da sich der User auch nach Ansage nicht an die Regeln halten will.


    Bladekiller

    2 Mal editiert, zuletzt von bladekiller () aus folgendem Grund: Nach Vorankündigung entfernt

  • Zitat von "rprengel"

    aber ein frisch erstelltes Volume mit 8 * 3 GB sollte doch eigentlich stabil laufen sofern man es nicht ändern (erweiteren) will.
    /dev/md0 ist ok aber das Filesystem ist wieder durcheinander. Der check wird wohl noch 2 bis 3 Stunden laufen.


    Ein Volume aus 8x3GB hat 8 Möglichkeiten, instabil zu werden, Eines aus z.B. 3x3GB nur 3 Möglichkeiten. ;)


    Die Schwierigkeiten hier wundern mich daher eher weniger. Ich finde die eher "erwartungsgemäss".


    Zum Thema grosse RAIDs kommt auch : --> http://de.wikipedia.org/wiki/R…i_gro.C3.9Fen_Festplatten , Kap. 3.5 dazu.


    Ich würde so ein MonsterRAID niemals fahren, wäre mir viel zu kritisch. Ich würde wenigstens verkleinern in 2x 4x3GB oder noch besser z.B. 2xEinzeldisk plus 2x 3x3GB.
    Oder für weniger Write-Penalty 3x3GB und 5x3GB.


    Und in jedem Fall konsequent Backuppen ! Den Preis für das bisschen erhöhte Datenverfügbarkeit zahlst Du jetzt bereits, beim nächsten Mal crasht das RAID dann gleich vielleicht und die Daten sind futsch. Ist bei dieser MonsterRAID-Konstruktion sogar recht wahrscheinlich, dass der Crash recht zeitnah kommen wird.



    GLG GBD

  • Zitat von "bladekiller"

    @ rprengel


    Bitte Halte dich an die Forenregeln.


    Beim nächsten mal werde ich Deinen Beitrag in gänze entfernen.


    Gegen welche Regel habe ich verstossen?


    gruss

  • gewöhn dich an bladekiller. welche regel? du darfst keine beiträge zu 100% zitieren. dagegen hast du verstossen.

  • Zitat von "GorillaBD"

    Ein Volume aus 8x3GB hat 8 Möglichkeiten, instabil zu werden, Eines aus z.B. 3x3GB nur 3 Möglichkeiten. ;)


    Die Schwierigkeiten hier wundern mich daher eher weniger. Ich finde die eher "erwartungsgemäss".
    GLG GBD


    Tja,
    ich werde das Raud auflösen und 3 kleinere Volumes erstellen (grob 9TB + 9TB + 2TB). Das sollte passen.


    Gruss