Beiträge von Walterb69

    Nur die Platte 8 (device 7) wird als defekt (Rot) angezeigt. Nur der dmesg verwirrt mich wegen der Reihenfolge der Platten. sde3 und sdf3 sind vertauscht dasselbe mit sdg3 und sdh3.

    Danke trotzdem für deine Bemühungen.


    Das mit der chunk size habe ich aus den diversen Beiträgen die ich gelesen habe, ich habe sie aber nicht geändert es ist mir aufgefallen das dieser Wert "512K" von den meisten abweicht. Dieser Schritt war mir doch zu fortgeschritten die chunk size zu ändern. Mich wundert es nur das die Platte 5 nicht in den Verbund will (screenshot).

    Ich habe heute den Befehl

    Code
    mdadm -A /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3 /dev/sdg3 /dev/sdh3


    verwendet da die sda3-sdh3 nicht sichtbar waren.


    Habe ich damit etwas beschädigt? Unten der erste Versuch von dem Befehl bevor ich das Raid wieder sichtbar gemacht habe.

    Code
    mdadm -D /dev/md0
    mdadm: cannot open /dev/md0: No such file or directory


    Ich habe gerade gesehen das in der GUI Speichermanager-Speicherplatz Verwaltung Datenträger 5 nicht aufgelistet wird. Der Grund warum das Raid nicht sichtbar war für den Befehl, ich musste das NAS herunterfahren da unsere Trafostation repariert wurde (Stromausfall das zum Desaster führte).

    Hallo dr_mike,


    Hier mein Output

    Hallo,


    mein TS-869 Pro Firmaware 4.2.1 mit 8x 3TB Seagate ST3000NC000 CE02 hat innerhalb eines Tages 2 Platten mit Anomal rausgeworfen.
    Leider kam noch ein Stromausfall mit 3,5 Stunden (Murphys Law) erschwerend dazu. Nach dem Neustart war das Volume nicht mehr sichtbar.
    Mit diversen Abfragen bekomme ich Fehler beim Partitiontable, Superblock,..
    Output aus dmesg

    Code
    md/raid:md0: device sdj3 operational as raid disk 7[ 4231.235479] md/raid:md0: device sdi3 operational as raid disk 6[ 4231.235484] md/raid:md0: device sdh3 operational as raid disk 5[ 4231.235488] md/raid:md0: device sde3 operational as raid disk 4[ 4231.235493] md/raid:md0: device sdd3 operational as raid disk 3[ 4231.235497] md/raid:md0: device sdc3 operational as raid disk 2[ 4231.235502] md/raid:md0: device sdb3 operational as raid disk 1[ 4231.235506] md/raid:md0: device sda3 operational as raid disk 0[ 4231.255018] md/raid:md0: allocated 136320kB[ 4231.255119] md/raid:md0: raid level 6 active with 8 out of 8 devices, algorithm 2[ 4231.255125] RAID conf printout:[ 4231.255128]  --- level:6 rd:8 wd:8[ 4231.255133]  disk 0, o:1, dev:sda3[ 4231.255137]  disk 1, o:1, dev:sdb3[ 4231.255141]  disk 2, o:1, dev:sdc3[ 4231.255145]  disk 3, o:1, dev:sdd3[ 4231.255149]  disk 4, o:1, dev:sde3[ 4231.255153]  disk 5, o:1, dev:sdh3[ 4231.255157]  disk 6, o:1, dev:sdi3[ 4231.255161]  disk 7, o:1, dev:sdj3[ 4231.262009] created bitmap (22 pages) for device md0[ 4231.278155] md0: bitmap initialized from disk: read 2/2 pages, set 44689 of 44689 bits[ 4231.706381] md0: detected capacity change from 0 to 17993916481536[ 4371.513259]  md0: unknown partition table[ 6975.993722] EXT4-fs (md0): bad geometry: block count 4393046304 exceeds size of device (4393046016 blocks)[ 7117.057149] EXT3-fs (md0): error: couldn't mount because of unsupported optional features (2c0)


    Output von mdstat


    Code
    cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid6 sdj3[7] sdi3[6] sdh3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1] sda3[0]                 17572184064 blocks super 1.0 level 6, 512k chunk, algorithm 2 [8/8] [UUUUUUUU]                 bitmap: 0/22 pages [0KB], 65536KB chunkmd256 : active raid1 sdj2[5](S) sdi2[7](S) sdh2[6](S) sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]                 530112 blocks super 1.0 [2/2] [UU]                 bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sdj4[4] sdi4[7] sdh4[6] sda4[0] sde4[5] sdd4[3] sdc4[2] sdb4[1]                 458880 blocks [8/8] [UUUUUUUU]                 bitmap: 2/57 pages [8KB], 4KB chunkmd9 : active raid1 sdj1[4] sdi1[7] sdh1[6] sda1[0] sde1[5] sdd1[3] sdc1[2] sdb1[1]                 530048 blocks [8/8] [UUUUUUUU]                 bitmap: 2/65 pages [8KB], 4KB chunkunused devices: <none>

    Output Mount



    Code
    mount /dev/md0 /share/MD0_DATA -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0,       missing codepage or other error       In some cases useful info is found in syslog - try       dmesg | tail  or so

    Leider habe ich nichts passendes zur chunk size gefunden, bei mir 512K die meisten schreiben aber 64K.


    Noch ein Output


    Auffällig ist auch das zB. die mdadm.conf leer ist.


    Lohnt es sich weiter zu machen da ich das Volume sehe aber nicht mounten kann?