Hi Mike,
nein, habe ich noch nicht. Ich wollte nichts machen ohne Absprache. Nachher mach ich was kaputt. Jetzt starte ich mal neu.
Hi Mike,
nein, habe ich noch nicht. Ich wollte nichts machen ohne Absprache. Nachher mach ich was kaputt. Jetzt starte ich mal neu.
Wie lautet das Ergebnis?
Also in der Gui bekomme ich:
1.[Pool 1] Started rebuilding with RAID Group 1.
und dann noch 5sec
2.[Pool 1] Rebuilding skipped with RAID Group 1.
und das alle 5sec
und in dmesg finde ich jetzt alle 5sec diese Einträge
[ 1372.334085] RAID conf printout:
[ 1372.334092] --- level:5 rd:5 wd:4
[ 1372.334097] disk 0, o:1, dev:sda3
[ 1372.334101] disk 1, o:1, dev:sdb3
[ 1372.334105] disk 2, o:1, dev:sdc3
[ 1372.334109] disk 3, o:1, dev:sdd3
[ 1372.334112] disk 4, o:1, dev:sde3
[ 1372.334115] RAID conf printout:
[ 1372.334118] --- level:5 rd:5 wd:4
[ 1372.334122] disk 0, o:1, dev:sda3
[ 1372.334125] disk 1, o:1, dev:sdb3
[ 1372.334129] disk 2, o:1, dev:sdc3
[ 1372.334132] disk 3, o:1, dev:sdd3
[ 1372.334136] disk 4, o:1, dev:sde3
[ 1372.334222] md: recovery of RAID array md1
[ 1372.334230] md: minimum _guaranteed_ speed: 5000 KB/sec/disk.
[ 1372.334236] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[ 1372.334243] md: Recovering started: md1
[ 1372.334262] md: using 128k window, over a total of 1943559616k.
[ 1372.334268] md: resuming recovery of md1 from checkpoint.
[ 1372.334471] md: md1: recovery done.
[ 1372.336194] md: recovery skipped: md1
Alles anzeigen
ich hatte einen akuten Fehler an einer Festplatte und wollte deshalb das Volume unmounten.
Könnte das daran liegen? Ist die Platte noch im Verbund?
Ich weiß nicht, ob es daran liegt. Aber jJa, die habe ich noch nicht austauschen können, der Versand zieht sich.
So, jetzt habe ich die neue Platte eingebaut.
md1 wird nicht mehr aufgebaut.
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md256 : active raid1 sdf2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdf4[4] sdc4[3] sdd4[2] sdb4[1] sda4[0]
458880 blocks [5/5] [UUUUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdf1[4] sda1[0] sdc1[3] sdd1[2] sdb1[1]
530048 blocks [5/5] [UUUUU]
bitmap: 1/65 pages [4KB], 4KB chunk
unused devices: <none>
Alles anzeigen
Wie kann ich das starten und ist das sinnvoll?
Ein LVM besteht normalerweise aus einem Physikalischem Volume, einer Volume Gruppe und einem Logischem Volume. Also PV, BG und LV in dieser Reihenfolge. LV ist also die Kombi aus allen.
Wie QNAP das mit Handhabt, weiß ich natürlich nicht.
Ich denke aber die können dir schon weiterhelfen. Jedenfalls konnten die mir weiterhelfen und auch die Daten wiederherstellen. War zwar nicht bei einem Volume sondern einem Fehlgeschlagenen/Fehlerhaften Snapshot Restore aber da spielt das Volume Speicherpool und so weiter ja auch mit rein.
Hallo Revan,
wie schon ein paar Beiträge vorher erwähnt, hat der Qnap-Support leider seine Unterstützung eingestellt. Ich bin also auf Eure Unterstützung angewiesen.
Viele Grüße
Wenn das RAID nach austausch der defekten Platte nicht mehr will, dann scheint es eine weitere defekte Platte zu geben oder du hast beim Tausch die falsche Platte erwischt.
mdadm -E /dev/sd[abcde]3
Die Ausgaben sprechen aber dagegen.
mdadm -E /dev/sda3/dev/sda3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410feInternal Bitmap : -16 sectors from superblock Update Time : Wed Oct 19 18:59:41 2016 Checksum : 2f728875 - correct Events : 1489529 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 0 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdb3/dev/sdb3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0Internal Bitmap : -16 sectors from superblock Update Time : Wed Oct 19 18:59:41 2016 Checksum : e58d09cb - correct Events : 1489529 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 1 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdc3/dev/sdc3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9beInternal Bitmap : -16 sectors from superblock Update Time : Wed Oct 19 18:59:41 2016 Checksum : c4f6939a - correct Events : 1489529 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 3 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdd3/dev/sdd3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512Internal Bitmap : -16 sectors from superblock Update Time : Sun Aug 28 22:55:30 2016 Bad Block Log : 512 entries available at offset -8 sectors Checksum : 88664e73 - correct Events : 44682 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 4 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sde3mdadm: No md superblock detected on /dev/sde3.
In dmseg finde ich allerdings
Wie löse ich das auf ohne die Daten zu verlieren?
Die fünfte Platte war sicher die defekte?? Die vierte wurde das letzte Mal am 28.08. aktualisiert. Alle anderen am19.10.
Setze bitte nochmal die alte 5. Platte ein und Poste die Ausgabe von mdadm -E /dev/sde3
Du hast recht, es ist irgendwie komisch. Das ist die Ausgabe von:
mdadm -E /dev/sd[abcdef]3 /dev/sda3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410feInternal Bitmap : -16 sectors from superblock Update Time : Tue Oct 25 20:18:04 2016 Checksum : 2f7a83dd - correct Events : 1489538 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 0 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdb3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0Internal Bitmap : -16 sectors from superblock Update Time : Tue Oct 25 20:18:04 2016 Checksum : e5950533 - correct Events : 1489538 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 1 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdc3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9beInternal Bitmap : -16 sectors from superblock Update Time : Tue Oct 25 20:18:04 2016 Checksum : c4fe8f02 - correct Events : 1489538 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 3 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdd3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512Internal Bitmap : -16 sectors from superblock Update Time : Sun Aug 28 22:55:30 2016 Bad Block Log : 512 entries available at offset -8 sectors Checksum : 88664e73 - correct Events : 44682 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 4 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)mdadm: No md superblock detected on /dev/sde3./dev/sdf3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b Name : 1 Creation Time : Sun Aug 31 13:59:27 2014 Raid Level : raid5 Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB) Array Size : 7774238464 (7414.09 GiB 7960.82 GB) Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB) Super Offset : 3887119504 sectors Unused Space : before=0 sectors, after=256 sectors State : clean Device UUID : 5eee6d8c:850d18e5:edb2cc95:deffbc9dInternal Bitmap : -16 sectors from superblock Update Time : Tue Oct 25 20:18:04 2016 Checksum : 725af20d - correct Events : 1489538 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 2 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
Ich habe dann storage_util --sys_startup und storage_util --sys_startup_p2 ausgeführt und jetzt ist md1 wieder da(read-only).
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid5 sdd3[5] sda3[3] sdc3[4] sdf3[2] sdb3[1]
7774238464 blocks super 1.0 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
bitmap: 10/15 pages [40KB], 65536KB chunk
md256 : active raid1 sdf2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdf4[4] sdc4[3] sdd4[2] sdb4[1] sda4[0]
458880 blocks [5/5] [UUUUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdf1[4] sda1[0] sdc1[3] sdd1[2] sdb1[1]
530048 blocks [5/5] [UUUUU]
bitmap: 1/65 pages [4KB], 4KB chunk
unused devices: <none>
Alles anzeigen
Allerdings zeigt er mir in der Gui im Gegensatz zu vorher an, dass die Platte 3 anomal ist.
Starte bitte das NAS in dieser Konstellation mal neu.
Aber das hatte ich doch schon? da kamen doch die Fehler aus Post 23? Ich habe noch eine Ergänzung.
mdadm -D /dev/md1
/dev/md1:
Version : 1.0
Creation Time : Sun Aug 31 13:59:27 2014
Raid Level : raid5
Array Size : 7774238464 (7414.09 GiB 7960.82 GB)
Used Dev Size : 1943559616 (1853.52 GiB 1990.21 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Oct 25 21:08:57 2016
State : active, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : 1
UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b
Events : 1489540
Number Major Minor RaidDevice State
3 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
2 8 83 2 active sync /dev/sdf3
4 8 35 3 active sync /dev/sdc3
5 8 51 4 spare rebuilding /dev/sdd3
Alles anzeigen
Warum sagt er hier spare rebuilding? Vor allem wenn das Update Datum für sdd3 am 28. August liegt?
Weil diese Platte wohl nicht mehr aktiv war. Wenn das nicht die ursprünglich defekte Platte ist, dann wäre das die 2. Platte, die fehlt, wenn du die defekte gegen die neue austauschst.
Du kannst jetzt nur hoffen, dass der Rebuild durchläuft.
Kann ich irgendwo sehen, ob der rebuild läuft? und wenn nicht, kann ich das erneut veranlassen?
Kriege ich irgenwie raus, welche physische Platte sdd ist?
Kann ich irgendwo sehen, ob der rebuild läuft?
cat /proc/mdstat
Platte 4 müsste theorefisch sdd sein. Aber genau bekommt man das nur über die Zuordnung zum Controller-Port raus.
Oder du schaust nach der Serialnummer cat /sys/block/sdd/device/vpd_pg80
Ganz ehrlich an cat /proc/mdstat erkenn' ich nichts. Einen Fortschritt erst recht nicht.
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid5 sdd3[5] sda3[3] sdc3[4] sdf3[2] sdb3[1]
7774238464 blocks super 1.0 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
bitmap: 10/15 pages [40KB], 65536KB chunk
md256 : active raid1 sdf2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdf4[4] sdc4[3] sdd4[2] sdb4[1] sda4[0]
458880 blocks [5/5] [UUUUU]
bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdf1[4] sda1[0] sdc1[3] sdd1[2] sdb1[1]
530048 blocks [5/5] [UUUUU]
bitmap: 1/65 pages [4KB], 4KB chunk
unused devices: <none>
Alles anzeigen
Ich würde behaupten der rebuild steht schon seit August. Oder gibt es anders wo noch Informationen?
Jetzt die andere Frage, kann ich den rebuild nochmal anstossen?
Ich habe jetzt verstanden was Du meintest als ich bei der Webrecherche ein Bild von cat /proc/mdstat beim rebuild gesehen habe. Also ist klar, das der rebuild wegen badbocks abbricht. Ich bin jetzt dabei das defekte Device mit ddrescue zu sichern und dann auf die intakte neu Platte zu übertragen. Wenn das geklappt hat melde ich mich wieder.
Hallo Mike,
jetzt bin ich wieder zurück auf der Spur. Das Raid ist wieder in Ordnung.
cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md1 : active raid5 sda3[3] sde3[5] sdd3[4] sdc3[2] sdb3[1] 7774238464 blocks super 1.0 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU] bitmap: 0/15 pages [0KB], 65536KB chunkmd256 : active raid1 sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0] 530112 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdc4[4] sdd4[3] sde4[2] sdb4[1] 458880 blocks [5/5] [UUUUU] bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[4] sdd1[3] sde1[2] sdb1[1] 530048 blocks [5/5] [UUUUU] bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>
mdadm -E /dev/sd[abcdef]3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b
Name : 1
Creation Time : Sun Aug 31 13:59:27 2014
Raid Level : raid5
Raid Devices : 5
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 7774238464 (7414.09 GiB 7960.82 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=256 sectors
State : clean
Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410fe
Internal Bitmap : -16 sectors from superblock
Update Time : Fri Nov 4 08:07:56 2016
Checksum : 2f8718c3 - correct
Events : 1490296
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b
Name : 1
Creation Time : Sun Aug 31 13:59:27 2014
Raid Level : raid5
Raid Devices : 5
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 7774238464 (7414.09 GiB 7960.82 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=256 sectors
State : clean
Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0
Internal Bitmap : -16 sectors from superblock
Update Time : Fri Nov 4 08:07:56 2016
Checksum : e5a19a19 - correct
Events : 1490296
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b
Name : 1
Creation Time : Sun Aug 31 13:59:27 2014
Raid Level : raid5
Raid Devices : 5
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 7774238464 (7414.09 GiB 7960.82 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=256 sectors
State : clean
Device UUID : 5eee6d8c:850d18e5:edb2cc95:deffbc9d
Internal Bitmap : -16 sectors from superblock
Update Time : Fri Nov 4 08:07:56 2016
Checksum : 726786f3 - correct
Events : 1490296
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 2
Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b
Name : 1
Creation Time : Sun Aug 31 13:59:27 2014
Raid Level : raid5
Raid Devices : 5
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 7774238464 (7414.09 GiB 7960.82 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=256 sectors
State : clean
Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9be
Internal Bitmap : -16 sectors from superblock
Update Time : Fri Nov 4 08:07:56 2016
Checksum : c50b23e8 - correct
Events : 1490296
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 3
Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b
Name : 1
Creation Time : Sun Aug 31 13:59:27 2014
Raid Level : raid5
Raid Devices : 5
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 7774238464 (7414.09 GiB 7960.82 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=256 sectors
State : clean
Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512
Internal Bitmap : -16 sectors from superblock
Update Time : Fri Nov 4 08:07:56 2016
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 88d5416b - correct
Events : 1490296
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 4
Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)
mdadm: No md superblock detected on /dev/sdf3.
Alles anzeigen
Eine Frage habe ich noch, was bedeutet mdadm: No md superblock detected on /dev/sdf3.?