Volume aus Versehen entfernt - wie wiederherstellen?

  • Hi Mike,


    nein, habe ich noch nicht. Ich wollte nichts machen ohne Absprache. Nachher mach ich was kaputt. Jetzt starte ich mal neu.

  • Also in der Gui bekomme ich:


    1.[Pool 1] Started rebuilding with RAID Group 1.
    und dann noch 5sec
    2.[Pool 1] Rebuilding skipped with RAID Group 1.
    und das alle 5sec


    und in dmesg finde ich jetzt alle 5sec diese Einträge

  • So, jetzt habe ich die neue Platte eingebaut.


    md1 wird nicht mehr aufgebaut.

    Wie kann ich das starten und ist das sinnvoll?

  • Ein LVM besteht normalerweise aus einem Physikalischem Volume, einer Volume Gruppe und einem Logischem Volume. Also PV, BG und LV in dieser Reihenfolge. LV ist also die Kombi aus allen.


    Wie QNAP das mit Handhabt, weiß ich natürlich nicht.


    Ich denke aber die können dir schon weiterhelfen. Jedenfalls konnten die mir weiterhelfen und auch die Daten wiederherstellen. War zwar nicht bei einem Volume sondern einem Fehlgeschlagenen/Fehlerhaften Snapshot Restore aber da spielt das Volume Speicherpool und so weiter ja auch mit rein.

  • Hallo Revan,


    wie schon ein paar Beiträge vorher erwähnt, hat der Qnap-Support leider seine Unterstützung eingestellt. Ich bin also auf Eure Unterstützung angewiesen.


    Viele Grüße

  • Wenn das RAID nach austausch der defekten Platte nicht mehr will, dann scheint es eine weitere defekte Platte zu geben oder du hast beim Tausch die falsche Platte erwischt.
    mdadm -E /dev/sd[abcde]3

  • Die Ausgaben sprechen aber dagegen.

    Code
    mdadm -E /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410feInternal Bitmap : -16 sectors from superblock    Update Time : Wed Oct 19 18:59:41 2016       Checksum : 2f728875 - correct         Events : 1489529         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 0   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdb3/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0Internal Bitmap : -16 sectors from superblock    Update Time : Wed Oct 19 18:59:41 2016       Checksum : e58d09cb - correct         Events : 1489529         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 1   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdc3/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9beInternal Bitmap : -16 sectors from superblock    Update Time : Wed Oct 19 18:59:41 2016       Checksum : c4f6939a - correct         Events : 1489529         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 3   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdd3/dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512Internal Bitmap : -16 sectors from superblock    Update Time : Sun Aug 28 22:55:30 2016  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 88664e73 - correct         Events : 44682         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 4   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sde3mdadm: No md superblock detected on /dev/sde3.

    In dmseg finde ich allerdings

    Code
    [ 5679.321721] md: kicking non-fresh sdd3 from array!
    [ 5679.321733] md: unbind<sdd3>

    Wie löse ich das auf ohne die Daten zu verlieren?

  • Die fünfte Platte war sicher die defekte?? Die vierte wurde das letzte Mal am 28.08. aktualisiert. Alle anderen am19.10.
    Setze bitte nochmal die alte 5. Platte ein und Poste die Ausgabe von mdadm -E /dev/sde3

  • Du hast recht, es ist irgendwie komisch. Das ist die Ausgabe von:


    Code
    mdadm -E /dev/sd[abcdef]3 /dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410feInternal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : 2f7a83dd - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 0   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0Internal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : e5950533 - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 1   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9beInternal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : c4fe8f02 - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 3   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512Internal Bitmap : -16 sectors from superblock    Update Time : Sun Aug 28 22:55:30 2016  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 88664e73 - correct         Events : 44682         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 4   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)mdadm: No md superblock detected on /dev/sde3./dev/sdf3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 5eee6d8c:850d18e5:edb2cc95:deffbc9dInternal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : 725af20d - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 2   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)

    Ich habe dann storage_util --sys_startup und storage_util --sys_startup_p2 ausgeführt und jetzt ist md1 wieder da(read-only).

    Allerdings zeigt er mir in der Gui im Gegensatz zu vorher an, dass die Platte 3 anomal ist.

  • Aber das hatte ich doch schon? da kamen doch die Fehler aus Post 23? Ich habe noch eine Ergänzung.

    Warum sagt er hier spare rebuilding? Vor allem wenn das Update Datum für sdd3 am 28. August liegt?

  • Weil diese Platte wohl nicht mehr aktiv war. Wenn das nicht die ursprünglich defekte Platte ist, dann wäre das die 2. Platte, die fehlt, wenn du die defekte gegen die neue austauschst.
    Du kannst jetzt nur hoffen, dass der Rebuild durchläuft.

  • Kann ich irgendwo sehen, ob der rebuild läuft? und wenn nicht, kann ich das erneut veranlassen?


    Kriege ich irgenwie raus, welche physische Platte sdd ist?

  • Kann ich irgendwo sehen, ob der rebuild läuft?

    cat /proc/mdstat


    Platte 4 müsste theorefisch sdd sein. Aber genau bekommt man das nur über die Zuordnung zum Controller-Port raus.
    Oder du schaust nach der Serialnummer cat /sys/block/sdd/device/vpd_pg80

  • Ganz ehrlich an cat /proc/mdstat erkenn' ich nichts. Einen Fortschritt erst recht nicht.

    Ich würde behaupten der rebuild steht schon seit August. Oder gibt es anders wo noch Informationen?


    Jetzt die andere Frage, kann ich den rebuild nochmal anstossen?

  • Ich habe jetzt verstanden was Du meintest als ich bei der Webrecherche ein Bild von cat /proc/mdstat beim rebuild gesehen habe. Also ist klar, das der rebuild wegen badbocks abbricht. Ich bin jetzt dabei das defekte Device mit ddrescue zu sichern und dann auf die intakte neu Platte zu übertragen. Wenn das geklappt hat melde ich mich wieder.

  • Hallo Mike,


    jetzt bin ich wieder zurück auf der Spur. Das Raid ist wieder in Ordnung.

    Code
    cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md1 : active raid5 sda3[3] sde3[5] sdd3[4] sdc3[2] sdb3[1]                 7774238464 blocks super 1.0 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]                 bitmap: 0/15 pages [0KB], 65536KB chunkmd256 : active raid1 sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]                 530112 blocks super 1.0 [2/2] [UU]                 bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdc4[4] sdd4[3] sde4[2] sdb4[1]                 458880 blocks [5/5] [UUUUU]                 bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[4] sdd1[3] sde1[2] sdb1[1]                 530048 blocks [5/5] [UUUUU]                 bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>


    Eine Frage habe ich noch, was bedeutet mdadm: No md superblock detected on /dev/sdf3.?