Beiträge von RMaTsm1f

    Ach ja, das ist schön. Dann ist das sauber.


    Ich möchte mich an dieser Stelle schon mal für Deine bisherige Unterstützung bedanken. alleine wäre ich nicht bis hier gekommen.


    Nun frag ich mich, wie komme ich nun mit meinem Volume weiter voran. Was kann ich tun, um es einzubinden?


    In der Gui wird mir das Volume als entladen angezeigt. Ich kann aber unter Aktionen nicht wie früher "Entschlüsseln" auswählen

    Hallo Mike,


    jetzt bin ich wieder zurück auf der Spur. Das Raid ist wieder in Ordnung.

    Code
    cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md1 : active raid5 sda3[3] sde3[5] sdd3[4] sdc3[2] sdb3[1]                 7774238464 blocks super 1.0 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]                 bitmap: 0/15 pages [0KB], 65536KB chunkmd256 : active raid1 sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]                 530112 blocks super 1.0 [2/2] [UU]                 bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdc4[4] sdd4[3] sde4[2] sdb4[1]                 458880 blocks [5/5] [UUUUU]                 bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[4] sdd1[3] sde1[2] sdb1[1]                 530048 blocks [5/5] [UUUUU]                 bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>


    Eine Frage habe ich noch, was bedeutet mdadm: No md superblock detected on /dev/sdf3.?

    Ich habe jetzt verstanden was Du meintest als ich bei der Webrecherche ein Bild von cat /proc/mdstat beim rebuild gesehen habe. Also ist klar, das der rebuild wegen badbocks abbricht. Ich bin jetzt dabei das defekte Device mit ddrescue zu sichern und dann auf die intakte neu Platte zu übertragen. Wenn das geklappt hat melde ich mich wieder.

    Ganz ehrlich an cat /proc/mdstat erkenn' ich nichts. Einen Fortschritt erst recht nicht.

    Ich würde behaupten der rebuild steht schon seit August. Oder gibt es anders wo noch Informationen?


    Jetzt die andere Frage, kann ich den rebuild nochmal anstossen?

    Aber das hatte ich doch schon? da kamen doch die Fehler aus Post 23? Ich habe noch eine Ergänzung.

    Warum sagt er hier spare rebuilding? Vor allem wenn das Update Datum für sdd3 am 28. August liegt?

    Du hast recht, es ist irgendwie komisch. Das ist die Ausgabe von:


    Code
    mdadm -E /dev/sd[abcdef]3 /dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410feInternal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : 2f7a83dd - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 0   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0Internal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : e5950533 - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 1   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9beInternal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : c4fe8f02 - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 3   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)/dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512Internal Bitmap : -16 sectors from superblock    Update Time : Sun Aug 28 22:55:30 2016  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 88664e73 - correct         Events : 44682         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 4   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)mdadm: No md superblock detected on /dev/sde3./dev/sdf3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 5eee6d8c:850d18e5:edb2cc95:deffbc9dInternal Bitmap : -16 sectors from superblock    Update Time : Tue Oct 25 20:18:04 2016       Checksum : 725af20d - correct         Events : 1489538         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 2   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)

    Ich habe dann storage_util --sys_startup und storage_util --sys_startup_p2 ausgeführt und jetzt ist md1 wieder da(read-only).

    Allerdings zeigt er mir in der Gui im Gegensatz zu vorher an, dass die Platte 3 anomal ist.

    Die Ausgaben sprechen aber dagegen.

    Code
    mdadm -E /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 12bc523a:cf06c4ff:0a79082a:b20410feInternal Bitmap : -16 sectors from superblock    Update Time : Wed Oct 19 18:59:41 2016       Checksum : 2f728875 - correct         Events : 1489529         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 0   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdb3/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 7de88da3:f0ec886c:06e13258:830b00b0Internal Bitmap : -16 sectors from superblock    Update Time : Wed Oct 19 18:59:41 2016       Checksum : e58d09cb - correct         Events : 1489529         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 1   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdc3/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 824dca2d:851b64f0:0ad88b1a:b10af9beInternal Bitmap : -16 sectors from superblock    Update Time : Wed Oct 19 18:59:41 2016       Checksum : c4f6939a - correct         Events : 1489529         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 3   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sdd3/dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x1     Array UUID : f2b19cf3:41850704:1635a3bf:59cc2f6b           Name : 1  Creation Time : Sun Aug 31 13:59:27 2014     Raid Level : raid5   Raid Devices : 5 Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)     Array Size : 7774238464 (7414.09 GiB 7960.82 GB)  Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)   Super Offset : 3887119504 sectors   Unused Space : before=0 sectors, after=256 sectors          State : clean    Device UUID : 1bfe81c6:48ccadbe:f4af3f24:f4ee0512Internal Bitmap : -16 sectors from superblock    Update Time : Sun Aug 28 22:55:30 2016  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 88664e73 - correct         Events : 44682         Layout : left-symmetric     Chunk Size : 64K   Device Role : Active device 4   Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing)[~] # mdadm -E /dev/sde3mdadm: No md superblock detected on /dev/sde3.

    In dmseg finde ich allerdings

    Code
    [ 5679.321721] md: kicking non-fresh sdd3 from array!
    [ 5679.321733] md: unbind<sdd3>

    Wie löse ich das auf ohne die Daten zu verlieren?

    So, jetzt habe ich die neue Platte eingebaut.


    md1 wird nicht mehr aufgebaut.

    Wie kann ich das starten und ist das sinnvoll?

    Also in der Gui bekomme ich:


    1.[Pool 1] Started rebuilding with RAID Group 1.
    und dann noch 5sec
    2.[Pool 1] Rebuilding skipped with RAID Group 1.
    und das alle 5sec


    und in dmesg finde ich jetzt alle 5sec diese Einträge

    Was bedeutet das?

    Das ist der aktuelle Stand:


    Code
    cat /etc/config/qlvm.conf [Global]poolIdBitmap=0x2member_1_Pool=1memberIdBitmap=0x2tpIdBitmap=0x2lvIdBitmap=0x10000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000002member_1_LV_Bitmap=0x10000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000002[POOL_1]poolId=1tpId=1poolName=vg1flag=0x0threshold=0uuid=o2cNmm-HPTE-aBfi-GNKz-Ub8B-3fxf-bbCW3zoverThreshold=nomember_0=1memberBitmap=1[MEMBER_1]memberId=1memberName=/dev/md1uuid=f2b19cf3:41850704:1635a3bf:59cc2f6bmemberUuid=UAhDX0-WACj-6MZY-K36b-07jE-vgBU-sAodvT[TP_1]tpId=1tpName=/dev/mapper/vg1-tp1uuid=oIRzJX-mOPO-XnBX-v60g-zZx4-3qz1-vFs1eBtpSize=15359434752metaSize=33554432metaSpareSize=0[LV_1]lvId=1poolId=1layout=0flag=0x20000threshold=0lvName=/dev/mapper/vg1-lv1uuid=K2mTFP-2y4j-Zrnt-5aSA-20b9-flwg-4TYe5LcompleteFsResize=yesoverThreshold=nolvSize=14680064000member_0=1memberBitmap=1volName=[LV_544]lvId=544poolId=1layout=0flag=0x200000threshold=0lvName=/dev/mapper/vg1-lv544uuid=qhQpEq-iitN-jDyu-3TEZ-YRxz-ivkM-jBsj2dcompleteFsResize=yesoverThreshold=nolvSize=155484160member_0=1memberBitmap=1volName=

    nochzusatzlich der output von /etc/config/ssdcache.conf

    wie folgt:

    Code
    ll /dev/mapper/
    drwxr-xr-x    2 admin    administ       160 Oct 17 00:07 ./
    drwxr-xr-x   14 admin    administ     19.7k Oct 16 17:50 ../
    crw-------    1 admin    administ   10, 236 Oct 11 21:39 control
    brw-------    1 admin    administ  253,   0 Oct 17 00:07 vg1-lv1
    brw-------    1 admin    administ  253,   4 Oct 11 19:40 vg1-tp1
    brw-------    1 admin    administ  253,   3 Oct 11 19:40 vg1-tp1-tpool
    brw-------    1 admin    administ  253,   2 Oct 11 19:40 vg1-tp1_tdata
    brw-------    1 admin    administ  253,   1 Oct 11 19:40 vg1-tp1_tmeta

    Wieder danke!


    vgmknodes -vvv vg1 hat das mapper device angelegt.


    Aber ich habe das Gefühl, das mir noch einiges fehlt. Wo ist eigentlich dieses Cachedev-Device oder brauche ich das nicht?


    hab nochmal das init_lvm-Skript ausgeführt. In der Gui sehe ich jetzt unter dem Speicherppool ein Volume ohne Namen (-) und den Hinweis entladen.

    Habe ich natürlich sofort ausprobiert.

    Code
    /etc/init.d/init_lvm.shChanging old config name...mv: unable to rename `/etc/config/qdrbd.conf': No such file or directoryReinitialing...Detect disk(8, 0)...dev_count ++ = 0Detect disk(8, 16)...dev_count ++ = 1Detect disk(8, 32)...dev_count ++ = 2Detect disk(8, 48)...dev_count ++ = 3Detect disk(8, 64)...dev_count ++ = 4Detect disk(8, 80)...ignore non-root enclosure disk(8, 80).Detect disk(8, 0)...Detect disk(8, 16)...Detect disk(8, 32)...Detect disk(8, 48)...Detect disk(8, 64)...Detect disk(8, 80)...ignore non-root enclosure disk(8, 80).sys_startup_p2:got called count = -1Done

    aber immer noch kein mapper-Device

    Code
    ll /dev/mapper/
    drwxr-xr-x    2 admin    administ       140 Oct 16 17:50 ./
    drwxr-xr-x   14 admin    administ     19.7k Oct 16 17:50 ../
    crw-------    1 admin    administ   10, 236 Oct 11 21:39 control
    brw-------    1 admin    administ  253,   4 Oct 11 19:40 vg1-tp1
    brw-------    1 admin    administ  253,   3 Oct 11 19:40 vg1-tp1-tpool
    brw-------    1 admin    administ  253,   2 Oct 11 19:40 vg1-tp1_tdata
    brw-------    1 admin    administ  253,   1 Oct 11 19:40 vg1-tp1_tmeta