[gelöst] SingleDisk mounten auf selbem NAS

  • Morgääääähn!


    Ich sag ma so... Das hat nicht so funktioniert... :-|
    Hast du weitere Ideen??


    Code
    vgchange -a y vg2


    Code
    Volume group "vg2" not found


    Code
    lvchange -a y /dev/mapper/vg2-lv2


    Code
    Volume group "vg2" not found  Skipping volume group vg2


    Code
    lvchange -a n /dev/mapper/vg2-lv545


    Code
    Volume group "vg2" not found  Skipping volume group vg2


    Code
    dmsetup info cachedev2

    habe ich dann gar nicht mehr ausprobiert...

  • Code
    ls -la /dev/mapper


    Code
    drwxr-xr-x    2 admin    administ       180 Sep 13 12:21 ./drwxr-xr-x   13 admin    administ     20360 Sep 14 03:00 ../brw-------    1 admin    administ  253,   0 Sep 13 12:21 cachedev1crw-------    1 admin    administ   10, 236 Sep 13 12:23 controlbrw-------    1 admin    administ  253,   5 Sep 13 12:20 vg1-lv1brw-------    1 admin    administ  253,   4 Sep 13 12:20 vg1-tp1brw-------    1 admin    administ  253,   3 Sep 13 12:20 vg1-tp1-tpoolbrw-------    1 admin    administ  253,   2 Sep 13 12:20 vg1-tp1_tdatabrw-------    1 admin    administ  253,   1 Sep 13 12:20 vg1-tp1_tmeta


    Code
    ls -la /dev | grep vg


    Code
    drwxr-xr-x    2 admin    administ        80 Sep 13 12:21 vg1/crw-------    1 admin    administ   10,  63 Sep 13 12:23 vga_arbiter


    Code
    ls -la /etc/config/lvm/backup


    Code
    drwx------    2 admin    administ      4096 Sep 13 10:20 ./
    drwx------    4 admin    administ      4096 Sep  8 13:58 ../
    -rw-------    1 admin    administ      3065 Sep  8 13:58 vg1
    -rw-------    1 admin    administ      2927 Sep 13 10:20 vg2
  • Code
    cat /etc/config/lvm/backup/vg2


  • Code
    cat /proc/mdstat
    vgmknodes -vvv vg2
    vgchange -a y vg2
    lvchange -a y /dev/mapper/vg2-lv2
    lvchange -a n /dev/mapper/vg2-lv545
    dmsetup info cachedev2
  • Code
    cat /proc/mdstat


    Code
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md1 : active raid5 sda3[0] sdc3[2] sdb3[1]		 5840623232 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]		 530112 blocks super 1.0 [2/2] [UU]		 bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdd4[24] sdc4[2] sdb4[1]		 458880 blocks super 1.0 [24/4] [UUUU____________________]		 bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sda1[0] sdd1[24] sdc1[2] sdb1[1]		 530048 blocks super 1.0 [24/4] [UUUU____________________]		 bitmap: 1/1 pages [4KB], 65536KB chunkunused devices: <none>


    Code
    vgmknodes -vvv vg2


    Den ersten Block mit den ganzen "Not a block device" und den Block mit loop176-loop254 habe ich abgekürzt!)

    Code
    /dev/vcsa5: Not a block device        /dev/vcsa6: Not a block device        /dev/vg1/lv1: Already in device cache        /dev/vg1/tp1: Already in device cache        /dev/vga_arbiter: Not a block device        /dev/video: Not a block device        /dev/video0: Not a block device        /dev/video1: Not a block device        /dev/video2: Not a block device        /dev/video3: Not a block device        /dev/video4: Not a block device        Opened /dev/loop175 RO O_DIRECT      /dev/loop175: size is 0 sectors        /dev/loop175: Skipping: Too small to hold a PV        Closed /dev/loop175        /dev/fbsnap175: Skipping (sysfs)        /dev/fbdisk175: Skipping (sysfs)        Opened /dev/loop255 RO O_DIRECT      /dev/loop255: size is 0 sectors        /dev/loop255: Skipping: Too small to hold a PV        Closed /dev/loop255        /dev/fbsnap255: Skipping (sysfs)        /dev/fbdisk255: Skipping (sysfs)  Volume group "vg2" not found        Unlock: Memlock counters: locked:0 critical:0 daemon:0 suspended:0        Syncing device names      Unlocking /var/lock/lvm/V_vg2        _undo_flock /var/lock/lvm/V_vg2        Allocated VG (null) at 0x81a6f18.        Failed to vg_read vg2        Freeing VG (null) at 0x81a6f18.  Skipping volume group vg2


    Code
    vgchange -a y vg2


    Code
    Volume group "vg2" not found


    Code
    lvchange -a y /dev/mapper/vg2-lv2


    Code
    Volume group "vg2" not found  Skipping volume group vg2


    Code
    lvchange -a n /dev/mapper/vg2-lv545


    Code
    Volume group "vg2" not found
      Skipping volume group vg2
  • Finde ich super von dir, dass du jedesmal rebootest, ohne mal was zu sagen. Da brauch ich mir auch keine Mühe geben und mich wundern, dass so überhaupt nichts funktioniert. :cursing:


    Zitat von "Vossen"

    Ich sag ma so... Das hat nicht so funktioniert... :-|


    Ich weiss auch warum. :cry:

  • Mist, verdammter!
    Bitte entschuldige! Das war ein so beiläufiger, unbeachter Neustart, dass ich nicht mehr dran gedacht habe, es zu erwähnen...
    Wobei der Fehler ja schon in dem Neustart lag...
    Wie kann ich das nun wieder gut machen?

  • Indem wir von vorn beginnen.


    Code
    mdadm /dev/md2 -AfR /dev/sdd3
    pvscan
    vgscan
    lvscan
    lvmdiskscan
    vgchange -a y vg2
    lvchange -a y /dev/mapper/vg2-lv2
    lvchange -a n /dev/mapper/vg2-lv545
    dmsetup info cachedev2
    vgmknodes -vvv vg2
  • Code
    mdadm /dev/md2 -AfR /dev/sdd3


    Code
    mdadm: failed to get exclusive lock on mapfile - continue anyway...mdadm: /dev/md2 has been started with 1 drive.


    Code
    pvscan


    Code
    PV /dev/md2   VG vg2   lvm2 [922.02 GiB / 0    free]  PV /dev/md1   VG vg1   lvm2 [5.44 TiB / 0    free]  Total: 2 [6.34 TiB] / in use: 2 [6.34 TiB] / in no VG: 0 [0   ]


    Code
    vgscan


    Code
    Reading all physical volumes.  This may take a while...  Found volume group "vg2" using metadata type lvm2  Found volume group "vg1" using metadata type lvm2


    Code
    lvscan


    Code
    inactive          '/dev/vg2/lv545' [9.22 GiB] inherit  inactive          '/dev/vg2/tp2' [896.80 GiB] inherit  inactive          '/dev/vg2/lv2' [890.93 GiB] inherit  inactive          '/dev/vg1/lv544' [20.00 GiB] inherit  ACTIVE            '/dev/vg1/tp1' [5.40 TiB] inherit  ACTIVE            '/dev/vg1/lv1' [5.40 TiB] inherit


    Code
    lvmdiskscan


    Code
    /dev/md256 [     517.69 MiB]   /dev/md1   [       5.44 TiB] LVM physical volume  /dev/md2   [     922.02 GiB] LVM physical volume  /dev/md9   [     517.62 MiB]   /dev/md13  [     448.12 MiB]   0 disks  3 partitions  0 LVM physical volume whole disks  2 LVM physical volumes


    Code
    vgchange -a y vg2


    Code
    3 logical volume(s) in volume group "vg2" now active


    Code
    lvchange -a y /dev/mapper/vg2-lv2


    Code
    [i]keine Ausgabe[/i]


    Code
    lvchange -a n /dev/mapper/vg2-lv545


    Code
    [i]keine Ausgabe[/i]


    Code
    dmsetup info cachedev2


    Code
    Device does not exist.Command failed


    Code
    vgmknodes -vvv vg2



    Und ab jetzt starte ich nicht mehr neu.... :D Schwör!

  • Code
    ls -la /dev/mapper


  • Das ist leider nicht ganz das erwartete Ergebnis.

    Code
    /etc/init.d/init_lvm.sh
    cat /etc/config/ssdcache.conf
    cat /etc/config/raid.conf
    cat /etc/config/qlvm.conf
    ls -la /dev/mapper
  • Code
    /etc/init.d/init_lvm.sh


    Code
    Changing old config name...Reinitialing...Detect disk(8, 0)...Detect disk(8, 16)...Detect disk(8, 32)...Detect disk(8, 48)...Detect disk(8, 64)...ignore non-root enclosure disk(8, 64).sys_startup_p2:got called count = -1Done.


    Code
    cat /etc/config/ssdcache.conf


    Code
    [Global]ssdCacheBitmap=0x6cgBitmap=0x1[SSDCache_1]ssdCacheId=1ssdCacheName=/dev/mapper/cachedev1qdmId=1lvId=1groupId=0uuid=debd0b9e-6e94-44be-9c88-b4251e6448a1flag=0x1enabled=0reserved=0[CG_0]groupId=0groupName=CG0lvId=-12replaceAlgorithm=LRUbypass_threshold=16384flag=0x0enabled=0member_0=1memberBitmap=0x3member_1=2[SSDCache_2]ssdCacheId=2ssdCacheName=/dev/mapper/cachedev2qdmId=2lvId=2groupId=0uuid=d5eb97b9-3da1-47de-bc4e-c6753e2fcf9fflag=0x1enabled=0reserved=0


    Code
    cat /etc/config/raid.conf


    Code
    [Global]ssdCacheBitmap=0x6cgBitmap=0x1[SSDCache_1]ssdCacheId=1ssdCacheName=/dev/mapper/cachedev1qdmId=1lvId=1groupId=0uuid=debd0b9e-6e94-44be-9c88-b4251e6448a1flag=0x1enabled=0reserved=0[CG_0]groupId=0groupName=CG0lvId=-12replaceAlgorithm=LRUbypass_threshold=16384flag=0x0enabled=0member_0=1memberBitmap=0x3member_1=2[SSDCache_2]ssdCacheId=2ssdCacheName=/dev/mapper/cachedev2qdmId=2lvId=2groupId=0uuid=d5eb97b9-3da1-47de-bc4e-c6753e2fcf9fflag=0x1enabled=0reserved=0[~] #[~] # cat /etc/config/raid.conf[Global]raidBitmap=0x6pd_50014EE25F0BA283_Raid_Bitmap=0x2pd_50014EE209B66FA0_Raid_Bitmap=0x2pd_50014EE65A1E5207_Raid_Bitmap=0x2pd_5000C5002CFB594A_Raid_Bitmap=0x4[RAID_1]uuid=4298ea59:c10a73f1:32f246f6:7fdcecb8id=1partNo=3aggreMember=noreadonly=nolegacy=noversion2=yesdeviceName=/dev/md1raidLevel=5internal=1mdBitmap=0chunkSize=64readAhead=0stripeCacheSize=0speedLimitMax=0speedLimitMin=0data_0=1, 50014EE25F0BA283data_1=2, 50014EE209B66FA0data_2=3, 50014EE65A1E5207dataBitmap=7[RAID_2]uuid=df130144:30690c74:01a8f9a3:1478ff59id=2partNo=3aggreMember=noreadonly=nolegacy=noversion2=yesdeviceName=/dev/md2raidLevel=1internal=1mdBitmap=0chunkSize=0readAhead=0stripeCacheSize=0speedLimitMax=0speedLimitMin=0data_0=4, 5000C5002CFB594AdataBitmap=1


    Code
    cat /etc/config/qlvm.conf


    Code
    [Global]poolIdBitmap=0x6member_1_Pool=1memberIdBitmap=0x6tpIdBitmap=0x6member_2_Pool=2lvIdBitmap=0x30000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000006member_1_LV_Bitmap=0x10000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000002member_2_LV_Bitmap=0x20000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000004[POOL_1]poolId=1tpId=1poolName=vg1flag=0x0threshold=0uuid=PvvrkF-fpg6-RUCZ-ZA1j-IjcZ-RPju-da10L5overThreshold=nomember_0=1memberBitmap=1[MEMBER_1]memberId=1memberName=/dev/md1uuid=4298ea59:c10a73f1:32f246f6:7fdcecb8memberUuid=4oe2M3-1ITA-Y8XH-BHK7-uXY1-W1yt-5pCTg0[TP_1]tpId=1tpName=/dev/mapper/vg1-tp1uuid=RnJ31x-uLQn-YI3g-Tm2y-Qpa6-lzgb-eqSMNltpSize=11605745664metaSize=33554432[POOL_2]poolId=2tpId=2poolName=vg2flag=0x0threshold=0uuid=aAESo6-R24R-51By-Qh71-wzzo-c5r6-7w2RNQoverThreshold=nomember_0=2memberBitmap=1[MEMBER_2]memberId=2memberName=/dev/md2uuid=df130144:30690c74:01a8f9a3:1478ff59memberUuid=wMXJsS-2a0W-tbRp-sYQ0-BgbZ-3Yrn-g6PPNs[TP_2]tpId=2tpName=/dev/mapper/vg2-tp2uuid=oKeIrT-YPMV-FZ0q-HPsF-5LVU-aJpT-bVQpEOtpSize=1880719360metaSize=33554432[LV_1]lvId=1poolId=1layout=0flag=0x10000threshold=0lvName=/dev/mapper/vg1-lv1uuid=7Bwegg-mp8S-BegV-gyYI-RotV-MxYr-piXKR4completeFsResize=yesoverThreshold=nolvSize=11593449472member_0=1memberBitmap=1volName=DataVol1[LV_544]lvId=544poolId=1layout=0flag=0x200000threshold=0lvName=/dev/mapper/vg1-lv544uuid=t4ldEn-h7eV-uhSG-NOjL-gdcI-AnNe-52TsDscompleteFsResize=yesoverThreshold=nolvSize=41943040member_0=1memberBitmap=1volName=[LV_2]lvId=2poolId=2layout=0flag=0x10000threshold=0lvName=/dev/mapper/vg2-lv2uuid=SbloUk-55yp-JPR2-dNzf-SUFR-8RmF-2GFaGbcompleteFsResize=yesoverThreshold=nolvSize=1868423168member_0=2memberBitmap=1volName=DataVol2[LV_545]lvId=545poolId=2layout=0flag=0x200000threshold=0lvName=/dev/mapper/vg2-lv545uuid=3cTDvr-qi1o-Ni9x-PxM5-dZb4-7JHv-cvt799completeFsResize=yesoverThreshold=nolvSize=19333120member_0=2memberBitmap=1volName=


    Code
    ls -la /dev/mapper


  • Übrigens:
    ich habe gerade ne Mail von gestern Nachmittag aus dem Spam-Ordner gefischt. Die kam vom QNAP-Support, den ich ganz am Anfang mal gefragt hatte.
    Die schreiben kurz und bündig:

    Zitat


    Bitte einmal folgenden Befehls satz ablegen, der LVM vergibt eine automatisch Anorndung über den Gerätemapper:

    /etc/init.d/init.lvm.sh restart
    Viel Erfolg!


    Ich weiß nicht, ob das zum Erfolg geführt hätte, aber ich wollte dir die Antwort nicht vorenthalten.


    Ich bin auf jeden Fall ziemlich glücklich, dass du dir die Zeit und Geduld genommen hast, mir zu helfen! Es ist schon blöd zu wissen, dass man alle wichtigen Daten gesichert hat, um dann nicht dran zu kommen! ;)
    Also noch mal: Vielen, vielen Dank!

  • Zitat von "Vossen"


    Ich weiß nicht, ob das zum Erfolg geführt hätte


    Kann ich dir auch nicht sagen. Den Parameter 'restart' kennt das Script nicht. Ansonsten habe ich das Script ja auch zum Schluss angegeben. ;)
    Allerdings enthält es auch nicht mehr, als die zwei Befehle, die auch beim Start des NAS ausgeführt werden:

    Code
    storage_util --sys_startup
    storage_util --sys_startup_p2

    Daher hätte die Platte auch schon beim Start eingebunden werden müssen. Einziger unterschied ist, dass im Script vorher die Konfigurationsdateien umbenannt werden und alle Volumes dem System bekannt sind, was bedeutet, dass die Ausführung der 2 Befehle die Konfigurationsdateien neu erstellen. Ob dies allerdings auch geschieht, wenn beim Systemstart die Konfdateien fehlen und die Volumes dem System noch nicht bekannt sind, das weiss ich nicht.

    Zitat von "Vossen"

    Also noch mal: Vielen, vielen Dank!

    Bitteschön!