[gelöst] SingleDisk mounten auf selbem NAS

  • Hallo zusammen,


    der Titel war ein wenig schwierig zu formulieren, ich hoffe aber, dass er einigermaßen aussagekräftig ist...


    Grundinfos:
    NAS: TS-469L
    Firmware: 4.1.0


    HDDs: WD WD30EFRX 3TB
    Backup-HDD Seagate ST31000528AS 1TB




    Es geht um folgendes:


    Das NAS lief mit zwei HDDs im RAID1. Das Ziel war es, eine dritte HDD hinzuzufügen und ein RAID5 zu erstellen.
    Zur Datensicherung habe ich die Seagate-HDD in Slot4 gesteckt und als Volume hinzugefügt. Danach habe ich fleißig per Console kopiert.


    Nachdem die Daten gesichert waren, habe ich das NAS runtergefahren, die Seagate-Platte entfernt und das gesamte NAS neu initialisiert. Sprich: die drei WD-HDDs als RAID5 konfiguriert.
    Jetzt möchte ich gerne die Daten der Seagate-Platte zurücksichern.
    Wenn ich aber nun übers Frontend die HDD als Volume einbinde, ist sie leer. Das wäre ziemlich blöd.


    Über fdisk -l erfahre ich folgendes:

    Code
    Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes255 heads, 63 sectors/track, 121601 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdd1               1      121602   976762583+  ee  EFI GPT


    Die Platte ist also sdd, bzw. die Partition sdd1.


    Wenn ich nun versuche, die Platte zu mounten, kommt:

    Code
    [/] # mkdir /mnt/HDD_DATA[/] # mount -t ext4 /dev/sdd1 /mnt/HDD_DATAmount: /dev/sdd1 already mounted or /mnt/HDD_DATA busy

    .
    Hmmm - schon gemountet?


    Code
    mount /proc on /proc type proc (rw)devpts on /dev/pts type devpts (rw)sysfs on /sys type sysfs (rw)tmpfs on /tmp type tmpfs (rw,size=64M)none on /proc/bus/usb type usbfs (rw)/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)/dev/mapper/cachedev1 on /share/CACHEDEV1_DATA type ext4 (rw,usrjquota=aquota.user,jqfmt=vfsv0,user_xattr,data=ordered,delalloc,noacl)/dev/md13 on /mnt/ext type ext3 (rw,data=ordered)tmpfs on /.eaccelerator.tmp type tmpfs (rw,size=32M)


    Gemountet ist sdd1 offenbar noch nicht. /mnt/HDD_DATA busy??

    Code
    [/] # mkdir /share/test
    [/] # mount -t ext4 /dev/sdd1 /share/test
    mount: /dev/sdd1 already mounted or /share/test busy

    .


    An dieser Stelle komme ich nicht weiter.


    Bin ich blöd und mache einen dämlichen Fehler? Oder bin ich komplett auf dem Holzweg?


    Vielleicht hat ja einer von euch eine Idee?


    Vielen Dank und viele Grüße


    Bene

  • Zitat von "Vossen"

    Wenn ich aber nun übers Frontend die HDD als Volume einbinde, ist sie leer. Das wäre ziemlich blöd.


    Ob da noch was zu retten ist? Ich befürchte leider nein.

    Zitat von "Vossen"

    Die Platte ist also sdd, bzw. die Partition sdd1.


    Nicht ganz. Es ist eine EFI GPT partitionierte Platte, die fdisk nicht korrekt auslesen kann.

    Code
    parted /dev/sdd print

    sagt dir dazu schon mehr.


    Zitat von "Vossen"

    Hmmm - schon gemountet?


    Jup! und zwar über den RAID1 Verbund md9.

    Code
    cat /proc/mdstat | grep sdd1


    Zitat von "Vossen"
    Code
    /dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)


    Zitat von "Vossen"

    Oder bin ich komplett auf dem Holzweg?


    Das trifft wohl des Pudels Kern.
    Auf den Platten gibt es mehrere Partitionen, wovon nur die dritte die Datenpartition ist. Unter älteren FW-Versionen wäre also die zu mountende Partition sdd3.
    In den neueren NAS, zu denen deine 469L gehört, werden die Platten ab FW4.x.x per LVM verwaltet, was alles verkompliziert hat. So wird die Datenpartition erstmal als pv (Physical Volume)in eine vg (Volume Group) eingebunden, auf welcher dann wiederum lv (Logical Volume) erstellt werden.
    Da du das NAS nun neu initialisiert hast, ist die UUID der Platte dem NAS unbekannt somit wird diese neu eingebunden. Übernimmst du diese als neues Volume, wird sie auch neu eingerichtet. Zumindest ist ersteinmal davon auszugehen.
    Leider gibt es von QNAP noch keine Informationen dazu, wie dies auf den NAS abgebildet ist. Der komplette Prozess befindet sich in einer ausfürbaren Datei namens storage_util.
    Was man wo in den Konfigurationsdateien einstellen müsste und wie die ID's/Bitmaps gebildet werden, ist mir zumindest bisher noch einigermassen unklar. QNAP erzeugt unter Anderem auch eine qlvm.conf und eine raid.conf deren Datenherkunft ich noch nicht komplett kenne.

  • Danke, Dr. Mike, für deine ausführliche Antwort.


    Das ist ja scheinbar deutlich komplizierter, als ich dachte. So ne Kacke. Blöd nur, dass ich vorher nicht geahnt habe, wie sehr ich auf den Holzweg komme.


    Wenn ich dich also richtig verstanden habe, gibt es im Moment noch keine Möglichkeit, an die Daten ranzukommen? Das wäre ziemlich ärgerlich.


    Übrigens finde ich die Ausgabe:


    Code
    cat /proc/mdstat | grep sdd1
    md9 : active raid1 sda1[0] sdd1[24] sdc1[2] sdb1[1]


    interessant. Was sagt sie mir?


    Vielen Dank!!


    Bene

  • Zitat von "Vossen"

    Übrigens finde ich die Ausgabe interessant. Was sagt sie mir?


    Sie besagt, dass die Partitionen sd[abcd]1 Member des aktiven RAID1-Verbundes md9 sind.
    md9 wiederum ist laut deiner Ausgabe der Mounts auf /mnt/HDA_ROOT gemounted welches wiederum das essentielle Verzeichnis ist, in dem die meisten Konfigurationsdaten liegen.

  • Hallo DrMike,


    Entschuldigung, ich habe gestern ziemlich unkonkret gefragt...

    Zitat von "dr_mike"

    Sie besagt, dass die Partitionen sd[abcd]1 Member des aktiven RAID1-Verbundes md9 sind.


    Ja, das ist es, was mich irritiert. Denn eigentlich habe ich ein RAID5-Verbund, dem drei Festplatten angehören. Siehe:


    Laut

    Code
    cat /proc/mdstat | grep sdd1
    md9 : active raid1 sda1[0] sdd1[24] sdc1[2] sdb1[1]


    müssten aber alle vier Platten an einem RAID1-Verbund eingebunden sein....
    [edit anfang]Gerade wurde mir bewusst, dass es ja jeweils die erste Partition 1 ist, die dem RAID1 angehören soll. Die eigentliche Datenpartition ist ja aber sdd3.
    Gibt es dafür eine Erklärung?
    Ich hoffe, ich gehe euch nicht auf den Sack mit den Fragen. Ich versuche, möglichst viel zu verstehen...
    [edit ende]


    Ich fasse noch einmal zusammen, was ich bisher verstanden habe:
    Die Platte ist GPT-formatiert. Das heißt, ein einfaches mounten über mount -t XXX /dev/sdd3 /mnt/XYZ funktioniert nicht mehr.#
    Das NAS kennt das Volume nicht und müsste es über die GUID eingebunden werden. Leider ist nicht bekannt, an welcher Stelle und wie es eingebunden werden muss.


    Soweit richtig?


    Das zusammen ergibt die Tatsache, dass ich bis auf weiteres nicht an die Daten nicht rankomme, bis bekannt wird, dass wie man ein GPT-Laufwerk einbindet?


    Beste Grüße


    Bene

  • Zitat von "Vossen"

    Die Platte ist GPT-formatiert. Das heißt, ein einfaches mounten über mount -t XXX /dev/sdd3 /mnt/XYZ funktioniert nicht mehr


    Nein, das hat nichts mit GPT zu tun. nur fdisk kann GPT nicht korrekt anzeigen.
    Dass das normale Mounten nicht mehr geht, hat was mit dem LVM-Management zu tun.


    Lass mal den kompletten RAID-Status sehen

    Code
    cat /proc/mdstat


    und welche Partitionen das NAS kennt

    Code
    cat /proc/partitions
  • Zitat von "dr_mike"

    Dass das normale Mounten nicht mehr geht, hat was mit dem LVM-Management zu tun.


    Ah, okay. Dann ist LVM also das, was mich ärgert (neben meiner Dämlichkeit, Dinge zu tun, bevor ich Ahnung davon hatte ;-D ).


    Ausgabe cat /proc/mdstat:

    Code
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md1 : active raid5 sda3[0] sdc3[2] sdb3[1]		 5840623232 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]		 530112 blocks super 1.0 [2/2] [UU]		 bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sdd4[24] sda4[0] sdc4[2] sdb4[1]		 458880 blocks super 1.0 [24/4] [UUUU____________________]		 bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sdd1[24] sda1[0] sdc1[2] sdb1[1]		 530048 blocks super 1.0 [24/4] [UUUU____________________]		 bitmap: 1/1 pages [4KB], 65536KB chunkunused devices: <none>


    Ausgabe cat /proc/partitions:


    Ich hoffe, es ist aufschlussreich!?

    Einmal editiert, zuletzt von dr_mike () aus folgendem Grund: Quote repariert.

  • Code
    ls -la /dev/mapper

    gibt folgendes aus:


    Code
    drwxr-xr-x    2 admin    administ       180 Sep  8 20:14 ./
    drwxr-xr-x   15 admin    administ     20400 Sep 10 03:00 ../
    brw-------    1 admin    administ  253,   0 Sep  8 20:14 cachedev1
    crw-------    1 admin    administ   10, 236 Sep  8 22:49 control
    brw-------    1 admin    administ  253,   5 Sep  8 20:14 vg1-lv1
    brw-------    1 admin    administ  253,   4 Sep  8 20:14 vg1-tp1
    brw-------    1 admin    administ  253,   3 Sep  8 20:14 vg1-tp1-tpool
    brw-------    1 admin    administ  253,   2 Sep  8 20:14 vg1-tp1_tdata
    brw-------    1 admin    administ  253,   1 Sep  8 20:14 vg1-tp1_tmeta
  • pvdisplay:

    Code
    --- Physical volume ---  PV Name               /dev/md1  VG Name               vg1  PV Size               5.44 TiB / not usable 1.62 MiB  Allocatable           yes (but full)  PE Size               4.00 MiB  Total PE              1425933  Free PE               0  Allocated PE          1425933  PV UUID               4oe2M3-1ITA-Y8XH-BHK7-uXY1-W1yt-5pCTg0


    vgdisplay:

    Code
    --- Volume group ---  VG Name               vg1  System ID               Format                lvm2  Metadata Areas        1  Metadata Sequence No  6  VG Access             read/write  VG Status             resizable  MAX LV                0  Cur LV                3  Open LV               1  Max PV                0  Cur PV                1  Act PV                1  VG Size               5.44 TiB  PE Size               4.00 MiB  Total PE              1425933  Alloc PE / Size       1425933 / 5.44 TiB  Free  PE / Size       0 / 0     VG UUID               PvvrkF-fpg6-RUCZ-ZA1j-IjcZ-RPju-da10L5


    lvdisplay:

  • pvscan

    Code
    PV /dev/md1   VG vg1   lvm2 [5.44 TiB / 0    free]  Total: 1 [5.44 TiB] / in use: 1 [5.44 TiB] / in no VG: 0 [0   ]


    vgscan

    Code
    Reading all physical volumes.  This may take a while...  Found volume group "vg1" using metadata type lvm2


    lvscan

    Code
    inactive          '/dev/vg1/lv544' [20.00 GiB] inherit  ACTIVE            '/dev/vg1/tp1' [5.40 TiB] inherit  ACTIVE            '/dev/vg1/lv1' [5.40 TiB] inherit


    lvmdiskscan

    Code
    /dev/md256 [     517.69 MiB] 
      /dev/md1   [       5.44 TiB] LVM physical volume
      /dev/md9   [     517.62 MiB] 
      /dev/md13  [     448.12 MiB] 
      0 disks
      3 partitions
      0 LVM physical volume whole disks
      1 LVM physical volume


    Magst du kurz erklären, was du aus den Daten liest? Wenn es dir zu aufwändig ist, musste das nicht. Aber wie vorher schon mal geschrieben: ich interessiere mich für das, was im NAS passiert und würde es gerne ein wenig besser verstehen.
    Aber - wie auch schon geschrieben: wenn es dir zu aufwändig ist, musste es auch nicht erklären! Ich bin schon ziemlich froh und dankbar, dass du dich meines Probems annimmst!


    Beste Grüße
    Bene

  • Zitat von "Vossen"

    Magst du kurz erklären, was du aus den Daten liest?


    Ich versuche herauszufinden, welche Volume-Groups und logischen Volumes das NAS erkannt oder auch nicht erkannt hat.
    Leider taucht dabei deine einzelne Platte nirgends auf.
    Für die meisten bisherigen Kommandos findest du Erklärungen, wenn du z.B. in Google nach 'man Kommando' suchst (z.B.: 'man vgdisplay' oder ganz allgemein 'man lvm').
    Wie QNAP das dann alles zusammensetzt, ist wie schon gesagt noch nicht ganz durchsichtig.

  • Die Einzelne HDD ist logisch ja auch nicht eingebunden. Sie ist physikalisch erkannt (siehe Screenshot) , aber mehr habe ich ja noch nicht gemacht. Denn wenn ich per QTS die HDD logisch einbinden würde, würde sie ja gelöscht werden.
    Insofern ist es doch logisch, dass sie nicht als Volume bekannt ist, oder sehe ich das falsch?

  • Zitat von "Vossen"

    Die Einzelne HDD ist logisch ja auch nicht eingebunden. Sie ist physikalisch erkannt (siehe Screenshot)


    Das habe ich schon herausgefunden.
    Aber du hast geschrieben.

    Zitat von "Vossen"

    Zur Datensicherung habe ich die Seagate-HDD in Slot4 gesteckt und als Volume hinzugefügt. Danach habe ich fleißig per Console kopiert.


    Das heisst, auf der Platte müsste ja die Signatur für das Volume vorhanden sein - ist sie aber iwie nicht.


    Was sagt denn ein

    Code
    mdadm -E /dev/sdd3
  • Code
    mdadm -E /dev/sdd3


    liefert:


    Zitat von "dr_mike"

    Das heisst, auf der Platte müsste ja die Signatur für das Volume vorhanden sein - ist sie aber iwie nicht.


    Das könnte daran liegen, dass ich ja das NAS komplett neu initialisiert habe. D.h. doch, dass alle logischen Datenträger gelöscht werden, oder?


    Zitat von "Vossen"

    Danach habe ich fleißig per Console kopiert.
    [...]das gesamte NAS neu initialisiert

    Einmal editiert, zuletzt von GorillaBD () aus folgendem Grund: Code Block hinzugefügt! ;-))

  • Na damit sollte man doch was anfangen können. :mrgreen:


    Code
    mdadm /dev/md2 -AfR /dev/sdd3
    pvscan
    vgscan
    lvscan
    lvmdiskscan


    Klingt verrückt, aber die Partition gehört zu einem RAID1 mit nur einem Member. ;)

  • Code
    mdadm /dev/md2 -AfR /dev/sdd3


    Code
    mdadm: failed to get exclusive lock on mapfile - continue anyway...mdadm: /dev/md2 has been started with 1 drive.


    Code
    pvscan


    Code
    PV /dev/md2   VG vg2   lvm2 [922.02 GiB / 0    free]  PV /dev/md1   VG vg1   lvm2 [5.44 TiB / 0    free]  Total: 2 [6.34 TiB] / in use: 2 [6.34 TiB] / in no VG: 0 [0   ]


    Code
    vgscan


    Code
    Reading all physical volumes.  This may take a while...  Found volume group "vg2" using metadata type lvm2  Found volume group "vg1" using metadata type lvm2


    Code
    lvscan
    Code
    inactive          '/dev/vg2/lv545' [9.22 GiB] inherit  inactive          '/dev/vg2/tp2' [896.80 GiB] inherit  inactive          '/dev/vg2/lv2' [890.93 GiB] inherit  inactive          '/dev/vg1/lv544' [20.00 GiB] inherit  ACTIVE            '/dev/vg1/tp1' [5.40 TiB] inherit  ACTIVE            '/dev/vg1/lv1' [5.40 TiB] inherit


    Code
    lvmdiskscan


    Code
    /dev/md256 [     517.69 MiB] 
      /dev/md1   [       5.44 TiB] LVM physical volume
      /dev/md2   [     922.02 GiB] LVM physical volume
      /dev/md9   [     517.62 MiB] 
      /dev/md13  [     448.12 MiB] 
      0 disks
      3 partitions
      0 LVM physical volume whole disks
      2 LVM physical volumes