Hallo,
ich bitte um eure Hilfe bei folgendem Problem: Mein derzeitiges Raid besteht aus 4 x 4 TB WD Wd40EFRX. Da der Speicherplatz nun zur Neige geht wollte ich eine Kapazitätserweiterung durchführen. Die habe ich bei anderen QNAP NAS' bereits öfter durchgeführt und es gab keine Probleme.
Nur diese Mal wurde beim einstecken der ersten neuen HDD ( 5TB WD50EFRX) die dritte HD in der NAS als fehlend gekennzeichnet und die Erweiterung brach ab.
Nun habe ich die NAS neu gestartet und dabei die vorher verwendete 4TB HDD wieder in den ersten Slot gesteckt. Nun steht der Status des Raid auf Fehler (ERR_GENERIC")! Mit SSH komme ich auf die NAS. Was kann ich nun machen?
Angaben zum System: Neuseste FW (4.1.1 2014-11-01)
[~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0] 530112 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdd4[25] sdc4[24] sdb4[1] 458880 blocks super 1.0 [24/4] [UUUU____________________] bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sda1[0] sdd1[25] sdc1[24] sdb1[1] 530048 blocks super 1.0 [24/4] [UUUU____________________] bitmap: 1/1 pages [4KB], 65536KB chunkunused devices: <none>
[~] # fdisk -lDisk /dev/sda: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sda1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdc: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdc1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdb: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdb1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdd: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdd1 1 267350 2147483647+ ee EFI GPTDisk /dev/sde: 515 MB, 515899392 bytes8 heads, 32 sectors/track, 3936 cylindersUnits = cylinders of 256 * 512 = 131072 bytes Device Boot Start End Blocks Id System/dev/sde1 1 41 5244 83 Linux/dev/sde2 * 42 1922 240768 83 Linux/dev/sde3 1923 3803 240768 83 Linux/dev/sde4 3804 3936 17024 5 Extended/dev/sde5 3804 3868 8304 83 Linux/dev/sde6 3869 3936 8688 83 LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytes
[~] # mdadm --examine --scan
ARRAY /dev/md/9 metadata=1.0 UUID=95fff832:9807b3ce:714752e2:12ae5660 name=9
ARRAY /dev/md/256 metadata=1.0 UUID=d1e889b5:39e9691e:d78af25d:f4c22bf7 name=256
spares=2
ARRAY /dev/md/1 metadata=1.0 UUID=1af2444c:4777463d:f524576d:30230f35 name=1
ARRAY /dev/md/13 metadata=1.0 UUID=6d9b5242:6ae4473d:3eb0785c:098327da name=13
ARRAY /dev/md/321 metadata=1.0 UUID=4a84df11:ad2ceab8:992e5874:f4cc4494 name=321
[~] #
Von Linux habe ich leider keine Ahnung. Ich habe jedoch schon begriffen, dass mdadm hier mein Freund sein könnte. Dennoch habe ich die Befürchtung, etwas falsch zu machen und bitte daher um Hilfestellung. Soweit ich denke, sind die Daten noch vorhanden und die Disks "clean". Wahrscheinlich müssen die Disks assembled werden. ich bin mir auch deshalb nicht sicher, weil ich früher MD0_DATA als Pfad hatte und nun CACHEDEV1_DATA was wohl auf die verwendung vom neuen (?) LVM-Manager hinweist. (?)