Das hab ich schon ein paarmal gemacht. Dauert immer fast einen Tag und hat nix gebracht.
Beiträge von Hullygully
-
-
Vielen Dank für den Tip.
Das mit dem Ticket werde ich morgen in Angriff nehmen.
Ich hab aber trotzdem deinen Vorschlag ausprobiert. Wäre ein schönes Geburtstagsgeschenk gewesen, wenn's geklappt hätte.
Aber der "lvconvert" scheint nicht auf Thick-Volumes zu gehen.
Ich bekomme folgende Fehlermeldung:
Es wäre zu schön gewesen. Es gibt zwar noch eine Option zum Konvertieren in ein Thin-Volume. Aber dann ist wohl wirklich alles im A****. Da lass ich die Finger weg.
Gibt's sonst noch eine Option zum Reparieren?
-
Hallo zusammen,
erstmal noch ein gutes Jahr, auch wenn meins nicht so großartig angefangen hat.
Bei meinem QNAP TS-669 ging eine Platte des RAID5 auf "abnormal". Nachdem ich die Platte gegen eine neue Platte (gleicher Typ) ausgetauscht habe hat das RAID einen rebuild gemacht. Soweit sah alles gut aus. Aber danach ging das RAID nicht mehr online sondern auf "Entladen".
Hab überall gesucht und alles Mögliche schon ausprobiert. Ich bekomme das Ding einfach nicht mehr Online.
Das Ganze ist während meines längeren Auslandsaufenthaltes hier passiert und da waren leider nicht alle Daten gesichert.
Wenn ich alles hätte, würde ich einfach neu aufsetzen aber so hoffe ich halt noch auf ein Wunder.
Ich hoffe ihr könnt mir helfen.
Zur Konfiguration:
QNAP TS-669
Firmware 4.3.4.0931
RAID5 bestehend aus 6x 3 TB Platten (TOSHIBA DT01ACA300 (SATA))
1 Thick-Volume 13,6 TB (17% frei = 2,25 TB)
Hier sind noch einige Ausgaben zum Systemstatus.
Ich hoffe so sehr, dass ihr mir weiterhelfen könnt!!!!!
Code
Alles anzeigenWelcome to MD superblock checker (v1.4) - have a nice day~ Scanning system... HAL firmware detected! Scanning Enclosure 0... RAID metadata found! UUID: 4986d2ea:63baf3be:ffc9cf75:6e12e79d Level: raid5 Devices: 6 Name: md1 Chunk Size: 64K md Version: 1.0 Creation Time: May 5 10:27:54 2016 Status: ONLINE (md1) [UUUUUU] =============================================================================== Disk | Device | # | Status | Last Update Time | Events | Array State =============================================================================== 1 /dev/sda3 0 Active Jan 2 17:54:39 2023 449006 AAAAAA 2 /dev/sdb3 1 Active Jan 2 17:54:39 2023 449006 AAAAAA 3 /dev/sdc3 2 Active Jan 2 17:54:39 2023 449006 AAAAAA 4 /dev/sdd3 3 Active Jan 2 17:54:39 2023 449006 AAAAAA 5 /dev/sde3 4 Active Jan 2 17:54:39 2023 449006 AAAAAA 6 /dev/sdf3 5 Active Jan 2 17:54:39 2023 449006 AAAAAA =============================================================================== [~] # dmsetup ls --tree cachedev1 (253:5) └─vg1-lv1 (253:4) └─vg1-tp1-tpool (253:2) ├─vg1-tp1_tdata (253:1) │ └─ (9:1) └─vg1-tp1_tmeta (253:0) └─ (9:1) vg1-tp1 (253:3) └─vg1-tp1-tpool (253:2) ├─vg1-tp1_tdata (253:1) │ └─ (9:1) └─vg1-tp1_tmeta (253:0) └─ (9:1) [~] # lvscan inactive '/dev/vg1/lv544' [139.25 GiB] inherit ACTIVE '/dev/vg1/tp1' [13.45 TiB] inherit ACTIVE '/dev/vg1/lv1' [13.45 TiB] inherit [~] # lvdisplay --- Logical volume --- LV Path /dev/vg1/lv544 LV Name lv544 VG Name vg1 LV UUID w2qN1R-xnr6-02qd-d2V6-uF3o-mt3O-gVkqiM LV Write Access read/write LV Creation host, time NASD83EFD, 2016-05-05 10:27:56 +0200 LV Status NOT available LV Size 139.25 GiB Current LE 35648 Segments 2 Allocation inherit Read ahead sectors 8192 --- Logical volume --- LV Name tp1 VG Name vg1 LV UUID TZPw0L-ivOY-6Mhu-Sq8r-HgHx-gAIs-rJZBUw LV Write Access read/write LV Creation host, time NASD83EFD, 2016-05-05 10:27:59 +0200 LV Pool metadata tp1_tmeta LV Pool data tp1_tdata LV Status available # open 2 LV Size 13.45 TiB Allocated pool data 99.99% Allocated pool chunks 14099200 Allocated metadata 2.71% Current LE 3525089 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 4096 Block device 253:2 --- Logical volume --- LV Path /dev/vg1/lv1 LV Name lv1 VG Name vg1 LV UUID EHdphl-Dwdj-rO3d-lmj3-77Ul-IGMB-M9aYgt LV Write Access read/write LV Creation host, time NASD83EFD, 2016-05-05 10:28:11 +0200 LV Pool name tp1 Huge memory allocation (size 67108864) rejected - metadata corruption? Couldn't create ioctl argument. LV Status available # open 1 LV Size 13.45 TiB Current LE 3524800 Segments 1 Allocation inherit Read ahead sectors 8192 Block device 253:4 [~] # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md1 : active raid5 sda3[0] sdf3[5] sde3[4] sdd3[7] sdc3[2] sdb3[1] 14601558080 blocks super 1.0 level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU] bitmap: 0/22 pages [0KB], 65536KB chunk md322 : active raid1 sdf5[5](S) sde5[4](S) sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0] 7235136 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md256 : active raid1 sdf2[5](S) sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0] 530112 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md13 : active raid1 sda4[0] sdf4[5] sde4[4] sdd4[24] sdc4[2] sdb4[1] 458880 blocks super 1.0 [24/6] [UUUUUU__________________] bitmap: 1/1 pages [4KB], 65536KB chunk md9 : active raid1 sda1[0] sdf1[5] sde1[4] sdd1[24] sdc1[2] sdb1[1] 530048 blocks super 1.0 [24/6] [UUUUUU__________________] bitmap: 1/1 pages [4KB], 65536KB chunk unused devices: <none> [~] # df -h Filesystem Size Used Available Use% Mounted on none 200.0M 180.4M 19.6M 90% / devtmpfs 990.7M 8.0K 990.7M 0% /dev tmpfs 64.0M 324.0K 63.7M 0% /tmp tmpfs 996.6M 0 996.6M 0% /dev/shm tmpfs 16.0M 4.0K 16.0M 0% /share /dev/md9 509.5M 135.0M 374.5M 26% /mnt/HDA_ROOT cgroup_root 996.6M 0 996.6M 0% /sys/fs/cgroup /dev/md13 371.0M 315.3M 55.7M 85% /mnt/ext /dev/ram2 433.9M 2.3M 431.6M 1% /mnt/update tmpfs 64.0M 2.4M 61.6M 4% /samba tmpfs 16.0M 44.0K 16.0M 0% /samba/.samba/lock/msg.lock tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock tmpfs 1.0M 0 1.0M 0% /mnt/rf/nd tmpfs 16.0M 0 16.0M 0% /share/NFSv=4