Hallo zusammen,
erstmal noch ein gutes Jahr, auch wenn meins nicht so großartig angefangen hat.
Bei meinem QNAP TS-669 ging eine Platte des RAID5 auf "abnormal". Nachdem ich die Platte gegen eine neue Platte (gleicher Typ) ausgetauscht habe hat das RAID einen rebuild gemacht. Soweit sah alles gut aus. Aber danach ging das RAID nicht mehr online sondern auf "Entladen".
Hab überall gesucht und alles Mögliche schon ausprobiert. Ich bekomme das Ding einfach nicht mehr Online.
Das Ganze ist während meines längeren Auslandsaufenthaltes hier passiert und da waren leider nicht alle Daten gesichert.
Wenn ich alles hätte, würde ich einfach neu aufsetzen aber so hoffe ich halt noch auf ein Wunder.
Ich hoffe ihr könnt mir helfen.
Zur Konfiguration:
QNAP TS-669
Firmware 4.3.4.0931
RAID5 bestehend aus 6x 3 TB Platten (TOSHIBA DT01ACA300 (SATA))
1 Thick-Volume 13,6 TB (17% frei = 2,25 TB)
Hier sind noch einige Ausgaben zum Systemstatus.
Ich hoffe so sehr, dass ihr mir weiterhelfen könnt!!!!!
Welcome to MD superblock checker (v1.4) - have a nice day~
Scanning system...
HAL firmware detected!
Scanning Enclosure 0...
RAID metadata found!
UUID: 4986d2ea:63baf3be:ffc9cf75:6e12e79d
Level: raid5
Devices: 6
Name: md1
Chunk Size: 64K
md Version: 1.0
Creation Time: May 5 10:27:54 2016
Status: ONLINE (md1) [UUUUUU]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
1 /dev/sda3 0 Active Jan 2 17:54:39 2023 449006 AAAAAA
2 /dev/sdb3 1 Active Jan 2 17:54:39 2023 449006 AAAAAA
3 /dev/sdc3 2 Active Jan 2 17:54:39 2023 449006 AAAAAA
4 /dev/sdd3 3 Active Jan 2 17:54:39 2023 449006 AAAAAA
5 /dev/sde3 4 Active Jan 2 17:54:39 2023 449006 AAAAAA
6 /dev/sdf3 5 Active Jan 2 17:54:39 2023 449006 AAAAAA
===============================================================================
[~] # dmsetup ls --tree
cachedev1 (253:5)
└─vg1-lv1 (253:4)
└─vg1-tp1-tpool (253:2)
├─vg1-tp1_tdata (253:1)
│ └─ (9:1)
└─vg1-tp1_tmeta (253:0)
└─ (9:1)
vg1-tp1 (253:3)
└─vg1-tp1-tpool (253:2)
├─vg1-tp1_tdata (253:1)
│ └─ (9:1)
└─vg1-tp1_tmeta (253:0)
└─ (9:1)
[~] # lvscan
inactive '/dev/vg1/lv544' [139.25 GiB] inherit
ACTIVE '/dev/vg1/tp1' [13.45 TiB] inherit
ACTIVE '/dev/vg1/lv1' [13.45 TiB] inherit
[~] # lvdisplay
--- Logical volume ---
LV Path /dev/vg1/lv544
LV Name lv544
VG Name vg1
LV UUID w2qN1R-xnr6-02qd-d2V6-uF3o-mt3O-gVkqiM
LV Write Access read/write
LV Creation host, time NASD83EFD, 2016-05-05 10:27:56 +0200
LV Status NOT available
LV Size 139.25 GiB
Current LE 35648
Segments 2
Allocation inherit
Read ahead sectors 8192
--- Logical volume ---
LV Name tp1
VG Name vg1
LV UUID TZPw0L-ivOY-6Mhu-Sq8r-HgHx-gAIs-rJZBUw
LV Write Access read/write
LV Creation host, time NASD83EFD, 2016-05-05 10:27:59 +0200
LV Pool metadata tp1_tmeta
LV Pool data tp1_tdata
LV Status available
# open 2
LV Size 13.45 TiB
Allocated pool data 99.99%
Allocated pool chunks 14099200
Allocated metadata 2.71%
Current LE 3525089
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 4096
Block device 253:2
--- Logical volume ---
LV Path /dev/vg1/lv1
LV Name lv1
VG Name vg1
LV UUID EHdphl-Dwdj-rO3d-lmj3-77Ul-IGMB-M9aYgt
LV Write Access read/write
LV Creation host, time NASD83EFD, 2016-05-05 10:28:11 +0200
LV Pool name tp1
Huge memory allocation (size 67108864) rejected - metadata corruption?
Couldn't create ioctl argument.
LV Status available
# open 1
LV Size 13.45 TiB
Current LE 3524800
Segments 1
Allocation inherit
Read ahead sectors 8192
Block device 253:4
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid5 sda3[0] sdf3[5] sde3[4] sdd3[7] sdc3[2] sdb3[1]
14601558080 blocks super 1.0 level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md322 : active raid1 sdf5[5](S) sde5[4](S) sdd5[3](S) sdc5[2](S) sdb5[1] sda5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sdf2[5](S) sde2[4](S) sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sda4[0] sdf4[5] sde4[4] sdd4[24] sdc4[2] sdb4[1]
458880 blocks super 1.0 [24/6] [UUUUUU__________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sda1[0] sdf1[5] sde1[4] sdd1[24] sdc1[2] sdb1[1]
530048 blocks super 1.0 [24/6] [UUUUUU__________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
[~] # df -h
Filesystem Size Used Available Use% Mounted on
none 200.0M 180.4M 19.6M 90% /
devtmpfs 990.7M 8.0K 990.7M 0% /dev
tmpfs 64.0M 324.0K 63.7M 0% /tmp
tmpfs 996.6M 0 996.6M 0% /dev/shm
tmpfs 16.0M 4.0K 16.0M 0% /share
/dev/md9 509.5M 135.0M 374.5M 26% /mnt/HDA_ROOT
cgroup_root 996.6M 0 996.6M 0% /sys/fs/cgroup
/dev/md13 371.0M 315.3M 55.7M 85% /mnt/ext
/dev/ram2 433.9M 2.3M 431.6M 1% /mnt/update
tmpfs 64.0M 2.4M 61.6M 4% /samba
tmpfs 16.0M 44.0K 16.0M 0% /samba/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock
tmpfs 1.0M 0 1.0M 0% /mnt/rf/nd
tmpfs 16.0M 0 16.0M 0% /share/NFSv=4
Alles anzeigen