Hallo,
ich habe zufaellig gesehen, dass /etc/mdadm.conf ein toter link ist und in dmesg steht sowas:
[3286138.580376] ext4_init_reserve_inode_table0: dm-12, 24576
[3286138.585839] ext4_init_reserve_inode_table2: dm-12, 24576, 0, 0, 4096
[3286138.594575] EXT4-fs (dm-12): orphan cleanup on readonly fs
[3286138.708378] EXT4-fs (dm-12): 7 orphan inodes deleted
[3286138.795944] EXT4-fs (dm-12): recovery complete
[3286138.821464] EXT4-fs (dm-12): mounted filesystem with ordered data
Ausserdem ist das cache device ploetzlich 0% allocated. Das vielleicht mal removen?
SSD-QTier habe ich auch im Einsatz, den vielleicht auch schon mal removen? Soll ja inzw. moeglich sein.
System laeuft noch, habe die Sorge, dass beim naechsten reboot das Ding nicht mehr hochfaehrt. Bin gerade leicht nervoes, mir ist gerade erst das backup weggestorben.
Habe das hier mal in das file geschrieben.
# mdadm --detail --scan
ARRAY /dev/md9 metadata=1.0 name=9 UUID=eee9e0d3:0d8829dc:4b21db65:8893ecc7
ARRAY /dev/md13 metadata=1.0 name=13 UUID=339d22dd:20561744:81d60593:a367189e
ARRAY /dev/md321 metadata=1.0 name=321 UUID=198d855a:e3cd265e:36b48562:1f2417c3
ARRAY /dev/md256 metadata=1.0 name=256 UUID=5c9a7a32:a4af1a32:902f73bc:25127c59
ARRAY /dev/md322 metadata=1.0 name=322 UUID=e2d5bef5:2e67f71e:1930ddcd:8bd34448
ARRAY /dev/md2 metadata=1.0 name=2 UUID=048fe29e:8bdc1716:b14ef511:9e3ec223
ARRAY /dev/md1 metadata=1.0 name=1 UUID=90321426:a0197ade:359b14fe:51b05904
ARRAY /dev/md3 metadata=1.0 name=3 UUID=c20e6c12:703b66f2:6cc77f28:3b1e3d6f
Bin mal TS-469L Nach Stromausfall Status "?" durchgegangen.
Die hier fehlen auch, sind leer, der Rest ist da:
# ls -ltr /etc/config/raidtab
-rw-r--r-- 1 admin administrators 0 2019-06-27 14:35 /etc/config/raidtab
# ls -ltr /etc/storage.conf
/bin/ls: cannot access /etc/storage.conf: No such file or directory
RAIDs sind clean, degraded.
Die links sind in /etc/ alle tot:
/etc/mdadm.conf: broken symbolic link to config/mdadm.conf
/etc/rcK.d/K50btd: broken symbolic link to ../init.d/btd.sh
/etc/rcK.d/K07init_iTune: broken symbolic link to ../init.d/init_iTune.sh
/etc/rcK.d/K51versiond: broken symbolic link to ../init.d/versiond.sh
/etc/rcS.d/S65btd: broken symbolic link to ../init.d/btd.sh
/etc/rcS.d/S62GQ: broken symbolic link to ../init.d/GQ.sh
/etc/rcS.d/S99init_iTune: broken symbolic link to ../init.d/init_iTune.sh
/etc/rcS.d/S45vlan: broken symbolic link to ../init.d/vlan.sh
/etc/krb5.conf: broken symbolic link to config/krb5.conf
Gibt's irgendwo einen Button, wo QTS einfach alle Settings noch mal frisch wegschreibt, solange das System laeuft? Nee, wa? Habe auch noch ein aelteres QNAP_settings.bin, hilft das?
Bei fdisk -l kommt fuer alle /dev/dm & md
Ich kann auch output fuer die uebrigens Befehle aus o.g. Post liefern, aber der Post hier hat schon sein Groessenlimit erreicht. Und scheinbar kann man nicht auf sich selbst replyen?
Danke fuer jede Hilfe!
tcn
[/etc] # dmsetup ls --tree
vg1-tmeta_bak (251:13)
└─ (147:1)
CG0ssddev (251:2)
└─vg256-lv256 (251:1)
└─ (9:2)
vg1-snap10001 (251:12)
└─vg1-tp1-tpool (251:8)
├─vg1-tp1_tmeta (251:3)
│ └─ (147:3)
├─vg1-tp1_tierdata_2 (251:7)
│ └─vg1-tp1_tierdata_2_fcorig (251:6)
│ └─ (147:1)
├─vg1-tp1_tierdata_1 (251:5)
└─vg1-tp1_tierdata_0 (251:4)
└─ (147:3)
cachedev1 (251:0)
└─vg1-lv1 (251:10)
└─vg1-tp1-tpool (251:8)
├─vg1-tp1_tmeta (251:3)
│ └─ (147:3)
├─vg1-tp1_tierdata_2 (251:7)
│ └─vg1-tp1_tierdata_2_fcorig (251:6)
│ └─ (147:1)
├─vg1-tp1_tierdata_1 (251:5)
└─vg1-tp1_tierdata_0 (251:4)
└─ (147:3)
vg1-tp1 (251:9)
└─vg1-tp1-tpool (251:8)
├─vg1-tp1_tmeta (251:3)
│ └─ (147:3)
├─vg1-tp1_tierdata_2 (251:7)
│ └─vg1-tp1_tierdata_2_fcorig (251:6)
│ └─ (147:1)
├─vg1-tp1_tierdata_1 (251:5)
└─vg1-tp1_tierdata_0 (251:4)
└─ (147:3)
vg1-lv1312 (251:11)
├─ (147:3)
└─ (147:1)
[/etc] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md3 : active raid1 sda3[0] sdb3[1]
870126592 blocks super 1.0 [2/2] [UU]
bitmap: 1/7 pages [4KB], 65536KB chunk
md1 : active raid1 sdc3[0] sdd3[1]
3897063616 blocks super 1.0 [2/2] [UU]
bitmap: 0/30 pages [0KB], 65536KB chunk
md2 : active raid1 nvme0n1p3[0]
1865418880 blocks super 1.0 [1/1] [U]
md322 : active raid1 sdd5[1] sdc5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sdd2[1] sdc2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md321 : active raid1 nvme0n1p5[0]
8283712 blocks super 1.0 [2/1] [U_]
bitmap: 1/1 pages [4KB], 65536KB chunk
md13 : active raid1 sdc4[0] sdb4[35] sda4[34] nvme0n1p4[33] sdd4[32]
458880 blocks super 1.0 [32/5] [UUUUU___________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdc1[0] sdb1[35] sda1[34] nvme0n1p1[33] sdd1[32]cht diese wieder einzubinden. Leider erfolglos, dachte ich zumindest, denn in Oberfläche wird mir angezeigt, dass die Platte entladen sei und nicht zum Raid gehört.
Darauf habe ich alle Dienste beendet und die Platte per SSH wieder eingebinden. In der Oberfläche steht weiterhin, dass sie nicht dazu geh
530048 blocks super 1.0 [32/5] [UUUUU___________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
Alles anzeigen