Hallo Experten,
ich bin verzweifelt und brauche Hilfe.
Ich hab eine TS-251+ mit einer SSD und einer HDD als Einzellaufwerke.
Das System lief ca. 6 Monate einwandfrei mit 2 HDDS als Raid 1. Da ich aber eine VM drauf laufen lasse und mir das zu langsam war, habe ich mir eine neue SSD und HDD gekauft und das System neu konfiguriert.
Ich habe nur die Einstellungen der NAS übernommen, die 2 Platten als Einzellaufwerke eingebunden, also einen Speicherpool für die SSD und einen für die HDD erstellt. Seltsam war hier, das die SSD nun Speicherpool 2 war und die HDD Speicherpool 3.
Irgendwie hat er den alten Speicherpool des Raid1 mit aus der Konfig genommen und als Pool 1 automatisch übernommen, allerdings ohne Volume also leer. Hat mich zwar etwas gestört aber nun gut nicht weiter schlimm. Siehe Bild.
Vor ca. 10 Tagen hab ich ein Update auf 4.5.1.1480 gemacht, danach war plötzlich mein Speicherpool 2 also SSD entladen.
Ich hab schon hier im Forum diverse Beiträge durchgelesen und mich an Putty probiert allerdings ohne etwas wirklich zu verändern.
Würde ja gerne einen Filecheck durch Putty durchführen aber ich weiss nicht mal genau was ich dafür tun muss. Der Befehl e2fsck gibt mir dann immer "in USE" aus.
Theoretisch steckt die SSD in SLOT 1 und müsste SDA sein und die HDD in 2 also SDB, aber was ist mit dem leeren Speicherpool 1, funkt der dazwischen?
Welches Laufwerk muss ich hier umouten um den Filecheck machen zu können?
Ticket bei QNAP ist schon über eine Woche auf, da kam sehr kurzfristig eine Antwort ich soll in der Verwaltungsoberfläche doch bitte das Dateisystem prüfen.
Seit dem ist dort keine Reaktion mehr.
Ich hoffe hier kann mir jemand helfen. Meine letzte Sicherung ist jetzt 4 Wochen her, ich versuche das dazwischen nicht zu verlieren.
Vielen Dank im vorraus
[~] # df
Filesystem Size Used Available Use% Mounted on
none 400.0M 261.5M 138.5M 65% /
devtmpfs 3.8G 8.0K 3.8G 0% /dev
tmpfs 64.0M 540.0K 63.5M 1% /tmp
tmpfs 3.8G 136.0K 3.8G 0% /dev/shm
tmpfs 16.0M 8.0K 16.0M 0% /share
/dev/sdc5 7.8M 28.0K 7.8M 0% /mnt/boot_config
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 137.6M 355.9M 28% /mnt/HDA_ROOT
cgroup_root 3.8G 0 3.8G 0% /sys/fs/cgroup
/dev/md13 417.0M 383.4M 33.6M 92% /mnt/ext
/dev/ram2 433.9M 2.3M 431.6M 1% /mnt/update
tmpfs 64.0M 3.3M 60.7M 5% /samba
Alles anzeigen
[~] # cat /proc/partitions
major minor #blocks name
1 0 204800 ram0
1 1 458752 ram1
1 2 458752 ram2
1 3 204800 ram3
1 4 204800 ram4
1 5 204800 ram5
1 6 204800 ram6
1 7 204800 ram7
1 8 204800 ram8
1 9 204800 ram9
1 10 204800 ram10
1 11 204800 ram11
1 12 204800 ram12
1 13 204800 ram13
1 14 204800 ram14
1 15 204800 ram15
8 0 3907018584 sda
8 1 530125 sda1
8 2 530142 sda2
8 3 3897063763 sda3
8 4 530144 sda4
8 5 8353796 sda5
8 16 488386584 sdb
8 17 530125 sdb1
8 18 530142 sdb2
8 19 478431763 sdb3
8 20 530144 sdb4
8 21 8353796 sdb5
8 32 503808 sdc
8 33 5244 sdc1
8 34 240768 sdc2
8 35 240768 sdc3
8 36 1 sdc4
8 37 8304 sdc5
8 38 8688 sdc6
9 9 530048 md9
9 13 458880 md13
9 321 8283712 md321
9 256 530112 md256
9 322 7235136 md322
9 1 430588416 md1
9 2 3897063616 md2
147 1 430587868 drbd1
147 2 3897062556 drbd2
253 1 67108864 dm-1
253 2 4096 dm-2
253 3 4096 dm-3
253 4 3790983168 dm-4
253 5 3790983168 dm-5
253 6 3789344768 dm-6
253 7 3789344768 dm-7
253 8 3221225472 dm-8
253 0 3221225472 dm-0
Alles anzeigen
[~] # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi path]
md2 : active raid1 sda3[0]
3897063616 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdb3[0]
430588416 blocks super 1.0 [1/1] [U]
md322 : active raid1 sda5[0]
7235136 blocks super 1.0 [2/1] [U_]
bitmap: 1/1 pages [4KB], 65536KB chunk
md256 : active raid1 sda2[0]
530112 blocks super 1.0 [2/1] [U_]
bitmap: 1/1 pages [4KB], 65536KB chunk
md321 : active raid1 sdb5[0]
8283712 blocks super 1.0 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdb4[0] sda4[64]
458880 blocks super 1.0 [64/2] [UU________________________________________ ______________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdb1[0] sda1[64]
530048 blocks super 1.0 [64/2] [UU________________________________________ ______________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Alles anzeigen
[~] # md_checker
Welcome to MD superblock checker (v2.0) - have a nice day~
Scanning system...
RAID metadata found!
UUID: d5832ec7:5322ba5b:b2e4f578:33a36dfa
Level: raid1
Devices: 1
Name: md1
Chunk Size: -
md Version: 1.0
Creation Time: Oct 11 18:03:41 2020
Status: ONLINE (md1) [U]
================================================================================ ===============
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
================================================================================ ===============
NAS_HOST 1 /dev/sdb3 0 Active Nov 10 21:15:57 2020 24 A
================================================================================ ===============
RAID metadata found!
UUID: a92abf54:56c0f5fc:c8862a86:9cc32022
Level: raid1
Devices: 1
Name: md2
Chunk Size: -
md Version: 1.0
Creation Time: Oct 11 23:49:55 2020
Status: ONLINE (md2) [U]
================================================================================ ===============
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
================================================================================ ===============
NAS_HOST 2 /dev/sda3 0 Active Nov 10 21:33:44 2020 23 A
================================================================================ ===============
Alles anzeigen