Das hat erst mal geklappt. Was sagt jetzt der Befehl lvscan und lvdisplay?
Volume Status entladen (Raid 5)
- chriscres
- Unerledigt
-
-
Code
Alles anzeigen# lvscan inactive '/dev/vg256/lv545' [8.30 GiB] inherit inactive '/dev/vg256/lv256' [806.52 GiB] inherit inactive '/dev/vg1/lv544' [144.00 GiB] inherit inactive '/dev/vg1/tp1' [14.31 TiB] inherit inactive '/dev/vg1/lv1' [10.82 TiB] inherit ACTIVE '/dev/vg1/lv1312' [1.48 GiB] inherit inactive '/dev/vg1/lv2' [2.00 TiB] inherit inactive '/dev/vg1/lv4' [500.00 GiB] inherit [~] # lvdisplay --- Logical volume --- LV Path /dev/vg256/lv545 LV Name lv545 VG Name vg256 LV UUID A070Ix-3TwR-qCMz-Yf6C-vVUM-s6Uj-D0bTVI LV Write Access read/write LV Creation host, time JOSEPH, 2021-07-06 18:40:26 +0200 LV Status NOT available LV Size 8.30 GiB Current LE 2124 Segments 1 Allocation inherit Read ahead sectors 8192 --- Logical volume --- LV Path /dev/vg256/lv256 LV Name lv256 VG Name vg256 LV UUID rJ8F5l-Wk43-yAQO-2MgN-GE1J-TkZA-fXwY5E LV Write Access read/write LV Creation host, time JOSEPH, 2021-07-06 18:40:38 +0200 LV Status NOT available LV Size 806.52 GiB Current LE 206468 Segments 1 Allocation inherit Read ahead sectors 8192 --- Logical volume --- LV Path /dev/vg1/lv544 LV Name lv544 VG Name vg1 LV UUID 9glnHo-nAJ3-EAHJ-1E6N-9k3A-QSQo-HBCaln LV Write Access read/write LV Creation host, time JOSEPH, 2018-10-06 21:17:56 +0200 LV Status NOT available LV Size 144.00 GiB Current LE 36864 Segments 4 Allocation inherit Read ahead sectors 8192 --- Logical volume --- LV Name tp1 VG Name vg1 LV UUID OIIv1s-cRdZ-yepJ-Sm3H-SgA2-5qtF-vx7fFR LV Write Access read/write LV Creation host, time JOSEPH, 2018-10-06 21:17:56 +0200 LV Pool metadata tp1_tmeta LV Pool data tp1_tierdata_0 LV Status NOT available LV Size 14.31 TiB Current LE 3751697 Segments 1 Allocation inherit Read ahead sectors auto --- Logical volume --- LV Path /dev/vg1/lv1 LV Name lv1 VG Name vg1 LV UUID 19zfBc-Wk5J-iRk2-1XsN-nEjS-bhus-G87HvS LV Write Access read/write LV Creation host, time JOSEPH, 2018-10-06 21:32:13 +0200 LV Pool name tp1 LV Status NOT available LV Size 10.82 TiB Current LE 2836992 Segments 1 Allocation inherit Read ahead sectors 8192 --- Logical volume --- LV Path /dev/vg1/lv1312 LV Name lv1312 VG Name vg1 LV UUID IKz4fd-PADv-RINo-jFFb-Ji1X-Y5tC-BhDw1o LV Write Access read/write LV Creation host, time JOSEPH, 2018-11-26 19:06:53 +0100 LV Status available # open 0 LV Size 1.48 GiB Current LE 380 Segments 3 Allocation inherit Read ahead sectors 8192 Block device 253:8 --- Logical volume --- LV Path /dev/vg1/lv2 LV Name lv2 VG Name vg1 LV UUID kIxZ2h-VwnK-6Kb8-YTPP-MHOm-vflH-78uZfT LV Write Access read/write LV Creation host, time JOSEPH, 2019-01-16 16:49:34 +0100 LV Pool name tp1 LV Status NOT available LV Size 2.00 TiB Current LE 524288 Segments 1 Allocation inherit Read ahead sectors 8192 --- Logical volume --- LV Path /dev/vg1/lv4 LV Name lv4 VG Name vg1 LV UUID 2I70tN-5GBT-iBfg-5Ngg-pOQe-ihCM-8Kvo7d LV Write Access read/write LV Creation host, time JOSEPH, 2019-01-17 22:38:42 +0100 LV Pool name tp1 LV Status NOT available LV Size 500.00 GiB Current LE 128000 Segments 1 Allocation inherit Read ahead sectors 8192
-
Ok, Die Volume sind da. Nun müssen sie noch aktiviert werden mit folgendem Befehl (je Volume!):
lvchange -ay /dev/vg1/tp1
lvchange -ay /dev/vg1/lv1
lvchange -ay /dev/vg1/lv2
lvchange -ay /dev/vg1/lv4
-
Mod: Unnötiges Volltext-/Direktzitat entfernt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
wenn ich den Befehl eingebe für das Volume kommt dies:
-
Da ist das Problem mit dem fehlerhaften Device. Er versucht, ein Device zu aktivieren, welches nicht da ist.
Kannst Du die lv1 bis lv4 aktivieren?
-
Dies kommt bei lv1 bis lv4
Code# lvchange -ay /dev/vg1/lv1 WARNING: duplicate PV n5UpzPFbKYB10swYSlHu94gwO7mZcMI0 is being used from both devices /dev/drbd1 and /dev/md1 Found duplicate PV n5UpzPFbKYB10swYSlHu94gwO7mZcMI0: using /dev/drbd1 not /dev/md1 Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1 Device /dev/mapper/vg256-lv256 not found Failed to set name for /dev/mapper/vg256-lv256 rename. Failed to dm info cache client pool /dev/mapper/vg256-lv256 to get major & minor
-
Da fehlt wieder das Device.
Kannst Du den SSD-Cache mal deaktivieren? Allerdings bringt das nur etwas, wenn der Cache im Lese-Modus eingerichtet war. War er als Schreib-/Lese-Cache eingerichtet, sieht es schlecht aus für die Daten.
-
er war als Schreib/Lese Cache eingerichtet ist aber momentan deaktiviert. Entfernen lässt er sich nicht.
Du meinst mit sieht es schlecht aus für die Daten aus dem Speicherpool? -
Wenn das auch nichts bringt, bleibt Dir nur als letzter Ausweg der Befehl
/etc/init.d/init_lvm.sh
Das mit dem Cache ist problematisch. Er hat offensichtlich Daten in den Cache geschrieben, die noch nicht auf die Platten (das LVM) synchronisiert wurden. Da der Cache nun deaktiviert ist, sind die Daten inkonsistent und er kann die LVM-Volumes nicht starten.
-
Code
Alles anzeigenChanging old config name... Reinitialing... Detect disk(8, 80)... dev_count ++ = 0Detect disk(259, 6)... dev_count ++ = 1Detect disk(8, 48)... dev_count ++ = 2Detect disk(8, 16)... dev_count ++ = 3Detect disk(8, 64)... dev_count ++ = 4Detect disk(8, 32)... dev_count ++ = 5Detect disk(259, 0)... dev_count ++ = 6Detect disk(8, 0)... dev_count ++ = 7Detect disk(8, 80)... Detect disk(259, 6)... Detect disk(8, 48)... Detect disk(8, 16)... Detect disk(8, 64)... Detect disk(8, 32)... Detect disk(259, 0)... Detect disk(8, 0)... sys_startup_p2:got called count = -1 ^[[B^[[C WARNING: duplicate PV n5UpzPFbKYB10swYSlHu94gwO7mZcMI0 is being used from both devices /dev/drbd1 and /dev/md1 Found duplicate PV n5UpzPFbKYB10swYSlHu94gwO7mZcMI0: using /dev/drbd1 not /dev/md1 Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1 LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available LV Status NOT available WARNING: duplicate PV gEJ3G4Ksll49Qy60EXQFzBV0IRQ7tb6L is being used from both devices /dev/drbd3 and /dev/md3 Found duplicate PV gEJ3G4Ksll49Qy60EXQFzBV0IRQ7tb6L: using /dev/drbd3 not /dev/md3 Using duplicate PV /dev/drbd3 from subsystem DRBD, ignoring /dev/md3 Jetzt sieht es so aus:
-
Ja, hier fehlen Daten aus dem Schreibcache. Daher kann er die LVs nicht online nehmen.
Da kann eventuell noch der QNAP-Support helfen - ich bin hier am Ende. Das Problem ist nämlich, dass Du den Cache erst wieder online bekommst, wenn die Volumes online sind - diese gehen aber nicht online, weil Daten aus dem Cache fehlen. Die Katze beißt sich hier in den Schwanz.
QNAP weist auch ausdrücklich auf die Gefahren des Schreib-/Lese-Caches bei der Aktivierung hin...
Die schnellste Lösung ist aus meiner Sicht, die fehlerhafte VG zu löschen, eine neue VG inklusive der Volumes anzulegen und dann aus dem Backup die Daten wieder einzuspielen. Und dann bitte beim Cache gut überlegen, ob es ein Schreibcache sein muss...
-
Okay. Ich warte mal wann mein Ticket bearbeitet wird und ob die hier noch etwas machen können. Versteh ich es richtig, wenn der Support hier auch nichts mehr machen kann, ist der Speicherpool verloren und die Daten sind weg (abgesehen von meinen Backup der Daten). Dann könnte ich eigentlich das NAS komplett zurücksetzen und neu einrichten? oder meinst du man kann die fehlerhaften VG löschen neue erstellen und er kann die Daten auslesen?
Auf jeden Fall Danke ich dir sehr für deine Hilfe und vor allem für deine Zeit bis spät in die Nacht. Ich melde mich mit einem Update vom Support sollte er sich morgen melden.
Danke nochmals bis hierher.
-
Die Daten auslesen wird schwierig bis unmöglich sein.
Eine komplette Rücksetzung des NAS muss nicht sein, lediglich die fehlerhafte VG muss gelöscht und neu angelegt werden.
Wir können auch mal die Volume-Konfiguration komplett neu schreiben lassen.
Dazu bitte erst ein Backup der aktuellen volume.conf in /etc anlegen
cp /etc/volume.conf /etc/volume.bak
Das bei Dir fehlende Volume /dev/mapper/vg256-lv256 ist der SSD-Cache.
Diesen kannst Du über das Programm deaktivieren:
storage_util --nas_ssdcache_disable
Dann die Konfiguration komplett neu erzeugen lassen
storage_util --volume_scan do_scan_raid=1 force=1
Danach noch einmal das LVM neu erzeugen lassen:
/etc/init.d/init_lvm.sh
Dann das Volume online schalten:
lvchange -ay /dev/vg1/lv1
-
Hallo,
Bitte entschuldige ich komme erst jetzt dazu am NAS weiter zu machen.
Ich habe nun alle Schritte befolgt und am Schluss versucht online zu schalten:
Hier die Meldung
Codelvchange -ay /dev/vg1/lv1 Device /dev/mapper/vg256-lv256 not found Failed to set name for /dev/mapper/vg256-lv256 rename. Failed to dm info cache client pool /dev/mapper/vg256-lv256 to get major & minor
Wenn ich den Cache deaktivieren will über den Befehl
storage_util --nas_ssdcache_disable passiert nichts. Er bestätigt den Befehl nicht und es kommt auch keine FM.
Auch den Workaround via Overprovissiong funktioniert nicht. Ich kann ihn in der Weboberfläche nicht entfernen.
-
Abend Chriscres,
der Beitrag ist zwar schon bisschen älter, aber hab genau das selbe Problem wie du es beschreibst.
Hattest du am ende eine Lösung für?
Gruß
-
Du hast mit 100%iger Sicherheit nicht das selbe Problem.
Schon, weil du nicht das gleiche NAS hast.
Bitte mach ein eigenes Thema mit präziser Fehlerbeschreibung auf.
-
Wäre trotzdem wünschenswert, wenn die Lösung hier in diesem Thema gepostet worden wäre.
Und es war ansatzweise das selbe problem, Cache m.2 mit Fehler, somit waren die RAIDs entladen.
Cache lies sich nicht entfernen noch sonst was, reagiert null, Dienst lies sich auch nicht beenden.
Lösung war bei mir: m.2 ausgebaut und eine andere m.2 auf den Port eingebaut, damit kam das System schon mal mit der Meldung Cache Fehlerhaft bzw. es war nicht der m.2 Riegel den er gern wollte und ich konnte es somit entfernen.
Nach dem entfernen, hat die QNAP die Speicherpools sofort auf Bereit gestellt und nach einem Neustart des System, war "alles" wieder verfügbar, es fehlen zwar Daten die im Cache noch gespeichert waren, die sind aber noch auf einer externen Festplatte vorhanden. Ursache für den Fehler war eine m.2 mit SED, diese wurde mit Status Blockiert angehalten.