TS-453a RAID 5 VOLUMEN mounten

  • Hallo zusammen,


    ich habe ein kleines Problem bei dem ich mal Hilfe brauche (ein Blick in die Suche brachte mich leider nicht weiter). Also zuerst ein paar Basics


    TS-453a
    Firmware 4.2.2
    RAID 5 aus 4 Platten (2xWD RED;2xHGST) (stehen jeweils auf der Kompatibilitätsliste)
    2 Volumen davon 1 Volumen a 8TB und 1 Volumen ca 1.5TB Verschlüsselt (Das verschlüsselte Volumen ist leer und war noch nie im Einsatz)


    Die NAS ist so eingestellt gewesen, dass sie morgens um 7 Uhr angeht und abends um 21 Uhr wieder aus (keine USV)


    So nun zu meinem Problem :


    Letztes Wochenende ist die QNAP scheinbar mal wieder hängengeblieben beim Herunterfahren und meldete mir "Check File System". Da beide Volumes nicht gemountet wurden versuchte ich über die Webseite der NAS den Check zu starten. Dies klappte nicht, nach ca. 1% brach es mit einer Fehlermeldung ab. Auch das deaktivieren der Apps und dutzende Neustarts später konnte das Problem nicht lösen. Auch über ssh ließ sich das NAs nicht überzeugen einen Check durch zu führen. (inzwischen habe ich gesehen das QNAP hierzu ein FixIt anbietet)


    Nach gefühlten 100 Neustarts der QNAP zeigt diese mir nun beim starten an "Festplatten mit QNAP Signatur" entdeckt und "Werkseinstellungen wiederherstellen" oder "System Initialisieren". Natürlich habe ich mehrfach "Werkseinstellungen wiederherstellen" verwendet mit dem Ergebnis das die NAS neustarten und auf dem gleichen Bildschirm endet.


    So kurze Rede langer Sinn : Ticket bei QNAP eröffnet (aber noch in Bearbeitung)


    Ich habe mich mal mit dem NAS über ssh verbunden und festgestellt dass kein Volume oder Storage Pool gemountet wird. Per Hand kann ich das RAID 5 als /Dev/md0 "zusammenfügen" aber leider kann ich weder ein "Dateisystem" laden noch die volumes erreichen.


    Code
    [ 6994.876227] RAID conf printout:[ 6994.876230] --- level:5 rd:4 wd:4[ 6994.876234] disk 0, o:1, dev:sda3[ 6994.876237] disk 1, o:1, dev:sdb3[ 6994.876240] disk 2, o:1, dev:sdc3[ 6994.876242] disk 3, o:1, dev:sdd3[ 6994.876275] md/raid:md0: /dev/sda3 does not support SSD Trim.[ 6994.882044] md/raid:md0: /dev/sdd3 does not support SSD Trim.[ 6994.887810] md/raid:md0: /dev/sdc3 does not support SSD Trim.[ 6994.893584] md/raid:md0: /dev/sdb3 does not support SSD Trim.[ 6994.899422] md0: detected capacity change from 0 to 11971778838528[ 7123.605781] md0: unknown partition table[ 7123.610014] EXT4-fs (md0): VFS: Can't find ext4 filesystem[ 7244.802424] EXT4-fs (md0): VFS: Can't find ext4 filesystem[~] #
    Code
    [~] # df -hFilesystem Size Used Available Use% Mounted onnone 200.0M 183.2M 16.8M 92% /devtmpfs 1.9G 4.0k 1.9G 0% /devtmpfs 64.0M 296.0k 63.7M 0% /tmptmpfs 1.9G 0 1.9G 0% /dev/shmtmpfs 16.0M 0 16.0M 0% /sharecgroup_root 1.9G 0 1.9G 0% /sys/fs/cgroup[~] #
    Code
    [~] # mdadm -D /dev/md0/dev/md0:Version : 1.0Creation Time : Mon Aug 1 16:24:13 2016Raid Level : raid5Array Size : 11691190272 (11149.59 GiB 11971.78 GB)Used Dev Size : 3897063424 (3716.53 GiB 3990.59 GB)Raid Devices : 4Total Devices : 4Persistence : Superblock is persistentUpdate Time : Tue Sep 27 06:19:13 2016State : cleanActive Devices : 4Working Devices : 4Failed Devices : 0Spare Devices : 0Layout : left-symmetricChunk Size : 512KName : 1UUID : bbd6d3e1:50c204d3:d73410ca:c0a57dd9Events : 18348Number Major Minor RaidDevice State0 8 3 0 active sync /dev/sda31 8 19 1 active sync /dev/sdb32 8 35 2 active sync /dev/sdc33 8 51 3 active sync /dev/sdd3


    Soweit so schlecht. Da ich zwar in der IT arbeite aber einen großen Umweg um Linux mache :D Bin ich hier nun am Ende meines Wissens. Das RAID war zu keinem Zeitpunkt defekt und die Platten im Top Zustand.


    Ich würde halt gerne versuchen wieder an die Daten heranzukommen, die zusätzlich nochmal sichern (die aller aller wichtigsten Daten habe ich per täglichem Task gesichert) und dann das RAID zu löschen und die QNAP neu aufzusetzen.


    Aber WIE? :D Ich hoffe ihr könnt mir ein wenig unter die Arme greifen ;) Also ein e2fsck schlägt fehl wegen

    Code
    e2fsck 1.41.4 (27-Jan-2009)
    e2fsck: Superblock invalid, trying backup blocks...
    e2fsck: Bad magic number in super-block while trying to open /dev/md0
    The superblock could not be read or does not describe a correct ext2
    filesystem. If the device is valid and it really contains an ext2
    filesystem (and not swap or ufs or something else), then the superblock
    is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
  • Hallo!

    ein Blick in die Suche brachte mich leider nicht weiter

    Nun, zumindest gibt es genügend Beiträge mit dem Hinweis auf dei SMB-Firmware und damit verbunden dem Volumemanager LVM2. Spätestens hier ist dann klar, dass alle Maßnamen für ein normales RAID nicht mehr greifen.


    Dein RAID heisst auch nicht md0 sondern md1


    Code
    [~] # mdadm -D /dev/md0/dev/md0:Version : 1.0Creation Time : Mon Aug 1 16:24:13 2016Raid Level : raid5....Name : 1 <-----

    Wie deiner Ausgabe von df zu entnehmen ist, fehlen aber ganz andere wichtige Mounts.


    Bitte das NAS neu starten und anschliessend folgende Komandos ausführen und das Ergebnis hier posten.

    Code
    cat /proc/mounts
    cat /proc/partitions
    cat /proc/mdstat
    dmesg
  • Hi dr_mike,


    du hast recht. Ich habe aber mal etwas weiter "gegraben" und folgende Infos rausgefunden.


    Code
    [/] # vgscanReading all physical volumes. This may take a while...Found volume group "vg1" using metadata type lvm2
    Code
    [/] # vgdisplay--- Volume group ---VG Name vg1System IDFormat lvm2Metadata Areas 1Metadata Sequence No 281VG Access read/writeVG Status resizableMAX LV 0Cur LV 8Open LV 0Max PV 0Cur PV 1Act PV 1VG Size 10.89 TiBPE Size 4.00 MiBTotal PE 2854293Alloc PE / Size 2854293 / 10.89 TiBFree PE / Size 0 / 0VG UUID Im3vAK-81pH-vL0T-j7Cf-w2ni-5r9P-cTt2Ci
    Code
    [/] # lvdisplay--- Logical volume ---LV Path /dev/vg1/lv544LV Name lv544VG Name vg1LV UUID blxtBz-06zO-ts3y-2YKu-RFJg-07Ie-aAUWRELV Write Access read/writeLV Creation host, time NAS002AB5, 2016-08-01 16:24:17 +0100LV Status NOT availableLV Size 111.49 GiBCurrent LE 28542Segments 2Allocation inheritRead ahead sectors 8192--- Logical volume ---LV Name tp1VG Name vg1LV UUID yN02SQ-HgLX-mPVj-50no-t0zK-7709-hkMuuYLV Write Access read/writeLV Creation host, time NAS002AB5, 2016-08-01 16:24:18 +0100LV Pool transaction ID 68LV Pool metadata tp1_tmetaLV Pool data tp1_tierdata_0LV Pool chunk size 512.00 KiBLV Zero new blocks noLV Status NOT availableLV Size 10.71 TiBAllocated pool chunks 0Current LE 2808682Segments 1Allocation inheritRead ahead sectors auto--- Logical volume ---LV Path /dev/vg1/lv1LV Name lv1VG Name vg1LV UUID h0gAc7-84Op-HxFG-RZpl-5wo5-m7v5-weIor2LV Write Access read/writeLV Creation host, time NAS002AB5, 2016-08-01 16:29:10 +0100LV Pool name tp1LV Thin device ID 1LV Status NOT availableLV Size 8.16 TiBMapped sectors 0Current LE 2138996Segments 1Allocation inheritRead ahead sectors 8192--- Logical volume ---LV Path /dev/vg1/lv1312LV Name lv1312VG Name vg1LV UUID Qjfuy1-wjZb-A9Z5-VpqN-fQAE-SJyk-HJTDXWLV Write Access read/writeLV Creation host, time NAS01, 2016-08-07 17:38:59 +0100LV Status NOT availableLV Size 1.11 GiBCurrent LE 285Segments 1Allocation inheritRead ahead sectors 8192--- Logical volume ---LV Path /dev/vg1/lv2LV Name lv2VG Name vg1LV UUID T9IS63-edbL-gXi2-2W0x-rysd-TDTa-omEBzGLV Write Access read/writeLV Creation host, time NAS01, 2016-08-07 18:48:33 +0100LV Pool name tp1LV Thin device ID 2LV Status NOT availableLV Size 1.46 TiBMapped sectors 0Current LE 384000Segments 1Allocation inheritRead ahead sectors 8192--- Logical volume ---LV Path /dev/vg1/snap10001LV Name snap10001VG Name vg1LV UUID Ow4Hbi-CmYl-mBep-04X9-RR72-WpsO-hgAbi3LV Write Access read/writeLV Creation host, time NAS01, 2016-09-18 01:00:03 +0100LV Pool name tp1LV Thin device ID 3LV Thin origin name lv1LV Status NOT availableLV Size 8.16 TiBMapped sectors 0Current LE 2138996Segments 1Allocation inheritRead ahead sectors auto
    Code
    [/] # pvscanPV /dev/md0 VG vg1 lvm2 [10.89 TiB / 0 free]Total: 1 [10.89 TiB] / in use: 1 [10.89 TiB] / in no VG: 0 [0 ]
    Code
    [/] # lvscaninactive '/dev/vg1/lv544' [111.49 GiB] inheritinactive '/dev/vg1/tp1' [10.71 TiB] inheritinactive '/dev/vg1/lv1' [8.16 TiB] inheritinactive '/dev/vg1/lv1312' [1.11 GiB] inheritinactive '/dev/vg1/lv2' [1.46 TiB] inheritinactive '/dev/vg1/snap10001' [8.16 TiB] inheritinactive '/dev/vg1/snap20001' [1.46 TiB] inheritinactive '/dev/vg1/snap10002' [8.16 TiB] inherit


    So ab hier wird es schon Interessanter. Vorhanden scheinen die Volumes ja noch zu sein. Mit dem Befehl vgchange -ay kann ich alle auf Active setzen. Mit diesen kleinen Problemen


    Code
    [/] # vgchange -ayThin pool transaction_id=69, while expected: 67.Unable to deactivate open vg1-tp1_tmeta (253:1)Unable to deactivate open vg1-tp1_tierdata_0 (253:2)Unable to deactivate open vg1-tp1_tierdata_1 (253:3)Unable to deactivate open vg1-tp1_tierdata_2 (253:4)Failed to deactivate vg1-tp1-tpoolThin pool transaction_id=69, while expected: 67.Unable to deactivate open vg1-tp1_tmeta (253:1)Unable to deactivate open vg1-tp1_tierdata_2 (253:4)Unable to deactivate open vg1-tp1_tierdata_1 (253:3)Unable to deactivate open vg1-tp1_tierdata_0 (253:2)Failed to deactivate vg1-tp1-tpoolThin pool transaction_id=69, while expected: 67.Unable to deactivate open vg1-tp1_tmeta (253:1)Unable to deactivate open vg1-tp1_tierdata_2 (253:4)Unable to deactivate open vg1-tp1_tierdata_1 (253:3)Unable to deactivate open vg1-tp1_tierdata_0 (253:2)Failed to deactivate vg1-tp1-tpoolThin pool transaction_id=69, while expected: 67.Unable to deactivate open vg1-tp1_tmeta (253:1)Unable to deactivate open vg1-tp1_tierdata_2 (253:4)Unable to deactivate open vg1-tp1_tierdata_1 (253:3)Unable to deactivate open vg1-tp1_tierdata_0 (253:2)Failed to deactivate vg1-tp1-tpoolThin pool transaction_id=69, while expected: 67.Unable to deactivate open vg1-tp1_tmeta (253:1)Unable to deactivate open vg1-tp1_tierdata_2 (253:4)Unable to deactivate open vg1-tp1_tierdata_1 (253:3)Unable to deactivate open vg1-tp1_tierdata_0 (253:2)Failed to deactivate vg1-tp1-tpoolThin pool transaction_id=69, while expected: 67.Unable to deactivate open vg1-tp1_tmeta (253:1)Unable to deactivate open vg1-tp1_tierdata_2 (253:4)Unable to deactivate open vg1-tp1_tierdata_1 (253:3)Unable to deactivate open vg1-tp1_tierdata_0 (253:2)Failed to deactivate vg1-tp1-tpool8 logical volume(s) in volume group "vg1" now active


    Code
    [/] # lvscanACTIVE '/dev/vg1/lv544' [111.49 GiB] inheritACTIVE '/dev/vg1/tp1' [10.71 TiB] inheritACTIVE '/dev/vg1/lv1' [8.16 TiB] inheritACTIVE '/dev/vg1/lv1312' [1.11 GiB] inheritACTIVE '/dev/vg1/lv2' [1.46 TiB] inheritACTIVE '/dev/vg1/snap10001' [8.16 TiB] inheritACTIVE '/dev/vg1/snap20001' [1.46 TiB] inheritACTIVE '/dev/vg1/snap10002' [8.16 TiB] inherit


    Versuche ich nun das Volume /dev/vg1/tp1 zu mounten, so erhalte ich nur folgenden Fehler


    Code
    [/] # mount /dev/vg1/tp1 /mnt/myvolmount: special device /dev/vg1/tp1 does not exist
    Code
    [/] # cat /proc/mountsnone / tmpfs rw,relatime,size=204800k,mode=755 0 0devtmpfs /dev devtmpfs rw,relatime,size=1968316k,nr_inodes=492079,mode=755 0 0/proc /proc proc rw,relatime 0 0devpts /dev/pts devpts rw,relatime,mode=600,ptmxmode=000 0 0sysfs /sys sysfs rw,relatime 0 0tmpfs /tmp tmpfs rw,relatime,size=65536k 0 0tmpfs /dev/shm tmpfs rw,relatime 0 0tmpfs /share tmpfs rw,relatime,size=16384k 0 0cgroup_root /sys/fs/cgroup tmpfs rw,relatime 0 0none /sys/fs/cgroup/memory cgroup rw,relatime,memory 0 0
    Code
    [/] # cat /proc/partitionsmajor minor #blocks name8 0 3907018584 sda8 1 530125 sda18 2 530142 sda28 3 3897063763 sda38 4 530144 sda48 5 8353796 sda58 16 3907018584 sdb8 17 530125 sdb18 18 530142 sdb28 19 3897063763 sdb38 20 530144 sdb48 21 8353796 sdb58 32 3907018584 sdc8 33 530125 sdc18 34 530142 sdc28 35 3905449693 sdc38 36 498012 sdc48 48 3907018584 sdd8 49 530125 sdd18 50 530142 sdd28 51 3897063763 sdd38 52 530144 sdd48 53 8353796 sdd58 64 503808 sde8 65 2160 sde18 66 242304 sde28 67 242304 sde38 68 1 sde48 69 8304 sde58 70 8688 sde69 256 530112 md2569 0 11691190272 md0253 0 116908032 dm-0253 1 67108864 dm-1253 2 4096 dm-2253 3 4096 dm-3253 4 11505999872 dm-4253 5 11504361472 dm-5253 8 1167360 dm-8
    Code
    [/] # cat /proc/mdstat
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
    md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]
    11691190272 blocks super 1.0 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
    md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]
    530112 blocks super 1.0 [2/2] [UU]
    bitmap: 0/1 pages [0KB], 65536KB chunk


    Mir geht es gar nicht darum mehr irgendwie die QTS wieder ans laufen zu bringen. Würde nur noch gerne versuchen die Daten wegzukopieren und von vorne anzufangen.


    Eine Idee von mir (keine Idee ob das geht) ...


    NAS ausschalten
    Alle Platten raus
    NAS neustarten
    Platte Nr. 1 gegen eine alte Platte tauschen
    Die NAS damit Initialisieren (QTS wäre wieder da)
    Platten 2,3,4 wieder reinstecken
    Hoffen die NAS die Platten mit Volumen erkennt und einbindet
    Dann alles sichern
    Und dann von vorne anfangen (NAS initialisieren mit 4x4 TB; RAID neu aufbauen, Volumen erstellen etc.)

    Einmal editiert, zuletzt von Zkchusi1983 ()

  • Bitte informiere dich über unsere Forenregeln und verwende Codeblocks.


    Als nächstes eine Frage: Willst du etwas in der Console spielen oder an deine Daten rankommen?


    Bitte führe das aus, was ich oben schrieb und zwar genau so wie ich es schrieb und nix anderes.

  • Hi,


    ich möchte natürlich an die Daten wieder rankommen. Keine Frage! Danke auch schon einmal.


    Also noch als kurze Info :


    Habe gestern Platte Nr.1 getauscht um auf die QTS als solches zu kommen. Das klappt auch


    cat /proc/mounts



    Code
    [~] # cat /proc/mountsnone / tmpfs rw,relatime,size=204800k,mode=755 0 0devtmpfs /dev devtmpfs rw,relatime,size=1968316k,nr_inodes=492079,mode=755 0 0/proc /proc proc rw,relatime 0 0devpts /dev/pts devpts rw,relatime,mode=600,ptmxmode=000 0 0sysfs /sys sysfs rw,relatime 0 0tmpfs /tmp tmpfs rw,relatime,size=65536k 0 0tmpfs /dev/shm tmpfs rw,relatime 0 0tmpfs /share tmpfs rw,relatime,size=16384k 0 0/dev/md9 /mnt/HDA_ROOT ext3 rw,relatime,errors=continue,barrier=1,data=ordered 0 0cgroup_root /sys/fs/cgroup tmpfs rw,relatime 0 0none /sys/fs/cgroup/memory cgroup rw,relatime,memory 0 0/dev/md13 /mnt/ext ext3 rw,relatime,errors=continue,barrier=1,data=ordered 0 0tmpfs /mnt/rf/nd tmpfs rw,relatime,size=1024k 0 0[~] #

    cat /proc/partitions

    Code
    [~] # cat /proc/partitionsmajor minor  #blocks  name   8        0 3907018584 sda   8        1     530125 sda1   8        2     530142 sda2   8        3 3897063763 sda3   8        4     530144 sda4   8        5    8353796 sda5   8       16 3907018584 sdb   8       17     530125 sdb1   8       18     530142 sdb2   8       19 3897063763 sdb3   8       20     530144 sdb4   8       21    8353796 sdb5   8       32 3907018584 sdc   8       33     530125 sdc1   8       34     530142 sdc2   8       35 3905449693 sdc3   8       36     498012 sdc4   8       48 3907018584 sdd   8       49     530125 sdd1   8       50     530142 sdd2   8       51 3897063763 sdd3   8       52     530144 sdd4   8       53    8353796 sdd5   8       64     503808 sde   8       65       2160 sde1   8       66     242304 sde2   8       67     242304 sde3   8       68          1 sde4   8       69       8304 sde5   8       70       8688 sde6   9        9     530048 md9   9       13     458880 md13   9      256     530112 md256[~] #

    cat /proc/mdstat



    Code
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0]      530112 blocks super 1.0 [2/2] [UU]      bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[27] sdd4[25] sdc4[24] sdb4[26]      458880 blocks super 1.0 [24/4] [UUUU____________________]      bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sda1[27] sdd1[25] sdc1[24] sdb1[26]      530048 blocks super 1.0 [24/4] [UUUU____________________]      bitmap: 1/1 pages [4KB], 65536KB chunk

    dmesg



  • Hi


  • Was hast du alles am Freitag mit dem NAS gemacht?
    Das System RAID md9 wurde am Freitag Abend erstellt. In deinen Ausgaben von gestern war es zusammen mit md13 gar nicht vorhanden.


    Code
    Creation Time : Fri Sep 30 17:49:29 2016

    Damit dürfte die komplette Konfiguration einschliesslich RAID, LVM, DRBD und Verschlüsselung weg sein.

  • Hi,


    das war oder ist ja das Problem. Um die besagte Überprüfung des FileSystems durchzuführen habe ich mehrfach die NAS neugestartet.


    "Urplötzlich" bin ich auf dem Willkommensbildschrim der NAS gelandet mit dem Hinweis "HDD with QNAP Signature Detected" - Werkseinstellungen wiederherstellen oder Initialisieren.


    Daher habe ich versucht über SSH das RAID 5 mit dem Befehl mdadm -A /dev/md0 (oder md1 ;) ) dev/sda3 usw. herzustellen. Das funktionierte auch


    Code
    [~] # mdadm --detail /dev/md1
    /dev/md1:
            Version : 1.0
      Creation Time : Mon Aug  1 17:24:13 2016
         Raid Level : raid5
         Array Size : 11691190272 (11149.59 GiB 11971.78 GB)
      Used Dev Size : 3897063424 (3716.53 GiB 3990.59 GB)
       Raid Devices : 4
      Total Devices : 4
        Persistence : Superblock is persistent

    Mit den Befehlen Vgscan, lvscan usw. konnte ich auch die Volumes erkennen nur ließen sich diese nicht mounten.


    Meiner Meinung nach müssten die Volumen ja noch da sein ?!

  • Nun, wenn du jetzt schon md1 wieder zusammengesetzt hast, was ich nicht geschrieben hatte, dann versuche mal den Befehl
    /etc/init.d/init_lvm.sh


    Anschliessend:

    Code
    cat /proc/mounts
    cat /proc/partitions
  • Danke :)


    Code
    [~] # /etc/init.d/init_lvm.shChanging old config name...Reinitialing...Detect disk(8, 0)...dev_count ++ = 0Detect disk(8, 16)...dev_count ++ = 1Detect disk(8, 32)...dev_count ++ = 2Detect disk(8, 48)...dev_count ++ = 3Detect disk(8, 64)...ignore non-root enclosure disk(8, 64).Detect disk(8, 0)...Detect disk(8, 16)...Detect disk(8, 32)...Detect disk(8, 48)...Detect disk(8, 64)...ignore non-root enclosure disk(8, 64).sys_startup_p2:got called count = -1  --==  Thank you for participating in the global usage survey  ==--The server's response is:you are the 16763th user to install this versionCommand failedDone


    cat /proc/mounts


    Code
    [~] # cat /proc/mountsnone / tmpfs rw,relatime,size=204800k,mode=755 0 0devtmpfs /dev devtmpfs rw,relatime,size=1968316k,nr_inodes=492079,mode=755 0 0/proc /proc proc rw,relatime 0 0devpts /dev/pts devpts rw,relatime,mode=600,ptmxmode=000 0 0sysfs /sys sysfs rw,relatime 0 0tmpfs /tmp tmpfs rw,relatime,size=65536k 0 0tmpfs /dev/shm tmpfs rw,relatime 0 0tmpfs /share tmpfs rw,relatime,size=16384k 0 0/dev/md9 /mnt/HDA_ROOT ext3 rw,relatime,errors=continue,barrier=1,data=ordered 0 0cgroup_root /sys/fs/cgroup tmpfs rw,relatime 0 0none /sys/fs/cgroup/memory cgroup rw,relatime,memory 0 0/dev/md13 /mnt/ext ext3 rw,relatime,errors=continue,barrier=1,data=ordered 0 0tmpfs /mnt/rf/nd tmpfs rw,relatime,size=1024k 0 0


    cat /proc/partitions



  • Code
    [ 6803.123698] device-mapper: thin: pool_ctr: pool metadata is inconsistent, rescan is needed
    [ 6803.132114] device-mapper: tier: Data device (dm-4) discard unsupported: Disabling discard passdown.

    Ab hier kann ich nicht mehr weiter helfen. Es ist durchaus möglich, dass deine gestrigen Aktionen dies verursacht haben.

  • Da hätte ich mal zwei Fragen. Hast Du da Erfahrungswerte über einen längeren Zeitraum mit den 24/7-Platten beim täglichen An- und Ausschalten oder erstmal nur diese besagten gefühlten 100 Tage? Ich plane nämlich eine ähnliche Konstellation und schwanke noch zwischen NAS- und Desktop-Platten.


    Und die zweite Frage ist, ob sich die Lösung des Problems vielleicht kurz und verständlich zusammenfassen lässt.

  • Hi,


    ich habe die WD Red 4 TB seit nun etwa 2 Jahren und habe im Zuge des Upgrades auf die 453a noch 2 HGST Deskstar 4 TB gekauft.


    Daher kann ich dir nur sagen dass die RED sehr zuverlässig sind. Hatte mit der 219P+ nie Probleme.


    Zur Problemlösung kann ich eigentlich nicht viel sagen. Ich hatte das QTS wieder hergestellt indem ich eine Platte aus dem RAID Verbund gelöst habe. Diese dann Initialisiert und danach wieder in den Verbund eingebunden. Daraufhin habe ich ein altes Backup der Config eingespielt.


    Soweit so schlecht. Die LV wurden zwar angezeigt, aber ich könnt sie nicht einbinden.


    Der Techniker hat dann per DMSETUP die LV wieder "aktiviert" und das System neugestartet. Danach war alles wieder da.