Beiträge von seko

    USB-Platte hat super funktioniert.
    Alles prima, die ersten Daten waren schon gestern Abend drüben.
    Noch mal vielen vielen Dank für Deine Hilfe!


    Und WD tauscht die defekten Platten im Vorabtausch aus, so dass ich dann 30 Tage Zeit habe alles neu aufzusetzen und die defekten Platten zurück zu schicken. Also echt Glück im Unglück.


    Ich hoffe, dass dieser Thread mal irgendwem nutzt, der ein ähnliches Problem hat.

    Wow, Du bist ein Genie!
    Die Anleitung in dem anderen Thread war perfekt.


    Ich komme jetzt über Konsole in den Ordner und alle meine Daten scheinen noch da zu sein.
    Dann jetzt Backup machen.


    Dann schließe ich jetzt mal eine USB Platte an das NAS an und versuche die Daten zu retten.


    Oder gibt es irgendeine Möglichkeit den Ordner im Netzwerk auffindbar zu machen?

    Mühsam ernährt sich das Eichhörnchen...


    Ich habe jetzt die 8. Platte rausgenommen und mit Platte 6 assembled. Und siehe da, wir haben ein Ergebnis:


    Code
    [/] # mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3  /dev/sdg3 --forcemdadm: failed to get exclusive lock on mapfile - continue anyway...mdadm: clearing FAULTY flag for device 5 in /dev/md0 for /dev/sdf3mdadm: Marking array /dev/md0 as 'clean'mdadm: /dev/md0 has been started with 7 drives (out of 8).


    Kannst Du damit was anfangen? Wie geht es weiter? In der Weboberfläche hat sich nichts geändert.
    Jetzt die 8. Platte hinzufügen? Oder kann man jetzt vielleicht schon auf die Daten zugreifen?


    Hier noch die Details:


    Vielen Dank.
    Scheint aber leider nicht geholfen zu haben.



    Code
    [/] # mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3  /dev/sde3 /dev/sdg3 /dev/sdh3 --force 
    mdadm: failed to get exclusive lock on mapfile - continue anyway...
    mdadm: /dev/md0 assembled from 6 drives and 1 rebuilding - not enough to start the array.

    Gleiches auch wenn ich die 6. Platte noch hinzufüge.


    Noch irgendeine Chance oder war es das? Ein paar Daten würde ich schon gerne noch sichern. Für das wichtigste gibt es natürlich Backups.


    Macht es Sinn als Platte 6 eine leere einzusetzen?

    Hallo,


    vielen Dank für Deine Antwort.


    Zunächst die SMART Fehler:
    Bei allen 3 Platten - Current Pending Sector und Uncorrectable Sector Count
    Wobei nur Current Pending Sector eine Warnung zeigt. Uncorrectable Sector Count steht auf gut.


    Runter fahren und mit neu gesteckten Platten wieder hochfahren führt zum gleichen Ergebnis. Platte 6 ist draussen, Platte 7 und 8 zeigen Fehler.
    Auf Wiederherstellung kann ich klicken, kann aber nur "Alle freien Laufwerke scannen" klicken. Und freie Laufwerke gibt es ja keine. Siee Screenshot.


    Die Code von Examine Code füge ich unten ein. Zusätzlich noch Screenshots vom Disk-Manager.


    Kannst Du mir den assemble Befehl genauer aufschreiben? Ich will nichts falsch machen.


    Danke und Gruß!

    Code
    [/] # mdadm --examine /dev/sda3 /dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : 56103643:d8a0001f:e9e81214:acf57de2    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : baaf09a8 - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 0   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sdb3 /dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : acd227ed:fa89df14:7bb7979d:448cbdfa    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : fc441a4c - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 1   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sdc3 /dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : 29f22831:63dbbea4:81757f44:91844807    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 83974185 - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 2   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sdd3 /dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : da537ccc:7b93e410:b836cb73:9fc03aab    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 5e4e9205 - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 3   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sde3 /dev/sde3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : 45b3ebc8:a4f11f48:93e08d66:d0835dbe    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 97de8336 - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 7   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sdf3 /dev/sdf3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x8     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : 7754261f:0cc05cd9:0da3193d:4bf8915b    Update Time : Sat Jan 27 15:43:41 2018  Bad Block Log : 512 entries available at offset -8 sectors - bad blocks present.       Checksum : f31e2d90 - correct         Events : 696769         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 6   Array State : AAAAAAAA ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sdg3 /dev/sdg3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : 1081b8df:ec3d7cbc:fcfe767d:37c4eaac    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 287dfc1c - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 5   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)[/] # mdadm --examine /dev/sdh3 /dev/sdh3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x2     Array UUID : d74f4a1d:85e9e31d:4f4973ff:05f122a6           Name : 1  Creation Time : Sun Oct 30 01:01:14 2016     Raid Level : raid5   Raid Devices : 8 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)     Array Size : 27279443968 (26015.71 GiB 27934.15 GB)  Used Dev Size : 7794126848 (3716.53 GiB 3990.59 GB)   Super Offset : 7794127504 sectorsRecovery Offset : 26106576 sectors   Unused Space : before=0 sectors, after=648 sectors          State : clean    Device UUID : 9fe59bb8:7d06a69e:5be94af0:ac39ade9    Update Time : Sat Jan 27 15:53:36 2018  Bad Block Log : 512 entries available at offset -8 sectors       Checksum : 94afe3e4 - correct         Events : 696770         Layout : left-symmetric     Chunk Size : 512K   Device Role : Active device 4   Array State : AAAAAA.A ('A' == active, '.' == missing, 'R' == replacing)


    Screenshot 2018-01-28 20.36.04.pngScreenshot 2018-01-28 20.39.19.png



    Ich habe gerade folgendes gefunden:

    Zitat

    Controller-Fehler



    In Einzelfällen kann es vorkommen, dass aufgrund eines defekten Netzteils (oder Controller) ein RAID nicht mehr funktionsfähig ist. In so einem Fall liegt oft kein Schaden an den Festplatten vor und das Problem kann mit der folgenden Vorgehensweise behoben werden:

    • RAID stoppen:sudo mdadm --stop /dev/md0
    • Das RAID muss manuell wieder zusammengefügt werden, dabei ist es wichtig, die letzte funktionierende Konfiguration zu verwenden. Bei dem o.g. Beispiel, ein RAID 5 mit 4 Partitionen, bei dem zwei Festplatte wegen Controller-Defekt ausgestiegen sind, müssen die ersten zwei Partitionen verwendet werden, da sie bis zum Ausfall noch zusammen aktiv waren. Nun reaktiviert man das Arrays mit: sudo mdadm --assemble /dev/md0 /dev/sde1 /dev/sdf1 --force .
    • Die weiteren Partitionen können nun mit:sudo mdadm --re-add /dev/md0 /dev/sdg1 /dev/sdh1 wieder in den Verbund aufgenommen werden.

    Demnach müsste der korrekte Befehl in meinem Fall heißen:

    Code
    mdadm --stop /dev/md0mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3 /dev/sdg3 /dev/sdh3 --force

    Oder dem Beispiel weiter folgend:

    Code
    mdadm --stop /dev/md0
    mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 --force
    mdadm --re-add /dev/md0 /dev/sdf3 /dev/sdg3 /dev/sdh3

    Ist das so richtig? Kann ich dabei noch mehr kaputt machen?

    Trotzdem vielen Dank für Deine Bemühungen.


    Mit meinem Leienwissen gehe ich davon aus, dass das Raid neu gemountet werden muss. Denn oben sieht man ja, dass nur SDA1-5 da sind. 6-8 fehlen. Die Festplatten sind aber da, wie man im Screenshot sieht.


    Daher wäre der Befehl zum mounten des Raid gut.


    Es könnte auch sein, dass die Platine defekt ist. Denn es ist schon komisch, dass ab Platte 6 nichts mehr geht. Auch beim Neustart leuchten einmal kurz alle Lampen von 1-5 auf, 6-8 nicht. 6-8 leuchten erst später mit.


    Na warten wir mal ab, ob sich hier noch ein Experte meldet oder der Support von Qnap etwas machen kann.

    Hallo, Danke für die schnelle Antwort.


    Den o.g. Code hatte ich aus einem Topic mit ähnlichem Problem. Hier wusste der Fragende aber wie er das Raid wieder zusammenbaut. Daher fehlen diese Angaben.


    Deinen Code habe ich ausgeführt, aber mit wenig Erfolg:


    Code
    [~] # mdadm --misc --detail /dev/md0
    mdadm: cannot open /dev/md0: No such file or directory

    Ein Versuch ist es Wert den Festplattentausch durchzuführen, wenn man es wieder gemountet bekommt. Besser als 15 TB wieder neu aufzubauen.

    Hallo Forum,


    ich hoffe einer der Linuxexperten hier kann mir weiter helfen.


    Ich habe ein TS-853A mit 8 Festplatten im Raid 5.
    Am Freitag schaltete sich das NAS in den schreibgeschützten Modus, da Platte 6 Anomal und Platte 8 Warnung anzeigte. Also zwei neue Festplatten gleichen Typs (WD Red WD40EFRX) besorgt. Im Hot-Swap die Platte 6 entfernt und neue Platte eingesetzt.. Jetzt zeigte Platte 8 an sie wäre auch entfernt. Also Platte 8 entfernt und wieder eingesteckt. Jetzt wird angezeigt, dass das Raid nicht mehr schreibgeschützt, sondern inaktiv ist. Ein Rebuild der Platte 6 startet nicht. Dafür wird jetzt sowohl Platte 8, als auch Platte 7 zusätzlich als Anomal angezeigt. Beim Raid auf wiederherstellen drücken führt zu einem "unbekannten Fehler". Sowohl mit neuer Platte, als auch mit alter Platte. Momentan ist die alte Platte wieder eingesetzt.


    Gucke ich mir das Raid an, wird Platte 6 nicht angezeigt, 1-5 als gut und 7-8 mit Fehler.
    Ich komme sowohl per Weboberfläche, als auch per SSH auf das NAS.
    Aus einem anderen Topic hier habe ich ein paar Codeschnipsel zur Statusabfrage, die ich hier gleich einfüge. Wenn ich das richtig interpretiere fehlen die Platten 6-8 im Raid. Wenn es also möglich wäre, das Raid wieder mit allen 8 Platten manuell zu mounten (da das Wiederherstellen über die Weboberfläche ja nicht funktioniert), so dass das Raid wieder im schreibgeschützten Modus wäre um die Platten einzeln auszutauschen, wäre mir sehr geholfen.


    Mein Linuxwissen ist sehr beschränkt, aber vielleicht kann mir einer der Profis hier ja ein paar Codeschnipsel vorbereiten, mit denen ich das Raid unmounten und wieder neu zusammen setzen kann. Oder Ihr habt vielleicht andere Ideen, wie ich das wieder zum laufen bringen kann.


    Vielen Dank im Voraus. Jetzt füge ich noch die Codeschnipsel und ein paar Screenshots ein.


    Viele Grüße, Sebastian





    Code
    [~] # cat /proc/mountsnone / tmpfs rw,relatime,size=256000k,mode=755 0 0devtmpfs /dev devtmpfs rw,relatime,size=1965956k,nr_inodes=491489,mode=755 0 0/proc /proc proc rw,relatime 0 0devpts /dev/pts devpts rw,relatime,mode=600,ptmxmode=000 0 0sysfs /sys sysfs rw,relatime 0 0tmpfs /tmp tmpfs rw,relatime,size=65536k 0 0tmpfs /dev/shm tmpfs rw,relatime 0 0tmpfs /share tmpfs rw,relatime,size=16384k 0 0tmpfs /mnt/snapshot/export tmpfs rw,relatime,size=16384k 0 0/dev/md9 /mnt/HDA_ROOT ext4 rw,relatime,nodelalloc,data=ordered 0 0cgroup_root /sys/fs/cgroup tmpfs rw,relatime 0 0none /sys/fs/cgroup/memory cgroup rw,relatime,memory 0 0/dev/md13 /mnt/ext ext4 rw,relatime,nodelalloc,data=ordered 0 0/dev/ram2 /mnt/update ext2 rw,relatime,errors=continue 0 0tmpfs /samba tmpfs rw,relatime,size=65536k 0 0tmpfs /samba/.samba/lock/msg.lock tmpfs rw,relatime,size=16384k 0 0tmpfs /mnt/ext/opt/samba/private/msg.sock tmpfs rw,relatime,size=16384k 0 0tmpfs /mnt/rf/nd tmpfs rw,relatime,size=1024k 0 0


    Code
    [~] # cat /proc/partitionsmajor minor  #blocks  name   1        0     204800 ram0   1        1     458752 ram1   1        2     458752 ram2   1        3     204800 ram3   1        4     204800 ram4   1        5     204800 ram5   1        6     204800 ram6   1        7     204800 ram7   1        8     204800 ram8   1        9     204800 ram9   1       10     204800 ram10   1       11     204800 ram11   1       12     204800 ram12   1       13     204800 ram13   1       14     204800 ram14   1       15     204800 ram15   8        0 3907018584 sda   8        1     530125 sda1   8        2     530142 sda2   8        3 3897063763 sda3   8        4     530144 sda4   8        5    8353796 sda5   8       16 3907018584 sdb   8       17     530125 sdb1   8       18     530142 sdb2   8       19 3897063763 sdb3   8       20     530144 sdb4   8       21    8353796 sdb5   8       32 3907018584 sdc   8       33     530125 sdc1   8       34     530142 sdc2   8       35 3897063763 sdc3   8       36     530144 sdc4   8       37    8353796 sdc5   8       48 3907018584 sdd   8       49     530125 sdd1   8       50     530142 sdd2   8       51 3897063763 sdd3   8       52     530144 sdd4   8       53    8353796 sdd5   8       64 3907018584 sde   8       65     530125 sde1   8       66     530142 sde2   8       67 3897063763 sde3   8       68     530144 sde4   8       69    8353796 sde5   8       80 3907018584 sdf   8       81     530125 sdf1   8       82     530142 sdf2   8       83 3897063763 sdf3   8       84     530144 sdf4   8       85    8353796 sdf5   8       96 3907018584 sdg   8       97     530125 sdg1   8       98     530142 sdg2   8       99 3897063763 sdg3   8      100     530144 sdg4   8      101    8353796 sdg5   8      112 3907018584 sdh   8      113     530125 sdh1   8      114     530142 sdh2   8      115 3897063763 sdh3   8      116     530144 sdh4   8      117    8353796 sdh5   8      128     503808 sdi   8      129       2160 sdi1   8      130     242304 sdi2   8      131     242304 sdi3   8      132          1 sdi4   8      133       8304 sdi5   8      134       8688 sdi6   9        9     530048 md9   9       13     458880 md13   9      256     530112 md256   9      322    7340032 md322