Beiträge von bole

    Moin,
    es gibt ja bereits zahlreiche Threads zu diesem Thema, aber bislang hat leider keiner geholfen. Meine Clients bekommen ihre IPs von einem DHCP Server, das NAS hat eine feste IP im selben Subnetz. Die Subnetzmaske ist ebenso wie die Arbeitsgruppe überall identisch. Woran könnte es noch liegen? Vielen Dank schon mal im Vorraus, falls jemand weiter weiß.

    Hallo zusammen,


    ich habe mir mal erlaubt, auf einem TS-809 ein verschlüsseltes RAID-5 anzulegen. Das hat zunächst auch prima geklappt, das Raid war da und unlocked, man konnte drauf Daten sichern, die Welt war schön. Nach dem Reboot des NAS musste man zum Unlocken des Volumes zwar wie beschrieben einmalig das Passwort eingeben, aber auch soweit war alles in Ordnung und wie erwartet. Leider war das Raid danach zwar sauber unlocked, war aber nicht gemounted und wollte sich auch partout nicht mehr mounten lassen. Im GUI war die Option ausgegraut und ein manuelles " mount -t ext4 /dev/md0 /share/MD0_DATA/" brachte nur eine already mounted or busy Meldung. Ich habe danach im Reiter "Verschlüsselte Filesysteme" das Passwort lokal gespeichert in der Hoffnung, dass ein Entsperren des verschlüsselten Raids zum Bootzeitpunkt vielleicht Abhilfe schafft, das hilft aber auch nicht. Es ist nun zwar nach dem Hochfahren direkt auf "unlocked", gemounted wird es aber nach wie vor nicht. Hat hier jemand vielleicht ähnliche Erfahrungen oder gar eine Lösung parat?


    Grüße, bole


    P.S.: Das lokale Sichern des PW lief im GUI jedesmal auf einen Fehler, danach war es aber wohl dennoch angelegt. Wegräumen des PW per GUI und der Unlock beim Boot funktionieren folglich. Dies nur am Rande. Die FW ist aktuell und somit auf 4.0.5!

    Nur um sicher zu gehen: Das mit der Bitmapoption beim "mdadm -assemble" ist nur eine Vermutung. Schaut man sich das intern erstellte /dev/md9 an, erscheint hier der Text "Intent Bitmap: Internal":



    Beim gecrashten Device /dev/md0 (siehe voriges Posting) fehlt dies. Vielleicht weiss ja auch jemand, wie man ganz generell ein Raid im "State : active, degraded, Not Started" wieder angeworfen bekommt. Dem Output von "mdadm --detail" (ebenfalls voriges Posting) nach, scheint das Raid5 bis auf die Bitmap ja korrekt erkannt zu sein und /dev/sdc3 ist auch tatsächlich die Platte, die zum völligen Glück noch reingesynct werden müsste. Ein "mdadm --run" liefert nach dem Assemble (alles voriges Posting) nur einen I/O Error, unter /proc/mdstat wird das Raid danach zwar dargestellt, aber nicht wirklich korrekt, wie mit "mdadm --detail". Allgemeine Hinweise zu dem Thema wären sehr willkommen.

    In einem cleanen Raid6 können zwei Platten ausfallen, ohne dass es zu einem Datenverlust kommt. Hotspares sind zunächst einmal nicht Teil eines Raids, sondern laufen erst einmal teilnahmslos und ungenutzt mit. Im Falle eines Plattenausfalls werden diese dann automatisch anstelle der defekten Platte reingesynct. Daher sowohl hot, als auch spare. :D


    http://www.qnap.com/de/index.php?lang=de&sn=1151


    Das bringt etwas mehr Sicherheit, da man sonst ja a) auf einen Plattenausfall aufmerksam werden muss und b) die Platte dann in der Regel auch manuell tauschen.


    VG,
    bole

    Bei der Kapazitätserweiterung eines Raid 5 mit Bitmaps trafen der einzige Stromausfall seit Jahren auf einen laufenden Rebuild. Nun wird das Raid nicht mehr auf der Oberfläche angezeigt (Modell TS-1079, Firmware 3.8.0). Ein Recovern über die Raidverwaltung hilft auch nicht (was schade ist, genau dafür ist die Funktion ja da).
    Beim Login ergibt sich folgendes Bild:


    Code
    [~] # mdadm --detail /dev/md0mdadm: md device /dev/md0 does not appear to be active.[~] # cat /etc/mdadm.confARRAY /dev/md0 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3,/dev/sde3,/dev/sdf3,/dev/sdg3,/dev/sdh3ARRAY /dev/md1 devices=/dev/sdi3,/dev/sdj3


    Auch bei einem cat /proc/mdstat wird das Raid nicht mehr angezeigt. Manuelles starten oder assemblen geht auch nicht:


    Code
    [~] # mdadm --run /dev/md0mdadm: failed to run array /dev/md0: Invalid argument[~] # mdadm --assemble /dev/md0 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3 /dev/sdg3 /dev/sdh3mdadm: failed to RUN_ARRAY /dev/md0: Input/output error


    Immerhin wird nach dem Assemble das md0 Device angezeigt:


    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : inactive sda3[8] sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[10] sdb3[9]      26359836448 blocks super 1.0

    ...

    Meine Vermutung ist, dass beim Assemble noch die Option für die Nutzung der Bitmaps gesetzt werden muss. Hat hier vielleicht jemand einen Rat? Vielen Dank im Vorraus!