Beiträge von Realmrh

    *update*


    Code
    [/] # mdadm -D /dev/md0/dev/md0:        Version : 00.90.03  Creation Time : Fri Jul 23 16:31:42 2010     Raid Level : raid5     Array Size : 2924022272 (2788.57 GiB 2994.20 GB)  Used Dev Size : 731005568 (697.14 GiB 748.55 GB)   Raid Devices : 5  Total Devices : 5Preferred Minor : 0    Persistence : Superblock is persistent    Update Time : Thu Sep  9 17:28:34 2010          State : clean Active Devices : 5Working Devices : 5 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 64K           UUID : 6ba454ec:73ecd28d:2805e025:c6adf0d6         Events : 0.18476    Number   Major   Minor   RaidDevice State       0       8        3        0      active sync   /dev/sda3       1       8       19        1      active sync   /dev/sdb3       2       8       35        2      active sync   /dev/sdc3       3       8       67        3      active sync   /dev/sde3       4       8       51        4      active sync   /dev/sdd3


    Es scheinen also noch rund 700gb Daten belegt zu sein - ist zwar bei weitem nicht alles, aber immerhin rund die hälfte - und ich würde gerne irgendwie diese Daten noch versuchen zu retten.
    Leider bekomme ich md0 nicht gemountet.

    Code
    [/] # mount -t ext3 /dev/md0 /mnt/
    mount: wrong fs type, bad option, bad superblock on /dev/md0,
           missing codepage or other error
           In some cases useful info is found in syslog - try
           dmesg | tail  or so


    Bin mir nichtmal sicher ob ich das so richtige versuche mit dem mounten, eventuell kann mir einer kurz erklären wie & wohin ich /dev/md0 eigendlich genau mounten müsste. :(



    EDIT fragt ... wie lange dauert eigendlich eine Antwort vom QNAP support in der Regel?
    Habe es über das Formular auf der QNAP Seite bereits gestern probiert - bis heute aber keine Antwort oder überhaupt ne Eingangsbestätigung erhalten.

    Code
    [~] # df -h
    Filesystem                Size      Used Available Use% Mounted on
    /dev/ram                124.0M    109.5M     14.4M  88% /
    tmpfs                    32.0M     96.0k     31.9M   0% /tmp
    /dev/sda4               310.0M    131.9M    178.1M  43% /mnt/ext
    /dev/md9                509.5M     68.5M    440.9M  13% /mnt/HDA_ROOT
    [~] #


    Da md0 nicht gemounted ist wird es auch nicht angezeigt. :(
    Wie genau und wo muss ich md0 denn mounten?

    nochmal die exakten ausgaben:


    Code
    [/] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sda3[0] sdd3[4] sde3[3] sdc3[2] sdb3[1]      2924022272 blocks level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]md5 : active raid1 sde2[2](S) sdd2[3](S) sdc2[4](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sde4[3](S) sdd4[4](S) sdc4[2] sdb4[1]      458880 blocks [3/3] [UUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdd1[4] sde1[3] sdc1[2] sdb1[1]      530048 blocks [5/5] [UUUUU]      bitmap: 1/65 pages [4KB], 4KB chunkunused devices: <none>




    hoffe das hilft irgendwie weiter. :(

    Sieht so aus als wenn es wirklich schlichtweg nicht gemountet ist.
    Sofern es sich wie ich vermute beim Raid um md0 handelt, wird es allerdings grade wieder rebuilded?


    Code
    md0 : active raid5 sde3[5] sda3[0] sdd3[4] sdc3[2] sdb3[1]
          2924022272 blocks level 5, 64k chunk, algorithm 2 [5/4] [UUU_U]
          [===>.................]  recovery = 18.7% (137399556/731005568) finish=204.8min speed=48297K/sec


    Halte es für sinnvoller erstmal den Vorgang abzuwarten bevor ich es jetzt zu früh mounte.

    An den Support habe ich natürlich auch schon geschrieben, keine Antwort bisher - aber die sind auch 8h weit entfernt. ;)


    Zu den Freigaben ... meine persönlichen Freigaben sind anscheinend nach wie vor da, zumindest die Einstellungen sind nicht wirklich weg - ich sehe sie zumindest, kann dort allerdings nix ändern (dauer ewigkeiten bis er einfach irgendwann abbricht).
    Meine Vermutung liegt inzwischen eher darin dass das Raid5 ansich sich verabschiedet hat, die Daten sind wohl noch von 3 auf 5 Platten verteilt worden, lediglich irgendwas beim mounten(?) des Raidsystems läuft wohl nicht richtig.


    Habe im englischem Forum auch ein paar ältere Einträge zu "[RAID5 Disk Volume: Drive 1 2 3 4 5] Examination failed." komme allerdings damit nicht wirklich weiter.
    Jedenfalls kann ich das eingerichtete Raid5 derzeit überhaupt nicht benutzten oder irgendwie bearbeiten, einzig "check now" läuft kurz an (~1 Minute) und wärend dessen erkennt er das Dateisystem auch wieder als EXT3 (davor & danach "unknown") - Raid formatieren bzw. entfernen könnte u.U. auch funktionieren, will ich aber nicht probieren da ich meine Daten doch gerne wieder hätte bevor ich nen Raid komplett neu aufsetze.

    Hiho,


    bin im moment stink sauer und natürlich auf 180 - finde dennoch den ganzen Tag über keine vernünftige Erklärung für folgendes Ereigniss und frage mich wieso zum Geier der Qnap sich dazu bewogen fühlt von alleine meine Freigaben zu resetten und somit sämtliche Daten zu löschen.


    Chronologisch:
    - mein TS-509 Pro läuft mit 3x 750 WD HDDs im Raid5, der Speicherplatz wird knapp, ich kaufe 2x 1000GB WD HDDs dazu (früher oder später müssen auch die 750er gegen Größere getauscht werden)
    - beide TB Platten werden ins System integriert und der Qnap beginnt damit das vorhandene Raid5 zu erweitern
    - Abends, keine Person in der Wohnung, den Befehlt dazu hat also defenitiv keiner manuell gegeben, ist der Vorgang abgeschlossen und promt beginnt der Qnap mit "Restore system default shares."


    Habe nen Screen der Logfiles angehangen, eventuell kann mir jemand erklären was schief gelaufen ist. Qnap bewirbt das Produkt mit "on the fly Raid Erweitungen" und den ganzen spielereien, daher verstehe ich nicht wieso meine kompletten Daten nund weg sind und ohne Grund der Qnap sich selber seine Freigaben resettet hat.


    mfg
    Realmrh