Hallo liebes qnap-forum,
ich habe ein grösseres problem mit meiner TS509-Pro (fw 3.3.0) nach einem stromausfall.
seitdem wird mein raid 5 nicht mehr gefunden und als unmounted in der weboberfläche angezeigt (siehe bilder). was mich etwas verunsichert, dass dass logical volume nicht als raid angezeigt wird, sondern die einzelnen platten.
ich habe das problem schon öfters im forum gefunden aber leider nie eine lösung dazu. habe den qnap support angemailt aber von denen noch keinen antwort.
ich hoffe, dass mir jemand helfen kann.
wenn nötig kann ich noch weitere informationen posten.
TS509-Pro nach stromausfall kein raid mehr.
- blubberquatsch
- Erledigt
-
-
also ich würde mal die Festplatten nacheinander alle entfernen und neu einsetzen, vll findet es dann die Config wieder!
Hast du ein Backup?
Falls keine Config gefunden wird, Lass mal die Platten Raus, und starte den Configurations Assistent! Geh alle punkte durch wie gewohnt, allerdings wähle bei Festplattenkonfiguration "Konfiguration beibehalten" und schieb dann die platten wieder rein! und dann den Assistenten abschliessen!
Ich hoffe für dich das du ein Backup hast, denn an sonsten müßtest du, alles neu aufsetzen! Wobei, eigentlich das nicht notwendig sein dürfte! die Daten müßten ja noch vorhanden sein!Gruß Neo
-
Hallöle,
also zunächst solltest Du versuchen das NAS kontrolliert neuzustarten bzw. erst herunterfahren,
dann alle Festplatteneinschübe auf festen Sitz prüfen und das ganze neustarten.
Sollte es sich nun erledigt haben, um so besser!
Falls nicht solltest Du im Systemlog Hinweise die Dir und ggf. auch uns weiterhelfen können.Von den Schritten die Neo aufgezeigt hat, würde ich erst mal Abstand nehmen
Grüße
Jody -
hallo und danke für die schnellen antworten.
Neo
diese idee hatte ich auch schon aber das wird einer der last steps sein, die ich durchführe. nein, ich habe kein backup, sonst würd icg die ganze sache einfach neu aufsetzen.jody
neustart bzw. herunterfahren hab ich schon mehrmals versucht. nix geholfen. das mit den sitzenden festplatten passt auch. das teil wurde nie bewegt.
das tolle am syslog ist ja, das da alle möglichen infos drinne stehen, nur nicht das was man braucht steht nix über probleme mit raid bzw. festplatten drin.
auch das manuelle mounten mittels:
/etc/init.d/init_disk.sh ergibt folgenden output:Code
Alles anzeigenStarting Disk initialized: Check config files...start No need to do recovery. storage_boot_init 2 ... e2fsck 1.41.4 (27-Jan-2009) /bin/e2fsck: Group descriptors look bad... trying backup blocks... Superblock has an invalid journal (inode 8). answer=1 *** ext3 journal has been deleted - filesystem is now ext2 only *** The filesystem size (according to the superblock) is 731395200 blocks The physical size of the device is 243798423 blocks Either the superblock or the partition table is likely to be corrupt! answer=1 e2fsck 1.41.4 (27-Jan-2009) /dev/sdb3 has unsupported feature(s): FEATURE_I11 FEATURE_I12 FEATURE_I26 FEATURE_R11 FEATURE_R12 FEATURE_R26 e2fsck: Get a newer version of e2fsck! e2fsck 1.41.4 (27-Jan-2009) /bin/e2fsck: Superblock invalid, trying backup blocks... /bin/e2fsck: Bad magic number in super-block while trying to open /dev/sdc3 The superblock could not be read or does not describe a correct ext2 filesystem. If the device is valid and it really contains an ext2 filesystem (and not swap or ufs or something else), then the superblock is corrupt, and you might try running e2fsck with an alternate superblock: e2fsck -b 8193 <device> e2fsck 1.41.4 (27-Jan-2009) /bin/e2fsck: Superblock invalid, trying backup blocks... /bin/e2fsck: Bad magic number in super-block while trying to open /dev/sdd3 The superblock could not be read or does not describe a correct ext2 filesystem. If the device is valid and it really contains an ext2 filesystem (and not swap or ufs or something else), then the superblock is corrupt, and you might try running e2fsck with an alternate superblock: e2fsck -b 8193 <device> storage_boot_init.c: Single-disk 5 dosen't exist! storage_boot_init.c: check_last_degrade_error... storage_boot_init 6 ... storage_boot_init.c: Checking e-sata: [/sys/block/sdz] anschliessend gibt dmesg folgende meldung aus: EXT3-fs error (device sda3): ext3_check_descriptors: Block bitmap for group 1920 not in group (block 264249728)! EXT3-fs (sda3): error: group descriptors corrupted EXT3-fs (sdb3): error: couldn't mount because of unsupported optional features (4001800)
aber es passiert nix, es wird nix gemounted. im prinzip ist gar nix gemounted, auch nicht die standartshares. ich trau mich ehrlichgesagt auch nicht, einen neuen superblock zu erstellen, da ich die konsequenzen diesbezüglich nicht abschätzen kann.
der befehl:
/sbin/mdadm --detail /dev/md0 ergibt auch nichts gerade aufbauendes:
mdadm: md device /dev/md0 does not appear to be active.was daruf hindeutet, dass das raid nicht gemounted ist.
hoffe durch etwas mehr infos, kann mir jemand weiterhelfen. prinzipiell sollte das problem doch "nur" eine defekte raid konfig sein aber ich hab keine ahnung, wo und wie ich das mache. es sollte doch ausserdem so sein, das die infos für ein recover auf den festplatten gespeichert sein sollte.
nachdem ich kein backup, habe, was bei 3tb auch schwer ist, werde ich schritte wie "platten ziehen" oder "raid neu erstellen" erst dann durchführen, wenn ich überhaupt keine hoffnung auf ein recover habe.
hoffe trotzdem, es klappt irgendwie. -
er soll mir ja auch nicht gleich auf den Schoss hüpfen! :mrgreen: :mrgreen:
Gruß Neo
-
-
hallo nochmal,
kleines update, ich habs teilweise wieder hinbekommen
mit hilfe des qnap supports (booten ohen festplatten, erst nach boot wieder einschieben, hätte auf neo hören sollen :mrgreen: ) und rechercher meinerseits, konnte ich mit dem befehl:#storage_boot_init 1
einen rebuild auslösen.df zeigt an:
CodeFilesystem Size Used Available Use% Mounted on/dev/ram 124.0M 110.0M 14.0M 89% /tmpfs 32.0M 56.0k 31.9M 0% /tmp/dev/md9 2.7T 2.3T 379.0G 86% /mnt
gibt folgendes aus:
CodePersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md9 : active raid5 sda3[0] sdb3[3] sdd3[2] sdc3[1] 2925580800 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] bitmap: 1/233 pages [4KB], 2048KB chunkunused devices: <none>
und der inhalt von /mnt nach mounten von /dev/md9:
Code
Alles anzeigendrwxrwxrwx 17 admin administ 4.0k Jul 8 13:16 ./ drwxr-xr-x 19 admin administ 1.0k Jul 8 13:10 ../ drwxrwxrwx 2 admin administ 292.0k Sep 19 2009 .@__thumb_tmp/ drwxrwxrwx 2 admin administ 4.0k Dec 15 2009 .@iscsi.img/ drwxrwxrwx 4 admin administ 4.0k Jul 2 09:27 .@mysql/ drwxr-xr-x 12 admin administ 4.0k Jul 2 09:27 .@twonkymedia.db/ drwxr-xr-x 6 admin administ 4.0k Jul 2 12:28 .locks/ drwxrwxrwx 4 admin administ 4.0k Jul 20 2009 .qpkg/ drwxr-xr-x 2 admin administ 4.0k Jul 8 13:16 HDA_ROOT/ drwxrwxrwx 2 admin administ 4.0k Apr 28 2009 Network Recycle Bin/ drwxrwxrwx 3 admin administ 4.0k Apr 29 2009 Public/ drwxrwxrwx 4 admin administ 4.0k Sep 24 2009 Qdownload/ drwxrwxrwx 6 admin administ 4.0k Jul 2 07:25 Qmultimedia/ drwxrwxrwx 6 admin administ 4.0k Jul 2 09:25 Qrecordings/ drwxrwxrwx 2 admin administ 4.0k Aug 16 2009 Qusb/ drwxrwxrwx 6 admin administ 4.0k Jul 2 07:25 Qweb/ -rw------- 1 admin administ 9.0k Jul 3 09:27 aquota.user drwx------ 2 admin administ 16.0k Apr 28 2009 lost+found/
es scheinen also daten vorhanden zu sein. nachprüfen kann ich das direkt nicht, da ich iscsi luns erstellt habe und der dienst im restore modus nicht läuft.
mit den befehlen:
# cd /mnt/.config/
# cp /etc/default_config/uLinux.conf /mnt/.config/ (ggf. Pfad: /mnt/HDA_ROOT/.config/)sollen die konfigdateien in das verzeichnis /mnt/.config bzw. /mnt/HDA_ROOT/.config/ kopirt werden. leider existieren die verzeichnisse nicht bzw. sind leer (/mnt/HDA_ROOT/).
meine frage, was muss ich wohin kopieren, damit die nas beim nächsten reboot wieder mit dem gefundenen raid startet?
muss ich überhaupt etwas kopieren oder habe ich mit dem obigen befehlen bereits das raid re-initiiert? -
Bei mir sieht es so aus :
Code[~] # dfFilesystem Size Used Available Use% Mounted on/dev/ram 124.0M 109.6M 14.4M 88% /tmpfs 32.0M 96.0k 31.9M 0% /tmp/dev/sda4 310.0M 131.4M 178.6M 42% /mnt/ext/dev/md9 509.5M 68.3M 441.2M 13% /mnt/HDA_ROOT/dev/md0 4.0T 3.6T 442.7G 89% /share/MD0_DATA
Code
Alles anzeigen[~] # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md0 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1] 4390708800 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] bitmap: 1/175 pages [4KB], 4096KB chunk md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0] 530048 blocks [2/2] [UU] md13 : active raid1 sdc4[0] sdd4[3](S) sda4[2] sdb4[1] 458880 blocks [3/3] [UUU] bitmap: 0/57 pages [0KB], 4KB chunk md9 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1] 530048 blocks [4/4] [UUUU] bitmap: 0/65 pages [0KB], 4KB chunk unused devices: <none>
-
Hallo zusammen,
ich vermute stark, ich habe mit meiner 459 das gleiche Problem durch einen Stromausfall. Und Asche auf mein Haupt, natürlich keinerlei Backup. Ich werde mich bessern aber das hilft jetzt nichts. Erstmal muss ich unbedingt wieder an meine Daten kommen und nicht noch mehr verderben. Jetzt habe ich im Assistenten alles neu eingetragen wie hier beschrieben:
Zitat von "X5_492_Neo"Falls keine Config gefunden wird, Lass mal die Platten Raus, und starte den Configurations Assistent! Geh alle punkte durch wie gewohnt, allerdings wähle bei Festplattenkonfiguration "Konfiguration beibehalten" und schieb dann die platten wieder rein! und dann den Assistenten abschliessen!
bevor ich mir traue es abzuschließen zur Sicherheit 2 Fragen,
- im Assistenten steht "Laufwerkskonfiguration nicht festlegen" - das ist dann das Selbe wie "Konfiguration beibehalten" lt. oben? Oder macht mir das dann irgendwas platt auf Werkseinstellungen oder so?
- und ich hatte ursprünglich verschlüsselt, was jetzt nicht mehr auszuwählen geht, kann ich das Verschlüsselungskennwort auch später noch eintragen oder wird es vielleicht automatisch wiedergefunden?
Danke für eure Hilfe
Skifreak