Liebe Gemeinde,
ich habe jetzt schon einige Zeit nach möglichen Beiträgen zu meinem Problem gesucht. Leider entweder nichts oder keine passende Antwort gefunden. Meine Situation:
Ich habe ein TS-439 mit 4 Platten 1GB mit dem ich auch eigentlich sehr zufrieden bin. Ab und an ein Firmwareupdate und ich freu mich übr das Produkt.
Leider ist nach dem letzten Firmwareupdate auf 4.1.1 etwas schief gelaufen. Das Update selbst lief gut und ich kam und komme auch auf die Weboberfläche. Nur ist mein Raid 5 entladen. Die Platten sind da und die Smart-Info zeigt "Gut". Das TS fordert mihc auf Check File System durchzuführen, aber die Funktion ist ausgegraut...
Dann habe ich mich an die Problemsuche gemacht und auch mit putty und mit Hilfe einiger Beiträge versucht mehr raus zu bekommen oder das Raid wieder ans Laufen zu bekommen. Jetzt bin ich aber kein Linux-Meister und tue mich da doch echt schwer. Hinzu kommt, dass meine Daten ohne Backup - ja bin selbst schuld - auf diesen Platten sind!!!
Ich wende mich nun mit den Logs an Euch in der Hoffnung das Ihr mir hier weiterhelfen könnt oder mich an einen Beitrag verweisen könnt der mir weiterhelfen kann:
login as: adminadmin@192.168.6.96's password:[~] # config_util 1Start to mirror ROOT part...config_util: HD1 config Match serial_no of HD1.config_util: HD2 config Match serial_no of HD2.config_util: HD3 config Match serial_no of HD3.config_util: HD4 config Match serial_no of HD4.mdadm: /dev/md9 assembled from 1 drive - need all 4 to start it (use --run to in sist).mdadm: stopped /dev/md9mdadm: /dev/md9 has been started with 1 drive (out of 4).Mirror of ROOT succeeded.[~] # storage_boot_init 1storage_boot_init 1 ...[~] # mdadm: /dev/sda2 appears to be part of a raid array: level=raid1 devices=2 ctime=Wed Dec 10 20:23:04 2014mdadm: array /dev/md4 started.storage_boot_init 2storage_boot_init 2 ...mdadm: /dev/md0 has been started with 3 drives (out of 4).BusyBox v1.01 (2014.09.01-17:31+0000) multi-call binaryUsage: renice priority pid [pid ...]Changes priority of running processes. Allowed priorities rangefrom 20 (the process runs only when nothing else is running) to 0(default priority) to -20 (almost nothing else ever gets to run).storage_boot_init.c: Start raid device /dev/md0 successfullymd0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1]storage_boot_init.c: /dev/md0 is active.storage_boot_init.c: Check filesystem on /dev/md0.storage_boot_init.c: Cannot mount /dev/md0.storage_boot_init.c: check_last_degrade_error...[~] # mdadm -E /dev/sda3/dev/sda3: Magic : a92b4efc Version : 00.90.00 UUID : 54855dd8:e445bba3:498fde59:28eb9595 Creation Time : Tue Sep 16 20:08:32 2014 Raid Level : raid5 Used Dev Size : 975193536 (930.02 GiB 998.60 GB) Array Size : 2925580608 (2790.05 GiB 2995.79 GB) Raid Devices : 4 Total Devices : 4Preferred Minor : 0 Update Time : Wed Dec 10 20:54:05 2014 State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1 Spare Devices : 1 Checksum : 3735de44 - correct Events : 0.48800 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 0 8 3 0 active sync /dev/sda3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 8 35 2 active sync /dev/sdc3 3 3 0 0 3 faulty removed 4 4 8 51 4 spare /dev/sdd3[~] # mdadm -E /dev/sdb3/dev/sdb3: Magic : a92b4efc Version : 00.90.00 UUID : 54855dd8:e445bba3:498fde59:28eb9595 Creation Time : Tue Sep 16 20:08:32 2014 Raid Level : raid5 Used Dev Size : 975193536 (930.02 GiB 998.60 GB) Array Size : 2925580608 (2790.05 GiB 2995.79 GB) Raid Devices : 4 Total Devices : 4Preferred Minor : 0 Update Time : Wed Dec 10 20:54:05 2014 State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1 Spare Devices : 1 Checksum : 3735de56 - correct Events : 0.48800 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 1 8 19 1 active sync /dev/sdb3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 8 35 2 active sync /dev/sdc3 3 3 0 0 3 faulty removed 4 4 8 51 4 spare /dev/sdd3[~] # mdadm -E /dev/sdc3/dev/sdc3: Magic : a92b4efc Version : 00.90.00 UUID : 54855dd8:e445bba3:498fde59:28eb9595 Creation Time : Tue Sep 16 20:08:32 2014 Raid Level : raid5 Used Dev Size : 975193536 (930.02 GiB 998.60 GB) Array Size : 2925580608 (2790.05 GiB 2995.79 GB) Raid Devices : 4 Total Devices : 4Preferred Minor : 0 Update Time : Wed Dec 10 20:54:05 2014 State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1 Spare Devices : 1 Checksum : 3735de68 - correct Events : 0.48800 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 2 8 35 2 active sync /dev/sdc3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 8 35 2 active sync /dev/sdc3 3 3 0 0 3 faulty removed 4 4 8 51 4 spare /dev/sdd3[~] # mdadm -E /dev/sdd3/dev/sdd3: Magic : a92b4efc Version : 00.90.00 UUID : 54855dd8:e445bba3:498fde59:28eb9595 Creation Time : Tue Sep 16 20:08:32 2014 Raid Level : raid5 Used Dev Size : 975193536 (930.02 GiB 998.60 GB) Array Size : 2925580608 (2790.05 GiB 2995.79 GB) Raid Devices : 4 Total Devices : 4Preferred Minor : 0 Update Time : Wed Dec 10 20:54:05 2014 State : clean Active Devices : 3Working Devices : 4 Failed Devices : 1 Spare Devices : 1 Checksum : 3735de76 - correct Events : 0.48800 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 4 8 51 4 spare /dev/sdd3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 8 35 2 active sync /dev/sdc3 3 3 0 0 3 faulty removed 4 4 8 51 4 spare /dev/sdd3[~] # more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd3[4] sda3[0] sdc3[2] sdb3[1] 2925580608 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_] [>....................] recovery = 4.3% (42879260/975193536) finish=241.4min speed=64344K/secmd4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0] 530048 blocks [2/2] [UU]md9 : active raid1 sdc1[3] sdb1[1] sda1[0] sdd1[2] 530048 blocks [4/4] [UUUU] bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>[~] # mount /dev/md0 /share/MD0_DATA -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so[~] # mdadm -CfR --assume-clean /dev/md0 -l 5 -n 4 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3mdadm: another array by this name is already running.[~] # mdadm -S /dev/md0mdadm: stopped /dev/md0[~] # mdadm -CfR --assume-clean /dev/md0 -l 5 -n 4 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3mdadm: /dev/sda3 appears to be part of a raid array: level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdb3 appears to be part of a raid array: level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdc3 appears to be part of a raid array: level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: /dev/sdd3 appears to be part of a raid array: level=raid5 devices=4 ctime=Tue Sep 16 20:08:32 2014mdadm: array /dev/md0 started.[~] # mount /dev/md0 /share/MD0_DATA -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so[~] # more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd3[3] sdc3[2] sdb3[1] sda3[0] 2925580800 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0] 530048 blocks [2/2] [UU]
und dann noch mal folgendes versucht:
login as: admin
admin@192.168.6.15's password:
[~] # cat /etc/raidtab
raiddev /dev/md0
raid-level 5
nr-raid-disks 4
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/sda3
raid-disk 0
device /dev/sdb3
raid-disk 1
device /dev/sdc3
raid-disk 2
device /dev/sdd3
raid-disk 3
[~] # cat /etc/config/mdadm.conf
ARRAY /dev/md0 devices=/dev/sda3,/dev/sdb3,/dev/sdc3,/dev/sdd3
[~] # df -h
Filesystem Size Used Available Use% Mounted on
/dev/ram0 139.5M 115.5M 23.9M 83% /
tmpfs 64.0M 224.0k 63.8M 0% /tmp
tmpfs 502.8M 0 502.8M 0% /dev/shm
/dev/sda4 371.0M 230.6M 140.4M 62% /mnt/ext
/dev/md9 509.5M 148.1M 361.3M 29% /mnt/HDA_ROOT
tmpfs 32.0M 0 32.0M 0% /.eaccelerator.tmp
[~] # fdisk -lu
Disk /dev/sdx: 128 MB, 128057344 bytes
8 heads, 32 sectors/track, 977 cylinders, total 250112 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sdx1 32 2047 1008 83 Linux
/dev/sdx2 2048 112639 55296 83 Linux
/dev/sdx3 112640 223231 55296 83 Linux
/dev/sdx4 223232 250111 13440 5 Extended
/dev/sdx5 223264 233727 5232 83 Linux
/dev/sdx6 233760 250111 8176 83 Linux
Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 63 1060289 530113+ 83 Linux
/dev/sda2 1060290 2120579 530145 82 Linux swap / Solaris
/dev/sda3 2120580 1952507969 975193695 83 Linux
/dev/sda4 1952507970 1953503999 498015 83 Linux
Disk /dev/sda4: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders, total 917760 sectors
Units = sectors of 1 * 512 = 512 bytes
Disk /dev/sda4 doesn't contain a valid partition table
Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 63 1060289 530113+ 83 Linux
/dev/sdb2 1060290 2120579 530145 82 Linux swap / Solaris
/dev/sdb3 2120580 1952507969 975193695 83 Linux
/dev/sdb4 1952507970 1953503999 498015 83 Linux
Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 40 1060289 530125 83 Linux
/dev/sdc2 1060296 2120579 530142 83 Linux
/dev/sdc3 2120584 1952507969 975193693 83 Linux
/dev/sdc4 1952507976 1953503999 498012 83 Linux
Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 * 63 1060289 530113+ 83 Linux
/dev/sdd2 1060290 2120579 530145 82 Linux swap / Solaris
/dev/sdd3 2120580 1952507969 975193695 83 Linux
/dev/sdd4 1952507970 1953503999 498015 83 Linux
Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders, total 1060096 sectors
Units = sectors of 1 * 512 = 512 bytes
Disk /dev/md9 doesn't contain a valid partition table
Disk /dev/md4: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders, total 1060096 sectors
Units = sectors of 1 * 512 = 512 bytes
Disk /dev/md4 doesn't contain a valid partition table
Disk /dev/md0: 0 MB, 0 bytes
2 heads, 4 sectors/track, 0 cylinders, total 0 sectors
Units = sectors of 1 * 512 = 512 bytes
Disk /dev/md0 doesn't contain a valid partition table
Alles anzeigen
Und jetzt weiß ich nicht mehr weiter!!!
Ach ja und ein wenig suaer bin ich auch... auf mich weil ich kein Backup habe... und auch auf Qnap, weil ich dieses Verhalten nach einem FW-Update als qualitativ unvollendet halte. Das darf eigentlich nicht passieren, zumal das Update empfohlen wurde...
Jetzt danke ich erstmal im Voraus für Eure Hilfe!!!!
MfG
Michel