Ich denke, man benötigt dafür auch eine Lizenz? Habt ihr damit Erfahrungen?
Beiträge von Nordstern
-
-
Habt ihr es mittlerweile hinbekommen?
-
Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! Forenregeln und Die Zitat Funktion des Forums richtig nutzen
Bei max 8 Zeichen
Unsicher by Design? Absolut unverständlich...
-
Kurze Rückmeldung von mir. Gelöst wurde das Problem, indem sich ein Techniker von QNAP aufgeschaltet hat. Hiernach war eine Migration auf die 4 x 5TB WD50EFRX möglich (jeweil HDD rund 10h) . Nach einem Neustart des Systems war das RAID5 jedoch erneut wieder nicht ansprechbar.
Nach einem Update von Firmware 4.1.1 auf 4.1.2 funktionierte das Wiederhestellen der Volumes jedoch wieder (vorher kam an dieser Stelle die Fehlermeldung "ERR_GENERIC") und auch nach einem Neustart wurde das RAID5 wieder eingebunden.Danke an Dr. Mike für die geleistete Hilfestellung!
-
Ein md0 existiert offenbar nicht.
ergänzende Informationen:Code
Alles anzeigen[~] # mdadm -E /dev/sd[abcd]3 /dev/sda3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : ee394248:a296d3cb:a387c5c7:48741a85 Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:35:12 2014 Checksum : c18f600d - correct Events : 30067 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) /dev/sdb3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : a560537d:083b2fbd:af5ecc71:fe91caea Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:48:55 2014 Checksum : f7b52322 - correct Events : 30067 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 1 Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing) /dev/sdc3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : 4a7cb4d1:734868da:c20b0623:9aa7a264 Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:36:35 2014 Checksum : 94600bf2 - correct Events : 30054 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 2 Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing) /dev/sdd3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : 62178463:089c695d:2f866d5d:46329051 Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:36:35 2014 Checksum : d085ffb8 - correct Events : 30054 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 3 Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing) [~] # mdadm -AfR /dev/md0 /dev/sd[abcd]3 mdadm: failed to get exclusive lock on mapfile - continue anyway... mdadm: failed to RUN_ARRAY /dev/md0: Input/output error mdadm: Not enough devices to start the array. [~] # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md321 : active raid1 sda5[0] sdd5[3] sdc5[2] sdb5[1] 8353728 blocks super 1.0 [4/4] [UUUU] bitmap: 0/1 pages [0KB], 65536KB chunk md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0] 530112 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md13 : active raid1 sda4[0] sdd4[25] sdc4[24] sdb4[1] 458880 blocks super 1.0 [24/4] [UUUU____________________] bitmap: 1/1 pages [4KB], 65536KB chunk md9 : active raid1 sda1[0] sdd1[25] sdc1[24] sdb1[1] 530048 blocks super 1.0 [24/4] [UUUU____________________] bitmap: 1/1 pages [4KB], 65536KB chunk unused devices: <none> [~] # mdadm --re-add --force /dev/md0 mdadm: error opening /dev/md0: No such file or directory [~] # mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory [~] # mdadm -E /dev/sd[abcd]3 /dev/sda3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : ee394248:a296d3cb:a387c5c7:48741a85 Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:35:12 2014 Checksum : c18f600d - correct Events : 30067 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) /dev/sdb3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : a560537d:083b2fbd:af5ecc71:fe91caea Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:48:55 2014 Checksum : f7b52322 - correct Events : 30067 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 1 Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing) /dev/sdc3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : 4a7cb4d1:734868da:c20b0623:9aa7a264 Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:36:35 2014 Checksum : 94600bf2 - correct Events : 30054 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 2 Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing) /dev/sdd3: Magic : a92b4efc Version : 1.0 Feature Map : 0x1 Array UUID : 1af2444c:4777463d:f524576d:30230f35 Name : 1 Creation Time : Sun Aug 10 20:40:50 2014 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB) Array Size : 11691190848 (11149.59 GiB 11971.78 GB) Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB) Super Offset : 7794127504 sectors Unused Space : before=0 sectors, after=248 sectors State : clean Device UUID : 62178463:089c695d:2f866d5d:46329051 Internal Bitmap : -24 sectors from superblock Update Time : Thu Dec 18 18:36:35 2014 Checksum : d085ffb8 - correct Events : 30054 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 3 Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)
-
Hallo,
ich bitte um eure Hilfe bei folgendem Problem: Mein derzeitiges Raid besteht aus 4 x 4 TB WD Wd40EFRX. Da der Speicherplatz nun zur Neige geht wollte ich eine Kapazitätserweiterung durchführen. Die habe ich bei anderen QNAP NAS' bereits öfter durchgeführt und es gab keine Probleme.
Nur diese Mal wurde beim einstecken der ersten neuen HDD ( 5TB WD50EFRX) die dritte HD in der NAS als fehlend gekennzeichnet und die Erweiterung brach ab.
Nun habe ich die NAS neu gestartet und dabei die vorher verwendete 4TB HDD wieder in den ersten Slot gesteckt. Nun steht der Status des Raid auf Fehler (ERR_GENERIC")! Mit SSH komme ich auf die NAS. Was kann ich nun machen?
Angaben zum System: Neuseste FW (4.1.1 2014-11-01)Code[~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md256 : active raid1 sdd2[3](S) sdc2[2](S) sdb2[1] sda2[0] 530112 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunkmd13 : active raid1 sda4[0] sdd4[25] sdc4[24] sdb4[1] 458880 blocks super 1.0 [24/4] [UUUU____________________] bitmap: 1/1 pages [4KB], 65536KB chunkmd9 : active raid1 sda1[0] sdd1[25] sdc1[24] sdb1[1] 530048 blocks super 1.0 [24/4] [UUUU____________________] bitmap: 1/1 pages [4KB], 65536KB chunkunused devices: <none>
Code[~] # fdisk -lDisk /dev/sda: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sda1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdc: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdc1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdb: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdb1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdd: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdd1 1 267350 2147483647+ ee EFI GPTDisk /dev/sde: 515 MB, 515899392 bytes8 heads, 32 sectors/track, 3936 cylindersUnits = cylinders of 256 * 512 = 131072 bytes Device Boot Start End Blocks Id System/dev/sde1 1 41 5244 83 Linux/dev/sde2 * 42 1922 240768 83 Linux/dev/sde3 1923 3803 240768 83 Linux/dev/sde4 3804 3936 17024 5 Extended/dev/sde5 3804 3868 8304 83 Linux/dev/sde6 3869 3936 8688 83 LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytes
Code[~] # mdadm --examine --scan ARRAY /dev/md/9 metadata=1.0 UUID=95fff832:9807b3ce:714752e2:12ae5660 name=9 ARRAY /dev/md/256 metadata=1.0 UUID=d1e889b5:39e9691e:d78af25d:f4c22bf7 name=256 spares=2 ARRAY /dev/md/1 metadata=1.0 UUID=1af2444c:4777463d:f524576d:30230f35 name=1 ARRAY /dev/md/13 metadata=1.0 UUID=6d9b5242:6ae4473d:3eb0785c:098327da name=13 ARRAY /dev/md/321 metadata=1.0 UUID=4a84df11:ad2ceab8:992e5874:f4cc4494 name=321 [~] #
Von Linux habe ich leider keine Ahnung. Ich habe jedoch schon begriffen, dass mdadm hier mein Freund sein könnte. Dennoch habe ich die Befürchtung, etwas falsch zu machen und bitte daher um Hilfestellung. Soweit ich denke, sind die Daten noch vorhanden und die Disks "clean". Wahrscheinlich müssen die Disks assembled werden. ich bin mir auch deshalb nicht sicher, weil ich früher MD0_DATA als Pfad hatte und nun CACHEDEV1_DATA was wohl auf die verwendung vom neuen (?) LVM-Manager hinweist. (?)
-
Hallo,
ich habe kürzlich eine QNAP SS-453 Pro NAS erworden.
Bei der Einrichtung habe ich die vorhandenen Festplatten meiner alten SS-439 Pro verwendet. Die neue NAS wurde erfolgreich mit den alten Platten migriert.
Leider wurden auch die unglücklich benannten Standardordner der SS-439 Pro mit migriert (Qdownload, QMulimedia etc.).
Ich hätte jedoch gerne andere Standard-Ordnerbezeichnungen wie bei meiner TS-451 (Download, Multimedia etc).
Kann mir ein Besitzer einer SS-453 Pro mitteilen wie die Standard-Ordnerbezeichnungen ohne eine Migration lauten? Dann wurde ich die neue SS-453 Pro lieber nochmal neu aufsetzen.Vielen Dank im Voraus!
-
News:
Ich habe gestern ein Firmwareupdate gemacht : v4.1.0 vom 30.05.2014
Danach eine der 4 TB eingesteckt (welche ich bereits vorher schon einmal drin hatte) und siehe da das Rebuild lief an!
Soweit so gut. Gestartet habe ich gestern Abend etwa gegen 19:00 Uhr. Heute morgen gegen 6:00 war er bei über 90 % des Rebuilds.
Als ich 9 h später von der Arbeit kam, war das Webinterface vom Speichermanager nicht mehr erreichbar.
Ich gehe daher davon aus, dass etwas schief gelaufen sein muss, da die restlichen 10 % in etwa 1,5 h hätten durchlaufen müssen.
Daher habe ich die NAS manuell neu gestartet (ein Reboot ging nicht weil die NAS hing).
Nach einem Neustart war die HDD 1 auch Bestandteil des Raid 5, jedoch lief das Raid nicht an. Es lief sich auch nicht durch "Wiederherstellen" der Raid-Verwaltung aktivieren... (Log: RAID Recovery failed)
Der aktuelle Stand:Nun die Antworten auf eure Fragen:
ZitatDamit sind die Daten nun in höchster Gefahr, folglich ist im Augenblick nichts wichtiger, als die Daten des RAID unverzüglich zu sichern bzw. das vorhandene Backup zu aktualisieren, so lange dies noch möglich ist.
-> Wohin mit 8,5 TB Daten?ZitatWie lange ist die HDD1 bereits aus dem System raus,
-> Seitdem ich gepostet habe, jedoch habe ich die NAS eigentlich nicht meh an gehabt, um Datenverlust zu vermeiden.Zitatwar der RAID Status vor dem Austausch der HDD1 noch in Ordnung (also nicht "degraded") und wurde nach dem Austausch der HDD1 bereits wieder auf das RAID geschrieben ?
-> Ja und nein (außer FW-Update)...und nun die Code-Blöcke:
Code[~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md4 : active raid1 sdd2[2](S) sdc2[3](S) sdb2[1] sda2[0] 530048 blocks [2/2] [UU]md13 : active raid1 sdc4[0] sda4[3] sdb4[2] sdd4[1] 458880 blocks [4/4] [UUUU] bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sdc1[0] sdb1[3] sda1[2] sdd1[1] 530048 blocks [4/4] [UUUU] bitmap: 1/65 pages [4KB], 4KB chunkunused devices: <none>
Code[~] # fdisk -lDisk /dev/sdb: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdb1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdc: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdc1 1 267350 2147483647+ ee EFI GPTDisk /dev/sdd: 3000.5 GB, 3000592982016 bytes255 heads, 63 sectors/track, 364801 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdd1 1 267350 2147483647+ ee EFI GPTDisk /dev/sda: 4000.7 GB, 4000787030016 bytes255 heads, 63 sectors/track, 486401 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sda1 1 267350 2147483647+ ee EFI GPTDisk /dev/sda4: 469 MB, 469893120 bytes2 heads, 4 sectors/track, 114720 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/sda4 doesn't contain a valid partition tableDisk /dev/sdx: 515 MB, 515899392 bytes8 heads, 32 sectors/track, 3936 cylindersUnits = cylinders of 256 * 512 = 131072 bytes Device Boot Start End Blocks Id System/dev/sdx1 1 17 2160 83 Linux/dev/sdx2 18 1910 242304 83 Linux/dev/sdx3 1911 3803 242304 83 Linux/dev/sdx4 3804 3936 17024 5 Extended/dev/sdx5 3804 3868 8304 83 Linux/dev/sdx6 3869 3936 8688 83 LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md9 doesn't contain a valid partition tableDisk /dev/md4: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md4 doesn't contain a valid partition table
Code[~] # cat /etc/config/raidtabraiddev /dev/md0 raid-level 5 nr-raid-disks 4 nr-spare-disks 0 chunk-size 4 persistent-superblock 1 device /dev/sda3 raid-disk 0 device /dev/sdb3 raid-disk 1 device /dev/sdc3 raid-disk 2 device /dev/sdd3 raid-disk 3
Code[~] # cat /etc/storage.conf[VOLUME 1]device name = /dev/md0raid level = 5raid disks = 1,2,3,4spare raid disks =status = -2record_time = Wed Jun 4 18:35:23 2014filesystem = 104[Global]Available Disk = 4
Code
Alles anzeigen[~] # dmesg 616] md/raid1:md4: active with 1 out of 1 mirrors [ 107.945425] md4: detected capacity change from 0 to 542769152 [ 108.954381] md4: unknown partition table [ 111.002903] Adding 530044k swap on /dev/md4. Priority:-1 extents:1 across:530044k [ 115.197872] md: bind<sdb2> [ 115.213597] RAID1 conf printout: [ 115.213607] --- wd:1 rd:2 [ 115.213616] disk 0, wo:0, o:1, dev:sda2 [ 115.213623] disk 1, wo:1, o:1, dev:sdb2 [ 115.213744] md: recovery of RAID array md4 [ 115.217545] md: minimum _guaranteed_ speed: 5000 KB/sec/disk. [ 115.221285] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery. [ 115.225175] md: using 128k window, over a total of 530048k. [ 117.274690] md: bind<sdc2> [ 119.376787] md: bind<sdd2> [ 119.699677] md: md0 stopped. [ 119.720952] md: md0 stopped. [ 119.848792] md: bind<sdb3> [ 119.852564] md: bind<sdc3> [ 119.856199] md: bind<sdd3> [ 119.859652] md: bind<sda3> [ 119.864068] md/raid:md0: not clean -- starting background reconstruction [ 119.867305] md/raid:md0: device sdd3 operational as raid disk 3 [ 119.870534] md/raid:md0: device sdc3 operational as raid disk 2 [ 119.873684] md/raid:md0: device sdb3 operational as raid disk 1 [ 119.876753] NR_STRIPES is 4096 for total 769120 ram pages [ 119.891771] md/raid:md0: allocated 68992kB [ 119.894952] md/raid:md0: cannot start dirty degraded array. [ 119.898066] RAID conf printout: [ 119.898073] --- level:5 rd:4 wd:3 [ 119.898080] disk 0, o:1, dev:sda3 [ 119.898087] disk 1, o:1, dev:sdb3 [ 119.898094] disk 2, o:1, dev:sdc3 [ 119.898100] disk 3, o:1, dev:sdd3 [ 119.906756] md/raid:md0: failed to run raid set. [ 119.909830] md: pers->run() failed ... [ 120.921911] md: md0 stopped. [ 120.924922] md: unbind<sda3> [ 120.933041] md: export_rdev(sda3) [ 120.936074] md: unbind<sdd3> [ 120.945018] md: export_rdev(sdd3) [ 120.948143] md: unbind<sdc3> [ 120.956019] md: export_rdev(sdc3) [ 120.958887] md: unbind<sdb3> [ 120.969017] md: export_rdev(sdb3) [ 123.173351] md: md0 stopped. [ 126.557231] md: md0 stopped. [ 126.567807] md: bind<sdb3> [ 126.570823] md: bind<sdc3> [ 126.573757] md: bind<sdd3> [ 126.576647] md: bind<sda3> [ 126.580632] md/raid:md0: not clean -- starting background reconstruction [ 126.583402] md/raid:md0: device sdd3 operational as raid disk 3 [ 126.586195] md/raid:md0: device sdc3 operational as raid disk 2 [ 126.588873] md/raid:md0: device sdb3 operational as raid disk 1 [ 126.591485] NR_STRIPES is 4096 for total 769120 ram pages [ 126.606151] md/raid:md0: allocated 68992kB [ 126.608837] md/raid:md0: cannot start dirty degraded array. [ 126.611470] RAID conf printout: [ 126.611476] --- level:5 rd:4 wd:3 [ 126.611484] disk 0, o:1, dev:sda3 [ 126.611490] disk 1, o:1, dev:sdb3 [ 126.611497] disk 2, o:1, dev:sdc3 [ 126.611503] disk 3, o:1, dev:sdd3 [ 126.620242] md/raid:md0: failed to run raid set. [ 126.622820] md: pers->run() failed ... [ 126.634175] md: md0 stopped. [ 126.636480] md: unbind<sda3> [ 126.650029] md: export_rdev(sda3) [ 126.652279] md: unbind<sdd3> [ 126.663018] md: export_rdev(sdd3) [ 126.665106] md: unbind<sdc3> [ 126.675017] md: export_rdev(sdc3) [ 126.676971] md: unbind<sdb3> [ 126.683017] md: export_rdev(sdb3) [ 128.814230] md: md0 stopped. [ 129.175121] md: md4: recovery done. [ 129.219936] RAID1 conf printout: [ 129.219946] --- wd:2 rd:2 [ 129.219952] disk 0, wo:0, o:1, dev:sda2 [ 129.219958] disk 1, wo:0, o:1, dev:sdb2 [ 129.231742] RAID1 conf printout: [ 129.231747] --- wd:2 rd:2 [ 129.231752] disk 0, wo:0, o:1, dev:sda2 [ 129.231757] disk 1, wo:0, o:1, dev:sdb2 [ 129.231761] RAID1 conf printout: [ 129.231764] --- wd:2 rd:2 [ 129.231769] disk 0, wo:0, o:1, dev:sda2 [ 129.231774] disk 1, wo:0, o:1, dev:sdb2 [ 132.151221] md: md0 stopped. [ 132.160621] md: bind<sdb3> [ 132.162829] md: bind<sdc3> [ 132.164994] md: bind<sdd3> [ 132.167069] md: bind<sda3> [ 132.170206] md/raid:md0: not clean -- starting background reconstruction [ 132.172233] md/raid:md0: device sdd3 operational as raid disk 3 [ 132.174436] md/raid:md0: device sdc3 operational as raid disk 2 [ 132.176561] md/raid:md0: device sdb3 operational as raid disk 1 [ 132.178616] NR_STRIPES is 4096 for total 769120 ram pages [ 132.192696] md/raid:md0: allocated 68992kB [ 132.194872] md/raid:md0: cannot start dirty degraded array. [ 132.196998] RAID conf printout: [ 132.197015] --- level:5 rd:4 wd:3 [ 132.197023] disk 0, o:1, dev:sda3 [ 132.197030] disk 1, o:1, dev:sdb3 [ 132.197036] disk 2, o:1, dev:sdc3 [ 132.197043] disk 3, o:1, dev:sdd3 [ 132.205837] md/raid:md0: failed to run raid set. [ 132.207947] md: pers->run() failed ... [ 132.228688] md: md0 stopped. [ 132.230738] md: unbind<sda3> [ 132.240033] md: export_rdev(sda3) [ 132.242215] md: unbind<sdd3> [ 132.256022] md: export_rdev(sdd3) [ 132.258036] md: unbind<sdc3> [ 132.264017] md: export_rdev(sdc3) [ 132.266040] md: unbind<sdb3> [ 132.276017] md: export_rdev(sdb3) [ 135.732415] bonding: Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) [ 135.734541] bonding: MII link monitoring set to 100 ms [ 135.799913] bonding: bond0: setting mode to 802.3ad (4). [ 135.805793] 8021q: adding VLAN 0 to HW filter on device bond0 [ 135.891695] e1000e: eth0 NIC Link is Down [ 135.983546] 8021q: adding VLAN 0 to HW filter on device eth0 [ 135.986194] bonding: bond0: enslaving eth0 as a backup interface with a down link. [ 136.065681] e1000e: eth1 NIC Link is Down [ 136.156487] 8021q: adding VLAN 0 to HW filter on device eth1 [ 136.159511] bonding: bond0: enslaving eth1 as a backup interface with a down link. [ 139.382082] e1000e: eth0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx [ 139.404049] bonding: bond0: link status definitely up for interface eth0, 1000 Mbps full duplex. [ 139.527088] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx [ 139.606033] bonding: bond0: link status definitely up for interface eth1, 1000 Mbps full duplex. [ 169.795972] warning: `proftpd' uses 32-bit capabilities (legacy support in use) [ 183.708850] rule type=2, num=0 [ 184.830643] Loading iSCSI transport class v2.0-871. [ 184.867175] iscsi: registered transport (tcp) [ 184.894204] iscsid (7868): /proc/7868/oom_adj is deprecated, please use /proc/7868/oom_score_adj instead. [ 274.500470] md: md0 stopped. [ 274.564416] md: bind<sdb3> [ 274.568260] md: bind<sdc3> [ 274.571920] md: bind<sdd3> [ 274.575437] md: bind<sda3> [ 274.580025] md/raid:md0: not clean -- starting background reconstruction [ 274.583363] md/raid:md0: device sdd3 operational as raid disk 3 [ 274.586774] md/raid:md0: device sdc3 operational as raid disk 2 [ 274.590028] md/raid:md0: device sdb3 operational as raid disk 1 [ 274.593262] NR_STRIPES is 4096 for total 769120 ram pages [ 274.611531] md/raid:md0: allocated 68992kB [ 274.615026] md/raid:md0: cannot start dirty degraded array. [ 274.618390] RAID conf printout: [ 274.618397] --- level:5 rd:4 wd:3 [ 274.618404] disk 0, o:1, dev:sda3 [ 274.618411] disk 1, o:1, dev:sdb3 [ 274.618418] disk 2, o:1, dev:sdc3 [ 274.618424] disk 3, o:1, dev:sdd3 [ 274.627463] md/raid:md0: failed to run raid set. [ 274.630831] md: pers->run() failed ... [ 277.154986] md: md0 stopped. [ 277.158375] md: unbind<sda3> [ 277.166028] md: export_rdev(sda3) [ 277.169481] md: unbind<sdd3> [ 277.181018] md: export_rdev(sdd3) [ 277.184596] md: unbind<sdc3> [ 277.195018] md: export_rdev(sdc3) [ 277.198242] md: unbind<sdb3> [ 277.209017] md: export_rdev(sdb3) [ 282.586599] md: md0 stopped. [ 282.611721] md: md0 stopped.
Ihr seht, ihr bekommt alle Infos, die ihr benötigt...
Tausend Dank für Eure Hilfe!!! -
Die Logs geben leider nur oberflächliche Meldungen wie:
[RAID5 Disk Volume: Drive 1 2 3 4] RAID device in degraded mode.[RAID5 Disk Volume: Drive 1 2 3 4] Drive 1 removed.
Drive 1 plugged out.
[RAID5 Disk Volume: Drive 1 2 3 4] Add drive 1 to the volume failed.
Leider nichts, worn man festmachen könnte, was zu tun ist.
Heute habe ich die Firmware auf die aktuelle 4.1.0 vom 30.05.2014 upgedatet, jedoch alles genauso unbefriedigend wie zuvor.
Unglücklicherweise, wird seit heute beim 2 Drive eine SMART-Warnung (smart current pending sector) ausgegeben. Viel Zeit habe ich wohl nicht mehr, bis alle Daten hinüber sind... hat jemand viell. noch Ideen?
Ist schon merkwürdig, jahrelang überhaupt keine Probleme und nun alles auf einmal...
-
In welche logs könnte ich schauen?
-
Danke. Genau dies habe ich bereits gemacht:
Alle 4 TB Platten an einen PC gesteckt, alle Partitionen gelöscht und wieder in die NAS gesteckt. leider ohne Erfolg! ;-/
Gibt es viell. sonst Möglichkeiten. Evtl über SSH/Putty? -
Niemand hier, der mir weiterhelfen könnte?
-
Guten Abend,
ich habe seit einiger Zeit das Problem, dass nach einem fehlgeschlagenen Versuch zur Kapazitätserweiterung mein Raid degraded ist und nicht wieder recovered.Mein System: QNAP TS-459 Pro II mit FW 4.1.0 beta von 12/2013
alte Platten: 4 x Western Digital Red 3000GB, SATA 6Gb-s (WD30EFRX)
neue Platten: 4 x Western Digital Red 4000GB, SATA 6Gb-s (WD40EFRX)
RAID-Modus: RAID-5 mit Bitmap
Problem: Kein RebuildDa ich nicht ganz firm mit Linux bin, habe ich nicht so Recht eine Idee, wo ich weiter ansetzen kann.
Mit Putty und SSH auf die Box ist kein Problem.
Für Hilfe wäre ich sehr dankbar!Der derzeitige Stand:
-
Ich habe das selbe Problem nun erneut. ein einloggen ist nun wieder nur möglich, wenn ich dem benutzer in windows 7 ein anderes passwort als auf der nas zuordne.
-
Danke für den Link. Ich werde ihn mir gleich mal zu Gemüte führen.
Mein Problem konnte ich lösen. Grund für den hohen Traffic war mein Roboform Password-Manager. Ich hatte dessen Passwort-Dateien auf der Nas ausgelagert. Bei jeder Verbindung mit der Nas versuchte Roboform sämtliche vorhandene Passwort-Dateien (weit über 1.000) einzulesen. Dies geschah aus mir unerklärlichen Gründen gleich mehrfach. Trotzdem Danke! Die Konfiguration funktioniert wie oben beschrieben. -
Vielen Dank für die Antwort. Diesen Beitrag hatte ich bereits gelesen. Jedoch wollte ich gerne vorerst ohne einen weiteren Stromfresser auskommen, da ich zudem auf die neue Fritzbox 7390 warte, die dann einen integrierten GB-Switch haben soll.
Die Vorgehensweise wurde sogar hier http://forum.qnapclub.de/viewtopic.php?f=35&t=6420&start=10 empfohlen. Wie gesagt, prinzipiell scheint es ja auch zu funktionieren... -
Hallo, ich bin frisch gebackener Besitzer einer SS-439, daher habe ich noch eine Frage bei der ich mir schon reichlich Gedanken gemacht habe. Ich habe mir auch bereits alle relavanten Themen hier und im Netz durchgelesen aber so recht scheint bei mir nichts zu funktionieren. Daher gleich zu meiner Konstellation:
Meine NAS hängt mit Ethernet-1 (192.168.1.2) am integrierten 100 MBit-Switch der Fritzbox (192.168.1.1). Um Internet für meinen PC's zu gewärleisten hängt auch dieser an der Fritzbox mit 192.168.1.4. Verbindung auch hier wegen dem Switch der Fritzbox 100 Mbit.
Da die Nas und auch der PC jeweils einen 1.000 Mbit Port haben, habe ich beide mit einem Cat5e S-FTP Kabel verbunden Um die GB Verbindung auch zu nutzen. Daher habe ich sie in einen andere IP-Bereich gelegt, um die beiden Netze zu trennen (Nas 192.168.2.2 & PC 192.168.2.4)
Alle haben die Subnetzmaske 255.255.255.0. DHCP ist auf der Fritzbox aktiviert (192.168.1.1). Stand-Alone Konfiguration.Nochmal in kurz:
FRITZ!Box (192.168.1.1) -> 100 MBit -> PC (192.168.1.4)
FRITZ!Box (192.168.1.1) -> 100 MBit -> NAS (192.168.1.2)
DHCP für obige: FRITZ!Box (192.168.1.1)PC (192.168.2.4) -> 1.000 MBit -> NAS (192.168.2.2)
Subnetzmaske für alle: 255.255.255.0Eigentlich sollte die Konfiguration stimmen und der Daten-Transfer für die gemappten Freigaben ist auch möglich. Jedoch hängt der PC bei allem was das Netzwerk betrifft sehr oft und beide Browser (FF & IE) hängen sich beim Starten immer wieder auf. Ich habe nun herausgefunden, das der System-Prozess (Win 7 Ultimate x64) eine konstante Verbindung zu Nas mit ca 500 KB/s herstellt, sobald eine Verbindung nach dem Starten von Windows hergestellt ist. Der Traffic steigt dabei langsam bis zur besagten Geschwindigkeit. Erst dachte ich an eine Indexierung der Medien auf der Nas, jedoch konnte ich dafür keine konkreten Anhaltspunkte finden. Auch sind keine dafür typischen Prozesse aktiv. Nun denke ich, dass die Konfiguration der Netzwerk-Adapter doch nicht korrekt ist. Daher bitte ich Euch um Hilfe, und um Überprüfung der Konfiguration. Viell. kennt jemand das Phänomen und kann zur Klärung beitragen Vielen Dank!
-
Danke für die schnelle antwort. jedoch hat erst das ändern der anmeldeeinstellung auf sicherheitsebene etwas geändert. warum weiß ich aber dennoch nicht.
-
Hallo, ich habe folgendes problem: ich benutze die SS-439 und windows 7. Wenn ich mich unter win 7 mit benutzernamen/passwort einloggen will, bekomme ich eine fehlermeldung im log. der benutzername und das passwort auf win 7 sowie das konto auf der nas sind identisch.
Im log der Nas steht dazu: 2009-12-16 00:43:24 Nordstern 192.168.0.12 pc SAMBA --- Login Fail
ein einloggen anderer user, als das gerade in win 7 verwendete Konto dagegen ist möglich.
woran kann das liegen? Ich bin schon seit stunden am suchen nach einer Lösung...
Hiintergrund ist, dass ich ein netzlaufwerk mit userrechten mappen möchte. Danke im Voraus! -