Hallo Barny,
hast Du das Kommand vollständig eingegeben?
mdadm /dev/sdb3 --zero-superblock
Gruß
Finn
Hallo Barny,
hast Du das Kommand vollständig eingegeben?
mdadm /dev/sdb3 --zero-superblock
Gruß
Finn
So, liebe Freundinnen und Freunde,
das Problem scheint gelöst zu sein, jedenfalls läuft das RECOVER und zugreifen kann ich auch wieder. :thumb:
Mit mdadm --examine konnte ich rausfinden, dass eine der drei RAID Komponenten einen älteren Zeitstempel hat. Das ist auch die Komponente auf jener Festplatte (sdc), die Husten hatte.
[~] # mdadm /dev/sda3 --examine/dev/sda3: Magic : a92b4efc Version : 00.90.00 UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca Creation Time : Sat May 14 13:19:49 2011 Raid Level : raid5 Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB) Array Size : 3903891200 (3723.04 GiB 3997.58 GB) Raid Devices : 3 Total Devices : 2Preferred Minor : 0 Update Time : Sun Jun 12 14:39:19 2011 State : clean Active Devices : 2Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Checksum : d8843a82 - correct Events : 0.90432 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 0 8 3 0 active sync /dev/sda3 0 0 8 3 0 active sync /dev/sda3 1 1 0 0 1 faulty removed 2 2 8 35 2 active sync /dev/sdc3[~] # mdadm /dev/sdb3 --examine/dev/sdb3: Magic : a92b4efc Version : 00.90.00 UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca Creation Time : Sat May 14 13:19:49 2011 Raid Level : raid5 Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB) Array Size : 3903891200 (3723.04 GiB 3997.58 GB) Raid Devices : 3 Total Devices : 3Preferred Minor : 0 Update Time : Sat Jun 11 09:35:00 2011 State : clean Active Devices : 3Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Checksum : d88249f5 - correct Events : 0.79181 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 1 8 19 1 active sync /dev/sdb3 0 0 8 3 0 active sync /dev/sda3 1 1 8 19 1 active sync /dev/sdb3 2 2 8 35 2 active sync /dev/sdc3[~] # mdadm /dev/sdc3 --examine/dev/sdc3: Magic : a92b4efc Version : 00.90.00 UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca Creation Time : Sat May 14 13:19:49 2011 Raid Level : raid5 Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB) Array Size : 3903891200 (3723.04 GiB 3997.58 GB) Raid Devices : 3 Total Devices : 2Preferred Minor : 0 Update Time : Sun Jun 12 14:39:19 2011 State : active Active Devices : 2Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Checksum : d882d966 - correct Events : 0.90433 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice Statethis 2 8 35 2 active sync /dev/sdc3 0 0 8 3 0 active sync /dev/sda3 1 1 0 0 1 faulty removed 2 2 8 35 2 active sync /dev/sdc3
Mit mdadm /dev/sdb3 --zero-superblock habe ich die defekte Komponente gelöscht (Verwaltungsinformationen vom Datenträger entfernt).
Nach einem Neustart des NAS wird das RAID nun neu gebaut.
[/share/Multimedia/Serien] # mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Wed Jun 15 21:55:21 2011
Raid Level : raid5
Array Size : 3903891200 (3723.04 GiB 3997.58 GB)
Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Jun 15 22:15:45 2011
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 1% complete
UUID : 6482fb80:7aeb39e8:5c58bf2f:dbbb2839
Events : 0.811
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
3 8 19 1 spare rebuilding /dev/sdb3
2 8 35 2 active sync /dev/sdc3
Alles anzeigen
Vielleicht hilft das jemanden in einer ähnlichen Situation.
Herzliche Grüße
Finn
Hallo David, hallo Kollegen,
der "Bad Block Scan" hat leider keine Verbesserung gebracht. Das RAID lässt sich nicht reaktivieren.
Gibt es weitere Idee?
Ich würde als nächstes Platte 2 formatieren und dann noch mal ein Recover versuchen. Ist das ein guter Plan?
Ich bin für Hilfe und Ideen dankbar.
Es grüßt
Finn
[~] # dmesg device-mapper: ioctl: 4.16.0-ioctl (2009-11-05) initialised: dm-devel@redhat.comusbcore: registered new interface driver usbhidusbhid: USB HID core driverusbcore: registered new interface driver usblpsysinfo: Module loaded.ufsd: module license 'Commercial product' taints kernel.Disabling lock debugging due to kernel taintufsd: driver U82 (May 20 2011 01:16:45) LBD=OFF with ioctl loaded at bf18a000NTFS read/write support includedHfs+/HfsX read/write support includedSlow work thread pool: Starting upSlow work thread pool: Readylib80211: common routines for IEEE802.11 driverslib80211_crypt: registered algorithm 'NULL'cfg80211: Calling CRDA to update world regulatory domainEnable WDT...usbcore: registered new interface driver snd-usb-audiousbcore: registered new interface driver snd-usb-caiaqeth0: mac address changedeth0: link downeth0: startedeth1: mac address changedeth1: startedeth0: link up, full duplex, speed 1 Gbpskjournald starting. Commit interval 5 secondsEXT3-fs (md9): using internal journalEXT3-fs (md9): mounted filesystem with writeback data modemd: bind<sda2>raid1: raid set md4 active with 1 out of 1 mirrorsmd4: detected capacity change from 0 to 542769152 md4: unknown partition tableAdding 530040k swap on /dev/md4. Priority:-1 extents:1 across:530040k md: bind<sdb2>RAID1 conf printout: --- wd:1 rd:2 disk 0, wo:0, o:1, dev:sda2 disk 1, wo:1, o:1, dev:sdb2md: recovery of RAID array md4md: minimum _guaranteed_ speed: 5000 KB/sec/disk.md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.md: using 128k window, over a total of 530048 blocks.md: bind<sdc2>active port 0 :139active port 1 :445active port 2 :20md: md4: recovery done.RAID1 conf printout: --- wd:2 rd:2 disk 0, wo:0, o:1, dev:sda2 disk 1, wo:0, o:1, dev:sdb2md: md0 stopped.md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...eth1: stoppedeth0: stoppedeth1: startedeth0: link downeth0: startedeth0: link up, full duplex, speed 1 Gbpseth1: stoppedeth1: startedactive port 0 :139active port 1 :445active port 2 :20warning: process `pic_raw' used the deprecated sysctl system call with 8.1.2. Set Adpater:port=1:0 standby to 180 (900 secs). Set Adpater:port=1:1 standby to 180 (900 secs). Set Adpater:port=1:2 standby to 180 (900 secs).rule type=1, num=1eth0: link up, full duplex, speed 1 GbpsWOL disableWOL disableLoading iSCSI transport class v2.0-871.iscsi: registered transport (tcp)md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)nfsd: last server has exited, flushing export cacheactive port 0 :139active port 1 :445active port 2 :20md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)
[~] # cat /proc/mdstatPersonalities : [raid1] [raid6] [raid5] [raid4] [linear] [raid0] [raid10] md4 : active raid1 sdc2[2](S) sdb2[1] sda2[0] 530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdb4[2] sdc4[1] 458880 blocks [4/3] [UUU_] bitmap: 41/57 pages [164KB], 4KB chunkmd9 : active raid1 sda1[0] sdb1[2] sdc1[1] 530048 blocks [4/3] [UUU_] bitmap: 65/65 pages [260KB], 4KB chunkunused devices: <none>
[~] # fdisk -l
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 66 530125 83 Linux
/dev/sda2 67 132 530142 83 Linux
/dev/sda3 133 243138 1951945693 83 Linux
/dev/sda4 243139 243200 498012 83 Linux
Disk /dev/sda4: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/sda4 doesn't contain a valid partition table
Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 66 530125 83 Linux
/dev/sdb2 67 132 530142 83 Linux
/dev/sdb3 133 243138 1951945693 83 Linux
/dev/sdb4 243139 243200 498012 83 Linux
Disk /dev/sdc: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 1 66 530125 83 Linux
/dev/sdc2 67 132 530142 83 Linux
/dev/sdc3 133 243138 1951945693 83 Linux
/dev/sdc4 243139 243200 498012 83 Linux
Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md9 doesn't contain a valid partition table
Disk /dev/md4: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md4 doesn't contain a valid partition table
Alles anzeigen
Guten Morgen,
herzlichen Dank für Deine ausführlich Antwort.
Bei den Platten liegst Du richtig, es sind drei ST2000DL003 verbaut (Schacht 1, 2, 3).
Plattenschacht 4 ist leer, eine 4. Platte ist nicht installiert. Daher wird's mit dem löschen etwas schwierig
Hast Du noch andere Ideen?
Waren die ST2000DL003 keine gute Entscheidung?
Herzliche Grüße und Danke für Deine Unterstützung
Finn
Hallo David,
ich weiss, dass eine Platte "drauf" gehen darf. Bisher bin ich auch der Meinung, dass es nur eine Platte ist, die nicht richtig funktioniert. Da die Kiste noch relativ neu ist, ist noch nichts drauf, dass ich nicht noch wo anders hätte...
Vielleicht gibst Du mir ein paar Details zu Deiner Vermutung?
Danke & Gruss
Finn
Guten Tag,
ich habe ein TS-419p+ mit drei 2,0 TB Segate Platten als RAID5. Für Disk zwei wurde ein Read/Write Error gemeldet. Ich habe einen Block-Scan durchführen lassen, die Platte scheint wieder ok zu sein. Leider schlägt die Wiederherstellung des RAIDs fehl. Kann mir jemand helfen?
[/] # fdisk -lDisk /dev/sda: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sda1 1 66 530125 83 Linux/dev/sda2 67 132 530142 83 Linux/dev/sda3 133 243138 1951945693 83 Linux/dev/sda4 243139 243200 498012 83 LinuxDisk /dev/sda4: 469 MB, 469893120 bytes2 heads, 4 sectors/track, 114720 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/sda4 doesn't contain a valid partition tableDisk /dev/sdb: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdb1 1 66 530125 83 Linux/dev/sdb2 67 132 530142 83 Linux/dev/sdb3 133 243138 1951945693 83 Linux/dev/sdb4 243139 243200 498012 83 LinuxDisk /dev/sdc: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdc1 1 66 530125 83 Linux/dev/sdc2 67 132 530142 83 Linux/dev/sdc3 133 243138 1951945693 83 Linux/dev/sdc4 243139 243200 498012 83 LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md9 doesn't contain a valid partition tableDisk /dev/md4: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md4 doesn't contain a valid partition table
[/] # cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [linear] [raid0] [raid10]
md4 : active raid1 sdc2[2](S) sdb2[1] sda2[0]
530048 blocks [2/2] [UU]
md13 : active raid1 sda4[0] sdb4[2] sdc4[1]
458880 blocks [4/3] [UUU_]
bitmap: 41/57 pages [164KB], 4KB chunk
md9 : active raid1 sda1[0] sdb1[2] sdc1[1]
530048 blocks [4/3] [UUU_]
bitmap: 65/65 pages [260KB], 4KB chunk
Alles anzeigen
Danke & schöne Grüße
Finn
Hallo Neo,
was ist dann der Unterschied zwischen mit und ohne WOL?
Hallo Stefan,
vielen Dank für Deine Antwort.
Kann mir jemand sagen, wie das 219P aus dem Standby in den Normalbetrieb versetzt werden kann?
Antworten zu den anderen Fragen sind auch sehr willkommen.
Gruß
Finn
Liebe QNap-Fans,
ich war bisher eifriger Leser des Forums. Nun wird der Anschaffungsbedarf für ein NAS immer konkreter und ich brauche eure Beratung bei einigen Aspekten:
Einsatzzweck:
[*]Backup meines Macs via Timemashine
[*]Klassischer Netzspeicher für Medien und Dokumente, ggf. Streaming
[*]Optional: Ausführungsumgebung für MySQL, Python usw.
Zugriff:
[*]hauptsächlich per LAN/WLAN
[*]per VPN
Meine Fragen:
[*]Was bedeutet Standby? Platten aus? Gerät aus? OS herunter gefahren? Oder oder?!
[*]Können die Geräte von selbst in Standby schalten?
[*]Wie lange dauert ein Wechsel von Standby in den betriebsbereiten Zustand?
(Hintergrund: die 219 hat einen wesentlich geringeren Stromverbrauch im Standby)
[*]Die 219 hat kein WOL, heißt das, dass sie nur per Tastendruck aus dem Standby geholt werden kann?
[*]Können auf der 219 brauchbar Anwendungen betrieben werden? (Für mich als Einzelnutzer ohne High-End-Erwartungen)?
[*]Mit welcher Geräuschentwicklung ist zu rechnen? Können die Kisten im Wohnzimmer stehen ohne zu stören?
Danke für eure Unterstützung.