Beiträge von finn

    So, liebe Freundinnen und Freunde,


    das Problem scheint gelöst zu sein, jedenfalls läuft das RECOVER und zugreifen kann ich auch wieder. :thumb:


    Mit mdadm --examine konnte ich rausfinden, dass eine der drei RAID Komponenten einen älteren Zeitstempel hat. Das ist auch die Komponente auf jener Festplatte (sdc), die Husten hatte.


    Code
    [~] # mdadm /dev/sda3 --examine/dev/sda3:          Magic : a92b4efc        Version : 00.90.00           UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca  Creation Time : Sat May 14 13:19:49 2011     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 3903891200 (3723.04 GiB 3997.58 GB)   Raid Devices : 3  Total Devices : 2Preferred Minor : 0    Update Time : Sun Jun 12 14:39:19 2011          State : clean Active Devices : 2Working Devices : 2 Failed Devices : 1  Spare Devices : 0       Checksum : d8843a82 - correct         Events : 0.90432         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     0       8        3        0      active sync   /dev/sda3   0     0       8        3        0      active sync   /dev/sda3   1     1       0        0        1      faulty removed   2     2       8       35        2      active sync   /dev/sdc3[~] # mdadm /dev/sdb3 --examine/dev/sdb3:          Magic : a92b4efc        Version : 00.90.00           UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca  Creation Time : Sat May 14 13:19:49 2011     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 3903891200 (3723.04 GiB 3997.58 GB)   Raid Devices : 3  Total Devices : 3Preferred Minor : 0    Update Time : Sat Jun 11 09:35:00 2011          State : clean Active Devices : 3Working Devices : 3 Failed Devices : 0  Spare Devices : 0       Checksum : d88249f5 - correct         Events : 0.79181         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     1       8       19        1      active sync   /dev/sdb3   0     0       8        3        0      active sync   /dev/sda3   1     1       8       19        1      active sync   /dev/sdb3   2     2       8       35        2      active sync   /dev/sdc3[~] # mdadm /dev/sdc3 --examine/dev/sdc3:          Magic : a92b4efc        Version : 00.90.00           UUID : e4ba227f:85d93143:ea9b035c:ca0b64ca  Creation Time : Sat May 14 13:19:49 2011     Raid Level : raid5  Used Dev Size : 1951945600 (1861.52 GiB 1998.79 GB)     Array Size : 3903891200 (3723.04 GiB 3997.58 GB)   Raid Devices : 3  Total Devices : 2Preferred Minor : 0    Update Time : Sun Jun 12 14:39:19 2011          State : active Active Devices : 2Working Devices : 2 Failed Devices : 1  Spare Devices : 0       Checksum : d882d966 - correct         Events : 0.90433         Layout : left-symmetric     Chunk Size : 64K      Number   Major   Minor   RaidDevice Statethis     2       8       35        2      active sync   /dev/sdc3   0     0       8        3        0      active sync   /dev/sda3   1     1       0        0        1      faulty removed   2     2       8       35        2      active sync   /dev/sdc3


    Mit mdadm /dev/sdb3 --zero-superblock habe ich die defekte Komponente gelöscht (Verwaltungsinformationen vom Datenträger entfernt).


    Nach einem Neustart des NAS wird das RAID nun neu gebaut.



    Vielleicht hilft das jemanden in einer ähnlichen Situation.


    Herzliche Grüße
    Finn

    Hallo David, hallo Kollegen,


    der "Bad Block Scan" hat leider keine Verbesserung gebracht. Das RAID lässt sich nicht reaktivieren.
    Gibt es weitere Idee?
    Ich würde als nächstes Platte 2 formatieren und dann noch mal ein Recover versuchen. Ist das ein guter Plan?


    Ich bin für Hilfe und Ideen dankbar.


    Es grüßt
    Finn

    Code
    [~] # dmesg                                                                                                                    device-mapper: ioctl: 4.16.0-ioctl (2009-11-05) initialised: dm-devel@redhat.comusbcore: registered new interface driver usbhidusbhid: USB HID core driverusbcore: registered new interface driver usblpsysinfo: Module loaded.ufsd: module license 'Commercial product' taints kernel.Disabling lock debugging due to kernel taintufsd: driver U82 (May 20 2011 01:16:45)  LBD=OFF with ioctl loaded at bf18a000NTFS read/write support includedHfs+/HfsX read/write support includedSlow work thread pool: Starting upSlow work thread pool: Readylib80211: common routines for IEEE802.11 driverslib80211_crypt: registered algorithm 'NULL'cfg80211: Calling CRDA to update world regulatory domainEnable WDT...usbcore: registered new interface driver snd-usb-audiousbcore: registered new interface driver snd-usb-caiaqeth0: mac address changedeth0: link downeth0: startedeth1: mac address changedeth1: startedeth0: link up, full duplex, speed 1 Gbpskjournald starting.  Commit interval 5 secondsEXT3-fs (md9): using internal journalEXT3-fs (md9): mounted filesystem with writeback data modemd: bind<sda2>raid1: raid set md4 active with 1 out of 1 mirrorsmd4: detected capacity change from 0 to 542769152 md4: unknown partition tableAdding 530040k swap on /dev/md4.  Priority:-1 extents:1 across:530040k md: bind<sdb2>RAID1 conf printout: --- wd:1 rd:2 disk 0, wo:0, o:1, dev:sda2 disk 1, wo:1, o:1, dev:sdb2md: recovery of RAID array md4md: minimum _guaranteed_  speed: 5000 KB/sec/disk.md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.md: using 128k window, over a total of 530048 blocks.md: bind<sdc2>active port 0 :139active port 1 :445active port 2 :20md: md4: recovery done.RAID1 conf printout: --- wd:2 rd:2 disk 0, wo:0, o:1, dev:sda2 disk 1, wo:0, o:1, dev:sdb2md: md0 stopped.md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...eth1: stoppedeth0: stoppedeth1: startedeth0: link downeth0: startedeth0: link up, full duplex, speed 1 Gbpseth1: stoppedeth1: startedactive port 0 :139active port 1 :445active port 2 :20warning: process `pic_raw' used the deprecated sysctl system call with 8.1.2. Set Adpater:port=1:0 standby to 180 (900 secs). Set Adpater:port=1:1 standby to 180 (900 secs). Set Adpater:port=1:2 standby to 180 (900 secs).rule type=1, num=1eth0: link up, full duplex, speed 1 GbpsWOL disableWOL disableLoading iSCSI transport class v2.0-871.iscsi: registered transport (tcp)md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)nfsd: last server has exited, flushing export cacheactive port 0 :139active port 1 :445active port 2 :20md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)md: md0 stopped.md: bind<sdb3>md: bind<sdc3>md: bind<sda3>md: kicking non-fresh sdb3 from array!md: unbind<sdb3>md: export_rdev(sdb3)raid5: md0 is not clean -- starting background reconstructionraid5: device sda3 operational as raid disk 0raid5: device sdc3 operational as raid disk 2raid5: allocated 50816kB for md00: w=1 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=02: w=2 pa=0 pr=3 m=1 a=2 r=3 op1=0 op2=0raid5: cannot start dirty degraded array for md0RAID5 conf printout: --- rd:3 wd:2 disk 0, o:1, dev:sda3 disk 2, o:1, dev:sdc3raid5: failed to run raid set md0md: pers->run() failed ...md: md0 stopped.md: unbind<sda3>md: export_rdev(sda3)md: unbind<sdc3>md: export_rdev(sdc3)


    Code
    [~] # cat /proc/mdstatPersonalities : [raid1] [raid6] [raid5] [raid4] [linear] [raid0] [raid10] md4 : active raid1 sdc2[2](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdb4[2] sdc4[1]      458880 blocks [4/3] [UUU_]      bitmap: 41/57 pages [164KB], 4KB chunkmd9 : active raid1 sda1[0] sdb1[2] sdc1[1]      530048 blocks [4/3] [UUU_]      bitmap: 65/65 pages [260KB], 4KB chunkunused devices: <none>


    Guten Morgen,


    herzlichen Dank für Deine ausführlich Antwort.


    Bei den Platten liegst Du richtig, es sind drei ST2000DL003 verbaut (Schacht 1, 2, 3).
    Plattenschacht 4 ist leer, eine 4. Platte ist nicht installiert. Daher wird's mit dem löschen etwas schwierig :D


    Hast Du noch andere Ideen?
    Waren die ST2000DL003 keine gute Entscheidung?


    Herzliche Grüße und Danke für Deine Unterstützung
    Finn

    Hallo David,


    ich weiss, dass eine Platte "drauf" gehen darf. Bisher bin ich auch der Meinung, dass es nur eine Platte ist, die nicht richtig funktioniert. Da die Kiste noch relativ neu ist, ist noch nichts drauf, dass ich nicht noch wo anders hätte...
    Vielleicht gibst Du mir ein paar Details zu Deiner Vermutung?


    Danke & Gruss
    Finn

    Guten Tag,


    ich habe ein TS-419p+ mit drei 2,0 TB Segate Platten als RAID5. Für Disk zwei wurde ein Read/Write Error gemeldet. Ich habe einen Block-Scan durchführen lassen, die Platte scheint wieder ok zu sein. Leider schlägt die Wiederherstellung des RAIDs fehl. Kann mir jemand helfen?


    Code
    [/] # fdisk -lDisk /dev/sda: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sda1               1          66      530125   83  Linux/dev/sda2              67         132      530142   83  Linux/dev/sda3             133      243138  1951945693   83  Linux/dev/sda4          243139      243200      498012   83  LinuxDisk /dev/sda4: 469 MB, 469893120 bytes2 heads, 4 sectors/track, 114720 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/sda4 doesn't contain a valid partition tableDisk /dev/sdb: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdb1               1          66      530125   83  Linux/dev/sdb2              67         132      530142   83  Linux/dev/sdb3             133      243138  1951945693   83  Linux/dev/sdb4          243139      243200      498012   83  LinuxDisk /dev/sdc: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes   Device Boot      Start         End      Blocks   Id  System/dev/sdc1               1          66      530125   83  Linux/dev/sdc2              67         132      530142   83  Linux/dev/sdc3             133      243138  1951945693   83  Linux/dev/sdc4          243139      243200      498012   83  LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md9 doesn't contain a valid partition tableDisk /dev/md4: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylindersUnits = cylinders of 8 * 512 = 4096 bytesDisk /dev/md4 doesn't contain a valid partition table



    Danke & schöne Grüße
    Finn

    Liebe QNap-Fans,


    ich war bisher eifriger Leser des Forums. Nun wird der Anschaffungsbedarf für ein NAS immer konkreter und ich brauche eure Beratung bei einigen Aspekten:


    Einsatzzweck:
    [*]Backup meines Macs via Timemashine
    [*]Klassischer Netzspeicher für Medien und Dokumente, ggf. Streaming
    [*]Optional: Ausführungsumgebung für MySQL, Python usw.


    Zugriff:
    [*]hauptsächlich per LAN/WLAN
    [*]per VPN


    Meine Fragen:
    [*]Was bedeutet Standby? Platten aus? Gerät aus? OS herunter gefahren? Oder oder?!
    [*]Können die Geräte von selbst in Standby schalten?
    [*]Wie lange dauert ein Wechsel von Standby in den betriebsbereiten Zustand?
    (Hintergrund: die 219 hat einen wesentlich geringeren Stromverbrauch im Standby)


    [*]Die 219 hat kein WOL, heißt das, dass sie nur per Tastendruck aus dem Standby geholt werden kann?


    [*]Können auf der 219 brauchbar Anwendungen betrieben werden? (Für mich als Einzelnutzer ohne High-End-Erwartungen)?


    [*]Mit welcher Geräuschentwicklung ist zu rechnen? Können die Kisten im Wohnzimmer stehen ohne zu stören?


    Danke für eure Unterstützung.