Beiträge von Dreamweaver

    ist alles Auslegungssache... ich finde 24 TB nicht viel. Ich glaube einigen fehlt so ein wenig das Gespür dafür, was im Internet täglich alles so durch die Switche rauscht. ;)


    Mich stört auch gar nicht, dass die Dateien futsch sind, weil ich sie eh nur draufkopiert habe. Mich stört die Zeit, die ich sinnloserweise reininvestiert habe. QNAP sollte nicht bewerben, dass man über 16TB einbauen soll/kann. Und warum gibt es beim Erstellen des RAID nicht den Hinweis, dass man es machen KANN, aber es nicht EMPFOHLEN wird, weil Dateisysteme > 16TB nicht mehr durch Linux repariert werden können...


    Mein Beileid auch an all diejenigen, die diese NAS haben und nach- und nach Platten nachstecken und irgendwann über 16 TB kommen. Na vielleicht gibt es dann irgendwann einen FW-Patch...




    ich hab mein Geld schon von V.I.B.U. Online zurück! Ich hab den ganzen Kram echt sofort zurückgeschickt und lag noch in der Widerrufsfrist.


    "Über 16 TB sind möglich" - bis zum Dateisystemfehler - dann ist alles im Arsch. Dann lieber so wie es bei mir war: Ausfall ganz zu Anfang! Welch Glück im Unglück.

    Code
    [~] # fsck.ext4 -n /dev/md0
    -sh: fsck.ext4: command not found


    nun... irgendwie ja unbefriedigend.


    Schicke ich den ganzen Kram wohl wieder zurück.... ich kann ja gar nichts machen.


    Wieso schreibt man dann nicht ehrlicherweise dazu, dass über 16 TB möglich ist, aber bei einem Fehler eigentlich alles futsch ist... Da hätte ich ja auch gleich ein JBOD mit 24TB draus machen können bzw. mir so eine 08/15-Kiste mit JBOD kaufen können.


    Kann ich die HDDs nicht einzeln in einen Rechner stecken und da auf Daten zugreifen?

    Das poste ich extra, weils sonst darüber zu unübersichtlich werden würde!!!


    Zitat von "frosch2"


    Hast du mal versucht auf der Konsole zu mounten?

    Code
    mount /dev/md0  /share/MD0_DATA/ -t ext4


    Code
    [~] # mount /dev/md0 /share/MD0_DATA/ -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0,       missing codepage or other error       In some cases useful info is found in syslog - try       dmesg | tail  or so[~] #


    Code
    [~] # dmesg | tail[  141.222570] warning: `proftpd' uses 32-bit capabilities (legacy support in use)[  168.327972] rule type=2, num=0[  168.329766]  Set Adpater:port=0:0 standby to 241 (1800 secs).[  168.335467]  Set Adpater:port=0:1 standby to 241 (1800 secs).[  168.341088]  Set Adpater:port=0:2 standby to 241 (1800 secs).[  168.346714]  Set Adpater:port=0:3 standby to 241 (1800 secs).[  170.188876] Loading iSCSI transport class v2.0-871.[  170.262167] iscsi: registered transport (tcp)[  355.214129] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 35712 failed (59361!=53007)[  355.214363] EXT4-fs (md0): group descriptors corrupted![~] #




    Super, QNAP! Hauptsache ankündigen, dass >16TB möglich sind und die, die es wirklich machen im Regen stehen lassen :!::!::!:


    Wie komme ich jetzt noch an die Daten ran? Reparieren ist wohl nicht?

    Klar. Danke nochmal :)


    Ich bin gerade ein wenig genervt. Weil... wenn ich an die Daten nicht mehr rankomme habe ich extremen Aufwand.... :x Mal eben 18 Terabyte im Backup hat man ja auch nicht, aber irgendwo hat man es dann doch noch...


    Bad Block Scan ist gleich durch.


    Wie kommt man noch mal zu den Logfiles und wie kann ich mir sie anzeigen lassen? Verdammt, bislang konnt ich mich immer den Linux-Zwängen entziehen :)


    so Scan ist durch.

    Hallo,


    das wäre in der Tat sehr interessant zu wissen - und auch, warum man es dann im Interface nicht begrenzt...


    Momentan weiß ich noch gar nichts, leider.


    _hurted:



    übrigens hatte ich ganz zu Anfang ein RAID6, also mit 18TB. Das hat auch funktioniert, sogar ein paar mal neu gestartet hab ich das. Dann hab ich mich aber doch für ein RAID5 entschieden, alle Platten auf Werkseinstellungen gebracht und die NAS komplett resettet....

    so, 8x Bad Block Scan aktiviert. Läuft seit 20 Uhr. Mal sehen, was das Resultat morgen früh ist.


    Ich hab die Befürchtung, als wenn das für die Katz ist.


    Googelt man nach EXT4 und Group Descriptors wird einem fast schlecht.


    Nun hab ich einmal in eine Linux-Lösung investiert und werde gleich so herbe enttäuscht. Wär ich mal bloß bei meinen Festplatten-Wechselrahmen geblieben... :cursing::cursing::cursing:

    Jup, ich hatte die NAS zwischenzeitlich schon 1x wieder neu gestartet.


    Hier mal das Boot-Log (dmesg):


    Code
    login as: adminadmin@192.168.2.125's password:[~] # dmesg0.250928] md: bind<sdf4>[   50.251266] md: bind<sdg4>[   50.251588] md: bind<sdh4>[   50.251830] md: bind<sda4>[   50.253467] raid1: raid set md13 active with 8 out of 8 mirrors[   50.257192] md13: bitmap initialized from disk: read 4/4 pages, set 0 bits[   50.257306] created bitmap (57 pages) for device md13[   50.286964] md13: detected capacity change from 0 to 469893120[   50.291071]  md13: unknown partition table[   51.697288] kjournald starting.  Commit interval 5 seconds[   51.749954] EXT3-fs (md9): using internal journal[   51.750126] EXT3-fs (md9): mounted filesystem with writeback data mode[   70.325304] kjournald starting.  Commit interval 5 seconds[   70.387568] EXT3-fs (md9): using internal journal[   70.387741] EXT3-fs (md9): mounted filesystem with writeback data mode[   89.050514] kjournald starting.  Commit interval 5 seconds[   89.121988] EXT3-fs (md13): using internal journal[   89.122171] EXT3-fs (md13): mounted filesystem with writeback data mode[   92.673151] usbcore: registered new interface driver hiddev[   92.677539] usbcore: registered new interface driver usbhid[   92.677658] usbhid: USB HID core driver[   92.681177] Register ICH/PCH RTC driver.[   92.686647] iTCO_vendor_support: vendor-support=0[   92.691776] iTCO_wdt: Intel TCO WatchDog Timer Driver v1.05[   92.694895] iTCO_wdt: Found a ICH9R TCO device (Version=2, TCOBASE=0x0860)[   92.696345] iTCO_wdt: initialized. heartbeat=120 sec (nowayout=0)[   92.703543] usbcore: registered new interface driver usblp[   92.710645] ufsd: module license 'Commercial product' taints kernel.[   92.710783] Disabling lock debugging due to kernel taint[   92.736853] ufsd: driver 8.3 (Aug 15 2011 01:44:00) with acl LBD=OFF with ioctl loaded at ffffffffa00b5000[   92.736858] NTFS read/write support included[   92.736860] Hfs+/HfsX read/write support included[   92.760673] fnotify: Load file notify kernel module.[   92.761093] fnotify:   Global_Private_Data_List_Init()[   92.761252] fnotify:   Launch the fnotify thread: 1856[   92.761260] fnotify:   The fnotify thread starts...[   93.821906] usbcore: registered new interface driver snd-usb-audio[   93.831461] usbcore: registered new interface driver snd-usb-caiaq[   93.863959] pci 0000:00:02.0: PCI INT A -> GSI 16 (level, low) -> IRQ 16[   93.864083] pci 0000:00:02.0: setting latency timer to 64[   93.877759]   alloc irq_desc for 35 on node -1[   93.877767]   alloc kstat_irqs on node -1[   93.877780] pci 0000:00:02.0: irq 35 for MSI/MSI-X[   93.878120] [drm] Initialized i915 1.6.0 20080730 for 0000:00:02.0 on minor 0[   93.896641] Linux video capture interface: v2.00[   93.917326] usbcore: registered new interface driver uvcvideo[   93.917455] USB Video Class driver (v0.1.0)[   94.062091] 802.1Q VLAN Support v1.8 Ben Greear <greearb@candelatech.com>[   94.062217] All bugs added by David S. Miller <davem@redhat.com>[   94.525545] kjournald starting.  Commit interval 5 seconds[   94.533293] EXT3-fs (md9): using internal journal[   94.533482] EXT3-fs (md9): mounted filesystem with writeback data mode[   97.274495] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[   97.424108] e1000e: eth0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[   97.814823] active port 0 :139[   97.814938] active port 1 :445[   97.815058] active port 2 :20[  100.011547] md: bind<sda2>[  100.013903] raid1: raid set md8 active with 1 out of 1 mirrors[  100.014061] md8: detected capacity change from 0 to 542769152[  101.018927]  md8: unknown partition table[  103.189791] Adding 530040k swap on /dev/md8.  Priority:-1 extents:1 across:530040k[  107.151815] md: bind<sdb2>[  107.169447] RAID1 conf printout:[  107.169559]  --- wd:1 rd:2[  107.169671]  disk 0, wo:0, o:1, dev:sda2[  107.169790]  disk 1, wo:1, o:1, dev:sdb2[  107.170002] md: recovery of RAID array md8[  107.170145] md: minimum _guaranteed_  speed: 5000 KB/sec/disk.[  107.170269] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.[  107.170452] md: using 128k window, over a total of 530048 blocks.[  109.328485] md: bind<sdc2>[  111.507911] md: bind<sdd2>[  113.749034] md: bind<sde2>[  114.907424] md: md0 stopped.[  114.924856] md: md0 stopped.[  115.358772] md: bind<sdb3>[  115.359010] md: bind<sdc3>[  115.359241] md: bind<sdd3>[  115.359527] md: bind<sde3>[  115.359819] md: bind<sdf3>[  115.360131] md: bind<sdg3>[  115.360444] md: bind<sdh3>[  115.360677] md: bind<sda3>[  115.362131] raid5: device sda3 operational as raid disk 0[  115.362236] raid5: device sdh3 operational as raid disk 7[  115.362341] raid5: device sdg3 operational as raid disk 6[  115.362449] raid5: device sdf3 operational as raid disk 5[  115.362548] raid5: device sde3 operational as raid disk 4[  115.362646] raid5: device sdd3 operational as raid disk 3[  115.362745] raid5: device sdc3 operational as raid disk 2[  115.362843] raid5: device sdb3 operational as raid disk 1[  115.379303] raid5: allocated 135840kB for md0[  115.379532] 0: w=1 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379638] 7: w=2 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379735] 6: w=3 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379833] 5: w=4 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379931] 4: w=5 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380034] 3: w=6 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380148] 2: w=7 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380247] 1: w=8 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380348] raid5: raid level 5 set md0 active with 8 out of 8 devices, algorithm 2[  115.380505] RAID5 conf printout:[  115.380596]  --- rd:8 wd:8[  115.380686]  disk 0, o:1, dev:sda3[  115.380778]  disk 1, o:1, dev:sdb3[  115.380870]  disk 2, o:1, dev:sdc3[  115.380961]  disk 3, o:1, dev:sdd3[  115.381066]  disk 4, o:1, dev:sde3[  115.381172]  disk 5, o:1, dev:sdf3[  115.381266]  disk 6, o:1, dev:sdg3[  115.381357]  disk 7, o:1, dev:sdh3[  115.381543] md0: detected capacity change from 0 to 20992903938048[  115.923716] md: bind<sdf2>[  116.595614]  md0: unknown partition table[  117.114595] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 35712 failed (59361!=53007)[  117.114826] EXT4-fs (md0): group descriptors corrupted![  118.073836] md: bind<sdg2>[  119.694531] bonding: Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)[  119.694714] bonding: MII link monitoring set to 100 ms[  119.780222] bonding: bond0: enslaving eth0 as an active interface with a down link.[  119.864212] bonding: bond0: enslaving eth1 as an active interface with a down link.[  120.319806] md: bind<sdh2>[  122.711106] e1000e: eth0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[  122.797039] bonding: bond0: link status definitely up for interface eth0.[  123.003181] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[  123.098313] bonding: bond0: link status definitely up for interface eth1.[  127.164511] md: md8: recovery done.[  127.302065] RAID1 conf printout:[  127.302202]  --- wd:2 rd:2[  127.302309]  disk 0, wo:0, o:1, dev:sda2[  127.302420]  disk 1, wo:0, o:1, dev:sdb2[  142.134431] active port 0 :139[  142.134526] active port 1 :445[  142.134615] active port 2 :20[  142.219504] warning: `proftpd' uses 32-bit capabilities (legacy support in use)[  168.247387] rule type=2, num=0[  168.254237]  Set Adpater:port=0:0 standby to 241 (1800 secs).[  168.261358]  Set Adpater:port=0:1 standby to 241 (1800 secs).[  168.268186]  Set Adpater:port=0:2 standby to 241 (1800 secs).[  168.273053]  Set Adpater:port=0:3 standby to 241 (1800 secs).[  170.086153] Loading iSCSI transport class v2.0-871.[  170.159872] iscsi: registered transport (tcp)[~] #


    Was bedeutet das?


    [ 116.595614] md0: unknown partition table
    [ 117.114595] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 35712 failed (59361!=53007)
    [ 117.114826] EXT4-fs (md0): group descriptors corrupted!


    Hier die RAID5-Config...


    Code
    [~] # mdadm --detail /dev/md0/dev/md0:        Version : 01.00.03  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5     Array Size : 20500882752 (19551.17 GiB 20992.90 GB)  Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)   Raid Devices : 8  Total Devices : 8Preferred Minor : 0    Persistence : Superblock is persistent    Update Time : Thu Sep 15 19:15:27 2011          State : clean Active Devices : 8Working Devices : 8 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 64K           Name : 0           UUID : 5457aee4:2e49b3ac:79a297f3:914a2283         Events : 645857    Number   Major   Minor   RaidDevice State       0       8        3        0      active sync   /dev/sda3       1       8       19        1      active sync   /dev/sdb3       2       8       35        2      active sync   /dev/sdc3       3       8       51        3      active sync   /dev/sdd3       4       8       67        4      active sync   /dev/sde3       5       8       83        5      active sync   /dev/sdf3       6       8       99        6      active sync   /dev/sdg3       7       8      115        7      active sync   /dev/sdh3


    mdstat:

    Code
    login as: adminadmin@192.168.2.125's password:[~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sda3[0] sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]      20500882752 blocks super 1.0 level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]md8 : active raid1 sdh2[2](S) sdg2[3](S) sdf2[4](S) sde2[5](S) sdd2[6](S) sdc2[7](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdh4[7] sdg4[6] sdf4[5] sde4[4] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [8/8] [UUUUUUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdh1[7] sdg1[6] sde1[5] sdf1[4] sdd1[3] sdc1[2] sdb1[1]      530048 blocks [8/8] [UUUUUUUU]      bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>


    Code
    [~] # mdadm --examine /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 9d149b64:ba714ff4:fe62813e:0ac636b1    Update Time : Fri Sep 16 02:29:40 2011       Checksum : ae41a29d - correct         Events : 663909         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 0 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : Uuuuuuuu


    Code
    [~] # mdadm --examine /dev/sdb3/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 191f28b1:f766bc57:d41f4f0a:ea695805    Update Time : Fri Sep 16 02:30:37 2011       Checksum : 7e2b0375 - correct         Events : 663957         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 1 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uUuuuuuu[~] #


    Code
    [~] # mdadm --examine /dev/sdc3/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 540199dd:389296ed:f0d43641:145d69b9    Update Time : Fri Sep 16 02:31:04 2011       Checksum : 2b6eb96d - correct         Events : 663981         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 2 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuUuuuuu[~] #


    Code
    [~] # mdadm --examine /dev/sdd3/dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 9f3cab97:2229c40f:e4b3873a:9c52a4bb    Update Time : Fri Sep 16 02:31:22 2011       Checksum : 33a6040 - correct         Events : 663997         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 3 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuUuuuu[~] #


    Code
    [~] # mdadm --examine /dev/sde3/dev/sde3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 41d2f62a:44b2c5f0:c912446d:cdb6ef4e    Update Time : Fri Sep 16 02:31:41 2011       Checksum : 3d8f423e - correct         Events : 664013         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 4 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuuUuuu[~] #


    Code
    [~] # mdadm --examine /dev/sdf3/dev/sdf3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : f18f1e80:7ebf18a7:717a0aed:a085d415    Update Time : Fri Sep 16 02:31:59 2011       Checksum : 8fb543c6 - correct         Events : 664029         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 5 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuuuUuu


    Code
    [~] # mdadm --examine /dev/sdg3/dev/sdg3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : ff5dc905:2fea9a94:5f042187:2ce10bef    Update Time : Fri Sep 16 02:32:17 2011       Checksum : 76302222 - correct         Events : 664045         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 6 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuuuuUu


    NAS mit HDDs > 16TB werden NICHT vernünftig unterstützt!!!


    --------------->>>>>>>>>>>>>>>>>>>>>>>> http://forum.qnap.com/viewtopic.php?f=25&t=41688




    --------------------------------------------------------------------------------------------------------------------------------------------------------
    Hallo,


    ich hab vor einer Woche meine QNAP mit RAID5 eingerichtet, alle Netzwerkfreigaben eingerichtet und die Daten draufkopiert. Das Ding lief seit 6 Tagen.


    Dann habe ich das Ding ausgeschaltet, also über das Energiemanagement heruntergefahren und das Gerät an einen anderen Platz gestellt. Dort wieder hochgefahren.


    Die Konfig ist zwar da, das RAID5 wird auch erkannt, aber das DATEISYSTEM nicht. Was ist da los? Ich bekomm hier gleich einen Herzinfarkt!!!!!!!!!!!!!!!


    Gehe ich auf die Freigabeordner sind sie alle da. Refreshe ich diese zeigen sie "0 kB" an.


    Ach so: Die Platten sind nicht verschlüsselt.


    Danke!


    Edit:
    ich hatte das RAID5 in EXT4 formatiert.


    Hier noch das LOG


    2011-09-15 17:04:42 System 127.0.0.1 localhost Default share Multimedia is not found. TwonkyMedia start failed.
    2011-09-15 17:03:39 System 127.0.0.1 localhost System started.
    2011-09-15 16:49:04 System 127.0.0.1 localhost System was shut down on Thu Sep 15 16:49:04 CEST 2011.
    2011-09-15 16:47:32 admin 172.27.17.149 --- [Power Management] System will be shutdown now.



    Ganz groß. Das war mein Donnerstag! Eigentlich hab ich mir ne NAS gekauft, damit das Digitale Leben einfacher wird!

    Hallo,


    meine NAS TS-859 Pro+ habe ich zuliebe der Performance nicht verschlüsselt. Die mir wichtigen und zu schützenden Daten liegen in TrueCrypt-Containern innerhalb einer Netzwerkfreigabe.


    Unter anderem habe ich nun ein wöchentliches Backup von diversen Freigabeordnern auf einen externen Datenträger eingerichtet.


    Meine Frage:
    Ist das Backup-Tool so schlau, dass es erkennt, wenn sich in den TrueCrypt-Containern etwas geändert hat?


    ------------------------------------------------
    Wie funktioniert das Ganze z.B. unter DropBox:
    Wenn man z.B. einen 1GB großen TrueCrypt-Container in einer Dropbox anlegt kann man TrueCrypt so einstellen, dass er den Zeitstempel der Datei beibehält, also beim Schließen des Containers wird die Datei nicht mit einem neuen Timestamp versehen. Allerdings ist Dropbox so schlau, dass es nach einmaliger Synchronisierung erkennt, welche Fragmente (oder was auch immer) sich geändert haben: er lädt nur die Bytes hoch, die auch in dem Truecrypt-Container geändert wurden:


    Ausgang: 1 GB großer Truecrypt Container
    TrueCrypt so einstellen, dass der Timestamp beibehalten wird (Preserve Timestamp...)
    - 1malige Synchronisation mit Dropbox nach Erstellung
    - danach werden nach Schließen des Containers nur die Bytes hochgeschoben, die in dem TrueCrypt-Container auch geändert wurden, also z.B. werden ~100 kB geuploadet zur Dropbox, wenn ich ein z.B. PDF von 100 kB in den TrueCrypt-Container packe. Zu sehen ist aber weiterhin die eine 1GB große TrueCrypt Datei. Das funktioniert tadellos.
    -------------------------------------------------


    Ich frage nur, weil ich die Befürchtungen habe, dass die NAS gar keine neue Sicherung auf dem externen Medium anlegt, wenn sich der Timestamp und die Größe des TrueCrypt-Containers nicht ändern. Das wäre fatal, dann würde er ja nach der ersten Sicherung nie wieder etwas sichern.


    Wenn das mit der Differenzsicherung nicht funktioniert, dann muss ich wohl den Timestamp bei jedem Schließen neu speichern - und somit jedes Mal die komplette TrueCrypt-Datei hochladen.... das wäre unsinnig und nicht sehr produktiv, zumal ich dann das Feature unter Dropbox nicht mehr nutzen kann.


    Wer hat da Erfahrungen damit?


    Danke!!! :)

    hehe okay :) I will report here if something is wrong with these drives... be sure.


    EDit 1


    btw:


    WDC WD30EZRX-00MMMB080.0


    EDIT 2


    http://wdc.custhelp.com/app/answers/detail/a_id/1397



    but I will try my drives...


    EDIT 3


    because encryption was very slow I decided to rebuild (format) the RAID with EXT4 without encryption... after 1,5 hours the progress bar still shows me 0% - how long will it take to format 8x3 Terabyte HDD? 1 Year? :cursing:


    EDIT 4


    87 MB/s Transferrate in my Gigabit-Network... (Copying TO the NAS!)