QNAP TS-859 Pro+ nur neu gestartet -unbekanntes Dateisystem?

  • NAS mit HDDs > 16TB werden NICHT vernünftig unterstützt!!!


    --------------->>>>>>>>>>>>>>>>>>>>>>>> http://forum.qnap.com/viewtopic.php?f=25&t=41688




    --------------------------------------------------------------------------------------------------------------------------------------------------------
    Hallo,


    ich hab vor einer Woche meine QNAP mit RAID5 eingerichtet, alle Netzwerkfreigaben eingerichtet und die Daten draufkopiert. Das Ding lief seit 6 Tagen.


    Dann habe ich das Ding ausgeschaltet, also über das Energiemanagement heruntergefahren und das Gerät an einen anderen Platz gestellt. Dort wieder hochgefahren.


    Die Konfig ist zwar da, das RAID5 wird auch erkannt, aber das DATEISYSTEM nicht. Was ist da los? Ich bekomm hier gleich einen Herzinfarkt!!!!!!!!!!!!!!!


    Gehe ich auf die Freigabeordner sind sie alle da. Refreshe ich diese zeigen sie "0 kB" an.


    Ach so: Die Platten sind nicht verschlüsselt.


    Danke!


    Edit:
    ich hatte das RAID5 in EXT4 formatiert.


    Hier noch das LOG


    2011-09-15 17:04:42 System 127.0.0.1 localhost Default share Multimedia is not found. TwonkyMedia start failed.
    2011-09-15 17:03:39 System 127.0.0.1 localhost System started.
    2011-09-15 16:49:04 System 127.0.0.1 localhost System was shut down on Thu Sep 15 16:49:04 CEST 2011.
    2011-09-15 16:47:32 admin 172.27.17.149 --- [Power Management] System will be shutdown now.



    Ganz groß. Das war mein Donnerstag! Eigentlich hab ich mir ne NAS gekauft, damit das Digitale Leben einfacher wird!

  • Jup, ich hatte die NAS zwischenzeitlich schon 1x wieder neu gestartet.


    Hier mal das Boot-Log (dmesg):


    Code
    login as: adminadmin@192.168.2.125's password:[~] # dmesg0.250928] md: bind<sdf4>[   50.251266] md: bind<sdg4>[   50.251588] md: bind<sdh4>[   50.251830] md: bind<sda4>[   50.253467] raid1: raid set md13 active with 8 out of 8 mirrors[   50.257192] md13: bitmap initialized from disk: read 4/4 pages, set 0 bits[   50.257306] created bitmap (57 pages) for device md13[   50.286964] md13: detected capacity change from 0 to 469893120[   50.291071]  md13: unknown partition table[   51.697288] kjournald starting.  Commit interval 5 seconds[   51.749954] EXT3-fs (md9): using internal journal[   51.750126] EXT3-fs (md9): mounted filesystem with writeback data mode[   70.325304] kjournald starting.  Commit interval 5 seconds[   70.387568] EXT3-fs (md9): using internal journal[   70.387741] EXT3-fs (md9): mounted filesystem with writeback data mode[   89.050514] kjournald starting.  Commit interval 5 seconds[   89.121988] EXT3-fs (md13): using internal journal[   89.122171] EXT3-fs (md13): mounted filesystem with writeback data mode[   92.673151] usbcore: registered new interface driver hiddev[   92.677539] usbcore: registered new interface driver usbhid[   92.677658] usbhid: USB HID core driver[   92.681177] Register ICH/PCH RTC driver.[   92.686647] iTCO_vendor_support: vendor-support=0[   92.691776] iTCO_wdt: Intel TCO WatchDog Timer Driver v1.05[   92.694895] iTCO_wdt: Found a ICH9R TCO device (Version=2, TCOBASE=0x0860)[   92.696345] iTCO_wdt: initialized. heartbeat=120 sec (nowayout=0)[   92.703543] usbcore: registered new interface driver usblp[   92.710645] ufsd: module license 'Commercial product' taints kernel.[   92.710783] Disabling lock debugging due to kernel taint[   92.736853] ufsd: driver 8.3 (Aug 15 2011 01:44:00) with acl LBD=OFF with ioctl loaded at ffffffffa00b5000[   92.736858] NTFS read/write support included[   92.736860] Hfs+/HfsX read/write support included[   92.760673] fnotify: Load file notify kernel module.[   92.761093] fnotify:   Global_Private_Data_List_Init()[   92.761252] fnotify:   Launch the fnotify thread: 1856[   92.761260] fnotify:   The fnotify thread starts...[   93.821906] usbcore: registered new interface driver snd-usb-audio[   93.831461] usbcore: registered new interface driver snd-usb-caiaq[   93.863959] pci 0000:00:02.0: PCI INT A -> GSI 16 (level, low) -> IRQ 16[   93.864083] pci 0000:00:02.0: setting latency timer to 64[   93.877759]   alloc irq_desc for 35 on node -1[   93.877767]   alloc kstat_irqs on node -1[   93.877780] pci 0000:00:02.0: irq 35 for MSI/MSI-X[   93.878120] [drm] Initialized i915 1.6.0 20080730 for 0000:00:02.0 on minor 0[   93.896641] Linux video capture interface: v2.00[   93.917326] usbcore: registered new interface driver uvcvideo[   93.917455] USB Video Class driver (v0.1.0)[   94.062091] 802.1Q VLAN Support v1.8 Ben Greear <greearb@candelatech.com>[   94.062217] All bugs added by David S. Miller <davem@redhat.com>[   94.525545] kjournald starting.  Commit interval 5 seconds[   94.533293] EXT3-fs (md9): using internal journal[   94.533482] EXT3-fs (md9): mounted filesystem with writeback data mode[   97.274495] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[   97.424108] e1000e: eth0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[   97.814823] active port 0 :139[   97.814938] active port 1 :445[   97.815058] active port 2 :20[  100.011547] md: bind<sda2>[  100.013903] raid1: raid set md8 active with 1 out of 1 mirrors[  100.014061] md8: detected capacity change from 0 to 542769152[  101.018927]  md8: unknown partition table[  103.189791] Adding 530040k swap on /dev/md8.  Priority:-1 extents:1 across:530040k[  107.151815] md: bind<sdb2>[  107.169447] RAID1 conf printout:[  107.169559]  --- wd:1 rd:2[  107.169671]  disk 0, wo:0, o:1, dev:sda2[  107.169790]  disk 1, wo:1, o:1, dev:sdb2[  107.170002] md: recovery of RAID array md8[  107.170145] md: minimum _guaranteed_  speed: 5000 KB/sec/disk.[  107.170269] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.[  107.170452] md: using 128k window, over a total of 530048 blocks.[  109.328485] md: bind<sdc2>[  111.507911] md: bind<sdd2>[  113.749034] md: bind<sde2>[  114.907424] md: md0 stopped.[  114.924856] md: md0 stopped.[  115.358772] md: bind<sdb3>[  115.359010] md: bind<sdc3>[  115.359241] md: bind<sdd3>[  115.359527] md: bind<sde3>[  115.359819] md: bind<sdf3>[  115.360131] md: bind<sdg3>[  115.360444] md: bind<sdh3>[  115.360677] md: bind<sda3>[  115.362131] raid5: device sda3 operational as raid disk 0[  115.362236] raid5: device sdh3 operational as raid disk 7[  115.362341] raid5: device sdg3 operational as raid disk 6[  115.362449] raid5: device sdf3 operational as raid disk 5[  115.362548] raid5: device sde3 operational as raid disk 4[  115.362646] raid5: device sdd3 operational as raid disk 3[  115.362745] raid5: device sdc3 operational as raid disk 2[  115.362843] raid5: device sdb3 operational as raid disk 1[  115.379303] raid5: allocated 135840kB for md0[  115.379532] 0: w=1 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379638] 7: w=2 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379735] 6: w=3 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379833] 5: w=4 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.379931] 4: w=5 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380034] 3: w=6 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380148] 2: w=7 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380247] 1: w=8 pa=0 pr=8 m=1 a=2 r=8 op1=0 op2=0[  115.380348] raid5: raid level 5 set md0 active with 8 out of 8 devices, algorithm 2[  115.380505] RAID5 conf printout:[  115.380596]  --- rd:8 wd:8[  115.380686]  disk 0, o:1, dev:sda3[  115.380778]  disk 1, o:1, dev:sdb3[  115.380870]  disk 2, o:1, dev:sdc3[  115.380961]  disk 3, o:1, dev:sdd3[  115.381066]  disk 4, o:1, dev:sde3[  115.381172]  disk 5, o:1, dev:sdf3[  115.381266]  disk 6, o:1, dev:sdg3[  115.381357]  disk 7, o:1, dev:sdh3[  115.381543] md0: detected capacity change from 0 to 20992903938048[  115.923716] md: bind<sdf2>[  116.595614]  md0: unknown partition table[  117.114595] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 35712 failed (59361!=53007)[  117.114826] EXT4-fs (md0): group descriptors corrupted![  118.073836] md: bind<sdg2>[  119.694531] bonding: Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)[  119.694714] bonding: MII link monitoring set to 100 ms[  119.780222] bonding: bond0: enslaving eth0 as an active interface with a down link.[  119.864212] bonding: bond0: enslaving eth1 as an active interface with a down link.[  120.319806] md: bind<sdh2>[  122.711106] e1000e: eth0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[  122.797039] bonding: bond0: link status definitely up for interface eth0.[  123.003181] e1000e: eth1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX[  123.098313] bonding: bond0: link status definitely up for interface eth1.[  127.164511] md: md8: recovery done.[  127.302065] RAID1 conf printout:[  127.302202]  --- wd:2 rd:2[  127.302309]  disk 0, wo:0, o:1, dev:sda2[  127.302420]  disk 1, wo:0, o:1, dev:sdb2[  142.134431] active port 0 :139[  142.134526] active port 1 :445[  142.134615] active port 2 :20[  142.219504] warning: `proftpd' uses 32-bit capabilities (legacy support in use)[  168.247387] rule type=2, num=0[  168.254237]  Set Adpater:port=0:0 standby to 241 (1800 secs).[  168.261358]  Set Adpater:port=0:1 standby to 241 (1800 secs).[  168.268186]  Set Adpater:port=0:2 standby to 241 (1800 secs).[  168.273053]  Set Adpater:port=0:3 standby to 241 (1800 secs).[  170.086153] Loading iSCSI transport class v2.0-871.[  170.159872] iscsi: registered transport (tcp)[~] #


    Was bedeutet das?


    [ 116.595614] md0: unknown partition table
    [ 117.114595] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 35712 failed (59361!=53007)
    [ 117.114826] EXT4-fs (md0): group descriptors corrupted!


    Hier die RAID5-Config...


    Code
    [~] # mdadm --detail /dev/md0/dev/md0:        Version : 01.00.03  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5     Array Size : 20500882752 (19551.17 GiB 20992.90 GB)  Used Dev Size : 2928697536 (2793.02 GiB 2998.99 GB)   Raid Devices : 8  Total Devices : 8Preferred Minor : 0    Persistence : Superblock is persistent    Update Time : Thu Sep 15 19:15:27 2011          State : clean Active Devices : 8Working Devices : 8 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 64K           Name : 0           UUID : 5457aee4:2e49b3ac:79a297f3:914a2283         Events : 645857    Number   Major   Minor   RaidDevice State       0       8        3        0      active sync   /dev/sda3       1       8       19        1      active sync   /dev/sdb3       2       8       35        2      active sync   /dev/sdc3       3       8       51        3      active sync   /dev/sdd3       4       8       67        4      active sync   /dev/sde3       5       8       83        5      active sync   /dev/sdf3       6       8       99        6      active sync   /dev/sdg3       7       8      115        7      active sync   /dev/sdh3


    mdstat:

    Code
    login as: adminadmin@192.168.2.125's password:[~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sda3[0] sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]      20500882752 blocks super 1.0 level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]md8 : active raid1 sdh2[2](S) sdg2[3](S) sdf2[4](S) sde2[5](S) sdd2[6](S) sdc2[7](S) sdb2[1] sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdh4[7] sdg4[6] sdf4[5] sde4[4] sdd4[3] sdc4[2] sdb4[1]      458880 blocks [8/8] [UUUUUUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sda1[0] sdh1[7] sdg1[6] sde1[5] sdf1[4] sdd1[3] sdc1[2] sdb1[1]      530048 blocks [8/8] [UUUUUUUU]      bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>


    Code
    [~] # mdadm --examine /dev/sda3/dev/sda3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 9d149b64:ba714ff4:fe62813e:0ac636b1    Update Time : Fri Sep 16 02:29:40 2011       Checksum : ae41a29d - correct         Events : 663909         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 0 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : Uuuuuuuu


    Code
    [~] # mdadm --examine /dev/sdb3/dev/sdb3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 191f28b1:f766bc57:d41f4f0a:ea695805    Update Time : Fri Sep 16 02:30:37 2011       Checksum : 7e2b0375 - correct         Events : 663957         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 1 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uUuuuuuu[~] #


    Code
    [~] # mdadm --examine /dev/sdc3/dev/sdc3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 540199dd:389296ed:f0d43641:145d69b9    Update Time : Fri Sep 16 02:31:04 2011       Checksum : 2b6eb96d - correct         Events : 663981         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 2 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuUuuuuu[~] #


    Code
    [~] # mdadm --examine /dev/sdd3/dev/sdd3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 9f3cab97:2229c40f:e4b3873a:9c52a4bb    Update Time : Fri Sep 16 02:31:22 2011       Checksum : 33a6040 - correct         Events : 663997         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 3 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuUuuuu[~] #


    Code
    [~] # mdadm --examine /dev/sde3/dev/sde3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : 41d2f62a:44b2c5f0:c912446d:cdb6ef4e    Update Time : Fri Sep 16 02:31:41 2011       Checksum : 3d8f423e - correct         Events : 664013         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 4 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuuUuuu[~] #


    Code
    [~] # mdadm --examine /dev/sdf3/dev/sdf3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : f18f1e80:7ebf18a7:717a0aed:a085d415    Update Time : Fri Sep 16 02:31:59 2011       Checksum : 8fb543c6 - correct         Events : 664029         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 5 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuuuUuu


    Code
    [~] # mdadm --examine /dev/sdg3/dev/sdg3:          Magic : a92b4efc        Version : 1.0    Feature Map : 0x0     Array UUID : 5457aee4:2e49b3ac:79a297f3:914a2283           Name : 0  Creation Time : Thu Sep  8 21:17:11 2011     Raid Level : raid5   Raid Devices : 8  Used Dev Size : 5857395112 (2793.02 GiB 2998.99 GB)     Array Size : 41001765504 (19551.17 GiB 20992.90 GB)      Used Size : 5857395072 (2793.02 GiB 2998.99 GB)   Super Offset : 5857395368 sectors          State : clean    Device UUID : ff5dc905:2fea9a94:5f042187:2ce10bef    Update Time : Fri Sep 16 02:32:17 2011       Checksum : 76302222 - correct         Events : 664045         Layout : left-symmetric     Chunk Size : 64K    Array Slot : 6 (0, 1, 2, 3, 4, 5, 6, 7)   Array State : uuuuuuUu


    3 Mal editiert, zuletzt von Dreamweaver ()

  • so, 8x Bad Block Scan aktiviert. Läuft seit 20 Uhr. Mal sehen, was das Resultat morgen früh ist.


    Ich hab die Befürchtung, als wenn das für die Katz ist.


    Googelt man nach EXT4 und Group Descriptors wird einem fast schlecht.


    Nun hab ich einmal in eine Linux-Lösung investiert und werde gleich so herbe enttäuscht. Wär ich mal bloß bei meinen Festplatten-Wechselrahmen geblieben... :cursing::cursing::cursing:

  • Hallo,


    kann QNAP wirklich schon ext4-filesysteme über 16TB? Lt. Wikipedia(Stand 4.8.2011) gibt es da noch Probleme.
    "ext4 unterstützt nun Partitionen oder Volumes, die bis zu 1 EiB groß sind (derzeit begrenzt auf 16 TiB aufgrund einer Beschränkung in e2fsprogs), im Gegensatz zu ext3, das nur 32 TiB zulässt (abhängig von der Größe einer Speicherseite in der jeweiligen Maschinenarchitektur, bei IA-32 zum Beispiel sind nur maximal 232 · 4 KiB = 16 TiB möglich)."


    Grüße


    Klaus

  • Hallo,


    das wäre in der Tat sehr interessant zu wissen - und auch, warum man es dann im Interface nicht begrenzt...


    Momentan weiß ich noch gar nichts, leider.


    _hurted:



    übrigens hatte ich ganz zu Anfang ein RAID6, also mit 18TB. Das hat auch funktioniert, sogar ein paar mal neu gestartet hab ich das. Dann hab ich mich aber doch für ein RAID5 entschieden, alle Platten auf Werkseinstellungen gebracht und die NAS komplett resettet....

  • Hallo Lutz,


    hab das kurz überflogen... aber ich hab ja schon von Anfang an die Firmware 3.5 build 0815 drauf gehabt, mit der das angeblich gehen soll? Die Einträge sind ja viel älter...

  • So wie ich es verstanden habe, sind Volumes >16 TB erst ab FW 3.4.x möglich.
    Eine Erweiterung eines bestehenden Raids, über diese Grenze hinaus, funktioniert noch nicht.
    Leider hilft das aber nicht bei deinem Problem. :(


    Hast du mal versucht auf der Konsole zu mounten?

    Code
    mount /dev/md0  /share/MD0_DATA/ -t ext4
  • Darum schrieb ich ja, dass dir das nicht hilt.

  • Klar. Danke nochmal :)


    Ich bin gerade ein wenig genervt. Weil... wenn ich an die Daten nicht mehr rankomme habe ich extremen Aufwand.... :x Mal eben 18 Terabyte im Backup hat man ja auch nicht, aber irgendwo hat man es dann doch noch...


    Bad Block Scan ist gleich durch.


    Wie kommt man noch mal zu den Logfiles und wie kann ich mir sie anzeigen lassen? Verdammt, bislang konnt ich mich immer den Linux-Zwängen entziehen :)


    so Scan ist durch.

  • Das poste ich extra, weils sonst darüber zu unübersichtlich werden würde!!!


    Zitat von "frosch2"


    Hast du mal versucht auf der Konsole zu mounten?

    Code
    mount /dev/md0  /share/MD0_DATA/ -t ext4


    Code
    [~] # mount /dev/md0 /share/MD0_DATA/ -t ext4mount: wrong fs type, bad option, bad superblock on /dev/md0,       missing codepage or other error       In some cases useful info is found in syslog - try       dmesg | tail  or so[~] #


    Code
    [~] # dmesg | tail[  141.222570] warning: `proftpd' uses 32-bit capabilities (legacy support in use)[  168.327972] rule type=2, num=0[  168.329766]  Set Adpater:port=0:0 standby to 241 (1800 secs).[  168.335467]  Set Adpater:port=0:1 standby to 241 (1800 secs).[  168.341088]  Set Adpater:port=0:2 standby to 241 (1800 secs).[  168.346714]  Set Adpater:port=0:3 standby to 241 (1800 secs).[  170.188876] Loading iSCSI transport class v2.0-871.[  170.262167] iscsi: registered transport (tcp)[  355.214129] EXT4-fs (md0): ext4_check_descriptors: Checksum for group 35712 failed (59361!=53007)[  355.214363] EXT4-fs (md0): group descriptors corrupted![~] #




    Super, QNAP! Hauptsache ankündigen, dass >16TB möglich sind und die, die es wirklich machen im Regen stehen lassen :!::!::!:


    Wie komme ich jetzt noch an die Daten ran? Reparieren ist wohl nicht?

  • 3 Probleme.
    1) ü 16 TB sind möglich.
    2) Jedoch kein ext3/4 repair oder eine "kapazitätserweiterung". Liegt an ext.
    3) Die grösse des NAS und dessen Kapazität hat nix mit Backups zu tun. Das richtet sich nach dem Geldbeutel und der benötigten Kapazität.


    Wer ü 16TB liegt, kein Backup hat.. Kann derzeit alle FS repair optionen vergessen.
    Mit dem group descriptors wäre es nur was kleines.. So geht da nix mehr :(


    Grüsse, David

  • Eigentlich ist es jetzt Zeit für

    Code
    fsck.ext4 -n /dev/md0


    Dann werden dir erstmal nur die Fehler angezeigt und noch nichts repariert.
    Du kannst auch

    Code
    fsck.ext4 -y /dev/md0


    ausführen, dann werden eventluelle Fehler, versucht zu beheben.


    Das wird natürlich einige Zeit dauern.

  • Code
    [~] # fsck.ext4 -n /dev/md0
    -sh: fsck.ext4: command not found


    nun... irgendwie ja unbefriedigend.


    Schicke ich den ganzen Kram wohl wieder zurück.... ich kann ja gar nichts machen.


    Wieso schreibt man dann nicht ehrlicherweise dazu, dass über 16 TB möglich ist, aber bei einem Fehler eigentlich alles futsch ist... Da hätte ich ja auch gleich ein JBOD mit 24TB draus machen können bzw. mir so eine 08/15-Kiste mit JBOD kaufen können.


    Kann ich die HDDs nicht einzeln in einen Rechner stecken und da auf Daten zugreifen?

    Einmal editiert, zuletzt von Dreamweaver ()