TS-459U-RP - Raid6 Rebuild hängt?

  • Hi,


    ich habe folgendes problem:


    - TS-459U-RP, 4 platten a 750GB seagate barracuda ES.2 im raid6
    - hdd4 war defekt (disk read/write error) -> degraded modus, wurde ausgetauscht gegen eine seagate barracuda green 2 TB ST2000DL003 (laut Kompatibilätsliste qnap.com)
    - starting rebuild gestern um 20:02, seitdem krieg ich keinen status des rebuild im Webinterface angezeigt. Das Webinterface geht noch, allerdings zeigt er mir keine relevanten daten an.
    - vorne am gerät leuchtet seit 12h die info LED (i) rot auf... und hdd4 gleichmässig grün, beide im gleichmässigem intervall
    - per ssh komme ich drauf und uptime zeigt eine ziemliche auslastung des systems an:


    [~] # uptime
    08:15:26 up 13:56, load average: 35.82, 35.27, 34.63


    der rebuild dauert nun schon 12h und ich weiss nicht, ob sich das NAS aufgehangen hat...oder ob er noch re-builded.
    kann man das per ssh nicht irgendwie rauskriegen.
    wenn er sich aufgehangen hat, besteht die chance nach reboot überhaupt noch an die daten zu kommen?


    ich häng da echt in den seilen...


    vielen dank für hilfreiche antworten im voraus!


    *update1:
    per sshkonsole "cat /proc/mdstat" bringt irgendwie nix... komme da nur mit ctrl+c raus...


    *update2:
    top zeigt dies an:

    Einmal editiert, zuletzt von GorillaBD () aus folgendem Grund: Code Block hinzugefügt! Siehe Forenregeln.

  • hallo,


    darf ich fragen wie es bei Dir ausgegangen ist ?


    weil, ich habe ein ähnliches Problem :


    an meiner ersten TS439 ein Kapazitätserweiterung durchgeführt, 4 x 1.5TB raus, 4 x 4TB rein, das hat noch geklappt dass die neuen Platten mit ihrer richtigen Kapazität angezeigt wurden- das RAID5-Array aber noch den alten Zustand - so, ok .
    Dann am Webinterface auf Kapazität Erweitern geklickt, jetzt nach ca. einer Woche hängt das Webinterface bei der Anzeige 50% und da geht gar kein Klick mehr, Rechner-Restart (aber nicht das NAS), beim Aufruf des Webinterfaces -> weisses Blatt...Zugriff per SSH geht..rote Lampe leuchtet links oben



    das wars schon.
    und die Platten rattern noch immer


    REBOOT habe ich noch nicht gemacht



    jemand mit Ideen bevor ich mit reboot & mdadm -grow loslege ?

  • Hallo,
    Wie sieht es denn bei dir mit einem vollstaendigen und aktuellen Backup aus?

  • Zitat von "mcric"

    rote Lampe leuchtet links oben


    Laut Handbuch:


    Hier wäre also die Frage, ob zusätzlich eine Festplatten-LED rot leuchtet.

    Zitat von "mcric"

    jemand mit Ideen bevor ich mit reboot & mdadm -grow loslege ?


    In der momentanen Situation wird dir das nicht sehr viel bringen, außer einem beschleunigten Datenverlust.
    Prüfe den Status der Festplatten (fdisk), des RAID (cat /proc/mdstat), Poste mal ein komplettes df inclusive temporäre Verzeichnisse und eventuell noch die Ausgabe von dmesg.

  • Bei uns hat das Erweitern auch Ewigkeiten gedauert (mehrere Tage).
    Es wurde von (3+1) x 1TB RAID5 auf 4x 2 TB RAID6 erweitert.

  • Hallo und Willkommen im Club!

    Zitat von "zmb"

    - hdd4 war defekt (disk read/write error) -> degraded modus, wurde ausgetauscht gegen eine seagate barracuda green 2 TB ST2000DL003 (laut Kompatibilätsliste qnap.com)



    Hier ist auch noch zu beachten, dass QNAP seit schon etwa 2 Jahren diese Platte in der Kompatibilitätsliste als nicht empfehlenswert einstuft, weil viele User mit diesem Plattentyp negative Erfahrungen gerade im RAID-Betrieb gemacht haben:

    Zitat

    Seagate - ST2000DL003 (9VT1CC32) Inkompatibel TS-459U-RP/SP
    • (WD Green & Seagate Green)
    Diese Laufwerke haben die anfänglichen Kompatibilitätstests der QNAP Labs bestanden. Dennoch empfehlen wir Ihnen diese Festplatten nicht in QNAP-Produkten zu verwenden, da viele Nutzer von negativen Erfahrungen mit diesen Festplatten berichteten.


    Als Einzeldisk konfiguriert ist diese Platte dagegen nach den Usererfahrungen durchaus gut verwendbar, ich habe diesen Typ lange in in meinem ARM-NASsen als Einzeldisk selbst verwendet, leise und flotte Platte.


    GLG GBD

  • Zitat

    Hallo und Willkommen im Club!
    zmb hat geschrieben:
    - hdd4 war defekt (disk read/write error) -> degraded modus, wurde ausgetauscht gegen eine seagate barracuda green 2 TB ST2000DL003 (laut Kompatibilätsliste qnap.com)


    ich habe nun 4 x 4000GB Hitachi Deskstar 7K4000 HDS724040ALE640 drinnen



    Zitat

    Prüfe den Status der Festplatten (fdisk), des RAID (cat /proc/mdstat), Poste mal ein komplettes df inclusive temporäre Verzeichnisse und eventuell noch die Ausgabe von dmesg.


    Code
    [~] # dmesgde0dfe88 mapping:ed4a1094 index:16f[782899.832613] vma->vm_ops->fault: filemap_fault+0x0/0x2e3[782899.837139] vma->vm_file->f_op->mmap: generic_file_mmap+0x0/0x38[782899.842124] Pid: 20528, comm: daemon_mgr.nvr Tainted: P    B D    O 3.4.6 #1[782899.846359] Call Trace:[782899.850335]  [<c0488882>] print_bad_pte+0x12b/0x13d[782899.854433]  [<c048a889>] unmap_single_vma+0x306/0x39f[782899.858614]  [<c048a944>] unmap_vmas+0x22/0x3c[782899.862904]  [<c048c743>] exit_mmap+0x5f/0xa2[782899.866842]  [<c0422f23>] mmput+0x3d/0xaf[782899.871095]  [<c04a713f>] flush_old_exec+0x464/0x4e4[782899.875238]  [<c04d69a0>] load_elf_binary+0x2b2/0xb0a[782899.879376]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[782899.883559]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[782899.887674]  [<c0487611>] ? page_address+0x66/0x6d[782899.891759]  [<c048785b>] ? kunmap_high+0x17/0x8c[782899.895842]  [<c04a5cef>] ? put_arg_page+0x8/0xa[782899.899903]  [<c04d66ee>] ? elf_core_dump+0x701/0x701[782899.904036]  [<c04a5fc6>] search_binary_handler+0x9a/0x21f[782899.908151]  [<c04a6932>] do_execve+0x246/0x30b[782899.912161]  [<c0407c2d>] sys_execve+0x24/0x4a[782899.916075]  [<c087634e>] ptregs_execve+0x12/0x18[782899.919923]  [<c0872034>] ? syscall_call+0x7/0xb[782899.923740]  [<c087007b>] ? acpi_processor_add+0x243/0x408[782899.927569]  [<c0870000>] ? acpi_processor_add+0x1c8/0x408[782990.008519] swap_free: Unused swap offset entry 00000100[782990.012079] BUG: Bad page map in process daemon_mgr.nvr  pte:00020000 pmd:3f581067[782990.016274] addr:b7001000 vm_flags:08100073 anon_vma:ef7a7578 mapping:ed4a1094 index:16f[782990.020052] vma->vm_ops->fault: filemap_fault+0x0/0x2e3[782990.024344] vma->vm_file->f_op->mmap: generic_file_mmap+0x0/0x38[782990.028191] Pid: 20933, comm: daemon_mgr.nvr Tainted: P    B D    O 3.4.6 #1[782990.032570] Call Trace:[782990.036673]  [<c0488882>] print_bad_pte+0x12b/0x13d[782990.040605]  [<c048a889>] unmap_single_vma+0x306/0x39f[782990.044976]  [<c048a944>] unmap_vmas+0x22/0x3c[782990.048934]  [<c048c743>] exit_mmap+0x5f/0xa2[782990.053217]  [<c0422f23>] mmput+0x3d/0xaf[782990.057174]  [<c04a713f>] flush_old_exec+0x464/0x4e4[782990.061486]  [<c04d69a0>] load_elf_binary+0x2b2/0xb0a[782990.065555]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[782990.069924]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[782990.074434]  [<c0487611>] ? page_address+0x66/0x6d[782990.078770]  [<c048785b>] ? kunmap_high+0x17/0x8c[782990.082698]  [<c04a5cef>] ? put_arg_page+0x8/0xa[782990.086948]  [<c04d66ee>] ? elf_core_dump+0x701/0x701[782990.090901]  [<c04a5fc6>] search_binary_handler+0x9a/0x21f[782990.095238]  [<c04a6932>] do_execve+0x246/0x30b[782990.099131]  [<c0407c2d>] sys_execve+0x24/0x4a[782990.103272]  [<c087634e>] ptregs_execve+0x12/0x18[782990.106970]  [<c0872034>] ? syscall_call+0x7/0xb[782990.110980]  [<c087007b>] ? acpi_processor_add+0x243/0x408[782990.114744]  [<c0870000>] ? acpi_processor_add+0x1c8/0x408[783080.209475] swap_free: Unused swap offset entry 00000100[783080.213998] BUG: Bad page map in process daemon_mgr.nvr  pte:00020000 pmd:3f958067[783080.218396] addr:b7001000 vm_flags:08100073 anon_vma:ef7a7a00 mapping:ed4a1094 index:16f[783080.222303] vma->vm_ops->fault: filemap_fault+0x0/0x2e3[783080.226393] vma->vm_file->f_op->mmap: generic_file_mmap+0x0/0x38[783080.230558] Pid: 21313, comm: daemon_mgr.nvr Tainted: P    B D    O 3.4.6 #1[783080.234788] Call Trace:[783080.239360]  [<c0488882>] print_bad_pte+0x12b/0x13d[783080.243495]  [<c048a889>] unmap_single_vma+0x306/0x39f[783080.247973]  [<c048a944>] unmap_vmas+0x22/0x3c[783080.252133]  [<c048c743>] exit_mmap+0x5f/0xa2[783080.256424]  [<c0422f23>] mmput+0x3d/0xaf[783080.260369]  [<c04a713f>] flush_old_exec+0x464/0x4e4[783080.264679]  [<c04d69a0>] load_elf_binary+0x2b2/0xb0a[783080.268643]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[783080.273054]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[783080.276979]  [<c0487611>] ? page_address+0x66/0x6d[783080.281284]  [<c048785b>] ? kunmap_high+0x17/0x8c[783080.285493]  [<c04a5cef>] ? put_arg_page+0x8/0xa[783080.289757]  [<c04d66ee>] ? elf_core_dump+0x701/0x701[783080.294161]  [<c04a5fc6>] search_binary_handler+0x9a/0x21f[783080.298172]  [<c04a6932>] do_execve+0x246/0x30b[783080.302054]  [<c0407c2d>] sys_execve+0x24/0x4a[783080.305904]  [<c087634e>] ptregs_execve+0x12/0x18[783080.309597]  [<c0872034>] ? syscall_call+0x7/0xb[783080.313267]  [<c087007b>] ? acpi_processor_add+0x243/0x408[783080.316885]  [<c0870000>] ? acpi_processor_add+0x1c8/0x408[783170.396852] swap_free: Unused swap offset entry 00000100[783170.400568] BUG: Bad page map in process daemon_mgr.nvr  pte:00020000 pmd:3fbc6067[783170.404940] addr:b7001000 vm_flags:08100073 anon_vma:ef7a78e8 mapping:ed4a1094 index:16f[783170.408914] vma->vm_ops->fault: filemap_fault+0x0/0x2e3[783170.413286] vma->vm_file->f_op->mmap: generic_file_mmap+0x0/0x38[783170.417217] Pid: 21675, comm: daemon_mgr.nvr Tainted: P    B D    O 3.4.6 #1[783170.421612] Call Trace:[783170.425910]  [<c0488882>] print_bad_pte+0x12b/0x13d[783170.430194]  [<c048a889>] unmap_single_vma+0x306/0x39f[783170.434273]  [<c048a944>] unmap_vmas+0x22/0x3c[783170.438636]  [<c048c743>] exit_mmap+0x5f/0xa2[783170.442600]  [<c0422f23>] mmput+0x3d/0xaf[783170.447117]  [<c04a713f>] flush_old_exec+0x464/0x4e4[783170.451326]  [<c04d69a0>] load_elf_binary+0x2b2/0xb0a[783170.455299]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[783170.460028]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[783170.463958]  [<c0487611>] ? page_address+0x66/0x6d[783170.468311]  [<c048785b>] ? kunmap_high+0x17/0x8c[783170.472233]  [<c04a5cef>] ? put_arg_page+0x8/0xa[783170.476538]  [<c04d66ee>] ? elf_core_dump+0x701/0x701[783170.480683]  [<c04a5fc6>] search_binary_handler+0x9a/0x21f[783170.485029]  [<c04a6932>] do_execve+0x246/0x30b[783170.489138]  [<c0407c2d>] sys_execve+0x24/0x4a[783170.492942]  [<c087634e>] ptregs_execve+0x12/0x18[783170.496989]  [<c0872034>] ? syscall_call+0x7/0xb[783170.500784]  [<c087007b>] ? acpi_processor_add+0x243/0x408[783170.505222]  [<c0870000>] ? acpi_processor_add+0x1c8/0x408[783260.589375] swap_free: Unused swap offset entry 00000100[783260.592930] BUG: Bad page map in process daemon_mgr.nvr  pte:00020000 pmd:3f504067[783260.597097] addr:b7001000 vm_flags:08100073 anon_vma:ebac4b90 mapping:ed4a1094 index:16f[783260.600937] vma->vm_ops->fault: filemap_fault+0x0/0x2e3[783260.605265] vma->vm_file->f_op->mmap: generic_file_mmap+0x0/0x38[783260.609380] Pid: 22055, comm: daemon_mgr.nvr Tainted: P    B D    O 3.4.6 #1[783260.613331] Call Trace:[783260.617553]  [<c0488882>] print_bad_pte+0x12b/0x13d[783260.621704]  [<c048a889>] unmap_single_vma+0x306/0x39f[783260.625962]  [<c048a944>] unmap_vmas+0x22/0x3c[783260.629957]  [<c048c743>] exit_mmap+0x5f/0xa2[783260.634231]  [<c0422f23>] mmput+0x3d/0xaf[783260.638161]  [<c04a713f>] flush_old_exec+0x464/0x4e4[783260.642499]  [<c04d69a0>] load_elf_binary+0x2b2/0xb0a[783260.646529]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[783260.650992]  [<c048747b>] ? spin_unlock_irqrestore+0x8/0xa[783260.654939]  [<c0487611>] ? page_address+0x66/0x6d[783260.659281]  [<c048785b>] ? kunmap_high+0x17/0x8c[783260.663268]  [<c04a5cef>] ? put_arg_page+0x8/0xa[783260.667528]  [<c04d66ee>] ? elf_core_dump+0x701/0x701[783260.671704]  [<c04a5fc6>] search_binary_handler+0x9a/0x21f[783260.675716]  [<c04a6932>] do_execve+0x246/0x30b[783260.680051]  [<c0407c2d>] sys_execve+0x24/0x4a[783260.683879]  [<c087634e>] ptregs_execve+0x12/0x18[783260.687993]  [<c0872034>] ? syscall_call+0x7/0xb[783260.691720]  [<c087007b>] ? acpi_processor_add+0x243/0x408[783260.695719]  [<c0870000>] ? acpi_processor_add+0x1c8/0x408



    Code
    [~] # cat /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md0 : active raid5 sdd3[3] sdc3[2] sdb3[1] sda3[0]      11716348800 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]md4 : active raid1 sdd2[2](S) sdc2[1] sdb2[3](S) sda2[0]      530048 blocks [2/2] [UU]md13 : active raid1 sdd4[3] sdc4[2] sdb4[1] sda4[0]      458880 blocks [4/4] [UUUU]      bitmap: 0/57 pages [0KB], 4KB chunkmd9 : active raid1 sdd1[3] sdc1[1] sdb1[2] sda1[0]      530048 blocks [4/4] [UUUU]      bitmap: 0/65 pages [0KB], 4KB chunkunused devices: <none>



    Code
    [~] # df -hFilesystem                Size      Used Available Use% Mounted on/dev/ram0               139.5M    108.2M     31.2M  78% /tmpfs                    64.0M    464.0k     63.5M   1% /tmp/dev/sda4               364.2M    206.2M    158.0M  57% /mnt/ext/dev/md9                509.5M    140.6M    368.8M  28% /mnt/HDA_ROOT/dev/md0                  4.0T      3.7T    321.1G  92% /share/MD0_DATAtmpfs                    32.0M    376.0k     31.6M   1% /.eaccelerator.tmptmpfs                     8.0M         0      8.0M   0% /var/syslog_maildir


    TobiasK

    Zitat

    Hallo,
    Wie sieht es denn bei dir mit einem vollstaendigen und aktuellen Backup aus?


    das ist schon das Backup vom Backup (ich habe zwei QNAP á 16 TB brutto), also kein Problem wenn ich´s neu aufsetzen muss :)




    Zitat

    Hier wäre also die Frage, ob zusätzlich eine Festplatten-LED rot leuchtet.


    NEIN, blinken grün und rattern vor sich hin





    chmod verbrät aber zeitweise fast 50%CPU und einige Prozess sind im WAIT ???


    warte ich noch ein Woche bevor ich reboote ?

  • habe ich vergessen zu erwähnen oder ist vielleicht nicht richtig rübergekommen:


    Das RAID lebt, ich kann auf die Daten zugreifen - NUR, ich habe 4 x 4 TB drinnen (vorher 4 x 1.5 TB), UND df zeigt noch immer 4 TB NACH einer Woche resync..... UND übers Webinterface geht nix mehr, nur SSH




    Ich gehe davon aus, dass es KEIN Hardwareproblem gibt.

  • Hallo,
    da du ja alle Daten gesichert hast, koenntest du das NAS einfach neu aufsetzen.
    Dafuer die Platten alle an einen Computer anschliessen und alle vier Volumen/Partitionen jeder Platte loeschen. Formatieren reicht hier nicht. Nach dem Loeschen der Volumen sind alle Daten von den Platten weg, daher musst du das NAS nach dem Einbau und Start mit den leeren Platten komplett neu einrichten und das Backup zurueckkopieren.

  • ERROR HDD4
    OVERHEAT


    nun im LCD.
    Eingabe von halt bewirkt nix.
    POWER-Taste länger gedrückt, tschüss


    So, ich lass das mal abkühlen und check morgen weiter

  • Zitat von "mcric"
    Code
    [782990.008519] swap_free: Unused swap offset entry 00000100
    [782990.012079] BUG: Bad page map in process daemon_mgr.nvr  pte:00020000 pmd:3f581067
    [782990.016274] addr:b7001000 vm_flags:08100073 anon_vma:ef7a7578 mapping:ed4a1094 index:16f
    [782990.020052] vma->vm_ops->fault: filemap_fault+0x0/0x2e3
    [782990.024344] vma->vm_file->f_op->mmap: generic_file_mmap+0x0/0x38
    [782990.028191] Pid: 20933, comm: daemon_mgr.nvr Tainted: P    B D    O 3.4.6 #1
    [782990.032570] Call Trace:

    Ich vermute mal, dass sich das NAS an diesem Fehler verschluckt und sich mehr damit als mit dem RAID-Expand beschäftigt hat.

  • JA, das denke ich auch so.


    Habe heute das NAS wieder eingeschaltet und es bootete anstandslos, auch das Webinterface ist wieder erreichbar.
    Nun beginnt der Sync von vorne :)
    mal abwarten was passiert