Beiträge von 1x1speed

    Danke für Die ausführliche Doku. Der md_checker war nicht auf dem System, konnte den aber nachladen:

    Ich werde nun mal abwarten ob der Rebuild erfolgreich ist. Dann werde ich das Array erst wieder einhängen, oder das NAS rebooten und schauen was passiert.


    Gruss

    Hallo zusammen,


    mein altes TS 879 Pro+ hatte vor ein paar Tagen eine Platte mit SMART Fehlern und dem Zustand Normal WD RE 4TB WD4000FYYZ ich hab diese gegen eine WD Gold 4TB WD4003FRYZ ausgetauscht. Der Rebuild ist gestartet und lief zwar langsam aber stätig. Hatte gestern Abend nach etwa 3 Tagen 35% Rebuild durch. Leider ist das System dann gestern Nacht durchgestartet. Stromausfall ist ausgeschlossen, da es an einer USV hängt, die mir einen Fehler protokolliert hätte.

    Nun sind die Freigabeordner nicht mehr verfügbar weil das RAID 6 im Speichermanager zwar sichtbar ist, aber nicht eingehängt. Der erste Versuch das Raid über die GUI per Wiederherstellen zu beleben scheiterte mit "Raid Recovery failed.


    Nun habe ich mich per SSH verbunden:


    /dev/md0 ist nicht nach /share/MD0_DATA eingehangen


    Code
    # mdadm --detail /dev/md0
    mdadm: md device /dev/md0 does not appear to be active.

    mdam bringt für md0 auch keine infos


    Code
    # e2fsck_64 -fp -C 0 /dev/md0
    e2fsck_64: Invalid argument while trying to open /dev/md0
    /dev/md0:
    The superblock could not be read or does not describe a valid ext2/ext3/ext4
    filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
    filesystem (and not swap or ufs or something else), then the superblock
    is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
    or
    e2fsck -b 32768 <device>

    Dateisystemcheck auf md0 ist erfolglos


    mdstat bringt die obrige Ausgabe



    Code
    # e2fsck_64 -fp -C 0 /dev/md0
    e2fsck_64: Invalid argument while trying to open /dev/md0
    /dev/md0:
    The superblock could not be read or does not describe a valid ext2/ext3/ext4
    filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
    filesystem (and not swap or ufs or something else), then the superblock
    is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
    or
    e2fsck -b 32768 <device>

    Filesystem Check auf md0 ist nicht möglich


    Code
    # mdadm --examine /dev/md0
    mdadm: No md superblock detected on /dev/md0.


    Hat jemand eine Idee wie ich hie über die Shell weiter komme und das RAID wieder zum laufen bekomme?


    Ich habe in einem Forum noch ein ähnliches Thema gefunden bei dem jemand ein RAID 5 mit 4 Platten nach einem ähnlichen "Rebuild failed" wieder an den Start gebracht hat, schreibt aber nicht dazu, ob die Daten noch da waren mit dem madam --create Kommando

    Code
    #mdadm --create -v --force --run --assume-clean /dev/md1 --raid-devices=4 --level=5 --metadata=1.0 --chunk=64 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
    # /etc/init.d/init_lvm.sh

    Hallo,


    danke für die Antwort. Die Ramdisk ist zu 84% belegt.


    Ausgabe von # df
    /dev/ramdisk Size 139,7M Used 117,7M 84%


    Woran kann das liegen und warum von heut auf morgen? Das System läuft seit ca. 1 Jahr in dieser Konfiguration ohne Änderung der Konfig oder Installation eines Paketes mit den 6 Kameras und dem iSCSI Target.
    In den Logs habe ich keinen einzigen Error zu Ramdisk full.


    Gruß
    Thomas

    Hallo Leute,


    ich hab seit zwei drei Wochen ein Recht merkwürdiges Verhalten meines QNAP TS-639 Pro FW 4.1.4. Das System hat 6 WD Red 3TB HDD im Raid 6 laufen. Es wird genutzt für iSCSI 2 Targets und Surveillance Station 6 Kanäle.
    Nach ca 4-5 Tagen Betrieb Ist das NAS im Monitoring nur noch per Ping erreichbar SNMP, iSCSI, HTTP SSH funktionieren nicht mehr. Es kann auch nicht über die Taster am LCD Panel heruntergefahren werden. Ich hab es beim Ersten Vorfall komplett stromlos gemacht. Dann bootete es korrekt und alle Services waren wieder verfügbar. Nur das Raid teilte mir mit, dass ich ein FS-Check machen soll was ich auch getan habe. Im Log auf der GUI habe ich keinerlei Einträge au0er den Shutdown welcher auf einen HW Fehler hindeutet. Jetzt nach 5 Tagen das gleiche wieder Ping OK, SNMP im Monitoring weg und alle anderen Dienste auch. Nach einem stromlos schalten und anschließendem Reboot wieder alles OK nun hab ich versucht über die SSH eine logfile zu finden welche mir Infos liefert leider hab ich in diesen unter /mnt/HDA_Root/.logs nichts gefunden was den Fehler eingrenzt.


    Hat jemand eine Idee wo ich noch schauen könnte oder wo der Fehler ggf. stecken kann. Ich hab mir heute erst mal neuen RAM bestellt um einen Fehler dort auszuschließen.


    Viele Grüße
    Thomas

    Hallo Mike,


    das hab Netzteil hab ich noch gar nicht in Betracht gezogen. Könnte ich das bei gesteckten 6 Platten in den Logfiles via SSH Konsole sehen und wenn ja wo? Wenn alle 6 Platten drin sind, sind die LEDs an den Platten Grün aber die Status LED blinkt.


    Wenn es das Netzteil ist, könnte ich mit einem normalen PC-Netzteil testen, oder hat das QNAP Mainboard andere Anschlüsse?


    Gruß Thomas

    Hallo zusammen,


    ich habe mit meinem TS-639 ein Problem welchem ich auf die Spur kommen muss und dazu mal eure Hilfe brauch. Vor zwei Tagen ist das System unerwartet heruntergefahren/abgestürzt. Es war zwar wieder verfügbar jedoch war das RAID entladen. Alle 6 Platten sind noch korrekt mit Zustand gut zu sehen. Das von Qnap beschriebene Vorgehen über SSH per config_util 2 ergab dass das RAID nicht gemountet werden konnte.


    Da es sich um ein Backup System handelt war es nicht ganz so dramatisch und ich habe das System neu initialisiert. Die Initialisierung lief soweit ordentlich durch ich konnte auch die iSCSI LUNs anlegen nach einem Reboot allerdings fand das System gar keine Disks und das System Zeigte mir einen Alarmzustand. Nun probierte ich es mit nur zwei Disks und einem RAID1 da lief die Einrichtung und Reboot ordentlich.


    Kann mir jemand sagen, wie ich in der Konsole die richtigen Logfiles finde um zu sehen welche Disk oder welcher Kanal die Probleme macht, dass das System mit Vollbestückung nach einem Reboot das RAID/Disks nicht sieht. Ich vermute mal einen HW Defekt, aber um zu wissen welches Ersatzteil ich brauche oder ob ich das System entsorgen kann wäre es gut die genaue Ursache festzustellen.


    Vielen Dank
    Gruß Thomas

    Hallo Uwe,


    ich habe ähnliche Probleme mit der Surveillance Station. Folgende Konfiguration ist bei mir im Einsatz:


    QNAP TS-859 Pro+
    RAM 1GB
    Raid-Level 6
    HDD 6x WD RE 4TB
    QTS 4.1.4
    Surveillance Station 5.5
    Kameras 6 Modelle Cisco PVC2300 und Axis M3024-LVE


    Ich habe das NAS seit ca. einer Woche komplett neu aufgesetzt und auch die Surveillance Station mit 4 zusätzlichen Lizenzen installiert. Das NAS steht an einem Außenstandort und ist über VPN mit dem HQ verbunden beides VDSL50 mit fester IP und einer Latenz von 20-30ms. 3 Kameras streamen vom HQ zum NAS und 3 Kameras sind am externen Standort. Alle per LAN Kabel verbunden.
    Zuerst habe ich die Meldungen bekommen "No Data for over xx seconds from camera X" an der Stelle habe ich die Frame Rate der Kameras im HQ auf 8FPS heruntergesetzt was zu einer deutlichen Abnahme der Meldungen führte. Dazu kamen dann aber auch wie bei Dir die Warnings "Re-launch process [nvrd]" welche nicht immer aber recht oft auch zu Aufnahmelückenführten. Besonders gut war es im Nagios zu erkennen, da sich zu einigen Zeiten der Warnmeldung, der permanente Outgoing Traffic auf dem Switchport mit dem die QNAP auf LAN-Interface 2 verbunden war auf ein paar KB reduzierte.


    Eine wirkliche Überlastung bzw. Auslastung des RAM konnte ich nicht feststellen. CPU liegt meist bei 10-30% und RAM bei 60-70%. Neben der Surveillance Station läuft eigentlich auf dem NAS nicht viel ein paar Shares über SMB und zwei iSCSI Targets. Alle dienen nur zur Ablage von Daten und werden nicht für den Produktivbetrieb genutzt.


    Seit gestern kam übrigens noch hinzu, daß das System anscheinend abgestürzt ist. Im Eventlog war nur eine Warmeldung "The system was not shut down properly last time", darauf dann "File System was not clean" und "Start resyncing RAID6 Volume".


    Ich hab das ganze auch beim QNAP Support eingekippt mal schauen was da zurückkommt.


    Gruss Thomasa

    Hallo,


    ich habe momentan ein unerklärliches Performance Problem an meinen TS-659 Pro dieses ist seit ca. 2 Jahren in einem Aussenstellen-Office an einem 100Mbit Router angeschlossen und hat keine direkten Auffälligkeiten. Eventlog OK Platten OK FW: 3.8.3


    Da der Transfer von Files über die VPN Leitung erfolgte fiel die niedrige Performance ewig nicht auf. Nun habe ich an dem Standort ein TS-639 Pro hingestellt um eine Datensicherung von dem teil zu erstellen, da die Platten 2TB WD20EARX gegen 3TB Platten ausgetauscht werden sollen. Dafür wurde das TS-659 Pro über LAN2 mit dem TS-639 Pro auf LAN2 direkt verkabelt und ein Backup Job auf dem TS-659 Pro erstellt. Der Traffic geht direkt über die GBit verbindung zum TS-639 Pro aber in einer unterirdisch langsamen Geschwindigkeit von 1MB/S und 2 MB/s. Als mir das aufgefallen ist habe ich auch die Performance mit einen Zugriff über einen Rechner in der Aussenstelle jeweils 100 Mbit einmal über das TS-659 Pro > lahm mit unter 1Mbit/s und einmal über TS-639 Pro > volle 100Mbit Übertragung der File 9-10MB/s geprüft.


    Da das TS-659 Pro keinerlei Auffälligkeiten bezüglich der HW in den logs hat bin ich momentan etwas ratlos warum die Performance so schlecht ist. Kann ich irgendwie anders prüfen ob ein Problem an der HW vorliegt? Sonst würde ich gleich ein neues System anstatt des HDD Upgrades beschaffen.


    Danke, VG
    Thomas

    Hallo zusammen,


    ich habe vor mein QNAP 639 zu erweitern und habe dazu diesen Link auf der Qnap Seite gefunden: http://www.qnap.com/de/pro_features_RLM.asp. Wenn ich nun auf meinem System auf den Menüpunkt Raid Verwaltung gehe, wird mir nur folgender Text angezeigt:


    Zitat

    Daten werden geladen; bitte warten…Diese Funktion ermöglicht eine Kapazitätserweiterung und das Migrieren der RAID- oder Ersatzlaufwerk-Konfiguration, die Daten bleiben dabei erhalten.
    Hinweis: Machen Sie sich gründlich mit der Anleitung und der richtigen Vorgehensweise vertraut, bevor Sie diese Funktion benutzen.


    und der restliche Wereich ist weiß. Hat das irgend einen Grund? Wie kann ich die Raid Verwaltung einblenden damit ich die Platten tauschen kann?



    Das System hat 6x1TB mit RAID5 Konfiguration und ausschließlich iSCSI LUNs
    Firmware:3.5.2 Build 1126T


    Danke, Cheers
    Thomas