Beiträge von FSC830

    Hi,
    schwierig alle zu beurteilen aber bei einem Raid1 sollten die Daten immer zugreifbar sein wenn die zweite HDD ausfällt.
    Ist das Raid denn auch noch als "aktiv" gekennzeichnet (zusätzlich zum degraded)?


    Ein Ersetzen der defekten Platte sollte auf alle Fälle schnellstmöglich passieren, aber wie gesagt, die Daten müssen auch so noch zugreifbar sein.
    Keine Ahnung was QNAP da macht.


    Gruss

    Hi,
    irgendwo ist bei Deiner Einrichtung was vollkommen schief gelaufen, Disk 1 wird sowohl als Einzellaufwerk als auch als Platte im RAID1 angezeigt!?


    Da ich mit einem ähnlichen Problem gekämpft habe kann ich Dir nur empfehlen das NAS komplett neu aufzusetzen und einzurichten.
    Wieso schreibst Du von unterschiedlichen Plattengrößen? Alle 4 HDD werden mit 2TB angezeigt.


    Ich hoffe Du hast eine aktuelle Datensicherung.


    Gruss

    Das mit den Gb Grenzern

    Moin moin,


    ich habe vom Bekannten gehört und in einem Forum gelesen, dass es Gigabyte-Grenzen beim Raid 5 gibt. ..

    Hi,


    das ist offen gesagt "Humbug"... Wenn man die Aussage auf QNAP Systeme reduziert dann stimmt sie unter bestimmten Vorausetzungen, aber eine allgemeine Obergrenze für RAID 5 ist es nicht.
    Ich kenne Volumes mit Raid5 und Größen deutlich jenseits der 16TB, allerdings auf ganz anderen RAID Systemen (SAN-Systeme).


    Für QNAP ist u.U. das hier interessant: https://helpdesk.qnap.com/inde…16tb-grenze-uberschritten


    Ob es aber für alle QNAP Systeme zutrifft weiss ich nicht. Ich habe u.a. ein TS859 mit 8x3TB, davon 7 im Raid 5, eine Hotspare und das Volume hat knapp 17 TB, die Grenze (vermutlich dann 16384GB) ist auf alle Fälle überschritten.


    Gruss


    P.S.


    Eine Suche im Forum hätte u.a. sofort zu folgenden Threads geführt ;):


    Volume lässt sich nicht erweitern
    Maximale Größe vom Raid 5 bei 431p und 853a

    So, ich habe den Status nun auf "Gelöst" gesetzt, allerdings stimmt das nur zum Teil.
    Die Lösung bestand letztendlich darin das NAS komplett platt zu machen und neu zu initialisieren :(.


    Der QNAP Support hat sich zwar bemüht, aber die gewünschte Remote Sitzung kam nicht zustande da das Backup ca. 2 Tage dauerte und schwupps, war Weihnachten vor der Tür...
    Danach angestossene Rebuilds waren angeblich immer erfolgreich, aber nach einem Reboot war das Raid jedes mal wieder "degraded" und ausserdem wurde ausser dem Raid permanent eine Single Disk angezeigt, die es in diesem System aber nie gab.


    Irgendetwas hat die Raid Konfiguration total durcheinander gewürfelt, ich hoffe das nun nach der Neuinitialisierung alles wieder wie erwünscht funktioniert, werde ich beim nächsten Plattentausch dann sehen.
    Derzeit spiele ich die Daten wieder zurück.
    So kann man die Feiertage auch nutzen :O.


    Gruss und guten Rutsch

    Hi, wenn man es richtig macht bleiben die Einstellungen erhalten.
    Im Storage Manager eben das Volume/RAID entfernen und neu aufsetzen, nicht unter den General Settings das NAS zurücksetzen, dann ist alles weg.


    Gruss

    Hi,
    ich bin da tatsächlich nicht ganz sicher, ich hätte zunächst die HDD in den RAID Verbund aufgenommen und danach das Voluem vergrößert, oder hast Du das schon?
    Übrigens: RAID 0 ist so ziemlich das schlechteste was man machen kann, fällt eine Platte aus sind die Daten weg (alle), das ist Dir bewusst?


    Gruss

    Bei mir wird es immer verrückter!
    Nachdem also der Rebuild fertig war und das RAID wieder "grün" habe ich vorsichtshalber einen Reboot gemacht.
    Danach war das RAID wieder degraded und die HDD2 als "Single Disk" im System!


    Ein Expand hat natürlich mehrfach nicht funktioniert.
    Mittlerweile traue ich dem RAID nicht mehr von den Ohren bis zur Nasenspitze. Sobald der Full-backup durch ist wird es plattgemacht und neu aufgesetzt.


    Das ist nun das erste mal das ein Rebuild nicht geht, allerdings auch der erste HDD Tausch nach der neuen FW vom 08. Dezember, vorher gab es nie Probleme.
    Der QNAP Support hat um eine Remote Sitzung gebeten, die kann er nach dem Backup gerne durchführen.
    Aber so was.... einfach eine Platte als Single Disk einhängen... geht gar nicht.


    Vor allem, die CLI sagte nach wie vor das das Raid5 aus 8 HDD besteht (HDD2 removed) während die GUI meinte es seien nur 7!?


    Gruss

    Kommt darauf an, bei mir hat fdisk -p /dev/sdb auch während des rebuilds angezeigt das die Partition table nicht stimmt. Deshalb habe ich den Reboot ja durchgeführt um das zu verifizieren.
    Mit dem o.a. Ergebnis :(...


    Gruss


    Edit: habe es zunächst mal aufgegeben. Eine meiner ehemaligen Platten hat CrystalDiskInfo noch als "Good" markiert, mit dieser startet der Rebuild auch sofort an
    Auch der NAS rapid test zeigte keine Fehler.
    Die ursprüngliche HDD lege ich mir auf die Seite und werde beim nächsten fälligen Tausch mal sehen ob sie dann genommen wird.
    irgendwie schon sehr merkwürdig.


    Gruss

    Upps, offenbar geschafft :D...



    Ich habe mit fdisk -d x (x=Partition number) die Partitionen von /dev/sdb gelöscht. Die
    Partitionen 1-3 liessen sich löschen, brachten am Ende aber immer einen
    Fehler, sinngemäß: Partition table kann nicht geschrieben werden, bis
    zum Reboot verwendet der Kernel die alte Partition table, /dev/sdb4 lies
    sich nicht löschen.



    Danach HDD gezogen und ohne die HDD ein Reboot durchgeführt.
    Nach dem reboot zeigte fdisk tatsächlich noch als einzige Partition
    /dev/sdb4, nun konnte ich aber problemlods mit mdadm --add /dev/md0/dev/sdb die HDD wieder zum Volume dazufügen und der Rebuild läuft
    jetzt.

    Code
    Number Major Minor RaidDevice State
    0 8 3 0 active sync /dev/sda3
    10 8 16 1 spare rebuilding /dev/sdb
    2 8 35 2 active sync /dev/sdc3
    3 8 51 3 active sync /dev/sdd3
    9 8 67 4 active sync /dev/sde3
    5 8 83 5 active sync /dev/sdf3
    6 8 99 6 active sync /dev/sdg3
    8 8 115 7 active sync /dev/sdh3


    Gruss


    Zu früh gefreut :(. nachdem der Rebuild abgeschlossen wurde habe ich vorsichtshalber einen Reboot durchgeführt, mit dem Ergebnis das die HDD wieder als "removed" und das RAID als degraded angezeigt wird.
    So langsam glaube ich auch an einen FW Bug...


    Also weiter gehts mit "Jugend forscht"...

    Hi,
    danke für den Hinweis, in der /mnt/HDA_ROOT/.conf stehen zwar mehrere S/N, aber die der Platte auf der der Rebuild laufen soll ist nicht dabei.
    Warum steht unter hd_name aber /dev/sdb?
    ist das ein Hinweis auf die zuletzt gezogene HDD?


    Gruss


    Edit: habe es mal verglichen, alle aufgeführten S/N entsprechen den S/N der gesteckten HDD. Nur bei /dev/sdb sind einige Leerzeichen vor der S/N?


    In der .conf kann ich sonst keinen Hinweis auf etwaige "ehemalige" HDDs finden.

    Hallo,
    ich habe ein TS859+ mit aktuellster FW (4.2.6 vom 2017/12/08) im Einsatz. Im Laufe der Zeit habe ich einige der HDDs ersetzt wenn der SMART Test Warnings gebracht hat. Eine Reserve HDD (ausserhalb des NAS) lag schon für den nächsten Tausch bereit.
    Gestern war es wieder soweit, eine HDD meldete hartnäckige "Bad block" Warnings. Also wie üblich die gemeldete HDD hot-plug-mäßig entfernt, kurze Gedenkpause und Reserveplatte rein.
    Aber: ein Rebuild findet nicht statt, stattdessen erfolgt eine Fehlermeldung "Add drive x to the volume failed", das habe ich mehrfach probiert obwohl die HDD im Storage Manager korrekt angezeigt wird und auch den Status "Good" hat.


    Zuletzt habe ich die Platte über einen USB Adapter an meinen Notebook gehängt, alle Partitionen gelöscht und wieder ins NAS gesteckt, gleiches Ergebnis :(.
    Per Putty und fdisk wurde mir die korrekte Plattengeometrie angezeigt, mdadm --misc /dev/md0 jedoch beharrte auf den Status "removed" für die HDD.


    Da ich nicht länger mit einem "degraded RAID" arbeiten wollte habe ich eine meiner alten, von SMART angemeckerten und ersetzten HDDs genommen und diese wieder in das NAS gesteckt.
    Der Rebuild lief sofort los :O...!?


    Hat jemand eine Idee warum meine Reserve HDD, von der ich weiss das sie in Ordnung ist da sie schon einmal im RAID war, nicht für einen Rebuild genommen wird?


    Gruss

    Ja, danke, diese Tabelle habe ich auch schon gesehen, aber leider fehlt mir da eine Feature Übersicht über die einzelnen Geräte/Versionen.
    Das kann man so nicht daraus erkennen. Eher dann schon aus den Handbüchern, wobei dann aber auch nur wenn man weiss wonach man suchen muss.


    Meine Neuinitialisierung ist durch, aber es bleibt alles beim alten :( .


    Wenn ich mutiger wäre würde ich mein Celvin versuchen auf v4.2 zu flashen, die 4.2 hat schon so einige Vorteile (z.B. mehrere QSync Ordner).
    Aber ich denke das wird erst recht nicht so einfach sein (OEM Abfrage?)-


    Gruss


    Edit: Jetzt habe ich etwas gefunden: das Online Manual; da steht auf der ersten Seite:


    Diese Anleitung gilt für folgende Turbo NAS-Modelle: TS-269L, TS-269 Pro, TS-469 Pro, TS-469L, TS-469U-RP, TS-469U-SP, TS-470 Pro, TS-470, TS-569 Pro, TS-569L, TS-669 Pro, TS-669L, TS-670 Pro, TS-670, TS-869 Pro, TS-869L, TS-869U-RP, TS-870 Pro, TS-870, TS-870U-RP, TS-879 Pro, TS-879U-RP, TS-1079 Pro, TS-1269U-RP, TS-1270U-RP, TS-1279U-RP, TS-1679U-RP, TS-EC879U-RP, TS-EC1279U-RP, TS-EC1279U-SAS-RP, TS-EC1679U-RP, TS-EC1679U-SAS-RP, SS-EC1279U-SAS-RP, SS-EC1879U-SAS-RP and SS-EC2479U-SAS-RP.


    Und damit ist leider alles klar... :cry:

    Nun ja, da noch keine Daten auf dem System, warum nicht.
    Versuch macht kluch... :D


    Ich habe dafür immer noch nichts gefunden wo man nachlesen kann welche Voraussetzungen man benötigt (System, FW, ...)?
    Bisher fand ich immer nur als Voraussetzung QTS v4, aber nie irgendeine Systembezeichnung :( .
    Hast Du dafür einen Link?


    Gruss

    Das ist gar nicht die Antwort die hören wollte... _hurted:


    Da muss ich mir überlegen wa sich damit noch anstellen kann, sh...t happens :shock:


    Danke für die Infos, das habe ich auf qnap.com leider so nirgends gefunden.


    Gruss

    :ziped: Upps, sehr schade.
    Aber ist es dann normal das man auf einer RAID-Gruppe dann keine logischen Volumes anlegen kann, oder anders rum:
    das beim Erstellen einer Raidgruppe automatisch nur 1 Volume mit ext4 und der Gesamt Kapazität erstellt wird?


    Also es quasi nicht möglich ist auf einer RAID-Gruppe mehrere logische Volumes zu haben?


    Gruss

    Hallo in die Runde,


    ich stehe zur Zeit auf der Leitung :oops: .
    Ich habe zwei NAS, 1 x Celvin (so heisst das QNAP bei Fujitsu) und 1 x QNAP TS859.
    Auf dem Celvin funktioniert alles so wie es soll, letzte FW ist dort leider eine v4.1.4.
    Das QNAP hat eine v4.2.0, ich habe auch schon verschiedene Builds getestet (up- und downgrade durchgeführt).


    Das Problem: Auf dem QNAP kann ich keinen Storage Pool erzeugen!??
    Allein schon der Aufruf des Storage Managers sieht anders aus als teilweise auch hier in den Scrrenshots zu sehen, es gibt z.B. im Storage Manager kein Dashboard.
    Das würde mich wenig stören, aber sobald ich ein RAID anlege, egal welcher Level wird EIN logisches Volume mit der max. Größe und ext4 angelegt.
    Das will ich aber nicht, ich möchte wie auf der Celvin einen Pool (oder zumindest eine RAID-Gruppe), auf der ich nach Belieben logische Laufwerke und/oder iSCSI LUNS selbst anlegen kann, aber genau das geht nicht. Auch kann ich bei der Volume/RAID Erstellung keine Größe angeben, höchstens die Anzahl der HDD.


    Was läuft hier falsch? :?:


    Gruss