Beiträge von raffa

    Habe das jetzt mal so getestet und es hat problemlos funktioniert.:qclub: NAS heruntergefahren, SSDs entfernt und dann wieder hochgefahren. System hat natürlich gemeldet das betreffende RAID Gruppe nicht mehr vorhanden ist. Betreffende RAID Gruppe in den Einstellungen entfernt und einen Reboot gemacht. Danach waren alle standart Freigeabe-Ordner wieder vorhanden und die noch vorhandene RAID Gruppe wurde naturgemäß als System Volume angezeigt. Auch die Statische IP und sämtliche NAS Einstellungen wurden übernommen. Ich musste nicht mal die zuvor gespeicherte Konfiguration einspielen.:qnap:

    Danke erstmal für die Antwort. Das mit dem RAID 0 ist mir völlig gewusst und auch wegen der besseren Leistung so gewählt. Backup ist natürlich immer Vorhanden, wird halt nur im Notfall gebraucht. Daher für den Notfall. Ich möchte auch nicht eine einzelne Festplatte aus einem RAID Verbund entfernen sondern eine RAID-Gruppe welche das Systemvolume enthält auflösen. Nun wollte ich wissen ob auf der verbleibenden RAID-Gruppe ein neues Systemvolume erstellt wird wenn ich nach Entnahme der zu entfernenden RAID-Gruppe wieder neu Starte...

    Hallo,


    habe zur Zeit eine QNAP-932X mit zwei RAID Gruppen im Betrieb. RAID-Gruppe 1 = 2x SSD im RAID0, RAID-Gruppe 2 = 5x Hitachi He12 im RAID0.

    Nun würde ich gerne die zwei SSD´s in einer anderen QNAP verbauen. Kann ich diese nach dem herunterfahren einfach entfernen und das System wird sich nach dem Neustart neue System Ordner in vorhandener RAID-Gruppe anlegen, oder muss alles neu aufgesetzt werden? Backup ist natürlich für den Notfall vorhanden.

    Mir ist seit einiger Zeit ein merkwürdiger Fehler aufgefallen. Kann aber nicht mehr genau sagen seit welcher Firmware (Eventuell ab 4.3.4.0427).

    Meine Konfiguration ist wie folgt:


    NAS:

    TS-531X + QM2-2P10G1T Erweiterungskarte


    Laufwerke:

    2x Samsung 960 EVO im RAID 0 auf der QM2 (System / QTS 4.3.4.0526)

    5x HGST Ultrastar He12 - HUH721212ALE600 im RAID 0 (Als statisches Volume) (ist für die TS-531X von QNAP freigegeben).


    Netzwerk:

    Windows 10 + Netgear 10 G/bit Switch


    Dienste:

    Zur Zeit sind keine Dienste (bis auf Microsoft Netzwert) aktiviert.


    Nun zum Fehler:

    Wenn das NAS zuvor neu gestartet wurde, gehen alle Datenträger nach der gewünschten Zeit in den Bereitschaftsmodus und die Status LED erlischt. So wie es sein soll.

    Erfolgt nun ein Zugriff werden alle Datenträger ordnungsgemäß aufgeweckt. Bis nach einer gewünschten Zeit der Bereitschaftsmodus erneut aktiviert wird.

    Nun werden wieder alle Datenträger in den Bereitschaftsmodus versetzt (LED erlischt ebenfalls), bis auf die Festplatte im Schacht 4. Diese läuft einfach munter weiter.

    Auch die S.M.A.R.T. Werte werden ab dann nicht mehr aktualisiert. Aufgefallen ist mir das zunächst weil die Temperatur von Laufwerk 4 immer gleich hoch war. Auch wenn nach dem Aufwecken aus dem Standbay alle anderen Datenträger ca. 10 Grad kühler waren.


    Aus irgendeinem Grund Verliert die TS-531X nach dem 1 Standby den "Kontakt" zum Laufwerk 4. Der Dateizugriff (Lesen/Schreiben) ist davon jedoch nicht betroffen.


    Anfangs hatte ich das Laufwerk in Verdacht und tauschte kurzerhand Laufwerk 1 und 4 gegeneinander aus und setzte das RAID 0 Volume neu auf.

    Aber das Ergebnis blieb das selbe. Ein Laufwerks-Schnelltest zeigt keine Fehler. Jedoch werden die S.M.A.R.T. Werte dann kurzzeitig aktualisiert.


    Nach einem Neustart funktioniert das 1 Mal Standby wieder ohne Probleme. Und auch die S.M.A.R.T. Werte aktualisieren sich um die fehlenden Beträge.

    Bis zum erneuten Zugriff. Dann geht das Spiel wieder von Vorne los... (Bis auf diesen Fehler bin ich mit der Kiste zufrieden. Die Performance reicht für meine belange vollkommen aus)


    Hat jemand eine Idee was das sein könnte?:/

    Hab vorhin mal versuchsweise über Putty den RAID 0 Verbund "schlafen gelegt".

    Über "hdparm -Y /dev/sd[a-e]" konnte ich alle Festplatten (einschließlich Nr. 4) in den Standby versetzen.

    Hält aber natürlich nur bis zum nächsten Sleep...

    Ja, ist möglich. Habe das bei meiner TS-531X gemacht. QM2 Karte rein, QTS installiert und dann weitere Platten eingebunden. Hatte eigentlich die Hoffnung das ich damit mal die 10 G/bit Schnittstelle ausreizen kann. Leider wird die m2 (960 EVO) mit "nur" 530 mb/s (lesen) und 470 mb/s (schreiben) nicht gerade ausgereizt. Die 850 EVO in Schacht 1 macht 540 mb/s (lesen) und 520 mb/s (schreiben). Der RAID 0 x4 Verbund kommt auf ca. 830 mb/s (lesen) und 530 mb/s (schreiben).

    @Jagi


    Für das von dir beschriebene Szenario ist das natürlich vollkommen richtig. Grundsätzlich ist es ja auch eine sinnvolle Funktion.
    Es wäre nur in meinem Fall praktisch gewesen wenn man sich das über die Nutzeroberfläche aussuchen könnte (ob automatisch, oder nicht).
    Daher mein Mäkeln über die Funktionalität... :)

    Schönen Dank erstmal für eure Infos.


    Etwas unpraktisch das man das UX-500 nicht nach Bedarf über die Nutzeroberfläche ein oder ausschalten kann. Sondern das es sich jedes mal mit dem Haupt-NAS "selbst" ein- und ausschaltet.
    Die Tatsache das, Port Trunking "nur" bei 2 Clients die Leistung verbessert habe ich bis dato auch so in Erinnerung. Gerade deshalb war ich neugierig auf die Kopiergeschwindigkeit großer Daten via USB3 zwischen Haupt-NAS und UX-500...


    Grade bei dem relativ hohen Preis hatte ich auf etwas mehr Funktionalität gehofft.

    Hallo,


    bin seit ein paar tagen am überlegen mir ein Erweiterungsgehäuse für meine TS-531X zwecks Datensicherung zu kaufen.
    Ein paar Dinge sind mir da noch unklar:


    -Wie sieht es mit der Performance beim Kopieren großer Videodateien aus? Theoretisch sind bei USB3 ja 5 GBit/s möglich. Wie sieht das in der Praxis mit einer SSD aus?


    -Lässt sich die intelligente Ein- und Ausschaltautomatik auch deaktivieren. Sodass man das UX-500 nur bei Bedarf über die Nutzeroberfläche aktiviert?


    -Sollte mal ein NAS Wechsel anstehen, kann die UX-500 einfach ans neue NAS angeklemmt und die Daten rüberkopiert werden?


    -Kann man das UX-500 auch "Herunterfahren"?


    -Wie sieht es mit dem Stromverbrauch aus? Gibt es nur Standby oder auch etwas ähnliches wie S3?



    Über Feedback würde ich mich freuen :) ...

    Würde die TS-412 gerne neu einrichten als JBOD aus 3x8TB, also insgesamt 24TB...


    Hat sich bezüglich der 16 TB- Grenze bei der TS-412 eventuell etwas geändert?
    Vielleicht durch die neue Firmware?

    Hallo zusammen,


    ich bin ganz neu auf dem Gebiet (NAS - Linux u.s.w.).
    Ich besitze seit kurzem eine TS-412 (Firmware aktuell) und betreibe diese mit einer "Seagate st3000dm001"(aktuelle Firmware).


    Soweit funktioniert die TS sehr gut und ich bin mit der Leistung zufrieden.


    Leider hatte ich anfänglich mit einem Load Cycle Problem zu kämpfen (Load Cycles steigen ziemlich schnell an und es war ständig dieses nervende klacken der "parkenden Köpfe" zu hören).


    Nach verbinden via "Putty" mit der "TS-412" versuchte ich per "hdparm -B255 /dev/sda" das APM der Platte abzustellen, bekam aber nur die folgende Fehlermeldung:


    /dev/sda:
    setting Advanced Power Management level to disabled
    HDIO_DRIVE_CMD failed: Invalid argument


    Als hdparm-Version wurde mir "v6.1" angezeigt. Im Internet fand ich heraus das die aktuelle Version "v9.39" ist.
    Ich installierte also zunächst "ipkg" und anschließend über den Befehl "ipkg install hdparm" die neue version.


    Nach erfolgreicher installation wurde mir die neue Version korrekt angezeigt und auch der Befehl:
    "hdparm -B255 /dev/sda" wurde nun angenommen, dass nervige "klicken" hörte auf und die ständigen Load Cycles blieben aus.


    Da ich die TS-412 nicht ständig in Standby haben wollte fuhr ich das System gestern herunter.
    Da nach einem Neustart(das klicken der Platte ist wieder da) die Einstellungen aus hdparm wohl wieder verloren gehen, war mir bewußt das ich das APM der Platte jetzt wieder deaktivieren muss.... und genau hier liegt das Problem.


    Sobald ich per "hdparm -B255 /dev/sda" versuche das APM abzustellen, kommt wieder die urspüngliche Fehlermeldung:


    /dev/sda:
    setting Advanced Power Management level to disabled
    HDIO_DRIVE_CMD failed: Invalid argument


    Wenn ich mir die hdparm Version anzeigen lasse, kommt wieder "v.6.1" als Antwort.
    Beim erneuten Versuch "ipkg install hdparm" bekomme ich folgendes:


    Package hdparm (9.39-1) installed in root is up to date.
    Nothing to be done
    Successfully terminated.


    Auch durch das komplette Entfernen und wieder neu installieren von ipkg + hdparm 9.39 konnte das Problem nicht behoben werden.


    Obwohl ipkg sagt das die Version von hdparm 9.39 ist bekomme ich in der Kommandozeile nur 6.1 angezeigt und das Problem mit dem APM besteht logischerweise weiterhin.


    Da ich nun ein wenig am Ende mit meinem Latein bin, hoffe ich das mir hier jemand weiterhelfen kann, dieses "Problem" in den Griff zu bekommen. Für meine Unwissenheit bitte ich um Nachsicht... :|



    ---Edit---



    Niemand eine Idee...? :shock:


    Entweder ist meine Frage zu einfach oder zu schwer, dass keiner einen Tipp für mich hat... :cry: