Beiträge von Nescafegold

    Hallo zusammen,

    die letzten drei Beiträge helfen mir nicht wirklich bei meinem Problem.

    Ich suche den Auslöser für:

    Code
    "Finished hot-removing disk "Host: Disk 8"

    So, nachdem ich nun eine neue RMA Platte von WD wieder (3.Mal) bekomme habe, habe ich sie zunächst mit dem WD Tool auf Fehler ausführlich getestet: Ergebnis : Keine Fehler
    Im Anschluß in den Schacht 8 (auch hier: das 3.Mal) eingeschoben.


    Zur Erinnerung:

    Ich hatte einen Raid 5, bestehend aus 4x 8 TB WD Red Platten.

    Diesen hatte ich dann, durch Einschub von 4 gleichen weiteren 8TB WD Red Platten zu einem Raid 6 erweitern wollen.

    Es wurde das Raid 6 auch vollständig aufgebaut.

    Danach habe ich kopiert, geschrieben etc, mehrmals Heruntergefahren-Hochgefahren oder auch das NAS in den Ruhezustand gebracht und wieder aufgeweckt. (ebenso mehrmals)

    Nach jeweils längerer Zeit (7 bis 10 Std) wurde immer im Schacht 8 die 8TB Platte vom System "abgestoßen":

    Code
    826,"Error","2019-03-24","23:14:11","System","127.0.0.1","localhost","[Hardware Status] "Host: Disk 8": Disconnected."
    825,"Warning","2019-03-24","23:14:07","System","127.0.0.1","localhost","[Storage & Snapshots] RAID group "1" is degraded. Volume: DataVol1."
    824,"Information","2019-03-24","23:14:02","System","127.0.0.1","localhost","[Storage & Snapshots] Finished hot-removing disk "Host: Disk 8"."
    823,"Information","2019-03-24","23:13:30","System","127.0.0.1","localhost","[S3] System resumed."

    Die neue 3. RMA Platte von WD habe ich nun wiederum (nach Herunterfahren) eingeschoben, gebootet: das Raid 6 hat sich nach ca. 48 Stunden (ca.23 TB) wieder aufgebaut - keine Probleme ! :


    Code
    855,"Information","2019-03-26","18:49:08","System","127.0.0.1","localhost","[Storage & Snapshots] 
    Finished rebuilding RAID group "1". Volume:

    Danach den ausführlichen Plattentest innerhalb des NAS durchgeführt:

    Code
    858,"Information","2019-03-27","13:40:14","System","127.0.0.1","localhost","[Disk S.M.A.R.T.] Host: Disk 8 Complete Test result: Completed without error."


    Somit habe ich die ersten 24 Std geschafft (uff), dass das Raid 6 nicht wieder durch den Ausfall der Platte8, besser gesagt, des Schachtes 8 degraded wird.

    Um zu isolieren, was den "Finished hot-removing disk" Vorgang auslöst, hier alle Tätigkeiten , die zum Ausfall geführt haben können, was ich ja nun schon 2x erleben "durfte" :


    1) Herunterfahren

    2) Booten

    3) Kopieren/Schreiben

    4) Lesen

    5) Papierkorb löschen

    ____________________________________
    6) in den Ruhezustand versetzen

    7) aus dem Ruhezustand aufwecken


    Bis auf 6) und 7) habe ich bis jetzt weitere 8 Stunden verbracht, ohne dass ich ein "removing disk" erhalten hätte.


    Meine Hypothese ist nun, ausgelöst durch die vielen hilfreichen Gedanken von Euch, dass evtl. das "in den Ruhezustand versetzen", wahrscheinlich eher "aus dem Ruhezustand Aufwecken", der Auslöser sein könnte.

    Ich werde hierzu weiter berichten, wenn ich dies einige Male durchgeführt habe.



    ICH HABE ALLERDINGS NOCH EINE FRAGE:


    Wenn eine Platte einmal mit der Meldung "Finished hot-removing disk" ausgeworfen wurde, ist es dann nicht mehr möglich (-die Daten sind doch ok auf der Platte : "Raid6 erstellt", "keine Fehler auf der Platte") diese Platte nochmals ins Raid einzubinden ohne Rebuild ?

    Oder muß man dann immer der Prozess "Rebuild" neu durchlaufen werden ?

    Wie immer vielen Dank für gute Hinweise!

    Hallo liebe Mithelfer,

    nach einem langen Wochenende und einer ganz neuen (dritte Mal !) getauschten Platte (RMA) wollte ich nun mein Raid 6 aus dem degrated Zustand wieder neu aufbauen.(SCHACHT 8 )
    Vorher ausführlicher Test mit WD TOOL anstandlos durchlaufen)

    Dies klappte, wie schon das letzte Mal zunächst alles wunderbar. Das NAS hatte alle Arbeiten anstandlos verrichtet.

    Von:

    Code
    764,"Information","2019-03-22","14:20:33","System","127.0.0.1","localhost","[Storage & Snapshots] Started rebuilding RAID group "1". Priority: Resync First."

    bis

    Code
    791,"Information","2019-03-24","09:54:40","System","127.0.0.1","localhost","[Storage & Snapshots] Finished rebuilding RAID group "1". Volume: DataVol1."

    Danach habe ich das NAS mehrmals Herunter und Heraufgefahren, in den Ruhezustand versetzt, die FP wurden ebenso mit Spin Down heruntergefahren - alles schien in Ordnung.

    Dann Smart Test durchgeführt - alles ok - Danach Kopieren und Lesen auf dem NAS:

    Code
    798,"Information","2019-03-24","16:01:41","System","127.0.0.1","localhost","[Disk S.M.A.R.T.] Host: Disk 8 Rapid Test started."
    799,"Information","2019-03-24","16:03:38","System","127.0.0.1","localhost","[Disk S.M.A.R.T.] Host: Disk 8 Rapid Test result: Completed without error."

    7 Std später. nach Aufwecken aus dem Ruhezustand das wieder:

    Code
    824,"Information","2019-03-24","23:14:02","System","127.0.0.1","localhost","[Storage & Snapshots] Finished hot-removing disk "Host: Disk 8"."
    825,"Warning","2019-03-24","23:14:07","System","127.0.0.1","localhost","[Storage & Snapshots] RAID group "1" is degraded. Volume: DataVol1."
    826,"Error","2019-03-24","23:14:11","System","127.0.0.1","localhost","[Hardware Status] "Host: Disk 8": Disconnected."


    Woran kann es nur liegen, dass der gesamte Rebuild Prozess klappt, danach auch weitere Stunden keine Fehlermeldungen kommen, und dann immer wieder diese Fehelermeldung 824 bis 826.

    Ich habe dies nun 3 Mal mit immer neuen Platten von WD (RMA) durchgeführt.


    QNAP HOTLINE Schrieb mir "nur", dass kein Fehler auf dem Backplane zu finden sei.

    WER HAT HIER AHNUNG und kann mir irgendwie helfen?

    @ Dr. Mike:


    Vielleicht hier nochmals die Fakten:(Systemeldungen) im Verlauf,

    und passen diese Meldungen zu Deiner Einschätzung?


    Code
    541,"Information","2019-03-08","20:08:48","System","127.0.0.1","localhost","[Storage & Snapshots] Started rebuilding RAID group "1". Priority: Resync First."
    555,"Information","2019-03-10","15:41:46","System","127.0.0.1","localhost","[Storage & Snapshots] Finished rebuilding RAID group "1". Volume: DataVol1."

    Im Laufe bis zur nächsten Zeile 11 Stunden im/mit neuen Raid, dann

    Code
    584,"Information","2019-03-11","03:00:11","System","127.0.0.1","localhost","[S3] System entered sleep mode." (Zeitplan)
    585,"Information","2019-03-11","10:17:16","System","127.0.0.1","localhost","[S3] System resumed."
    586,"Information","2019-03-11","12:00:00","System","127.0.0.1","localhost","[S3] System entered sleep mode." (Zeitplan)
    587,"Information","2019-03-11","12:01:27","System","127.0.0.1","localhost","[S3] System resumed."  (per Hand aufgeweckt)

    (also keine Probleme)


    ABER JETZT:

    Code
    588,"Information","2019-03-11","12:01:56","System","127.0.0.1","localhost","[Storage & Snapshots] Finished hot-removing disk "Host: Disk 8"."
    589,"Warning","2019-03-11","12:02:01","System","127.0.0.1","localhost","[Storage & Snapshots] RAID group "1" is degraded. Volume: DataVol1."
    590,"Error","2019-03-11","12:02:05","System","127.0.0.1","localhost","[Hardware Status] "Host: Disk 8": Disconnected."

    Führt diese Auflistung zu neuen oder weiteren Erkentnissen/Hypothesen?
    Die Platte scheint also mit Nichten kerngesund zu sein, obwohl sie doch , zumindest nach den Auflistungen 555 oben das Raid 6 wieder aufgebaut hatte?

    Wie schon gesagt, habe neue Platte von WD bekommen, getestet mit WD Tool vor Einbau: alles GUT, und nun in 2 Tagen Einbau, da das NAS nicht bei mir steht. ICH BIN GESPANNT.
    Dann müsste ja nach SAGUSCH wirklich alles gut verlaufen - ob ich das noch erlebe? :)

    Toll, vielen Dank für die vielen Hilfestellungen und Meinungen.


    Ich habe heute per RMA eine neue Red 8 TB bekommen und habe sie diesmal (vor dem Einbau) mit dem WD eigenen Tool dem Quick wie auch dem ausführlichen Test unterzogen.

    (Mit Schenker Core I7 hat das ca. 10 Std gedauert) : Zum Glück: Keine Fehler, alles gut.
    Nun werde ich die Platte am Freitag in das NAS einsetzen und schauen
    (und natürlich danach auch berichten), was passiert ist .
    Dauert dann allerdings, (mit dem Wissen aus den 2 vorherigen Versuchen ca. 48 Std.)
    Drückt mir mal die Daumen. :)

    Gibts hier eigentlich noch einen Unterschied und / oder eine Empfehlung zwischen:

    1) Einstecken im laufenden Betreib oder

    2) Herunterfahren, einstecken und hochfahren?

    Ist eine 8 TB Red 5400 Platte von WD:

    Tool dazu: Data Lifeguard Diagnostic for Windows

    https://support.wdc.com/downloads.aspx?p=3&lang=de

    Platte zeigt Sektoren Fehler im ausführlichen Test!


    Diese Platte ist eine Original Platte (Garantie) von WD, da ich jetzt schon zum zweiten Mal das Raid 6 wieder vollständig haben möchte.

    Also 2x Plattenfehler - sofern mein QNAP TS-853A die Platten nicht beschädigt - aber das kann ja wohl nicht sein. (?)


    Oder gibts hierzu noch Hinweise, dass das NAS eine Platte zerstören kann?



    Danke bis hierher

    Hab wieder auf Garantie eine neue Platte per RMA "bestellt".

    DANKE SEHR, hatte auch schon an Kontaktprobleme gedacht und daher die Platte 8 mehrmals rein und rausgeschoben.
    Die Platte ist aber, nachdem die obigen Fehlermeldungen kamen, sofort nach einmaligem erneuten Einschieben wieder integierbar, allerdings geht dann wieder die 50 Std Aktion los, indem die Platte ins Raid6 aufgenommen wird. Daher scheint doch eigentlich kein Kontaktproblem zu bestehen - oder?


    Nebenfrage: Kann man eigentlich die Platte8, wenn Raid 6 degrated ist auch alleine durch den SMART Test von Qnap führen ?

    Wenn ja, wie?

    Frage zu Raid 6 Problem nach Ausfall Platte 8


    Die FPlatte 8 im Raid 6 mußte wegen Sektorenproblem ausgetauscht werden. (Wurde vom System vermeldet)

    Nagelneue 8TB FPlatte von WD auf Garantie erhalten.

    Eingebaut - System zeigt keine Probleme für diese Platte (mehr), inter Check bestanden.

    ok also nun:

    Code
    [Storage & Snapshots] Started rebuilding RAID group "1". Priority: Resync First."

    Nach ca. 50 Std für ca. 20 TB:

    Code
    [Storage & Snapshots] Finished rebuilding RAID group "1". Volume: DataVol1."


    Alle Platten werden mit grün (Kreis) gekenzeichnet, keine Fehler.

    OK, also dann, System neu gestartet:

    Alles gut, kann auf NAS arbeiten und kopiere einige Dateien drauf, und lese auch davon.


    Dann: Ruhezustand für 10 Stunden.


    Nächster Morgen: NAS aufwecken: siehe da: FPlatte 8 wurde abgehängt. (Kreisanzeige weiß)


    Danach diese Meldungen:

    Code
    [Storage & Snapshots] Finished hot-removing disk "Host: Disk 8"."
    [Storage & Snapshots] RAID group "1" is degraded. Volume: DataVol1."
    [Hardware Status] "Host: Disk 8": Disconnected."


    Diese Tour hab ich jetzt zwei Mal durchgeführt - woran kann das liegen und was ist bzw. löst das Problem?

    Danke für Hinweise!


    QNAP 853A, 8x8TB WD RED 5400

    warpcam warum schreibst Du hier in dieser Art? (2. Absatz)


    Du scheinst nicht verstanden zu haben, was der User möchte:

    Einen Hinweis darauf, ob andere User Wissen darüber haben, ob die spontane Transcodierung auch User nutzen können - mehr nicht.

    Dein erster Absatz hätte also genügt!!!

    Es geht also um Erfahrungsaustausch.

    Schade, daß sich immer wieder Member hier zu Wort melden, die nur kritisieren können, insbesondere in diesem Fall, wo ja mit der Werbeaussage (oder anders ausgedrückt: mit den Leistungen) von QNAP bestimmte Funktionen verbunden sind.

    Sehr schade also - der erste Absatz hätte genügt :)

    Hallo,


    zwei unabhängige neue Kunden von Qnap: TS-853A und TS- 251 haben das gleiche Problem:
    (in unterschiedlichen Netzwerken, Fritz Boxen und unterschiedlichen DSL Providern)


    Will man via FTP auf den Entfernten QNP Server von woanders (FTP) auf den Qnap eine große Datei kopieren (1-15 GB als ein Stück),
    wird vom QNAP aus exakt nach 2:12:00 bei mindestens 10 Versuchen auf jedem dieser o.a. Geräte der Kopierprozess vom
    Qnap abgebrochen.
    Rückmeldung: Systemverbindungsprotokoll: DELETE
    Die Datei, die bis dahin (ca. 2,3 GB) auf dem Server angekommen ist wird in den Papierkorb verschoben.


    Das ist mehr als MISST!
    Wer hat das gleiche Problem?
    Hotline hilft nicht, lapidare Antwort: Firmware updaten und Gerät neu aufsetzen...... :)


    Da wir aber zwei unterschiedliche QNAPS haben und der Rest ebenso komplett unterschiedlich ist (Umgebung) bleibt nur ein Bug in der Software - oder?


    Danke für Hilfe


    Nescafegold

    Hallo,
    ist es möglich die Station folgendermaßen zu konfigurieren:


    4 Platten als Raid5 Verbund , weitere 4 Platten als einzelne Laufwerke, die einzeln ansprechbar sein sollen. Insgesamt also 5 log. Laufwerke.


    Wenn ja, wie muss man dann die 4 einzelnen Laufwerke konfigurieren?(Softwareeinstellung)


    Im Handbuch finde ich hierzu nichts, auch nicht im QTS User Manual.


    Danke für Hilfe


    Nescafegold

    Hallo,
    Frage1 : Habe gelesen, dass man die TS869pro, wenn man 16 TB (=4x4) bestückt hat nicht einfach im weiteren Betrieb weiter aufrüsten kann, also nochmals 4x4 TB. Man muss vorher alles runterladen und neu aufsetzen. Stimmt das? (Wohin nur mit den TBs???) (siehe unten)


    Frage 2 : Warum ist das so?


    Frage 3 : Wird es hierfür in naher Zukunft eine Software Lösung geben, die es ermöglicht nach 4x4 auch auf 5x4 oder 8x4 zu erweitern?



    Ziel: Raid 5 (= Datensicherheit bei Ausfall von einer Platte - richtig?) mit einem Volume aus allen 8 Platten.


    Danke für Info


    Nescafegold


    p.s. Ein Laufwerk kann durch Online-RAID-Kapazitätserweiterung oder das Hinzufügen von Festplatten nur auf maximal 16 TB erweitert werden. Online-RAID-Kapazitätserweiterung und das Hinzufügen von Festplatten werden bei einem Laufwerk mit mehr als 16 TB nicht unterstützt.Bitte rüsten Sie die NAS-Firmware zur Nutzung dieser Modelle mit QNAPs NAS auf v3.4.0 oder aktueller auf.

    nur zur Sicherheit nochmals eine NAchfrage.
    Ich kann also die NAS erst mit 4 Platten betreiben, dann immer eine weitere Platte reinschieben, und so erweitern, bis sie voll ist.


    Ich habe mal gehört/gelesen, dass man immer alle Platten von Anfang an drin haben muss, wenn man die ganze Ausbaustufe erreichen will, ansonsten müsse man wieder alle Daten abziehen, die neue Platte einbauen, und dannwieder zurückspielen.


    Ich kann also ohne NAchteile erst 4 Platten in eine 8er einbauen und dann langsam immer eine Platte mehr einbauen, und so das DAtenvolumen steigern - ohne weitere Nachteile?


    Lieben Dank für eine Bestätigung


    Gruß
    Nescafegold

    Hallo, möchte ein 6 8 oder 10er Modell kaufen.
    Frage:
    Ist es notwendig alle 6 bzw. 8 bzw. 10 Platten gleich von Anfang an einzubauen oder kann man das System langsam auf die größte Ausbaustufe ausbauen?


    Wenn es nicht geht das Gerät langsam auszubauen, wo will man dann mit den schon vorhandnen Daten hin, denn ich habe keinen zweiten Server.
    Gäbe es dazu auch eine Idee?


    Danke für Info


    Nescafegold

    HAllo und vielen Dank -
    warum das Marketing wohl die Version mit 6 Einschüben nun "modern" anbieten sollte, und die mit 8 nicht wird mir damit allerdings nicht klar......
    denn ansosnten sind die beiden Server komplett gleich.....


    Aber trotzdem - danke für jeden Hinweis......


    Nescafegold