Dateisystem wird nicht repariert

  • Hallo Forum Gemeinde,


    erkannt habe ich mein Problem, dass ein BackupJob wegen eines I/O errors abgebrochen wurde. Die fehlerhafte Datei wurde angezeigt, also versucht, diese über die File Station zu löschen. Welch Überraschung, hat auch nicht funktioniert. Also via SSH versucht, auch nicht möglich :( Die Dateien liegen auf einem RAID 5. Ab dem Zeitpunkt war ich mit meinem Latein am Ende und Gockel wurde zu meinem Freund. Letztendlich bin ich wie folgt vorgegangen.


    Erst mal zurück auf Anfang

    cd /


    Alle Dienste beendet:

    /etc/init.d/services.sh stop

    /etc/init.d/opentftp.sh stop

    /etc/init.d/Qthttpd.sh stop


    Danach

    umount /dev/mapper/cachedev1


    Soweit so gut und dann ging's los. Erster Versuch mit

    e2fsck_64 -fv -C 0 /dev/mapper/cachedev1


    es fanden sich bildschimseitenfüllende Fehlermeldungen in dem Stil

    Inode xxxxxxxxxxx has INDEX_FL flag set on filesystem without htree support.


    Anschließend reboot, jedoch keine Verbesserung. Nächster Versuch mit

    e2fsck_64 -pfv -C 0 /dev/mapper/cachedev1


    Das Ergebnis sah schon etwas anders aus:

    DataVol1: Inode xxxxxxxxxxx has INDEX_FL flag set on filesystem without htree support.

    HTREE INDEX CLEARED.


    Wieder ein reboot und .... tataaaa ..... alles beim Alten. Jetzt weiß ich nicht, ob ich nach dem e2fsck noch etwas machen muss. Hat da wer einen Tipp für mich oder bin ich da komplett auf dem Holzweg?


    Viele Grüße

    steinche

  • ob ich nach dem e2fsck noch etwas machen muss.

    Wieso hast du nicht die QNAP-Tools dafür genommen? Ich würde erstmal mit denen mein Auslangen finden und erst dann in die CLI "Trickkiste" greifen (und hoffen, dass ich mir nicht alles "verkonfiguriere") …


    2019-01-26 18_13_54-.png2019-01-26 18_14_52-.png2019-01-26 18_16_28-.png


    Gerade für solche Fälle ist der Festplattentest, bzw. das RAID "scrubbing" vorgesehen.

  • Wieso hast du nicht die QNAP-Tools dafür genommen? Ich würde erstmal mit denen mein Auslangen finden und erst dann in die CLI "Trickkiste" greifen (und hoffen, dass ich mir nicht alles "verkonfiguriere") …

    Oh, das hatte ich vergessen zu schreiben. Die Punkte hatte ich alle schon durch. Das Problem habe ich schon ein paar Wochen. Die RAID Bereinigung habe ich monatlich und auch regelmäßig den intensiven Test der Platten. Aber ich werde die Funktionen über was WebInterface nochmal starten und berichten :) Was das alles ja nicht immer soooo lange dauern würde, man(n hat ja nie Zeit ;)

  • Blockfehler einer HD sind nicht schön.

    Was sagen die Smart Werte 197/198?

    187 ist auch interessant.

    Wenn hier was auffällig ist, ist die Chance das die HD ausfällt mit ca. 40% extrem hoch.


    Wenn noch Garantie tausche die direkt aus, sonst ärgerst du dich noch lange.

    Ggf. Fliegt die soagar noch das ganze Volumen oder sogar der RAID Pool um die Ohren, Fehlerfortpfanzung ist das Stichwort.

  • Blockfehler einer HD sind nicht schön.

    Was sagen die Smart Werte 197/198?

    Deine Aussage ist für mich etwas kryptisch ;)

    Hier ein paar Einstellungen und Infos. Im Logfile sind keine Fehler zu den Prüfungen. Aktuell läuft die Prüfung auf defekte Blöcke bei allen Festplatten. Wird aber noch ca. 10 Stunden dauern. SMART und RAID Status sind alle ok.26-01-_2019_19-52-58.jpg

    26-01-_2019_19-01-57.jpg26-01-_2019_21-10-07.jpg

    Halte Euch auf dem Laufenden.

  • Ok so sehen die HDs noch gut aus, anscheinend war das bei dir ein Sektor der nicht sauber gelesen werden konnte und daher auf Warnung ging.


    Das wurde beim Test jetzt aber geprüft und der ist jetzt wieder Ok.

    Das kann schon mal vorkommen, die Hersteller garantieren xyz Byte und dann kommt ein nicht korrigierbarer Lesefehler.

    Vielleicht war das bei dir soweit.


    Wenn das jedoch wieder vorkommt und du erneut SMART Warnungen erhältst und dein Volumen beim Neustart eine Prüfung verlangt, dann hast du ein Problem mit der jeweiligen HD.


    Sorry verdammtes Handy mit der Autokorrektur.

  • anscheinend war das bei dir ein Sektor der nicht sauber gelesen werden konnte und daher auf Warnung ging.

    Auf Warnung ging bei mir nichts. Alle Prüfungen über das Webinterface verliefen fehlerfrei. Auslöser war ein abgebrochener Backup Job :)

  • Dann brauchst du dir zum Glück über den Lauferkstausch vorerst keine Gedanken machen.

    Ich hoffe das es so bleibt.


    Aber warum beschädigt ein Backup das Volumen?

    Ich nutze das neue Hybrid Backup und jeder Job fertigt zuvor ein Volume Snapshot an. Das wird dann verworfen wenn das Backup fertig ist.


    Allerdings habe ich beim ersten Backup mit der aktuelle 4.3.6 0805 auch einen IO Fehler beim Backup gemeldet bekommen.

    Beim zweiten Versuch der automatisch startete lieg es Gehlerfrei durch.

    War dann bei der zweiten Backup HD das gleiche.


    War das bei dir auch nach dem Firmware Update oder einfach so aus heiterem Himmel?

  • Aber warum beschädigt ein Backup das Volumen?

    Wie kommst Du zu dieser Vermutung?? Bei mir ist sind defekte Dateien auf dem Quelllaufwerk und der BackupJob wird durch den daraus resultierenden I/O Fehler abgebrochen. Über die eigentliche Ursache könnte ich nur wilde Spekulationen aufstellen.

    Den genauen Zeitpunkt, seit wann dieser Fehler ist, kann ich nicht sagen.


    Update 28.01.19 - 21:30 Uhr:

    Neuer Zwischenstand. Nach knapp 2 Tagen Suche nach defekten Blöcken auf den Festplatten wurde nichts gefunden. Die SMART Tests sind auch alle OK und der I/O Fehler besteht weiterhin. Aktuell lasse ich eine RAID Bereinigung laufen, was über das Webinterface die letzte Möglichkeit zur Reparatur sein dürfte :(

    Einmal editiert, zuletzt von steinche ()

  • Nachdem nun knapp eine Woche vergangen ist, sind alle Tests fehlerfrei durchgelaufen. Das Problem besteht weiterhin, dass ich kein Backup erstellen kann weil der BackupJob wegen einem I/O error abbricht :(

  • Vielleicht liegt der Fehler ganz wo anders?


    Was für ein Backupjob sichert von wo wohin?

    Wie ist der Job eingerichtet?

    Was sagt das Log vom Backupjob?

  • Was für ein Backupjob sichert von wo wohin?

    Ich sichere mit mit Hybrid Backup Sync mehrer Freigaben von einem QNAP auf einen anderen.


    Wie ist der Job eingerichtet?

    Die Frage verstehe ich nicht. Eingerichtet in Hybrid Backup Sync. Getriggert manuell.


    Abbruch mit I/O Fehler und e2fsck_64 meldet ebenfalls Fehler. Siehe hier

  • Die Frage verstehe ich nicht. Eingerichtet in Hybrid Backup Sync.


    Na ja, HBS verwende ich nicht, sondern den "alten" SM, aber sogar da gibt es unter den Optionen zig Möglichkeiten, wie der Backupjob eingerichtet ist.


    Dann wäre noch die Frage ob aktiv, oder passiv?

    Bei mir holt sich das Backup-NAS, wo auch der Job eingerichtet ist, die Files vom Arbeits-NAS ab. Es ginge auch umgekehrt … das wäre die Frage gewesen ...

  • Solange dieser Fehler besteht, wird es wohl die Probleme mit dem Backup geben.

    Soweit war ich auch schon, siehe Thread-Titel ;) und dafür suche ich eigentlich eine Reparatur-Lösung.

    Dann wäre noch die Frage ob aktiv, oder passiv?

    Bei mir aktiv, vom Arbeits-NAS aktiv auf das Backup-NAS

  • Moin steinche,


    deine Anleitung (s. oben) war Gold wert. Bei mir (QTS 5.0.1, Volumegröße 3TB) ging die Überprüfung des Dateisystems nur quälend langsam voran. Die Überprüfung war notwendig geworden, weil ein Shrink der Volume-Kapazität nicht ganz sauber beendet wurde bzw. zwischendurch ein Reboot stattfand.


    Alles so gemacht wie oben ausgeführt und das Volume war wieder clean. Danke!

  • Hast du auch auf Datenverlust geprüft?

    Mit der 2173 und ggf davor kam es beim Verkleinern wohl gelegentlich zu Datenverlust, auch ohne dass der Vorgang unterbrochen wurde.

  • tiermutter: danke für den Tipp! Bei mir läuft die 5.0.1.2194. Hoffe mal, dass da kein Datenverlust im Spiel ist. (Bisher sieht es gut aus ...)


    Aber vlt. noch eine Frage: bei mir läuft ein RAID 1 mit zwei FP. Die automatische RAID-Prüfung (aka "RAID-Bereinigung") läuft aber nur für RAID-Level > 5, oder? (Ist vlt. ein eigener Thread, aber wo wir gerade schon dabei sind ... ;) )