Beiträge von tgsbn

    Update: Der Support hat Remote-Zugriff angefordert und bekommen.

    Fünf Tage lang tat sich nichts, dann sah ich, dass der Backup-Job mit der aktuell installierten HBS3-Version 23.1.1116 (mit der der Fehler ja nicht auftritt) einmal von Hand gestartet wurde (normalerweise startet er per "Schedule: Auto-Backup" beim Anschluss der Platte) und natürlich mit "Folder mismatch" abbrach, da die USB-Platte nicht angeschlossen war.

    Eine halbe Stunde später bekam ich im Ticket die Aufforderung, die Platte anzuschließen und den Fehler zu reproduzieren.

    Meine sofortige Rückfrage, ob ich dazu (a) wieder von Version 23.1.1116 auf 24.0.0304 updaten und (b) die Option "Eject after completion" im Job deaktivieren soll, wurde zwei Tage lang nicht beantwortet. (Mein Fehler, ich weiß.)

    Jetzt ist die Remote Support Session abgelaufen.

    Mal sehn, wann und wie es weitergeht.

    Stundenlange Bedenkzeiten von QTS kenne ich, Abstürze mit Neustart des NAS hatte ich noch nicht.

    Meine externen HDDs sind allerdings nicht mit FAT32, sondern mit NTFS oder ext4 formatiert, wobei die stundenlangen Bedenkzeiten meinem Eindruck nach vor allem auf den NTFS-formatierten Medien auftreten.

    Nunja, wenn man die USB-Spezifikation durchliest, beantwortet sich diese Frage relativ schnell und gründlich.

    Da packt einen an manchen Stellen schon das Grausen.

    Ich bin jedenfalls froh, dass ich das Zeug nicht implementieren muss.


    Aber du hast natürlich Recht, der Standard ist alt genug, dass man meinen könnte, diejenigen, die dafür bezahlt werden, sollten es langsam im Griff haben.

    USB und QNAP sind definitiv KEINE guten Freunde

    Das kann ich nur bestätigen.

    Die Geschwindigkeit der Backups auf lokal angeschlossene USB-Platten schwankt extrem.

    Letzte Nacht zum Beispiel 12 Stunden für 50 GB (1,4 MB/s), beim vorhergehenden Lauf auf dieselbe Platte 4 Stunden für 1,6 GB (0,15 MB/s), früher aber auch schon einmal 1:20 für 23 GB (9,8 MB/s - auch nicht gerade berauschend für USB3.)

    Dabei gibt es während des Laufs gerne immer wieder mal mehrere Stunden lang Stillstand bei der Fortschrittsanzeige, während die USB-Platte laut `iostat` 100% busy ist.

    Zwei von drei Malen bleibt das Backup auch gleich am Anfang bei 5% Fortschritt hängen, bis ich es abbreche und neu starte.

    QNAP's Kompatibilitätsliste für externe USB-Platten enthält mehrheitlich Modelle, die es bei keinem mir bekannten Händler zu kaufen gibt, aber wenn man eine benutzt, die nicht auf der Liste steht, verweigert der QNAP-Support jede Unterstützung.

    Ich habe mir für Supportfälle mit vieler Mühe extra eine Platte von der Kompatibilitätsliste beschafft.

    Genau die ist die fehleranfälligste in meiner Kollektion. (Was natürlich für den Anschaffungszweck perfekt ist.)

    Ich frage mich, was die eigentlich bei ihren Kompatibilitätstests testen.

    Support hat mir eine ältere Version zur manuellen Installation geschickt. (23.1.1116)

    Mit der läuft es jetzt erstmal wieder.

    Er will sich melden, wenn es eine neuere Version zum Testen gibt.

    Bis dahin soll ich nicht wieder auf die nach wie vor im AppCenter angebotene Version 24.0.0304 updaten, auch wenn mich das NAS jetzt täglich nervt, dass es da doch ein Update gebe.

    Außerdem wird mir auch oben keine Anzahl der Prozesse angezeigt.

    Dort steht alles auf 0.

    Das ist ja schon ein deutliches Zeichen dafür, dass diese Anzeige nicht ernstzunehmen ist.

    Dass sie dann auch noch eine CPU-Last durch Zombieprozesse anzeigt, würde ich schlicht als weiteren Anzeigefehler ignorieren.

    Bei mir auch negatives Testergebnis:

    Ein Backup-Job auf eine externe USB-Platte bricht seit dem HBS3-Update reproduzierbar sofort nach dem Anstöpseln der Platte (Schedule: Auto-Backup) mit Status "Error" ab.

    In den Job-Details steht nur "Start Time: 17:59:00 Stop Time: 17:59:23 Duration: 00:00:23", alle anderen Felder sind leer.

    Die Mailbenachrichtigung zum Start des Jobs kommt noch, aber die zum Stop nicht mehr, und auch auf der Logs-Seite von HBS3 steht nur der Eintrag "Started Backup job", kein korrespondierendes "Finished Backup job" d.h. der Job bricht so hart ab, dass er nicht einmal mehr die Benachrichtigung über den Abbruch versenden kann.

    Im per Save-Button heruntergeladenen Logs-Paket finden sich in der Datei nas\data\system\nas\ec34763c-104e-11ea-993e-245ebe1625d1\rra.log die Meldungen:

    Code
    [2024-03-19 17:59:00,845][ JobWorker][D][job_worker_base.py:send_nc_msg:238] : [{0}] {1} job [{2}] started.
    [2024-03-19 17:59:05,998][ JobWorker][D][rtrr_worker.py:stop_check_job:257] : {'error': {'ex_msg': 'process is not found', 'ex_name': 'Exception', 'job_id': 'ec34763c-104e-11ea-993e-245ebe1625d1-full-check-job', 'traceback': ['Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rr2_api/verify.py", line 1753, in stop_check_md5_proc_local', 'Exception: process is not found', '']}, '_trace_log': '/mnt/ext/opt/HybridBackup/rr2/logs/rr2__rr2_api.verify/trace.log'}
    [2024-03-19 17:59:05,999][ JobWorker][D][rtrr_worker.py:stop_check_job:259] : job ec34763c-104e-11ea-993e-245ebe1625d1 stopped fail: process is not found
    [2024-03-19 17:59:23,324][ JobWorker][I][rtrr_worker.py:_check_status_and_make_latest_hardlink:343] : rr2 run hardlink result: {'case': 'failed to run_latest_backup_hardlink_cp()', 'ex_msg': "failed to create hardlink cp, /share/Tosh1T/Nessy/Tosh1T/.syncmeta not found. [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", 'detail': {'ex_name': 'FileNotFoundError', 'job_id': 'ec34763c-104e-11ea-993e-245ebe1625d1', 'traceback': ['Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_nas2.py", line 863, in hardlink_copy_latest_backup_version', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_file2.py", line 376, in write_conf_with_lock_timeout', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_file2.py", line 462, in read_conf_with_lock_timeout', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/rwlock.py", line 235, in __enter__', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/rwlock.py", line 292, in acquire', "FileNotFoundError: [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", '', 'During handling of the above exception, another exception occurred:', '', 'Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rr2_api/job_assist.py", line 681, in run_latest_backup_hardlink_cp', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_nas2.py", line 872, in hardlink_copy_latest_backup_version', "FileNotFoundError: failed to create hardlink cp, /share/Tosh1T/Nessy/Tosh1T/.syncmeta not found. [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", '']}}
    [2024-03-19 17:59:23,325][ JobWorker][E][rtrr_worker.py:_check_status_and_make_latest_hardlink:345] : run hardlink cp error: {'case': 'failed to run_latest_backup_hardlink_cp()', 'ex_msg': "failed to create hardlink cp, /share/Tosh1T/Nessy/Tosh1T/.syncmeta not found. [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", 'detail': {'ex_name': 'FileNotFoundError', 'job_id': 'ec34763c-104e-11ea-993e-245ebe1625d1', 'traceback': ['Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_nas2.py", line 863, in hardlink_copy_latest_backup_version', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_file2.py", line 376, in write_conf_with_lock_timeout', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_file2.py", line 462, in read_conf_with_lock_timeout', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/rwlock.py", line 235, in __enter__', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/rwlock.py", line 292, in acquire', "FileNotFoundError: [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", '', 'During handling of the above exception, another exception occurred:', '', 'Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rr2_api/job_assist.py", line 681, in run_latest_backup_hardlink_cp', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_nas2.py", line 872, in hardlink_copy_latest_backup_version', "FileNotFoundError: failed to create hardlink cp, /share/Tosh1T/Nessy/Tosh1T/.syncmeta not found. [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", '']}}
    [2024-03-19 17:59:23,350][ JobWorker][E][rtrr_worker.py:job_start:1041] : Traceback (most recent call last):
      File "/builds/diad/sw3/hybrid-backup/hbs3-backend/qpkg/output/shared/python/lib/python3.11/site-packages/qnap/hbs3/rra/rtrr_worker.py", line 964, in job_start
      File "/builds/diad/sw3/hybrid-backup/hbs3-backend/qpkg/output/shared/python/lib/python3.11/site-packages/qnap/hbs3/rra/rtrr_worker.py", line 465, in job_start_preprocess
      File "/builds/diad/sw3/hybrid-backup/hbs3-backend/qpkg/output/shared/python/lib/python3.11/site-packages/qnap/hbs3/rra/rtrr_worker.py", line 346, in _check_status_and_make_latest_hardlink
    Exception: {'case': 'failed to run_latest_backup_hardlink_cp()', 'ex_msg': "failed to create hardlink cp, /share/Tosh1T/Nessy/Tosh1T/.syncmeta not found. [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", 'detail': {'ex_name': 'FileNotFoundError', 'job_id': 'ec34763c-104e-11ea-993e-245ebe1625d1', 'traceback': ['Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_nas2.py", line 863, in hardlink_copy_latest_backup_version', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_file2.py", line 376, in write_conf_with_lock_timeout', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_file2.py", line 462, in read_conf_with_lock_timeout', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/rwlock.py", line 235, in __enter__', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/rwlock.py", line 292, in acquire', "FileNotFoundError: [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", '', 'During handling of the above exception, another exception occurred:', '', 'Traceback (most recent call last):', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rr2_api/job_assist.py", line 681, in run_latest_backup_hardlink_cp', '  File "/builds/diad/sw2/pack-hbs3-qpkg/build/qpkg/hbs/Hybrid_3/shared/rr2/bin/rru/util_nas2.py", line 872, in hardlink_copy_latest_backup_version', "FileNotFoundError: failed to create hardlink cp, /share/Tosh1T/Nessy/Tosh1T/.syncmeta not found. [Errno 2] No such file or directory: '/share/Tosh1T/Nessy/Tosh1T/.syncmeta.lock'", '']}}

    die mir nur sagen, dass HBS3 eine Datei namens .syncmeta.lock vermisst, deren Abwesenheit frühere Versionen nie gestört hat, nicht aber was es mit dieser Datei auf sich hat, wofür sie benötigt wird, wo sie herkommen sollte und ob ihr Fehlen auf irgendwelche tieferliegenden Probleme hinweist.

    Der QNAP-Service könnte wahrscheinlich sagen, wo das Problem liegt, wenn - ja, wenn der QNAP-Service das Ticket nicht sofort wegen "USB-Platte nicht auf der Kompatibilitätsliste" schließen würde.


    Ich werde mal meine anderen USB-Sicherungsplatten testen in der Hoffnung, dass der Fehler auch mit der eigens für den QNAP-Support gekauften von der Kompatibilitätsliste auftritt.


    Die Cloud-Jobs funktionieren bis jetzt fehlerfrei.

    Das ist doch schon toll. Immerhin ist ein Supporter dran und das Ticket wurde nicht geschlossen. Besser im Kreis drehen als gar keine Bewegung. Und reagieren ist beim Kontakt mit dem Support ohnehin besser als agieren. Kunden, die eigene Ideen entwickeln, hat man dort gar nicht gern.

    Ok, ich denke, es gibt eine Spur.

    Im Notification Center unter System Notification Rules - Alert Notifications hatte ich eine Regel "Severity Level: Information - Filter: Excludes".

    Als ich da jetzt auf die Konfigurationsseite kam, war die Regel rot unterlegt und die Spalte "Keyword Filter" war leer. Offenbar hat das Notification Center beim Update meine Keyword-Filterliste verloren.


    Ich habe versucht den "Severity Level: Information" ganz zu deaktivieren.

    Nach dem Klick auf "Confirm" blieb der Dialog allerdings auf "Loading data, please wait...", bis der automatische Logout zuschlug, und nach erneutem Login war der Level immer noch aktiv.

    Da scheint ein bisschen mehr kaputt zu sein.

    Ich werde mal einen Neustart einplanen und schauen, ob es danach besser wird.


    Nachtrag: Es wurde nicht besser. Auch nach dem Neustart endet der Versuch, die Information Level Alert Notifications zu deaktivieren, mit einer bis zum Autologout stehenbleibenden Meldung: "Loading data, please wait..." und die Notifications bleiben aktiv.

    Mein TS-233 läuft nach dem Update so gut wie vorher.

    Allerdings schickt es mir seit dem Update jede Nacht sechzehn (16) unnötige Benachrichtigungsmails: Malware Remover, Storage Manager, App Center, HBS - alle wollen mir dringend mitteilen, dass es nichts mitzuteilen gibt, gerne auch mehrfach.

    Für keine davon finde ich im Notification Center eine Regel, die ich deaktivieren könnte.

    (Was nichts heißen muss; die Bezeichnung der Optionen dort ist für mich absolut undurchsichtig und es kann gut sein, dass es irgendwo ein Hälchen gibt, dem ich einfach nicht ansehe, dass es diesen Spam abstellen würde.)

    Keine Katastrophe, aber seeehr lästig.

    Ich denke darüber nach, dem NAS die Berechtigung zum Versand von E-Mails komplett zu entziehen.

    So wie es jetzt ist, ist es jedenfalls unbrauchbar.

    Das geht so schnell, da mag ich nicht dran glauben. Aber egal, jeder so wie er will

    Dann war das eine Schnellformatierung (drum heißt die so) und keine vollständige Formatierung.

    btw: Bei mir verlässt mittlerweile eine FP sowieso nicht das Haus, ohne dass sie mechanisch gelöscht wurde (Hammer 500 g, mit der Finne) :)

    Auf einer Festplatte, die du mit dem Hammer "mechanisch gelöscht" hast, sind wesentlich mehr möglicherweise wiederherstellbare Restdatenspuren als auf einer, die einmal komplett mit Nullen überschrieben wurde.

    Dass man Festplatten zum sicheren Löschen mehrfach überschreiben müsste, mag bei frühen Winchester-Festplatten mit 10 MB mal gestimmt haben, ist aber seit mindestens 15 Jahren nachweislich überholt, siehe zum Beispiel diesen Heise-Security-Artikel von 2009:


    Sicheres Löschen: Einmal überschreiben genügt
    Eine Studie räumt mit dem Mythos auf, dass man zum sicheren Löschen von Daten diese mehrfach überschreiben muss.
    www.heise.de


    Ein einmaliges

    Code
    dd if=/dev/zero of=/dev/sdx bs=16M

    reicht völlig.