Verwende NFS las Dateisystem auf dem NAS und gib das Verzeichnis mit entsprechenden Berechtigungen frei - geht stabil und schnell und zuverlässig
Beiträge von hhaneder
-
-
Auch bei uns sind auch 2 NAS Systeme ohne Erkenntnis abgestürzt seit dem FW Update. Noch nicht mal ein Eintrag in´s Log; erst durch den Start dann...
-
1. Backupjobs die historisch sind und in denen Dedup aktiviert (QNAP Standard) ist, können aktuell bei manchen Systemen in dem Release
HBS 3 V14.0.1215 nicht editiert werden, Option QuDedup ist ausgegraut. Im englischen Forum gibt es diverse Erfahrungen dazu.
2. Die Bandbreiten Einstellungen "Einstellungen für die Geschwindigkeitsbegrenzungen" sind default offensichtlich in meinem Falle falsch. Setze ich manuell auf 100000KB/s Upload Download flutscht der DatenstromDann testen wir das auch mal
-
Hab genau das gleiche Problem und sichere 5TB innerhalb des gleichen Netz seit 2,5 Tagen und auch mit den oben beschriebenen Problemen. Meist Dateien 5-10GB Videos.
Hab jeweils zwei LAN Karten je NAS (TVS-882 und TS-635A) an GB Switch zusammen definiert und lass auch nur über diese beiden Schnittstellen laufen. Das ganze pendelt zwischen 12-25 MB, manchmal für Sekunden auf 32 MB. Kein dedup, keine Prüfung der Dateien, einfach nur Standard Job. Dieses HBS3 hat mit Datensicherung und Performance nichts zu tun. -
nö, hatte ich übersehen, sorry Dr. Mike
-
dr_mike: Wenn ich (und auch viele andere) das Problem nicht hätten wäre das hier kein Thema, aber so?
Leider sieht man nicht ob und wieviel "kleine" Dateien bei dem Job gesichert werden von daher ist das Bild wenig aussagekräftig. ansonsten wäre es ja ok so
Das letzte Backup wurde mit "nur" großen Dateien > 5 MBB gemacht -
Das Problem besteht aber auch bei uns bei 2 NAS Systemen seit ein paar Tagen obwohl keine Änderungen vorgenommen wurde. Von daher wahrscheinlich wieder ein HBS3/FW Problem
Bei großen Dateien kein Thema - da zieht das System durch auf ext. HDD als auch NAS zu NAS. Wenn die Dateien kleiner werden gehts leider nicht, Speicher läuft zu und irgendwann im Byte Bereich auch nach Wiederholungen
Wir hatten dann folgenden work-around durchgeführt und die externen USB Platten alle jeweils mit 1GB/10GB/100GB Datei kopiert und den Datendurchsatz geprüft
NAS Login über ssh
Code- Test RAID and disk read throughput:
- qcli_storage -T force=1
- Test volume read throughput:
- qcli_storage -t force=1
- To test internal write/read speed 10GB file to Public shared folder
- (file can be deleted from Public folder after the test):
- time dd if=/dev/zero of=/share/CACHEDEV1_DATA/Public/test10GB bs=1M count=10240
- time dd if=/share/CACHEDEV1_DATA/Public/test10GB of=/dev/null
- Damit war klar, dass es nicht am NAS bzw an den Platten liegen kann
- Also weiter mit den USB Ports und externen Platten
- 1.run df to locate the external drive path
- We can know the device name of external drive is /dev/sdb
- The files are located in path /share/external/DEV3301_1
- 3. create dummy file in /share/Public (shared folder in local volume)
- cd /share/Public
- /* create 1G dummy file/
- dd if=/dev/zero of=1g.img bs=1 count=0 seek=1G
- /* create 10G dummy file/
- dd if=/dev/zero of=10g.img bs=1 count=0 seek=10G
- /* create 100G dummy file/
- dd if=/dev/zero of=100g.img bs=1 count=0 seek=100G
- 4.copy dummy file from /share/Public to external drive (/share/external/DEV3301_1/)
- copy by rsync with progress bar:
- rsync -av -P /share/Public/1g.img /share/external/DEV3301_1/
- rsync -av -P /share/Public/10g.img /share/external/DEV3301_1/
- rsync -av -P /share/Public/100g.img /share/external/DEV3301_1/
Auch keine Probleme - also liegts an den vielen kleinen Dateien
Verbesserung? Leider keine.... -
zumindest werden in den Apps wie QMANAGER, QFILE etc. wieder alle IP Adressen angezeigt. Diese waren ja auf einmal weg bzw es wurden nur die DHCP Adressen angezeigt und keine fest eingetragenen mehr; der Zugriff ging trotzdem. Seit der .1480 scheint es wieder zu funktionieren auf dem Testsystem
Wieder mal ein Beweis, dass QANP nicht testet, sondern die Entwicklungen einfach raus haut und der Kunde das testen soll
Nebenbei ist mir aufgefallen, dass Videos nicht mehr transcodiert werden. Man soll ein zusätzl. App laden, diese startet aber nur wenn man eine Lizenz kauft (die Basic macht quasi nichts). Also wie beim QSirch geht´s um Einnahmen aus dem App Verkauf künftig anstatt um Qualität
-
Ich hab welche von INTEL im Einsatz und habe keinerlei Probleme.
Hab da drauf die VM Station am laufen - und wie erwartet super schnell und stabil -
Es stand aber in der Beschreibung zu diesem und auch anderen FW Update bzgl. der HBS3, von daher entbehrt der Kommentar "ohne Kommentar" schon der Sachlichkeit.
Unabhängig davon würde ich einen neuen Backup Job erstellen und bei den Optionen eben nicht Dedup anhaken (ist serienmässig an). Das ganze steht bei Regeln, Methoden und dann etwas scrollen....Und vielleicht hilft auch mal bei den Einstellungen jeden Punkt durchzugehen und zu überlegen was man benötigt und was nicht, es gibt viele Optionen die durchwegs sinnvoll sind je nachdem welche Backup Strategie man fährt.
Viel Erfolg! -
Sehr schlimm ist auch, dass die - nun immer mehr kostenpflichtige Software - sehr stark mit Fehlern behaftet ist wie man z.B. bei QSIRCH sehen kann (Auslastung, Dauer, Speicherverbrauch), also noch nicht mal so funktioniert, damit man für 29$ im Monat (muss man sich mal reinziehen...!!!) auch Leistung und Gegenwert bekommt.
Noch die Tage hatte ich seitens des Support eine Aussage bekommen, dass die andauernde Meldung - die zum Teil 3 x gleichzeitig aufpoppt in der GUI - mit der Nachricht "Qsirch indexiert..." im nächsten FW behoben wird. Auch hier wird die bekannt mangelnde Qualität und Leistung der Software verkauft und unnötige Dienste und Werbung auf Kosten der Kunden verteilt.
Ich denke, dass QNAP hier den falschen Weg beschreitet und sich die Mitbewerber bedanken werden für die Bärendienste von QNAP -
HBS3 Backup ist doch bei den Apps zu laden und unterstützt Cloud und weitere Dienste. Und auch ohne Abo. Läuft ( fürchterlich langsam und will sich als Dienst jede Minute neu anmelden (scheint ein Bug zu sein)), läuft aber unter 4.4.2.
-
Meistens liegt es an einer sehr langsamen oder nicht vorhandenen Internet Verbindung wenn der Shop Server von qnap oder qnapclub nicht erreichbar ist. Warten, öfters versuchen wenn sichergestellt ist, dass das NAS eine Verbindung hat
-
Irgendwie fehlt mir an der ext HDD auf die gesichert werden soll der komplette Pfad. Bei ist es wie du siehst Name der Platte/Volume plus der Name der Sicherung
Zumindest müsste der Jobname da drinnen stehen
Du hast also die zu sichernde Verzeichnisse auf dem NAS ausgesucht, markiert, dann weiter auf Lokales NAS, dieses markiert, dann auf "auswählen", dann ganz nach unten gescrollt, das ext Volume/HDD markiert und dann ok?
-
--> sicher das der Platzbedarf verfügbar ist?
Wieviel will HBS3 kopieren/syncen und wieviel ist extern tatsächlich verfügbar?
-
Hast du denn job mal komplett neu aufgesetzt? Hat zumindest bei mir geholfen
-
Danke tg. Wieder was gelernt.
-
@TG, wahrscheinlich nicht direkt. Aber die Möglichkeit das abzubestellen zu können, muss/sollte doch in der DSGVO enthalten sein, oder? Weil ein Widerruf ist m.E. immer verpflichtend zu ermöglichen
-
PTJ: Dann würdest du ja das Schließen Kreuz nicht sehen, das ist es also nicht.
Ich hab die FW auf unserem Backup/Test NAS drauf - keine Möglichkeit zu beenden. Das kommt jedesmal zum Start wenn du auf den NAS Desktop gehst - ebenso wie die minütlich aufklappenden Hinweise das die Dateien synchronisiert werden....Einfach mal wieder schlecht programmiert - oder absichtlich um Werbung aufzunötigen
-
Diese Meldungen habe ich auf mehreren NAS wenn diese über qnap Dienst angebunden sind ( wobei ja heute ein Update kam....) ich hab zusätzlich eine ddns per dyndns eingerichtet und spreche damit die NAS an.