Datenübertragungsrate über USB bei externen Festplatte

  • Hallo Gemeinde,
    ich habe versucht meine Daten auf dem Qnap über die "One-Touch-Copy" USB Taste auf eine externe Festplatte zu sichern. Nun musste ich feststellen, dass dies extrem langsam geht. Kann man dies irgendwie beschleunigen.
    Ich habe ein Qnap TS 109II Pro. Ich habe schon gelesen, dass NTFS (mit dem die extere formatiert ist) dazu führt, dass der Prozess sehr langsam geht. Ich habe auch etwas gelesen von ext3 Treibern, die man unter WINXP installieren soll und dann die Festplatte damit formatieren soll, wenn ichs richtig verstanden habe. Leider finde ich nirgends diese Treiber und weiß auch nicht ob ich da alles so richtig verstanden habe...


    Ich schließe immer ein Notebook über LAN an und dann am Notebook die externe Festplkatte, dann geht das ganz in vernünftiger Zeit. Aber das kann ja uch nicht der Sinn des USB Anschlusses an der Front sein :)


    Was kann ich also tun, damit es schneller geht ?


    Danke

  • 1) Der 109 ist schonmal leider eine schlechte Wahl bezüglich Backups und Redundanz (nicht verwechseln). Dazu findest Du mehr hier im Forum. ;)
    2) Das USB Protokoll hat bekanntlich hohe CPU Auslastung, darum hat Apfel ja vor Jahren Feuerwehr (Firewire) raus gebracht (Hatten damals bei den IBM PowerPC not a good SPEED). Und die externe ext3 zu formatieren könnte ein bissl was bringen, wirklich bemerkbar dürfte es aber nicht sein.
    3) Bei externen USB Gehäusen kommt es ebenfalls auf den Chipsatz an, ich z.B. habe für den Videoschnitt (also schön schnellen Controller) noch eine Externe Platte, mit einen Oxford Chipsatz verbaut (Sehr schnell)
    Wenn USB 3.0 herauskommt, werden einige User einen unterschied meken, das USB 3.0 logo darf nur noch drauf, wenn das Gerät auch wirklich die geschwindigkeit 3.0 hat... Ich denke, Du verstehst mich so schon.


    Kurz und knapp. Datensicherheit ist leider immer etwas teurer, und genau da sollte man bei "Heiligen" Dateien nicht sparen. Wie bei so vielem im Leben. :thumb: Hast Dich da lediglich etwas verkauft.... :oops: Poste gerne noch einmal etwas in die Kaufberatung, und schreibe was Du sichern möchtest, bez. Backup und Redundanz, werde ich Dich da ebenfalls gerne beraten, sowie andere User hier im Forum. 8-)

  • Hallo,
    hier ein paar Messergebnisse mit meinem TS-109 Pro II v 2.12, auf der derzeit nur 85GB liegen.
    Die Platte ist eine 1TB Western Digital WDC WD10, die externe USB-Paltte ist die gleiche.
    a) USB-Platte mit der QNAP als EXT3 formatieren, dann Daten backupen: 1h50min
    b) ... als NTFS formatieren, Backup: abgebrochen, hochgerechnet 1,8 Tage
    c) ... als FAT formatieren, scheint zu gehen, wird aber von der QNAP selbst beim Backup nicht erkannt.
    Auch Win XP erkennt die Platte nicht als formatiert.
    d) USB-Platte unter XP formatieren, da das mit XP aber nur bis 32 GB funktioniert, benutzt Du das Tool h2format von
    der c't, http://www.heise.de/ct. Enormer Vorteil: Die Platte ist sicher unter XP lesbar, und das willst Du bei einem
    Backup ja. Hilft dir ja nichts, wenn die Platte nur unter der QNAP lesbar wäre, denn wann brauchst Du Zugriff auf
    das Backup? Eben.
    Zeitbedarf zur Sicherung der 85GB: 2h20min.


    Ich bin der Meinung, der höhere Zeitbedarf gegenüber EXT3 ist es wert, denn diese USB-Fat32-Platte kriegst Du unter jedem Win-PC gelesen, ohne erst EXT3-Treiber installieren zu müssen.


    Nur, wenn ich so rumrechne, und USB 2.0 doch 480Mbit schaffen soll, da wird's ja duster mit der QNAP.
    Komme auf knapp über 81MBit.


    Weiß jemand, wie man das tunen kann ?


    Gruß,
    Werner.

  • Hallo Werner,

    Zitat von "wernapi"

    Weiß jemand, wie man das tunen kann ?

    Zum Beispiel mit ext3 oder ext4 in Verbindung einer Live CD die regelmäßig einer Ct Zeitschrift beliegt. Warum ist es so langsam? Weil die CPU nunmal nur 500 Mhz hat.



    Christian

  • 1. USB unterstützt mehrere Übertragungsmodi, unter anderen auch einen der für große Datenmengen eine nur sehr geringe CPU-Last verursacht. Natürlich gibts auch Modi, die für langsame Geräte (und ich meine nicht die Übertragungsrate!) gedacht sind. Diese kommen aber bei Festplattentransfers nicht zum Einsatz, sondern sind z.B. für Geräte wie Tastatur oder Maus gedacht. Die Aussage, dass Firewire immer schneller ist, ist nicht korrekt, auch wenn es bei bestimmten Übertragungen Vorteile mitbringt (z.B. Videokameras). Für Festplatten nehmen sich USB 2.0 High Speed und Firewire nix, vorausgesetzt man vergleicht ebenbürtige HW-Controller und Treiber-Implementierungen.


    2. Das Problem beim Backup ist nicht vordergründig die CPU! Klar würde es mit 'ner schnelleren CPU etwas besser werden, aber Brute Force führt hier nicht zum gewünschten Effekt, da wohl ein algorithmisches Problem zugrunde liegt. Sonst würden die Atom-basierten NAS gigantisch viel schneller auf NTFS schreiben, tun sie aber nicht. Auch auf einem GHz-Desktop ist es grottenlangsam. Hauptursache ist der bescheidene NTFS-Dateisystemtreiber. NTFS ist von der Architektur zwar etwas komplizierter aufgebaut als ext2/3 (hat u.a. mehr Features wie Verschlüsselung und Kompression integriert), aber das erklärt nicht diese unverhältnismässig schlechte Performance, da diese Features ja gar nicht verwendet werden! Ist tippe mal ins Blaue ;): Kein Linux-Entwickler wird Interesse daran haben, ein Nicht-Open-Source-Dateisystem so perfekt zu unterstützen wie ein Natives und erst recht keines von MS ;). Man kann am Patentwahnsinn hinsichtlich FAT16 sehen, warum das so ist. Niemand steht gern mit einem Bein im Kittchen. Außerdem sind nicht alle technischen Spezifikationen öffentlich verfügbar und somit ist eine effiziente Umsetzung aller Features von NTFS schwer bis kaum möglich. Das es auch schneller geht beweisen Firmen wie Paragon, die sicher per NDA Zugriff auf die NTFS-Spezifikation haben (und sicher auch ordentlich dafür an MS gelöhnt haben ;) ).



    Aber zurück zu Thema. Der einzige Weg, um die Backups bei großen Datenmengen mit vernünftiger Geschwindigkeit hinzubekommen, ist die Verwendung eines nativen Linux-Dateisystems. Und das NAS unterstützt so wie es ist nunmal nur ext3. Das ist für einen reinen Windows-Benutzer sicher nicht schön, andererseits könnte es schlimmer sein. Denn immerhin gibts dafür sogar 2 Windows-Treiber, wohingegen für das bei anderen NAS verwendete XFS-Dateisystem gar keiner existiert und man grundsätzlich auf ein Linux-Live-System angewiesen ist.


    Also ich mache mein Backup lieber auf ein perfekt unterstütztes und jahrelang erprobtes natives Dateisystem (hier ext3) als ein unvollständig implementiertes und halbherzig gepflegtes. Ich bin selber SW-Entwickler und schon aus diesem Grund eher skeptisch hinsichtlich vorhandener Bugs im NTFS-Treiber. Eine quälend langsame SW lässt häufig auf strukturelle Probleme der Implementierung schliessen, oft leider mit entsprechenden Folgen. Ihr solltet immer daran denken, so ein Dateisystem ist nicht trivial sondern recht komplex und damit gibts viele Fehlerquellen. Nicht umsonst dauert die Entwicklung seehr lange.


    Achja, wichtig ist bei Verwendung eines der Windows ext3-Treibers, nach dem Backup wirklich damit zu prüfen, ob man die Daten damit auch wirklich lesen kann. Da es sich bei den Windows-Treibern um ext2-Treiber handelt (kein Journaling unterstützt), ist es außerdem wichtig, die Backup-Platte immer vorschriftsmäßig abzumelden. Keiner der ext2-Treiber kann sonst auf die Disk zugreifen, da das Dateisystem inkonsistent markiert ist und einem ext2-Treiber die Funktionalität fehlt, das zu beheben. Also die Platte nicht einfach ausschalten oder den USB-Stecker rausreißen! Sonst bleibt dann in letzter Not doch nur eine Linux Live-DVD.

  • Hallo Ihr beiden.


    Ihr wart ja beide wirklich noch sehr früh wach. Ich habe mir jetzt schon 3x das gesamte Thema durchgelesen, damit ich wirklich nichts übersehe, oder jemanden falsch verstehe. Ich hatte mich im 1. Post vielleicht doch etwas falsch ausgesprochen, finde aber auch, das dieser Thread langsam in eine andere Richtung schwenkt...


    Ich finde eure Beiträge informativ, und möchte meinen 1. Beitrag jetzt doch noch einmal in die "richtige" Richtung schwenken. (Warpcam hat eigentlich schon alles gesagt, dennoch wäre es für mich wichtig, hope that's ok.)


    Damit auch wirklich nichts in die Schief geht, ich besser verstanden werde, zitiere ich meinen 1. Post (Zeile für Zeile) und versuche meine Denkensweise zu erläutern. So, dass mich auch ein kein ITler verstehen kann.

    Zitat

    1) Der 109 ist schonmal leider eine schlechte Wahl bezüglich Backups und Redundanz (nicht verwechseln). Dazu findest Du mehr hier im Forum


    Dies hatte ich rein zu Informationszwecken geposted. Ich versuche das aber auch noch einmal auseinander zu klabüstern.
    Redundanz:
    Mit der Redundanz meinte ich zumindest in diesem Post die Datenspiegelung, die ja sowieso erst Beispielsweise mit dem 2x9 möglich wäre. Natürlich käme es dann noch auf den RAID-Level an.
    Raid 0 = Striping -> würde praktisch aus den bei dem 2x9 Festplatten 1 Grosse machen (Beispiel)
    Raid 1 = Mirroring (Spiegelung) -> die 2 Festplatten eines 2x9 wären damit "identisch" dies wäre dann bereits redundant.
    Natürlich wären hier bei einem Raid 1 nur die Festplatten Redundant. Nicht die eigenen Geräte, Netzwerke, etc. Das heißt, wenn 1 NAS ausfällt (Mainboard wäre defekt), und man hat kein 2tes) würden die 2 Festplatten auch nichts bringen, wenn man kein 2tes NAS hätte. Also eine Redundanz. (Beispiel)
    Backup:
    Hier wollte ich lediglich erwähnen, das das 1xx wirklich nicht gerade das "beste" NAS für Backups ist. Bei dem warum kämen direkt mehrere Faktoren zusammen. Sei es Beispielsweise einfach mal die Sicherung auf externe Geräte via USB, eSATA, oder einfach die Sicherung von Daten auf das NAS, da das 1xx ja keine Redundanz bietet, CPU, etc.


    Wie gesagt Nr. 1) Diente lediglich zu Informationszwecken, die ich in diesem Moment für wichtig hielt.
    In meinen anderen Posts erwähne ich ebenfalls ab und zu mal andere , dennoch eventuell Informative Sachen, die auch anderen Benutzern weiter helfen könnten.


    Zitat

    2) Das USB Protokoll hat bekanntlich hohe CPU Auslastung, darum hat Apfel ja vor Jahren Feuerwehr (Firewire) raus gebracht (Hatten damals bei den IBM PowerPC not a good SPEED). Und die externe ext3 zu formatieren könnte ein bissl was bringen, wirklich bemerkbar dürfte es aber nicht sein.


    und Punkt 3:

    Zitat

    3) Bei externen USB Gehäusen kommt es ebenfalls auf den Chipsatz an, ich z.B. habe für den Videoschnitt (also schön schnellen Controller) noch eine Externe Platte, mit einen Oxford Chipsatz verbaut (Sehr schnell)


    Beantworte ich zusammen.
    Das hatte warpcam jetzt wirklich sehr gut und mühevoll beschrieben.
    Ich nannte hier als Beispiel lediglich Apple & Firewire, da Apple Performante mit USB hatte, da der CPU zur damaligen Zeit (IBM Prozessoren) ziemlig langsam waren. Der Hersteller musste für sich selbst eine Alternative finden. (Ist nur ein Beispiel gewesen)


    Das USB Protokoll selbst verursacht schon eine hohe Belastung (beim PC kaum Feststellbar (ist klar), bei einem 500MhZ NAS schon), welche dann auch den Datendurchsatz beeinträchtigt.
    Ebenfalls liegt es bei dem Datendurchsatz an dem Dateisystem selbst, und genau dies beschreibt Warpcam sehr gut und detaliert.
    Aber selbst mit einen Ext3 Dateisystem auf einen 500MhZ ARM, ist es nicht möglich sein, die volle Datenübertragungsrate von USB 2., eSata, etc. zu erreichen.
    Ebenfalls spielt bei das USB Gehäuse selbst, des Externen Mediums eine weitere Rolle, da es ebenfalls auf den Chipsatz des USB Controllers ankommt. Da gibt es durchaus Controller, welche einfach nicht die volle USB 2.0 Geschwindigkeit erreichen können.


    Bei dem eigentlichen Thema "Datenübertragungsrate über USB bei externen Festplatte" kommt es also wirklich auf mehrere Faktoren an, welche etwas mit dem Datendurchsatz über USB zu tun haben:
    - Geschwindigkeit des CPU's
    - Das Dateisystem (mit den kann man alleine ja schon wieder etwas an Geschwindigkeit gut machen)
    - Geschwindigkeit des Controllers welcher sich in dem USB Gehäuse befindet


    Wobei ich hier schon die Geschwindigkeit der Festplatten nicht erwähnen wollte, da dies in diesem Fall kaum relevant sein dürfte (bei den Heutigen Festplatten).


    So. Ich habe mir jetzt wirklich mühe gegeben, meinen 1. Post relativ detailliert zu beschreiben und auf eure Posts einzugehen, welche ich vollkommen verstehen kann, wenn ich mir meine 1 AW noch einmal durchlese.

  • Hallo


    Ich finde den 1. Beitrag von Terz keinesfalls Falsch, da er bereits dort alle relevanten Teile nennt, die auch indirekt von Warpcam bestätigt werden.
    Selbst der Administrator hatte diese Antworten mehrfach zitiert.
    Auch mit der Suchfunktion konnte ich ähnliche Artikel finden, die etwas mit den 3 von Terz genannten Punkten zu tun haben.


    Solche unsachlichen, aggresive Äußerungen wie von frosch2 habe ich noch in keinem Forum gelesen und hoffe das es sich um ein Delikt handelt.
    Und wenn wir schon dabei sind, würde ich ebenfalls das Avatar überdenken. Bei unserem Forum wäre allein Dieses schon einen Bann wert.


    Im übrigen ich habe mich wegen diesen Thema doch für ein 439 entschieden. Und kann die Lieferung kaum noch erwarten.


    Grüße aus Kelsterbach,


    Chris

  • Hallo, schön das Du Dich für ein 439 entschieden hast.
    Danke für die Blumen.

  • Terz nennt doch in seiner Antwort alle Sachen, die für eine Datenübertragungsrate relevant sind. Lest Ihr überhaupt den Kompletten Beitrag und kennt die Zusammenhänge?


    Zitat


    - Geschwindigkeit des CPU's
    - Das Dateisystem (mit den kann man alleine ja schon wieder etwas an Geschwindigkeit gut machen)
    - Geschwindigkeit des Controllers welcher sich in dem USB Gehäuse befindet


    Zugegeben, er holt ganz schön aus, dennoch sind in seiner Antwort alle Antworten enthalten, mit weiteren Informationen.
    Schlimmer wäre es für mich gewesen nur einen Punkt zu erwähnen, und mich selbst somit zu "verkaufen".
    Da habt Ihr schon mal einen User, der nichts unwichtiges auslässt, keine Falsche Antwort lieferte, und dann beleidigt Ihr euch?


    Das er irgendwelche Netzwerke oder die kleineren QNAP NAS Geräte schlecht macht, erwähnt er nirgends. Zumindest lese ich das so raus.
    QNAP wird auch Gründe haben, die NAS Geräte mit einer Schnelleren CPU auszustatten.
    Das heißt aber doch noch nicht, das die "älteren" Unbrauchbar oder schlecht sind.
    Das hatte er auch nicht erwähnt. Viel mehr störte mich das Aggresive verhalten eines anderen Users in diesem Thema.

  • ich stand vor längerer zeit auch vor diesem problem. hab mir eine externe hd gekauft. mit usb und e-sata. dachte mir, dass das die nahezu perfekte lösung für mich ist. backupt kann ja zeitgesteuert werden. wie ich dann aber die geschwindigkeit gesehen habe, über usb, ist mir das gesicht eingeschlafen. das ist unpraktikabel, weil auch die box unnötig lange läuft. meine platten schlafen die meiste zeit.
    was hab ich also gemacht? hab mir die platte über e-sata an den pc gehängt. dieser läuft zwar nicht immer, aber doch sehr oft (arbeite zu hause meist am notebook). die daten werden mit robocopy vom nas auf die hd kopiert. das passiert gleich beim systemstart vollautomatisch. über gigabit-lan geht das auch recht flott.
    ich weiß schon, dass das backupmedium nicht im selben raum/gebäude gelagert werden sollte. nur wenn dieser fall eintritt (brand/wasser), hab ich andere sorgen als ein paar bilder ;)
    für mich ist das die nahezu perfekte lösung.

  • Hi,


    zu den super umfangreichen, technischen Ausführungen habe ich noch eine kleine Anmerkung.
    Ich bin am Ende doch bei EXT3 in Verbindung mit einer Live-CD (Knoppix) gelandet, da der EXT2IFS-Treiber die EXT3 Platten nur dann lesen kann, wenn die inode size 128 ist. Bei meiner TS-219P wird via Format immer eine inode size= 256 verwendet. Das liegt am aktuellen kernel.


    Man kann natürlich auch via Live-CD mit kleiner inode size formattieren; ich war mir aber nicht sicher, ob ich mir dadurch auch Einschränkungen einhandele, was die Kompatibilität mit dem NAS angeht. Das Backup dauert dann bei 650GB ca. 6h.


    Gruß


    Hans

  • hallo,


    ich bin besitzer einer 109 II, 2.1.2 build 1114T


    ich hatte auch das "problem", dass die übertragung eine mittlere katastrophe war (nächstes mal les ich das forum vorher durch :)


    ich hatte eine esata 1 TB externe festplatte drangehängt und diese der einfachheit halber mit NTFS formatiert (dachte mir dass es dann am unkompliziertesten am pc zu lesen ist). eine sicherung (ich sichere datenstände einfach mit copy befehl) mit ca. 20 GB daten dauerte stunden ... nicht praktikabel.


    ich hab jetzt folgendes gemacht:
    1. über die adminoberfläche (Systemtools - QPKG) das paket Optware installiert
    2. via putty den folgenden befehl aufgerufen (ipkg install coreutils) und coreutils installiert
    3. externe festplatte mit ext3 formatiert


    was habe ich damit erreicht?
    1. die datensicherung geht mit ext3 um faktoren (das sind welten zu ntfs) schneller
    2. durch die coreutils steht mit der befehl nohup zur verfügung. damit starte ich meine copy befehle zur datensicherung und kann anschliessend putty verlassen und den pc ausschalten und die datensicherung bzw. der copy befehl läuft wunderbar weiter
    3. eigentlich ist es ja wurscht wie die sicherungsplatte formatiert ist. im fall der fälle kann ich sie entweder über die qnap lesen oder setze mir einfach rasch ein linux system auf ...


    viele grüsse und danke ans forum ... dort hab ich die tipps alle zusammengesucht und die passenden für mich rausgesucht.
    simon