Beiträge von warpcam

    1. USB unterstützt mehrere Übertragungsmodi, unter anderen auch einen der für große Datenmengen eine nur sehr geringe CPU-Last verursacht. Natürlich gibts auch Modi, die für langsame Geräte (und ich meine nicht die Übertragungsrate!) gedacht sind. Diese kommen aber bei Festplattentransfers nicht zum Einsatz, sondern sind z.B. für Geräte wie Tastatur oder Maus gedacht. Die Aussage, dass Firewire immer schneller ist, ist nicht korrekt, auch wenn es bei bestimmten Übertragungen Vorteile mitbringt (z.B. Videokameras). Für Festplatten nehmen sich USB 2.0 High Speed und Firewire nix, vorausgesetzt man vergleicht ebenbürtige HW-Controller und Treiber-Implementierungen.


    2. Das Problem beim Backup ist nicht vordergründig die CPU! Klar würde es mit 'ner schnelleren CPU etwas besser werden, aber Brute Force führt hier nicht zum gewünschten Effekt, da wohl ein algorithmisches Problem zugrunde liegt. Sonst würden die Atom-basierten NAS gigantisch viel schneller auf NTFS schreiben, tun sie aber nicht. Auch auf einem GHz-Desktop ist es grottenlangsam. Hauptursache ist der bescheidene NTFS-Dateisystemtreiber. NTFS ist von der Architektur zwar etwas komplizierter aufgebaut als ext2/3 (hat u.a. mehr Features wie Verschlüsselung und Kompression integriert), aber das erklärt nicht diese unverhältnismässig schlechte Performance, da diese Features ja gar nicht verwendet werden! Ist tippe mal ins Blaue ;): Kein Linux-Entwickler wird Interesse daran haben, ein Nicht-Open-Source-Dateisystem so perfekt zu unterstützen wie ein Natives und erst recht keines von MS ;). Man kann am Patentwahnsinn hinsichtlich FAT16 sehen, warum das so ist. Niemand steht gern mit einem Bein im Kittchen. Außerdem sind nicht alle technischen Spezifikationen öffentlich verfügbar und somit ist eine effiziente Umsetzung aller Features von NTFS schwer bis kaum möglich. Das es auch schneller geht beweisen Firmen wie Paragon, die sicher per NDA Zugriff auf die NTFS-Spezifikation haben (und sicher auch ordentlich dafür an MS gelöhnt haben ;) ).



    Aber zurück zu Thema. Der einzige Weg, um die Backups bei großen Datenmengen mit vernünftiger Geschwindigkeit hinzubekommen, ist die Verwendung eines nativen Linux-Dateisystems. Und das NAS unterstützt so wie es ist nunmal nur ext3. Das ist für einen reinen Windows-Benutzer sicher nicht schön, andererseits könnte es schlimmer sein. Denn immerhin gibts dafür sogar 2 Windows-Treiber, wohingegen für das bei anderen NAS verwendete XFS-Dateisystem gar keiner existiert und man grundsätzlich auf ein Linux-Live-System angewiesen ist.


    Also ich mache mein Backup lieber auf ein perfekt unterstütztes und jahrelang erprobtes natives Dateisystem (hier ext3) als ein unvollständig implementiertes und halbherzig gepflegtes. Ich bin selber SW-Entwickler und schon aus diesem Grund eher skeptisch hinsichtlich vorhandener Bugs im NTFS-Treiber. Eine quälend langsame SW lässt häufig auf strukturelle Probleme der Implementierung schliessen, oft leider mit entsprechenden Folgen. Ihr solltet immer daran denken, so ein Dateisystem ist nicht trivial sondern recht komplex und damit gibts viele Fehlerquellen. Nicht umsonst dauert die Entwicklung seehr lange.


    Achja, wichtig ist bei Verwendung eines der Windows ext3-Treibers, nach dem Backup wirklich damit zu prüfen, ob man die Daten damit auch wirklich lesen kann. Da es sich bei den Windows-Treibern um ext2-Treiber handelt (kein Journaling unterstützt), ist es außerdem wichtig, die Backup-Platte immer vorschriftsmäßig abzumelden. Keiner der ext2-Treiber kann sonst auf die Disk zugreifen, da das Dateisystem inkonsistent markiert ist und einem ext2-Treiber die Funktionalität fehlt, das zu beheben. Also die Platte nicht einfach ausschalten oder den USB-Stecker rausreißen! Sonst bleibt dann in letzter Not doch nur eine Linux Live-DVD.

    Zitat von "qqbert"

    Mit welchen externen eSATA Gehäusen habt Ihr gute Erfahrungen gemacht ?


    Also ich hab dieses hier dran und es lüft sowohl per eSATA als auch USB ohne Probleme:
    http://www.easynova.com/index.php?siteID=18&productID=25


    Was ich aber festgestellt habe, dass man einige SATA2 Platten hart auf SATA1 einstellen muss
    (Jumper an Platte), damit der Controller die Platte erkennt. Das sollte eigentlich nicht nötig sein.
    Für USB wird der Gehäuse-interne Controller verwendet, für eSATA wird der Plattenport einfach
    nur nach außen durchgeschleift. D.h. falls du eine externe Disk-Stromversorgung hast, kannst
    du mal versuchen, ob die Platte ohne Gehäuse überhaupt erkannt wird.

    Zitat von "Terz"

    21 = Port für'n FTP. Zumindest wie es warpcam beschrieben hat.


    Port 21 ist nur der Control-Port. Wahrscheinlich musst auch noch Port 20 geöffnet werden (das ist der Daten-Port).
    BTW, ich würds erstmal im lokalen LAN ausprobieren und dann übers Internet. Zumindest kann man so interne Konfigurationsfehler am NAS ausschließen.


    Zitat von "Terz"

    Oder Du nutzt einfach 'nen UPNP-AV Client.


    Ich glaube, das ist übers Internet keine gute Idee, da jegliche Zugangskontrolle im Protokoll fehlt. Das ist dann wie 'nen öffentlicher File-Sharing-Server und du hast, je nach zur Verfügung gestellten Daten, evtl. schnell einen RA am Hals, aber auf jeden Fall viele User die unverhofft Mit-Streamen ;)

    Zitat von "HDP"

    Wie und wo schalte ich die automatische Bildskalierung ein?


    In der Twonky Konfigurationsoberflaeche unter Sonstiges ganz unten gibts eine Checkbox.
    Danach "Uebernehmen" und den Twonky-Server neu starten ('nen Knopf gibts dafuer auch).

    VLC unterstützt kein UPnP (zumindest bis jetzt nicht), womit Twonky ausfällt. Streamen geht aber z.B. über FTP und HTTP. FTP habe ich schonmal ausprobiert und es läuft völlig problemlos. Dazu im VLC einfach "Medien->Netzwerkstream öffnen...", dann unter Protokoll http oder ftp auswählen und rechts die URL eingeben. Bei passwortgeschütztem Zugang muss die URL den Username beeinhalten:


    Beispiel Video per FTP: ftp://user:passwort@NASIP/Qmultimedia/video.mpg


    Genaueres zum Aufbau einer URL findet man z.B. hier: http://de.wikipedia.org/wiki/URL

    Der Twonky 4.4.x Server hat irgendwo ein Größenlimit für Bilder und fällt bei dessen Überschreitung zurück auf die von dir beschriebene Auflösung, warum auch immer. Berichte darüber gibts z.B. hier im Forum, im englischen QNAP-Forum oder auch direkt im Twonky-Forum. Das Limit scheint irgendwo bei Knapp unter deinen 12 Megapixel zu liegen. Einige Benutzer in den genannten Foren haben das ausgetestet, mir fallen die genauen Zahlen aber jetzt nicht ein. Mit Twonky 5 soll das Problem behoben sein.


    Hast du mal probiert, in der Twonky-Konfiguration die automatische Bildskalierung einzuschalten? Vielleicht mindert es das Problem ja. Mein TV zeigt z.B. ohne diese Option meine 8 Megapixel Fotos gar nicht erst an.

    Ich dachte, das Problem sei bei den neueren Platten gefixt?


    Bei meinen WD7500AACS trat das Problem auch auf. Es gibt ein inoffizielles Tool von WD (WDIDLE3), mit dem man die interne Stromsparfunktion konfigurieren kann (Zeitspanne bis zum Parken in 3 Schritten, oder ganz abschalten). Ich habe das Feature bei mir ganz abgeschaltet. Allerdings geht damit vermutlich die Garantie verloren. Das Risiko bin ich aber gern eingegangen. Ich hatte seit 20 Jahren noch nie eine defekte Platte (außer eine altersschwache), jedoch wären die WD wohl durch das extensive Parken sicher recht früh abgenippelt.


    Das Ganze kann natürlich auch nur Hype sein, denn wenn die Mechanik wirklich dafür ausgelegt ist, sollte es kein Problem sein. Leider gibts von WD dazu keine offizielle Stellungnahme.

    Also bei mir funktioniert es mit FF 3.5.1 und SeaMonkey 1.1.17. Allerdings verwende ich keine SSL-Anmeldung, wie du offenbar. Folgende Cookies werden bei mir gesetzt: nas_lang="GER", nas_lstyle="std".


    Versuch doch deinen Browser Cache zu löschen und den Browser danach neu zu starten. Evtl. hilft es auch, alle Cookies vom NAS mal zu löschen.

    Dein Browser darf für das NAS die Cookies nicht blockieren, denn darin wird die Sprachauswahl hinterlegt. Bei der neuen FW 3.1.0 heisst der Cookie "nas_lang". Auch andere Einstellungen wie z.B. der Anmelde-Style (Cover-Flow oder Standard-View) wird in Cookies gespeichert.

    Zitat von "gerho08"

    ist gemeint, dass ich dann also auch die eSATADisk1 als netzwerkfreigabe verbinde, um auf dieses dann per notebook zugreifen zu können?


    Richtig, genau das meinte ich. Wie gesagt, die Freigabe eSATADisk1 ist in der Standardkonfiguration nur als admin lesbar und schreibbar. Wenn andere User das auch sollen, einfach im Web-GUI des NAS bei der Netzwerk-Freigabe-Verwaltung die Zugriffsrechte der Freigabe eSATADisk1 anpassen.


    Während ein Backup läuft solltest du maximal lesend auf die Dateien unter eSATADisk1 zugreifen, sonst kommt das Backup ins Schlingern. Zugucken geht aber ;)


    Zitat von "gerho08"

    bei der remote sicherung bleiben die daten lesbar, korrekt?


    Ja, ist genauso wie bei deiner bisherigen Sicherung. Auf der Platte findest du die Dateien genauso vor wie auf der internen Platte. Du kannst bei der Remote-Sicherung als Ziel auch ein Unterverzeichnis angeben, um z.B. mehrere Backup-Sets zu trennen (z.B. eSATADisk/Backup1). Da du als Quelle auch einzelne Verzeichnisse angeben kannst (irgendwelche!), kannst du mit der Funktion ja etwas experimentieren, dann wird sehr schnell klar, wie es funktioniert.

    Zitat von "gerho08"

    ich verwende die option copy, nicht synchroinisieren: zwischenfrage: stimmts es dass dabei keine daten auf der hdd überschrieben werden, sondern nur die neuen auf die hdd kopiert werden?


    Copy kopiert m.E. immer alle Dateien der internen Platte auf die externe. Das solltest du daran erkennen, wie lange es dauert (inkrementell sollte es sehr zügig fertig sein).
    Inkrementell nur neue Dateien zu kopieren geht m.E. nur über die Remote-Reproduktion. Die Synchronisieren-Funktion macht zwar auch eine inkrementelle Sicherung, löscht glaube ich die auf der internen Disk gelöschten Dateien auch auf der externen Platte. Bei der Remote-Reproduktion kann man das getrennt steuern.


    Zitat von "gerho08"

    ich habe zwar die bestätigung "sicherung erfolgreich", wie aber kann ich die datein "sehen"..wenn ich nämlich das notebook in das netzwerk hänge kann ich über "netzlaufwerk freigeben" die ordner der NAS "sichtbar machen"..die hdd hängt aber ja über esata an der NAS..die kann ich aber nirgends sehen?


    Wenn die externe Platte angeschlossen ist, kannst du als admin auf die Freigabe eSATADisk1 darauf zugreifen. Wenn andere Benutzer darauf zugreifen sollen dürfen, müssen die Zugriffsrechte für diese Freigabe entsprechend angepasst werden.

    Zitat von "Noxman"

    Allerdings kann ich keinen Unterschied ausmachen wenn ich Jumbo Frames einschalte. Dadurch ändert sich die Übertragungsrate bei mir nicht.


    Jumbo-Frames helfen nur, wenn die CPU durch die vielen Interrupts während des Transfers voll am Anschlag ist. Bei vielen kleinen Standard-Frames (1492 Bytes) ist die Last 6 mal so hoch wie bei 9k Frames. Bei den Atom-NAS oder auch der x19er Serie ist die CPU nicht der limitierende Faktor sondern vermutlich die Festplatte oder das Bus-System. Deshalb helfen da auch keine Jumbo-Frames.


    Wie hoch die Interrupt-Last ist, kann ich bei mir am PC beobachten, wenn ich TV gucke (DVB-C TV-Karte). Bei Standard-Frames und Transfer großer Dateien zum NAS, ist an Fernsehen nicht zu denken, da das Bild fast einfriert. Mit 9k Frames kann man schon fast normal gucken ;) .

    Zitat von "Guinnes"

    nutze kein Raid(1), ich spreche die HDDs als Single an.


    Meinen Messungen nach, machen Jumbo-Frames einiges aus. Wie ich bei dir gelesen habe, nutzt du schon 4k-Frames. Ein Versuch mit 7k oder 9k koennte evtl. noch ein bischen bringen, allerdings keine Quantenspruenge!


    Zitat von "Guinnes"

    Wo liegt die Ursache für diese schlechte Geschwindigkeit, bei Kopiervorgängen PC -> PC (GB Lan) gehts doch wesentlich fixer :-/ ....


    Der begrenzende Faktor ist die CPU-Leistung und das verwendet Bus-System. In deinem NAS ist ein 500MHz ARM-Prozessor verbaut, dein PC hat sicher mehr als 2GHz und evtl. sogar mehrere Cores. Ueber das Bus-System des NAS kann ich nur spekulieren, aber ist vermutlich dem PC aehnlich. Fuer die Bearbeitung der Netzwerkdaten wird bei hoeheren Geschwindigkeiten ordentlich Leistung gebraucht. Gut erkennbar ist das z.B. beim Vergleich von x09er und x19er Serie. Die x19er NAS haben eine 1,2 GHz CPU und die Transferraten sind entsprechend mehr als doppelt so hoch.
    Und warum ist das so? Bei der IP-Kommunikation (und die nutzt das NAS) werden ja einzelne Pakete verschickt, die nicht zwingend zeitgleich oder gar in der richtigen Reihenfolge beim Gegenueber ankommen muessen. Das Einsammeln der Pakete und das Ordnen sind der aufwendigste Teil, nicht sosehr der Transfer zur Festplatte. Du kannst das gut daran erkennen, dass die Lesegeschwindigkeit typischerweise hoeher als die Schreibgeschwindigkeit ist, den da ist das Paket-Handling fuer das NAS deutlich einfacher. Es kann auch vorkommen, dass Pakete unvollstaendig sind und erneut angefordert werden muessen, wenn die Verbindung schlecht. Es gibt irgendwo einen Break-Even-Punkt, bei dem die CPU-Leistung hoeher ist, als der Rechenleistungsbedarf fuer die Netzwerkdaten. Aus den Messungen der vielen User hier zu schliessen, scheint er irgendwo bei 1-1,5GHz zu liegen, wobei die CPU-Architektur da auch noch eine Rolle spielt.
    Ich hoffe, ich habs verstaendlich ausgedrueckt ;) .


    Es ist immer eine Frage, wofuer das NAS verwendet wird. Danach sollte man dessen Leistung auswaehlen. Die Geschwindkeit einer lokalen Festplatte wird man aber nie erreichen, da hier noch die Zugriffszeit einfliesst und die ist ueber LAN immer deutlich hoeher. Deshalb ist ein Netzwerkspeicher selten fuer die direkte Bearbeitung grosser Dateien uebers Netz geeignet, da die Zugriffszeiten so hoch sind und die PC-CPU stanedig auf die Daten warten muss und sich langweilt :) . Fuer solche Aufgaben kopiert man die zu bearbeitende Datei besser auf die lokale Platte und nach der Bearbeitung wieder zurueck.

    Zitat von "Guinnes"

    per SMB auf das NAS kopiere, braucht es dazu ca. 3:35 min -> ca. 215 sec
    4350GB / 215sec = 20,xyz MB/sec......RICHTIG ? :shock:


    Das kommt schon hin. Mein 109er schafft per SMB und 9k Jumbo-Frames max. 25MB/s. Per FTP gehts schneller, bis zu 35MB/s. Bei deinem 209er verlierst du vermutlich etwas durch RAID1 beim Schreiben.


    Ich kopiere so große Dateien immer mit FileZilla, das geht wie gesagt deutlich schneller als per SMB.

    Zitat von "rodeo"

    in der Twonky Clients.db von "PS3" auf "PLAYSTATION 3" umbenennen, wie hier beschrieben:


    Ah ja, ich vergaß, dass ich schon vor geraumer Zeit den Eintrag auf:

    Code
    NA:PS3
    HH:PLAYSTATION

    geändert hatte, das ich den Ärger mit der ständigen Umbenamsung bei jedem PS3-FW-Update satt hatte. Offenbar wurde dieser Teil der Datei beim FW-Upgrade nicht geändert.

    Also die Verbindung zur PS3 funktioniert nach dem Update auf jeden Fall wie vorher.


    Sind die Geräte-Freigaben noch aktiv, ich meine hast du nachgeschaut?
    Evtl. hilft es sie alle zu löschen und sie erneut freizugeben. Bei mir gabs nach dem FW-Update auch ein Problem beim hinzufügen eines weiteren Gerätes, Twonky hatte sich die Geräte-Freigabe beim Sichern einfach nicht gemerkt. Nach ein paar Versuchen hat sichs dann wohl selbst repariert.

    Zitat von "christian"

    der WMP ist nicht UPnP fähig


    Das ist nur halbrichtig ;). Der WMP11 für XP ist NUR UPnP-Server, der für Vista aber auch UPnP-Client. Ich habs allerdings mangels Vista noch nicht ausprobieren können, aber es ist offiziell so dokumentiert. Wahrscheinlich ist das auch wieder so ein Trick von MS wie bei DirectX10, um die User irgendwie von XP wegzubekommen :D.


    Achja, ich hatte den WMP11 auf XP auch mal versucht als UPnP-Server für meinen Sony-TV zum Laufen zu bekommen, da der QNAP-Twonky damit noch nicht funktionierte. Habs genau wie in deiner Anleitung gemacht, hat aber alles nichts geholfen. Der Server erschien zwar, aber leider keine Inhalte. Auf der PS3 das gleiche Trauerspiel. Nach etlichen Versuchen hab ichs aufgegeben und den PS3-Media-Server, Tversity und die Twonky-Testversion für Windows ausprobiert und die haben alle auf Anhieb funktioniert. Jetzt ist aber die neue Twonky-Version 4.4.17 da und mein TV jetzt unterstützt, sodass ich auf die PC-Variante nur in extrem seltenen Fällen zurückgreifen muss :mrgreen:.

    Da die Formatierung offenbar schon angefangen hatte, wirst du ohne eine professionelle Datenrettung wohl wenig Erfolg haben. Hast du denn kein Backup?


    Wenn du den Ordner nur über die Windows-Freigabe auf der internen Platte gelöscht hast, hättest du ihn einfach wieder aus dem Netzwerkpapierkorb restaurieren können, vorausgesetzt der war nicht abgeschaltet. Alle QNAPs haben ihn und zu finden ist er unter der Freigabe "Network Recycle Bin 1". Damit wäre diese überzogene Risikoaktion gar nicht notwendig gewesen.

    Zitat von "mr.thumbs"

    Dann stell den Rescann doch auf einmal am Tag oder alle 12 Stunden ein. ;)


    Das NAS läuft bei mir nur, wenn ich es brauche. Deshalb ist das mit dem zeitgesteuerten Rescan so eine Sache, es sei denn, er wird nachgeholt, wenn mal die Zeit überschritten wurde. Das glaube ich aber nicht, da das Scheduling über crontab läuft.


    Ist nicht so tragisch, so oft lade ich keine Fotos, Musik oder Videos aufs NAS, die einen Rescan erfordern würden.


    Edit: Die neue FW ist jetzt drauf und die Twonky-Konfigurationsseite per direktem Zugriff lässt sich wie gehabt mit dem PS3-Browser bedienen, mehr brauch ich nicht :mrgreen:.