Beiträge von nasferatu

    Eine alternative Installation mittels Entware, ist weit weniger Bastelei, als so manches QTS.

    Da will ich mangels Kenntnis nicht widersprechen...nur ist mir das Konzept einfach inzwischen zu sehr maschinenzentriert. Da find ich die VM Lösung um Größenordnungen eleganter. Container sorgen ja auch für reichlich Kopfschmerzen, wie man hier wiederholt nachlesen kann. Ich habe da nur immer ein wenig die Befürchtung, dass so eine mühsam nachträglich gebaute Lösung durch irgendeinen blöden Seiteneffekt schnell zerschossen werden kann. Aber ja, wenn es so geht kann er es ja gerne versuchen.

    Selbst wenn es mit viel Bastelei vielleicht geht: das gute Stück ist ja nun doch so in Jahre gekommen, dass bspw. zum Vergleich mit einer TS-351 oder 251 sich der Aufwand wohl kaum lohnt. Ich würde die 439 als Backuplösung bereithalten und was aktuelles aus der x51/x53 Schiene nehmen. Da kann man erstens sehr viel mehr RAM einbauen, hat Container UND VMs und ist von daher dann idealerweise OS / Plattform unabhängig. Ich habe mein Dokuwiki in einer VM, die zur Not auch einfach auf dem PC weiterläuft. Klar ist das Geld, aber ich sage mal die 300-400 EUR sind gut investiert. Vor allem in Hinblick auf eigene Anwendungen, wenn man so eine Miniserver Plattform braucht.

    Man könnte ggf. einen Upload Ordner mit Schreibrechten erstellen, der die hochgeladenen Dateien dann per QFiling Task in den Nur-Lese Bereich verschiebt. Aber das ist natürlich eine Krücke, weil man wenig Einfluss auf die Zielorte nehmen kann. Eine bessere Möglichkeit sehe ich allerdings auch nicht.


    U.u. geht es mit den erweiteren ACL - Windows Rechten. Allerdings muss man dann sämtliche Ordnerberechtigungen über den Windows Explorer einrichten und verwalten. Das könnte etwas unübersichtlich werden. Da gibt es zumindest ein Recht "Ändern". Aber hochladen ohne löschen gibt es in der Form dort meines Wissens auch nicht.


    Wo es einen solchen Mechanismus gibt ist bspw. "Dokuwiki". Aber wie der Name schon sagt, das ist ein Wiki System und funktioniert ausschließlich über den Browser. Sicher nicht das, was Du im Sinn hast.

    Hey PuraVida , ein interessanter Bericht. Ich hatte auch vor nicht zu langer Zeit eine Teamviewer Session, weil QSirch unsinnigerweise zumindest so tut, als ob es die Domaincontroller Systemordner sysvol etc. mitindizieren will. Man kann ihm das auch nicht abgewöhnen. Und dann hatte ich noch einen komischen "Geisterordner" "...@recently-snapshot.backup", den man nirgends im System finden konnte, der aber die Indizierung ziemlich verlangsamt hat. Naja, das haben sie sich auch mal angeschaut, ich hatte auch ein paar Demovideos gemacht. Nur bei der nächsten Session werde ich vorsichtshalber auch einen Screenrecorder mitlaufen lassen, denn es handelte sich in dem Fall um ein geschäftlich genutztes NAS.

    Die Erkennung von Gegenständen funktioniert schon sehr gut,

    Es wäre mal interessant, auf was für einem QNAP das bei Dir läuft und ob die Erkennung lokal ist oder fleißig Daten an QNAP geschickt werden. Wenn die Objekterkennung nur mit Cloud-Hilfe vernünftig funktioniert fände ich das nicht so doll.


    Habt Ihr da vielleicht eine Idee?

    Ich würds einfach mal als Fehler melden. Ist ja ausdrücklich eine Beta...

    Du hast Dein NAS in einem anderen IP Netz. Router 192.168.0 .xxx <-> 192.168.1.xxx


    Du müsstest vielleicht erstmal im Router das Netz auf 192.168.1.1 umstellen. Allerdings ist die Frage, ob überhaupt DHCP aktiv ist, denn dann hätte das NAS ja automatisch eine passende Adresse bekommen, es sei denn, Du hast das im NAS deaktiviert. Möglicherweise reicht es auch, einfach mal das LAN Kabel am NAS an-abzustecken, damit es sich eine neue IP holt.

    Da ich sehr neu in dem Bereich bin, musste ich erstmal feststellen, dass ich für Nextcloud eine VM brauche.

    Man braucht nicht unbedingt eine VM, aber VMs sind wesentlich einfacher zu konfigurieren. Allerdings natürlich deutlich Resourcenhungriger. Was auch eine Möglichkeit ist, ist eine Containervariante. Da gibt es sicherlich auch für Nextcloud entsprechendes. Für Owncloud gibt es hier irgendwo eine längere Anleitung. Allerdings sieht man an diesem Thread schon, dass es kein Selbstläufer ist. Aber wenn es um Performance geht, hat ein Container i.d.R. die Nase vorn.


    1. Im Moment habe ich nur die VM frei im Netz, weil wegen Nextcloud. Ist damit dann mein NAS komplett geschützt, da es ja nur lokal läuft?

    Also der Schutz dürfte schon recht gut sein. Es besteht natürlich die Möglichkeit, durch Fehler im Hypervisor aus der VM auszubrechen. Allerdings tun das die üblichen Schädlinge eher nicht. Allerdings kann Deine VM natürlich infiziert werden und wenn sie Zugriff auf Netzresourcen im internen Netz oder auf dem NAS direkt hat (auf Freigaben etwa), kann sich ein Schädling natürlich u.U. verbreiten.

    4. Ich sehe nun auch ein, dass das NAS kein Backup ist, weshalb ich gerne wissen möchte, wie ich denn meine 4 TB an Daten sichern kann.
    Ich bräuchte dann doch eine weitere 4TB Platte oder teilt ihr das unter mehreren auf?

    Also ich habe diverse USB Festplatten, die sporadisch angestöpselt werden. Beim anstöpseln wird ein der USB Platte zugeordneter Backupjob gestartet ( Externe Sicherung). Zusätzlich habe ich ein altes QNAP, was einmal wöchentlich per Zeitplan hochgefahren wird und dort sichere ich dann alle wichtigen Freigaben. Das sind alles Einzel Volumes um möglichst viel Kapazität zu haben. In dem Zusammenhang ist das auch in Ordnung.


    Es sind ja nicht immer alle Daten gleichwichtig, oder es ändern sich nicht alle Daten mit der gleichen Frequenz.




    5. Was habt ihr sonst noch auf euren NAS am laufen, z.B. in VMs? Wozu nutzt ihr es primär?

    Also ich hab ein internes Dokuwiki am laufen, Pi-Hole und ein MX-Linux, um bspw. mit Mediathekview Filme aus Mediatheken runterzuladen. Oder Webseiten zu spiegeln. Oder mal eine CD zu brennen. Allerdings liegen die VMs auf einer SSD, weil bei mehreren einfach die Festplatten zu langsam sind. Da Du nur 2 Schächte hast bist Du in der Hinsicht natürlich etwas unflexibel. Wobei Desktop VMs ziemlich hakelig sind, weil einfach die CPU wenig Power hat. Dafür braucht man eignetlich größere Kisten. Aber als ich damals meine 451 gekauft habe war das ein echter Glücksgriff. 2015 ein x86 NAS unter 400.-EUR (ohne RAM Aufrüstung) gab es sonst praktisch bei keinem anderne Anbieter. Von der Flexibilität bin ich nach wie vor begeistert.

    Den VPN-Tunnel erstellen sollte kein Problem sein, nur gibt es sowas auch getaktet, also automatischer Verbindungsaufbau nach Zeitplan?

    Das hängt ja ein wenig von der eingesetzten VPN Lösung ab. Mit den Fritz!Boxen kann man ziemlich einfach eine Lan-Lan Kopplung erstellen. Die wird dann bei Bedarf aufgebaut, sprich, wenn Pakete an das entfernte LAN gehen sollen. Allerdings sind die Boxen nicht so sonderlich leistungsstark, da ist bei der 7490 bei 7-8 Mbit/s Schluss. Auch die 7590 ist da keine wirkliche Leuchte. Vielleicht ändert sich das mit zukünftigen Updates, da zumindest die 7590 wohl Hardware Verschlüsselung theoretisch unterstützen sollte. Ansonsten kann man auch das VPN zur Not auf dem NAS laufen lassen. Ist nicht die beste Lösung, aber immer noch besser, als den RRTR Port einfach ins Internet zu hängen. Ich kenne die QNAP VPN Performance nicht wirklich, aber ich denke, da sollte schon mehr gehen als bei einer FB, jedendfall auf den 451ern.

    Wie Pfeiffer schon ausführte, VMs sollten IMMER auf einem separaten SSD Volume liegen. Ich habe da ein statisches angelegt ohne Schnickschnack. Dann gibt es zumindest nicht so viel IO Latenzen. Aber davon abgesehen ist einfach die CPU tatsächlich ein Nadelöhr. Für einfache Linux Server geht es gut, ich habe ein Dokuwiki , Pi-Hole und ein MX-Linux drauf. Letzteres ist aber schon sehr zäh. Wenn man wirklich täglich auf einer Desktop VM arbeiten möchte, muss man eigentlich mindesten eine i3 oder i5 oder was äquivalentes nehmen. Aber das wird eben dann nicht ganz billig. Versuchs erstmal mit einer SSD, vielleicht reicht der Schub ja für Deine Anwendung aus. Die Ausgabe ist ja momentan recht überschaubar.

    Ich bin dann im Windows Explorer auf "Eigenschaften" und dann "Vorgängerversionen" gegangen. Dort wird keine der 3 Versionen angezeigt. Was mache ich falsch?

    Ok, wie schon ein Vorposter ausgeführt hat: dies geht mit den Snapshots nicht, weil sie nur zeitgesteuert erfolgen. Das Zeitraster kannst Du selbst vorgeben. Einige mehr oder weniger aufwendige Methoden, die eben das ermöglichen was Du willst haben die Vorposter auch schon genannt.


    Ich fürchte, ohne gebastel wirst Du das nicht hinbekommen. Das einzige, was mir dazu einfällt wäre eben QSync, was Du ja schon probiert hast oder NextCloud/Owncloud. Letzteres hat aber auch einen Client, der den Arbeitsordner lokal synchronisiert. An die Dateiversionen kommt man nur per Webinterface meine ich, allerdings kann das jeder selbst, in dem er sich mit seiner Kennung einloggt. Wenn es vor allem lokal zum Einsatz kommt, kann man sicherlich auch eins der Pakete aus dem AppCenter nehmen. Ins Internet sollte man sowas natürlich nie hängen.

    Es wäre so einfach gewesen, wenn Qnap Dateiversionen wie Windows in einem Freigabeordner ermöglichen würde. Dann hätte ich mir die ganze Arbeit sparen können. Vermutlich geht das aus technischen Gründen nicht. Da ist Windows meiner Meinung aber schon etwas weiter.

    Hmm, ich versteh Dich nicht. Wenn Du einen Snapshot-Freigabeordner erzeugst, dann hast Du doch genau das. Wenn ich auf meine Snapshotf Freigaben im Windows Explorer auf "Eigenschaften" gehe, dann bekomme ich den Reiter "Vorgängerversionen". Nur war ja Dein Problem u.a., dass Du ein sehr enges Zeitraster haben wolltest bzw. am für jede einzelne Dateiänderung eine Version. Dies ist nicht möglich. Aber täglich und im Extremfall auch stündlich wäre schon möglich. Für langfristige Sicherung dient dann ohnehin das Backup.

    Im schlimmsten fall ist halt das letzte gecache weg, wenn die SSD VERRECKT...

    Meines Wissens ist der QNAP Cache Blockbasiert und nicht Dateibasiert. Ich habs nicht getestet und auch bisher nichts gehört, dass der QNAP Cache beim schreiben unzuverlässig ist, speziell auch im Fall eines Stromverlustes. Klar, mit USV kann man sich da gut gegen absichern. Das beim Stromausfall auch das normale Dateisystem in Mitleidenschaft gezogen wird, ist auch nichts neues. Aber i.d.R. hilft da ja ein fscheck, nur wenn noch eine Cache Ebene dazwischenhängt wäre ich da vorsichtiger. Zumindest würde ich in dem Fall auf jeden Fall das Ganze nur mit USV laufen lassen.

    Und HW RAID Controller haben dafür auch RAM....

    ja, allerdings gepuffertes aus genau diesem Grund.

    ... drehen sich die HDD aber auch nicht mehr ...

    Sicher. Normalerweise gibt es ja dann auch direkt einen Filesystem Check. Nur ist beim Schreibcache eben noch eine Ebene mehr drin. Vielleicht bin ich da etwas paranoid, aber selbst im Windows und anderen Systemen MUSS man häufig den Schreibcache extra aktivieren, nicht ohne den Hinweis, dass es dadurch unter ungünstigen Bedingungen zu Datenverlust kommen kann. Kann sein, dass das bei einem SSD Cache nicht so gravierend ist, weil die Daten erstmal auf der SSD zwischengespeichert sind im Gegensatz zu den typischen RAM - Caches.

    Ich kann mir nicht vorstellen, dass der SSD-Schreibcache nach einem Stromausfall auf die HDD geschrieben wird.

    Naja, vorstellen kann man sich vieles. Ich weiß es auch nicht, wie QNAP das handhabt. Nur wenn der Strom mitten in einem Schreibvorgang weg ist, dann hat man mit einem Schreibcache mehr Probleme als ohne. Und aus diesem Grund haben ja teure Hardware RAID Controller eine Pufferbatterie, damit hinterher das RAID nicht beschädigt ist. Die normalen QNAPs haben nichts dergleichen, das ist alles Software. Deswegen wäre ich mit einem Schreibcache immer vorsichtig, RAID hin oder her.

    Wieso Stromausdall? Ist ne ssd, kein Ram...

    Wenn Dir bei einem ungepufferten Schreibcache mitten im Schreibvorgang der Strom wegbleibt ist das u.U. unangenehmer als bei einem "normalen" Zugriff aufs Dateisystem, weil Du davon im ungünstigsten Fall nix mitbekommst. Deswegen nutze ich eigentlich den SSD Cache nur im Lese-Modus, weil da zumindest die Gefahr geringer ist, dass unbemerkt beim zurückschreiben auf die Originaldaten unbemerkt was kaputtgeht.

    1x für VMS und 2x für Cache schreiben.

    ? Wieso denn 2x für den Cache ? Raid1 ist zwar ausfallsicherer, aber das größere Problem bei einem solchen Softwarecache, wenn man ihn auch als Schreibcache laufen lässt, ist der unerwartete Stromausfall. Aus dem Grund habe ich nur einen Lese-Cache eingerichtet. Zumal die Hauptlast ohnehin Lese-IOs sind, jedenfalls bei meinen Anwendungen.

    Ich würde lieber eine SSD als Cache und die 2. für VMs nutzen. Wenn Du regelmäßig die VMs sicherst ist das Risiko m.E. auch überschaubar. Ich habe ein SSD Einzelvolume jetzt 3 Jahre im Betrieb gehabt ohne Probleme. Das ist natürlich keine Garantie, aber wenn man wie gesagt regelmäßig sichert ist das denke ich kein wirklich großes Problem. Es sei denn, Ausfallsicherheit der VMs ist wirklich das A und O.

    Ich würde auch mal stark bezweifeln, dass man da wirklich was bei der üblichen 1GBe Anbindung merkt. In erster Linie ist es ja auch die Frage, ob es vor allem große Dateien sind, also ein kontinuierlicher Datenstrom, oder eher viele kleinere. Auch Fotos sind ja eher klein. Da ist die IOPS Rate wichtiger, und die wird sich bei RAID0 nicht verdoppeln. Dann eher 2 getrennte Platten / Volumes, da kann man bei 2GBe Anschlüssen und getrennten Zugriffen zumindest annehmen, dass die Volumes IOmäßig jeweils das Maximum bringen. RAID0 würde in der Therorie die doppelte Dauertransferrate bringen, was sich aber angesichts der Netzanbindung nicht wirklich auszahlen dürfte.