Beiträge von Anthracite

    Beim Login via SSH startet die Consolen-Applikation. Erst wenn ich das Tool mit -> Q -> Y beende bin ich in der interaktiven Shell.

    Kann man den automatischen Start der Konsolenanwendung eigentlich unterbinden? Nicht nur, dass es lästig ist, diese erst beenden zu müssen (ich nutze die normale Shell sehr oft), sondern ich habe auch einige Skripte u. Ä., die per ssh Kommandos auf dem NAS ausführen, und die funktionieren dann möglicherweise nicht mehr.

    Zum Thema App-Center: wenn man sich via SSH-Verbindet kommt man jetzt in ein Konsolen-Programm, mit welchem sich u.a. Apps starten und stoppen lassen

    Wie ist das zu verstehen? Bisher kam man mit ssh in die normale Unix-SHell. Geht das nicht mehr oder muss man das Konsolenprogramm erst beenden oder muss man sich für das Konsolenprogramm anders verbinden?

    Time Machine bietet nur die Volumes an, die auch gemounted sind. Also vor dem Start der Time-Machine-Einstellungen das Volume vom NAS einbinden. Ist das Volume in Time Machine erstmal ausgewählt, speichert sich Time Machine die Zugangsdaten, d. h. bei den nachfolgenden Backups braucht das Volume nicht mehr gemounted zu sein. Wegen dieser Logik kann TM bei der Konfiguration etwas zickig sein.


    Davon abgesehen würde ich das Time-Machine Backup prinzipiell nicht verschlüsseln. Wenn ein Schutz gegen unbefugte Zugriffe nötig ist, dann das Volume auf dem NAS verschlüsselt anlegen, aber nicht in TM zusätzlich verschlüsseln. Einmal verschlüsseln reicht. Zusätzliches Verschlüsseln erhöht nur das Risiko, dass man womöglich selbst nicht mehr an die Daten kommt (z. B. weil der Mac defekt ist und damit der Schlüssel verloren).

    Und was ist deine Frage?


    Wenn das NAS einwandfrei läuft und du keine Leistungsengpässe hast, spricht nichts dagegen, es weitere fünf Jahre zu nutzen.


    Von einem SSD Cache würde ich mir gar nichts versprechen. Wenn SSDs, dann SSDs an Stelle der Festplatten, aber ich würde da auch keinen Leistungsschub erwarten, da die Engpässe woanders liegen. Außerdem würde es teuer, da du auf dem NAS mit nur zwei Einschüben nicht gleichzeitig zwei SSDs für oft genutzte Dateien und preiswerte Festplatten für Backups etc. einstecken kannst. Es heißt zwar, SSDs lohnen sich für virtuelle Maschinen, aber ich sehe bei deinen Anwendungen nicht die Last, wo das einen Unterschied macht.

    SSDs, egal ob Cache oder direkt, lohnen sich im NAS mMn. nur, wenn LAN mit 10GbE oder wenigstens 5GbE vorliegt, ansonsten ist die Netzwerkschnittstelle der Flaschenhals.


    Daher meine Meinung:

    Wenn die Leistung ausreicht, alles so lassen, wie es ist. Wenn du genug Plattenplatz frei hast, kannst du es jetzt schon für Time-Machine-Backups nutzen, ansonsten größere Platten nehmen.


    Wenn du mehr Leistung möchtest, dann gleich richtig: Mindestens vier Einschübe, davon zwei mit SSDs bestückt, schnellerer Prozessor und 10GbE-Anschluss (sfp+ oder rj45). Für Letzteres musst du dann natürlich auch deinen Switch austauschen und den Rechner hochrüsten (für den Mac gibt es Thunderbolt-10GbE-Adapter).

    Ein NAS geht dann gut als Server für Container und VMs, wenn die Prozessorleitung und der Speicherausbau stimmen. Schwachbrüstige NAS-Prozessoren machen keinen Spaß, aber Qnap hat (im Gegensatz zu Synology übrigens) auch ein paar Modelle mit gutem Prozessor im Angebot. Mit meinem TS-877 bin ich da erst mal sehr zufrieden, allerdings ist das Modell nicht mehr im Angebot. Billig ist ein entsprechendes NAS allerdings dann nicht mehr.


    Die Alternative dazu ist ein echter Server. In den können oftmals auch vier Platten eingebaut werden (mehr wird eventuell schwierig). Die Verwaltung der Platten, Verschlüsselung, Erstellung von Freigaben etc. geht mit der Software eines NAS viel leichter zur Hand. Wenn du hingegen Anwendungen willst, die nicht fertig packetiert zur Verfügung stehen, kommt man mit einem echten Server schneller zum Ziel.


    Für die Frage, ob Docker oder VM, sollte man auch mal an die Sicherheit denken: Werden die Dienste, so sie denn auch außerhalb des LANs genutzt werden, nur über VPN genutzt oder direkt über Portfreigaben? Bei Letzterem würde ich über Docker nicht nachdenken, sondern alle externen Freigaben zumindest in eine virtuelle Maschine packen.

    Wenn Du Dich auf einen einzigen Verwendungszweck (oder Hauptverwendungszweck) festlegst, gäbe es auch Empfehlungen von QNAP über den Reiter Lösungen.

    Na ja... Die Empfehlungen von QNAP finde ich wenig hilfreich. Besser kommt man zum Ziel, wenn man mal abschätzt, welche Prozessorleistung man möchte und wie viel Speicher (wobei sich letzterer idR. erweitern lässt. Weiterer Punkt: Gigabit, 2,5GbE, 5GbE oder gleich 10Gbe?

    Bei 10GbE direkt über Wand-Verkabelung von einem kleinen Zimmer ins Nachbarzimmer. Also NAS-PC ohne Switch.
    Dabei sind mir nie Fehler aufgefallen.

    Wenn sich das bestätigt - ich weiß jetzt nicht, wie schnell die Fehler bei dir auftreten, damit du sagen kannst, geht oder geht nicht - dann könnte wirklich ein Kompatibilitätsproblem mit dem Switch vorliegen, und in dem Falle würde ich einmal einen Switch eines anderen Herstellers ausprobieren (notfalls Internet-Bestellung, und wenn der Switch des anderen Herstellers das Problem nicht behebt, dann innerhalb der 14 Tage zurückschicken - vielleicht hast du aber auch einen Händler vor Ort, der leihweise aushelfen kann).

    Mir fällt übrigens auch auf, dass das Qnap Protokoll immer noch voll von gedropten Paketen ist. Ist das normal?

    Nein, im LAN ist das nicht normal (außer die Gegenstelle reagiert nicht, da z. B. nicht eingeschaltet). Da sollte die Kommunikation ohne Paketverluste vonstatten gehen.

    Ich habe es ja schon an verschiedene Switches(selbe Modell)

    Das lässt mich gerade aufhorchen, da ich hier ein Problem hatte, bei dem es an der Software des Switches (der war von QNAP) lag. Es gab massive Paketverluste, und außer einem langsamen Ping ging nichts. Ich hatte andere Ports probiert, Kabel getauscht, keine Änderung, anderen Switch (gleiches Modell), aber gleicher Fehler, dann einmal PC (ist ein MacBook mit Thunderbolt-Adapter für 10GbE) und NAS direkt verbunden, und plötzlich ging es. Mit dem Switch eines anderen Herstellers (Mikrotik) war das Problem wie weggeblasen. Es lag an der Software des Switches, weswegen der Austausch gegen ein anderes Exemplar des gleichen Modells nichts gebracht hatte.


    Was mir sonst noch als Fehlermöglichkeiten einfällt:

    - Defekte Kabel oder Stecker, Kabelbruch

    - Kabel außerhalb der Spezifikation (z. B. nur Cat 5 oder zu lang)

    - Störungen im Kabel, z. B. durch eine parallel führende Stromleitung (betrifft nur Kupferkabel)

    - Defekte 10GbE-Adapter im PC/NAS

    - Defekte SSD/Festplatte im NAS

    - Hardwaredefekt im NAS/PC/Switch (hast du wohl schon ausgeschlossen)

    - Fehlerhafte Software


    Was du testen solltest:

    - Direktverbindung PC zu NAS ohne Switch dazwischen. Wenn's geht, steht der Switch im Verdacht.

    - Verbindung mit Gigabit-LAN statt 10GbE: Wenn's geht, scheidet die SSD im NAS als Fehlerursache aus.

    - Verbindung über Switch, aber außer PC und NAS kein weiteres Gerät eingesteckt.

    - Kabel tauschen, Ports tauschen.


    Noch eine Nachfrage: Welche Kabel hast du (Kupfer oder LWL) und wie lang sind die?

    Dazu kommt das die meisten Qnap performanter sind.

    Sagen wir mal so: In der gleichen Preis- und Geräteklasse nimmt sich das nicht so viel. Aber Qnap hat auch Modelle mit stärkerem Prozessor und mehr RAM im Angebot, wo Synology schlichtweg kein vergleichbares Angebot mehr hat.


    Wenn Speicher und Prozessor stimmen, dann kann auch die Virtualisierung überzeugen. Ich habe hier ein TS-877 (seit kurzem nicht mehr im Sortiment, daher keine direkte Empfehlung) mit 16GByte Speicher, und da ist die Geschwindigkeit der virtuellen Maschinen sehr überzeugend.


    Und in der Leistungsklasse ist das NAS dann auch sehr gut als Server nutzbar.


    Allerdings bewegt man sich dann auch in Preisregionen, wo das NAS keine billige Alternative zu einem eigenständigen Server mehr ist.


    Ein Nachteil ist allerdings der blöde Bootprozess von qts (Dateien im /etc-Verzeichnis werden jedesmal neu aufgebaut), der einige Installationen unnötig schwer macht. Die virtuellen Maschinen sind hiervon aber nicht betroffen.


    Vorteil ist dass ich nur ein System habe - Nachteil ist dass wenn dieses 1 System defekt ist, nichts mehr funktioniert.

    Die Ausfallwahrscheinlichkeit für einen Komponente ist nicht höher. Aber klar, wenn, dann trifft es gleich alles. Du kannst dir die vorhandenen nucs ja in den Schrank stellen, um damit im Falle des Falles noch ein Backup für dein LAN zu haben.

    Der limitierende Faktor sind die 2 Platten im Raid1, die mit 2,5GbE ausreichend bedient sein sollten. 2,5GbE transportiert bei großen Dateien um 900 GB in der Stunde! Das wären selbst bei wirklich großen Fotos (100MP-Sensor) tausende Bilder. Die kann man in einer Stunde nicht durchschauen und auch nicht bearbeiten.

    Du machst wohl keine Fotobearbeitung? saxo wird nicht eine Stunde warten wollen, wenn er in einem Ordner mit tausend Bildern zum 500sten Bild scrollt. Beim Scrollen im Ordner werden alle Bilder, die im sichtbaren Bereich sind, zur Anzeige einer Vorschau geladen, und das können dann schnell mal zehn bis hundert RAW-Bilder (Dateigröße 20MB bis 50MB) sein, die bitte in wenigen Sekunden geladen werden sollen. Im Mac Finder oder in Nikon Capture NX-D ist der Unterschied zwischen Gigabit-LAN und 10GbE (letzteres mit SSDs) gravierend, in Lightroom deutlich, wenngleich nicht ganz so extrem (LR braucht mehr Zeit zur Berechnung der Vorschauen).


    Gut, hier ist der Unterschied nicht zwischen Gigabit und 10GbE, sondern zwischen 2,5 GbE (das kann die Kiste von Haus aus) und 5GbE (das könnten die Toshiba-Platten im Raid 1 lesend schaffen) bzw. max. 10GbE (mit Karte und SSDs).


    Dass Link-Aggregation nichts bringt, könnte am Switch liegen, der die Ports vielleicht nicht zusammenfassen kann.


    saxo: Was du machen kannst:

    - Schalte mal Jumbo-Frames ein. Bei SMB haben die sehr viel gebracht, bei AFP garnichts. Der Versuch kostet immerhin nichts.


    - Mach mal Geschwindigkeitstests mit iperf und mit einem über ein Dateisystem gehenden Testprogramm wie Blackmagic Speed Test. Wenn letzteres in die Nähe der Werte von iperf kommt, kann eine 10GbE-Karte was bringen.


    - Von einem SSD-Cache verspreche ich mir nichts. Lesend passt ein Cache nicht zur Anwendung, die Schreibgeschwindigkeit ist (zumindest bei Fotos) unwichtig, und Zugriffszeiten (iops) sind nebensächlich. Was jedoch was bringen wird, das sind zwei SSDs im Raid 1 mit eigenem Volume, und du entscheidest selbst, was da wegen schnelleren Zugriffs drauf kommt (z. B. das letzte Jahr auf SSD, alles andere auf die Festplatten), dies ist aber nur in Verbindung mit einer 10GbE-Karte sinnvoll.


    Ich kann dir aber nicht sagen, ob sich bei den Versuchen nicht der Speicher oder der Prozessor als Engpass herausstellen wird. Mein NAS hat einen schnelleren Prozessor.

    Was mache ich da falsch?

    Möglicherweise gar nichts.


    So wie ich diese Anleitung verstehe, wird über die aufgerufene URL erkannt, wo die Anfrage hingeht. Steht keine 3rd-Level-Domain davor, geht sie an die QNAP-Anmeldeseite.


    Bevor du weitere Versuche machst, empfehle ich dir, sofern nicht erfolgt, den ssh-Zugang freizuschalten, damit du noch an das NAS kommst, falls du den Web-Zugang abschießen solltest.


    Was in jedem Falle gehen sollte: Du leitest im NAS (d. h. Virtual Host Konfig) "www.deinname.at" auf deine Seite um. Bei deinem Web-Hoster legst du eine Umleitung von "deinname.at" auf "www.deinname.at" an. Wenn jetzt ein Besucher deine Seite mit "deinname.at" (ohne "www") aufruft, bekommt er "www" davor gesetzt - was idR. ok sein sollte.


    Dann kannst du versuchen, was sich ergibt, wenn du im Virtual Host nicht "www.deinname.at" konfigurierst, sondern nur deinname.at.


    Noch ein Versucht ist, du nimmst eine andere Portnummer im Virtaul Host, z. B. 60080 für deine Web-Seite. Im Router musst du dann eine Portweiterleitung von extern 80 auf NAS:60080 machen. Der Besucher merkt nichts davon, dass da ein unüblicher Port im Spiel ist.

    (Ich habe die Versuche nicht ausprobiert.)


    Thema Sicherheit:

    Durch den WWW-Zugriff bietest du kriminellen Angreifern wesentlich mehr Angriffsfläche, und einige Schwachstellen sind außerhalb deiner Einflussmöglichkeiten (z. B. Fehler im Webserver). Wenn du dort eine rein statische Seite anbietest, mag das Risiko vertretbar sein, wenn Benutzereingaben verarbeitet werden (z. B. Gästebuch zum Eintragen) erhöht sich das Risiko erheblich.


    Denk dran: Auch wenn die Daten auf deinem NAS nicht wichtig sind und gerne gelöscht oder verschlüsselt werden dürfen: Sobald ein Angreifer auf dem NAS ist, ist er im internen LAN. Die übrigen Geräte im LAN (PC, Drucker etc.) sollten dann ihre Dienste (Freigaben) mit vernünftigen Passwörtern sichern oder keine Dienste anbieten.


    Was du tun kannst, um die Sicherheit zu erhöhen:

    Du nimmst nicht den von QNAP angebotenen Webserver, sondern installierst eine virtuelle Maschine mit Linux (feste IP verwenden), und da kommt Apache (oder Tomcat, wenn du Java brauchst) drauf. Dann machst du eine Portfreigabe auf diese virtuelle Maschine. Ein Angreifer, der den Webserver kompromittiert hat, muss dann erst aus der virtuellen Maschine raus kommen, was möglich, aber nicht trivial ist (vorausgesetzt, du hast im LAN und insbesondere im NAS vernünftige Passwörter). Damit löst sich übrigens auch das Problem aus deiner Eingangsfrage. Der WWW-Zugriff geht dann direkt auf deine Seite.


    Zusätzliche Sicherheit hast du, wenn du den zweiten LAN-Port ebenfalls mit dem Router verbindest (eigene IP-Adresse am Port), und diesen nur mit der virtuellen Maschine nutzt.


    Aber auch bei den Lösungen mit einer virtuellen Maschine ist ein Angreifer, der den Webserver kompromittiert hat, im LAN.


    Im Firmenumfeld wird für sichere externe Zugriffe eine DMZ eingerichtet.

    Äh, ich verstehe jetzt nicht so viel von dem Thema, aber wäre es statt dieser Konstruktion

    PC => Switch => pfsense => Switch => NAS

    nicht besser, PC => L3-Switch => NAS zu bauen mit einem L3-Switch mit Firewall-Fähigkeiten und 10GbE? Die 10GbE-Switches CRS-305 und CR-309 von Mikrotik mit Router-OS sind recht günstig und haben L3-Fähigkeiten.


    Ich habe hier zwar einen der genannten Mikrotik-Router, aber ich habe nicht wirklich die Ahnung, ob und wie man da so etwas konfigurieren könnte.


    Hier zwei Links von Leuten, die da mehr Ahnung haben als ich:

    https://www.trustradius.com/co…s-and-switches-vs-pfsense

    https://administrator.de/tutor…ient-software-115798.html

    Ich habe dieses Jahr den Wechsel von Synology zu Qnap gemacht (TS-877) und bin insgesamt sehr zufrieden. Trotzdem kann ich dir nicht wirklich weiterhelfen, denn ich habe weder die Photostation noch die Surveillancestation benutzt, und ich tue es jetzt auch nicht.

    Ansonsten habe ich gehört, dass die Geräte bei Qnap etwas moderner und schneller sein sollen, dafür aber die Software mit 1000 zusätzlichen Einstellungsmöglichkeiten eher an die Pro´s gerichtet ist.

    Ob die QNAP NAS nun moderner sind? Nun ja, wenn man gewisse schnelle und leistungsstarke Prozessoren will, wird man nur bei QNAP fündig. Wenn man das NAS auch als ständig laufenden Server möchte, z. B. für mehrere virtuelle Maschinen, Datenbanken o. Ä., dann sollte man zu QNAP greifen, da man nur dort Geräte findet, die die Prozessoren haben, mit denen das Spaß macht (aber lange nicht alle QNAP NAS haben schnelle Prozessoren, langsame Dinger hat QNAP auch). Möchte man ein NAS nur dazu nutzen, wozu es ursprünglich da ist, nämlich Speicherplatz in irgendeiner Form im Netz bereit zu stellen, dann ist es egal, of QNAP oder Synology.


    Moderner sind bei QNAP auch die Netzwerkanschlüsse. QNAP geht bei neuen Modellen konsequenter von Gigabit-LAN zu schnelleren Anschlüssen über, meistens 2,5GbE. Natürlich kann man auch bei Synology eine 10GbE-Karte einbauen wie bei Qnap, und dann sind sie wieder gleich. Ich empfehle dir, bei der Gelegenheit dein Netz auf was Schnelleres als Gigabit umzustellen.


    Qnap hat in der Tat deutlich mehr Einstellmöglichkeiten als Synology, aber im Großen und Ganzen kann ich nicht behaupten, dass ich damit auch mehr Funktionalität gewinne. Viele Einstellmöglichkeiten sind auch weitgehend überflüssig. Eine wichtige Ausnahme gibt es aber: Ein Backup so, wie ich es möchte, ohne Containerdatei, aber mit Versionierung, kriege ich nur bei Qnap. Ich nehme es Synology immer noch übel, dass sie mit DSM 6.1 das simple, aber zuverlässige Time-Backup eingestellt haben.

    Eigentlich völlig egal, wie du es machst. Solange du den Haupt-PC und das neue NAS an den schnellen Switch anschließt (was sowieso klar ist), wirst du wohl keinen Unterschied in der Geschwindigkeit sehen, und funktionieren tut es sowieso.


    Eine Ausnahme ist allenfalls, wenn es häufiger gleichzeitige Zugriffe von verschiedenen Geräten an einem Switch auf verschiedene Geräte am anderen Switch gibt (z. B. das Backup vom neuen auf das alte NAS läuft tagsüber und nicht nachts ab eins; in dem Falle kann es ein wenig was bringen, die beiden NAS an den neuen Switch zu hängen).


    Ansonsten kannst du dir eher überlegen, die Switche an verschiedenen Orten aufzustellen, um Verkabelung zu sparen, oder weil ein altes Kabel am neuen NAS zu lang ist für 10GbE.


    Im Firmennetzwerk mit 100 Mitarbeitern kann das anders aussehen.

    Das halte ich für einen Trugschluß. [... viel gekürzt ... ] und dadurch andere Erstellung von Sicherheitslösungen mit anderen Gewichtungen.

    Das ist im Prinzip richtig.

    Aber für die Auswahl des NAS macht das keinen Unterschied, weil die sich da nichts nehmen.


    Und dann haben wir es beim Fragesteller mit einem Einsteiger (Anfänger? - der Titel lässt darauf schließen) zu tun. Da ist es nicht hilfreich, von Sicherheitskonzepten zu sprechen, die im Firmenumfeld diskutiert werden. Das verwirrt nur und schreckt ab.


    Ein gutes Sicherheitskonzept kann recht einfach umgesetzt werden:

    - Keine Portfreigaben im Router (und wenn doch, sollte man genau wissen, was man macht)

    - Keine unbefugten Personen im lokalen Netzwerk

    - Backup an einen Ort, der vom PC aus nicht direkt erreichbar ist. Die externe USB-Platte am NAS leistet da schon gute Dienste - bitte keine Freigaben darauf, sondern Zugriff über Shell (eingeloggt im NAS) oder File-Station. Wenn es mehr Schutz sein soll, dann eine weitere USB-Platte, die nur z. B. einmal im Monat zum Backup angesteckt wird. Wer Angst vor Feuer hat, deponiert diese bei einem Bekannten.


    Das reicht für Privathaushalte vollkommen aus.

    Es gibt auch RAID 01 (Kombination aus RAID 0 und 1). Diese kann aus mindestens 3 HDDs gebildet werden. QNAP unterstützt das aber nicht und es hat auch keine Vorteile gegenüber RAID 5.

    Und RAID 0 und 1 sind auch nicht auf 2 Festplatten limitiert. Du kannst das mit so vielen bauen wie du möchtest, siehe QNAP Systempartition.

    Korrekt.


    Aber auch hier gilt: Für Einsteiger läuft das drauf hinaus auf Einzelplatte(n) oder Raid 1 mit zwei Platten oder Raid 5 ab drei Platten. Alles andere verwirrt nur.


    (Wer Raid 0/01/10 will, sollte auch einen 10GbE-Anschluss haben, sonst bringt das nichts. Die zusätzliche Sicherheit von Raid 6 fangen wir im privaten Umfeld mit einem guten Backup - das man eh' braucht - ab.)

    Nach dem ersten Reboot lief nicht mehr viel.


    Nach dem zweiten Reboot war dann alles wieder in Ordnung. Nur die Virtualisierungsstation musste ich erst einmal wieder suchen (Kachel fehlte).


    Da ich gestern bei der Gelegenheit eine USV in Betrieb genommen und getestet gabe, hatte ich ohnehin mehrere Reboots.

    Viele nfs-Fans scheint es hier nicht zu geben ....


    Etwas weiter bin ich gekommen:

    Mit nfs Version 4 und idmapd ist so ein Mapping prinzipiell möglich.

    Auf dem Mac muss nfs mit der expliziten Versionsangabe vers=4 in den Mount-Optionen gemounted werden.

    Mit dscl muss auf dem Mac die Domain auf denselben Namen gesetzt werden, der auch im NAS in der Datei /etc/idmapd.conf benutzt wird.


    Lesender Zugriff geht dann. Mit ls werden schön brav die gemappten Usernamen angezeigt.


    Leider hängt sich dann der Prozess auf dem Mac beim Schreiben auf. Eine Datei wird zwar angelegt, aber der Funktionsaufruf auf dem Mac (?) nicht beendet. Schreibender Zugriff ist damit nicht möglich.


    Das scheint ein Kompatibilitätsproblem zwischen Mac und Qnap bei nfs Version 4 zu sein, unabhängig vom beschriebenen Mapping der Usernamen.


    Hat schon irgendwer nfs Version 4 auf dem Mac zum Laufen bekommen?

    -geringe Laufstärke

    Kleine Geräte sind hier besser als große und leistungsstarke. Die großen NAS haben teilweise ständig laufende Lüfter, was man im Wohnzimmer nicht möchte. Die kleinen NAS gehen zuverlässiger in den Ruhezustand.


    SSDs sind leiser als herkömmliche Festplatten, aber bei der angedachten Größe recht teuer. Wenn ich mit den Dateien gearbeitet habe, haben mich auch die Festplattengeräusche nicht gestört. Das stündliche Hochfahren der Festplatten für Time-Machine-Backups fand ich hingegen recht störend.


    Am leisesten ist das NAS, wenn es im Nebenraum oder im Keller steht.


    -ca. 4tb

    Da eine einzelne Festplatte 4TB und mehr haben kann, kann jedes NAS diese Forderung erfüllen.

    -unkomplizierte Bedienung

    Ich habe hier ein älteres Synology und ein neues Qnap. Das Synology finde ich merklich leichter zu bedienen, ohne dass es nennenswerte Abstriche in der Funktionsvielfalt gibt.


    Geräte von z. B. WD oder Thecus sind noch deutlich einfacher gestrickt, aber da muss man dann nennenswerte Abstriche in den Funktionen hinnehmen. Die empfehle ich deswegen nicht.


    -Raid 01 mit 3 Platten

    Raid 0 (empfehle ich dir nicht) und Raid 1 haben zwei Platten, bei drei Platten hast du Raid 5.


    Ein NAS mit zwei Einschüben, die dann mit zwei Platten à 4TB oder 6TB belegt und als Raid 1 konfiguriert sind, reicht für deine Ansprüche.


    Achtung: Ein Raid ist kein Backup. Ein Raid hilft nur, bei Defekt einer Festplatte diese leicht austauschen zu können (defekte Platte raus, neue Platte rein, weiterarbeiten). Ein Raid bietet keinerlei Schutz gegen Schadprogramme oder eigene Dummheit.

    -hohe Sicherheit

    Am wichtigsten für hohe Sicherheit sind Backups, und zwar in mindestens zwei Geräten (z. B. Daten auf dem PC und Backup auf dem NAS oder Daten auf dem NAS und Backup auf einer per USB angeschlossenen externen Platte).


    Wenn das NAS nicht aus dem Internet erreichbar ist (keine Portweiterleitung im Router) und du im eigenen LAN keine möglicherweise böswilligen Leute hast, dann ist jedes NAS gegen Angriffe sicher. Für die Auswahl des NAS macht das keinen Unterschied.


    Kleiner Exkurs, für den TE uninteressant:

    Sicherheit würde ich bei ARM im vergleich zu einem Intel NAS höher einstufen, da hier keine Probleme mit Spectre und Meltdown.

    Spectre und Meltdown sind in diesem Umfeld harmlos, da sie nur lesenden Zugriff ermöglichen. Profane Sicherheitslücken im Betriebssystem sind viel gefährlicher. Spectre und Meltdown sind nur in gewissen professionellen Bereichen gefährlich (z. B. beim Webhoster, wo man damit Daten anderer Kunden auslesen könnte). Der eigentliche Aufreger bei Spectre und Meltdown ist aber, dass das die ersten Sicherheitslücken sind, bei denen der Fehler in der Hardware liegt und eine Beseitigung der Lücke mit einer neuen Softwareversion nicht so ohne weiteres möglich ist.