Beiträge von Anthracite

    Muß/kann ich Windows aktivieren, Windows lizenz

    wird vermutlich benötigt?

    Wenn du Windows Server nimmst, die kostenlose Evaluierungslizenz ist 180 Tage gültig und kann fünfmal verlängert werden. Wenn du zum richtigen Zeitpunkt verlängerst, kannst du fast drei Jahre Windows Server kostenlos nutzen. Das ist ein gutes Angebot.


    Intel sagt was anderes, und die haben den Prozessor entwickelt/hergestellt

    Zum Zeitpunkt der Entwicklung gab es womöglich noch nicht die 32GByte-Riegel, weswegen der Prozessor dafür nicht offiziell spezifiziert ist. (Ob das auch hier der Fall ist, weis ich nicht, aber oft ist so etwas der Grund für eine Einschränkung.)

    Falls Ihr ganz anders vorgehen würdet, dann immer raus damit!

    Ja! Ticket bei Qnap aufmachen.

    Die haben Experten, die sich genau damit auskennen, und andere Forenteilnehmer haben schon berichtet, dass der Qnap-Support hilfreich war und ein Raid hat wiederherstellen können.


    Ich habe mdadm auch schon mal benutzt, und vielleicht könnte ich auch was dazu schreiben, aber die Gefahr ist zu groß, dass ich mit meinem Halbwissen die "Tipps" gebe, die das Raid endgültig ruinieren.

    Kein Warum.

    Die Aussage von florit ist falsch.

    Wenn alle Teilnehmer in einem Subnetz eine manuelle IP-Adresse haben und die Netzwerkmaske (und im Prinzip auch das Gateway, hier aber nicht, da es keines gibt) manuell eingetragen ist, dann ist kein DHCP-Server nötig.

    und für schmale 99 Taler ein Schnapper

    Vermutlich ohne MwSt und ohne Service. Wenn man beides drauf rechnet, landet man wieder bei Preisen nahe den günstigsten Angeboten hier.

    "chinesischen Perlen"

    Es ist halt ein Glücksspiel. Man kann Glück dauerhaft haben, man kann eine Zeit lang Glück haben, bis das Gerät doch Ärger macht, man kann ab sofort Pech haben. Ich habe schon zu viel Chinaschrott (allgemein, nicht auf Switches bezogen) gesehen, als dass ich No-Name-Billigprodukte empfehlen könnte.

    Die Logik beim Zugriff auf nfs ist, dass der nfs-Server die Dateirechte übernimmt und die Zuordnung über die User-ID (ab nfs 4.0 alternativ Usernamen) macht. Wenn dein Linux-User mit der UID 1000 eine Datei auf dem eingebundenen nfs-Laufwerk anlegt, dann gehört diese Datei auch auf dem NAS dem User mit der ID 1000.

    Arbeitest du hingegen mit dem User root (auch über sudo), welcher die UID 0 hat, dann ist auch auf dem NAS die neue Datei der UID 0 zugeordnet.


    Dies Ganze geschieht ohne weitere Authentifizierung. Es reicht der Login bzw. das gestattete sudo-Kommando auf dem Linux-Rechner. Eine Anmeldung auf dem NAS ist nicht nötig. Wenn alle Rechner im Netzwerk ebenfalls unter deiner administrativen Kontrolle sind (wie bei einem Firmennetzwerk), und du festlegen kannst, welcher Benutzer wo überhaupt sudo ausführen darf, ist alles in Butter.


    Gibt es aber einen Rechner im Netzwerk, der nicht unter deiner Kontrolle steht, wo der Benutzer selbst das root-Passwort kennt, dann kann er nach Belieben auf Dateien auf der nfs-Freigabe zugreifen, auch solche, die eigentlich nur root gehören, und zwar ohne sich auf dem NAS anzumelden.


    Dieses Verhalten kann unerwünscht sein. Daher kann mit den obigen Optionen entweder dem Root-User oder allen Usern eine andere UID auf dem NAS zugewiesen werden.


    Bei SMB (CIFS) ist das übrigens anders. Die Zugriffsrechte der Dateien auf dem NAS spielen keine Rolle, und die Rechtevergabe erfolgt über die Anmeldung am NAS.


    Greift ein Rechner auf eine Freigabe per SMB zu, ein anderer auf dieselbe Freigabe per nfs, führt das schnell zu Problemen. In einem solchen Szenario sollte auch Linux die Freigabe besser per SMB (CIFS) einbinden.


    Hab's jetzt mal mit "Alle Benutzer zuordnen" probiert und hab festgestellt, dass ein als root gesarteter rsync -rv local /nas/Pfad, den man abbricht und wieder neu startet, alle Dateien von frischem komplett neu überträgt.

    Du hast die UID-Zuordnung geändert, und deswegen müssen alle Dateien mit anderes UID und GID neu angelegt werden. Aus Sicht vno rsync sind es deswegen nicht dieselben Dateien.

    Sowohl auf dem NAS als auch auf dem PC brauchen beide Ports jeweils eine eigene IP-Adresse. Du hast dann auf beiden Geräten jeweils zwei IP-Adressen.


    Für die Direktverbindung nimmst du besser ein eigenes Subnetz, also nicht 192.168.10.x, sondern z. B. 192.168.20.x. Das gibt weniger Probleme beim Routing. Da es in dem Subnetz 192.168.20.x keinen DHCP-Server gibt, musst du die beiden Adressen manuell vergeben, Gateway-Eintrag bleibt leer.


    Ob du dann über 10GbE oder über Gigabit auf das NAS zugreift, legst du durch die Wahl der Adresse fest, z. B. nimmst du bei "Netzlaufwerk verbinden" die 192.168.20.x-Adresse des NAS.


    Die Alternative dazu ist die Anschaffung eines 10GbE-Switches (z. B. Mikrotik CRS305, der ist relativ günstig).

    komme ich immer „nur“ auf 800 bis 850 MB/s

    Einiges hängt auch davon ab, wie du misst.


    Wenn du z. B. große Dateien vom NAS auf deinen PC kopierst und die Zeit misst, dann hast du in der Zeit nicht nur die Zeit zum Lesen und transferieren vom NAS, sondern auch die Zeit zum Schreiben auf die SSD des PCs. Letzteres verfälscht dein Ergebnis. Dedizierte Geschwindigkeitstestprogramme vermeiden den Schreib- und Lesezugriff auf dem PC.

    würde mich interessieren ob schon jemand eine Dual-port (SFP+) 10Gb reingesteckt und gemessen hat

    Ich habe eine Dual-Port-Karte mit sfp+ im NAS, aber nur deshalb, weil ich die Karte gebraucht gekauft habe (HP/Emulex), und der Preis war derselbe wie für Single-Port (habe 35 Euro bezahlt). Auch im PC ist eine Dual-Port-Karte, nur kann ich die Messung trotzdem nicht vornehmen, weil das NAS im Keller steht, und zwischen Keller und erstem Stock liegt nur ein Kabel (Glasfaser immerhin, begrenzt mich dennoch auf 10GbE).

    Ziehen und Wiedereinstecken einer Platte kann dazu führen, dass das Raid sich erneut synchronisieren möchte. Wenn du während dieser erneuten Synchronisation eine weitere Platte ziehst, hast du dein Raid möglicherweise zerschossen. Daher vor dem Ziehen einer Platte schauen, dass kein Synchronisationsjob auf dem Raid läuft.


    Was ich jedoch machen würde:

    - Warten, bis Synchro fertig.

    - NAS runterfahren und ausschalten

    - Nacheinander alle Platten einmal rausnehmen und Schrauben nachziehen, so dass sie fest in der Halterung sitzen, und Platte wieder einstecken.

    - Raid einschalten und wieder hochfahren.


    Wenn du im ausgeschalteten Zustand eine Platte entnimmst und wieder einsteckst, ohne sie zu wechseln oder den Inhalt zu ändern, kriegt das NAS hiervon nichts mit. Dann geht die Aktion schneller.

    Ok, es wird hoffentlich ein paar Monate halten

    Oh Mann, habt ihr aber wenig Vertrauen in die Haltbarkeit moderner Festplatten. Ein Raid 6 bei nur vier Festplatten ist mMn. absolut oversized. Ja, es kann passieren, dass innerhalb kurzer Zeit zwei Platten ausfallen, aber solche Defekte sind viel zu selten im Vergleich zu Fällen, die auch ein Raid 5 abfängt (eine Platte defekt, das kommt schon eher mal vor) und solchen, gegen die auch ein Raid 6 nicht hilft (Blitzeinschlag, Schadsoftware, eigene Dummheit).


    => Belass es bei einem Raid 5, das ist perfekt. Das ist (bei vier Schächten) der beste Kompromiss zwischen Sicherheit und Aufwand (Kosten).

    Die Antwort von carsten_h ist nur teilweise korrekt.


    Wenn dein Player (hier infuse) per SMB auf die Freigabe des NAS (oder eines anderen Speichers) zugreift, dann ist es kein Streaming (wie Carsten schreibt), da der Player Vollzugriff auf die Datei hat und selbst bestimmt, wann, so und wie schnell die Video- und Musikdaten gelesen und abgespielt werden.


    Greift der Player hingegen per DLNA auf das NAS zu, dann wird dort ein DLNA-Server gebraucht (bei Qnap z. B. Multimedia-Konsole mit Mediastreaming-Addon), welcher die Datei liest und per Streaming verteilt. Der Player gibt die Video- und Musikdaten so aus, wie sie ankommen, hat aber kaum weitere Kontrolle darüber.


    Infuse kann, wenn ich das recht gesehen habe, beides.

    Ausfallsicherheit. Fällt eine HDD aus, geht der Betrieb ungestört weiter und die defekte Disk kann ersetzt werden.

    Und nicht zu vergessen, da im Privatbereich vielleicht das Wichtigste: Der Ersatz einer defekten Platte ist mit minimalem Aufwand machbar. Alte Platte raus, neue Platte rein, den Rest macht das NAS. Ohne Raid müsste man erst auf der neuen Platte Volumen und Partitionen anlegen, dann das letzte hoffentlich komplette Backup einspielen und anschließend möglicherweise noch ein paar fehlende Konfigurationen (z. B. Freigaben, Rechte) nachziehen.

    Ich würde dann 9000 & 9014 nehmen und einen Geschwindigkeitstest (SMB-Geschwindigkeit, kein iperf3) machen, ob es funktioniert, d. h. ob es etwas bringt. Wenn der Geschwindigkeitsvorteil nur minimal ist, kann man die Jumboframes wieder abschalten - ganz vereinzelt machen sie dann doch mal Probleme (bei mir trifft es einen VPN-Zugang, ziemlich altes Programm, der dann nicht geht).

    Zwei Konfigurationsfehler hast du:


    172.0.1.10 ist eine öffentliche Adresse und darf nicht verwendet werden. Der privat nutzbare Bereich erstreckt sich von 172.16.0.0 bis 172.31.255.255.


    Die Thunderbolt-Verbindung hat keinen Router, und dort darf auch keiner angegeben sein. Lass das Feld "Router" bei der Verbindung leer.


    Und noch ein Tipp: Im 172-er Bereich darf die Netzwerkmaske 255.255.0.0 verwendet werden, aber je größer du den privaten Bereich definierst, desto eher riskierst du, z. B. in Firmennetzen (Notebook mobil eingesetzt beim Kunden) o. Ä. einen Adresskonflikt. Wenn du keinen besonderen Grund für die Nutzung eines großen Bereichs hast, dann nimm 255.255.255.0 auch im 17er Bereich.


    Edit:

    Die TB4 Bridge sollte auf automatisch stehen.

    Eher nicht, es sei denn, das NAS hat extra dafür einen DHCP-Server.

    [Zu Was funktioniert nicht mehr?] Na du bist ja zuversichtlich

    Das ist doch die wichtigste Frage. Wenn eine Funktion, die ich benutze, plötzlich nicht mehr geht, darf ich kein Update machen. Wenn neu hinzugekommene Funktionen noch nicht tun, was sie sollen, ist mir das relativ egal. Wobei mir nicht klar ist, was denn an der Version wirklich neu ist.

    Ich bezweifle allerdings, dass die VS 4 aus dem Betastadium raus ist

    Sie wird mir offiziell als normales Update angeboten. Also kein Beta.

    obwohl die nur schmalbrüstig ausgestattet waren, sind die 8GB RAM wohl dennoch zu wenig

    Die VMs waren der Grund, mein NAS von 16GB auf 48GB zu erweitern. Einmal läuft Windows Server für Kundenprojekte, einmal läuft Ubuntu als Datenbankserver mit MariaDB und MSSQL - für letztere VM waren zugewiesene 6GB knapp.

    Seit gestern gibt es mit der Virtualization Station 4.0.0.239 eine 4er-Version, die nicht mehr Beta ist.


    Ich trau mich noch nicht.


    Wer hat diese 4er Version schon im Einsatz?

    Was ist neu?

    Was funktioniert nicht mehr?