Beiträge von qnapdoonap

    Auf den SSDs laufen primär meine Container. Viel Lesen und Schreiben.

    Ich hatte zuvor Raid5, konnte aber feststellen, dass mir 2TB für die Container ausreichen.


    Da ich ja jeweils auch tägliche Backups habe, ist Raid10 dem Raid6 vorzuziehen, da Raid6 zwangsläufig starke Performanceeinbussen beim Schreiben der Daten hat. Raid6 sollte primär nur bei grossen Daten mit viel Lesezugriff (z.B. Serien und Film-Archiv) verwendet werden.


    Nachtrag:

    Generell ist es sogar so, dass Raid10 mit SSDs nicht nur keine merklichen Geschwindigkeitsvorteile bietet, sondern im besten Fall nur gleich schnell ist, wie ohne Raid. Raid10 für Performance gibt es nur bei HDDs. Aber mit dem Raid10 habe ich immer noch eine wesentlich bessere Performance als mit Raid6 und bietet mehr Sicherheit als Raid5.

    Nein, Dolbyman hatte da schon recht.

    (U_U_) vs (U_UU)


    Es musste irgendwas Softwareseitiges sein, da ich ja noch immer zu den Daten Zugang hatte. Also, der Raid mit der neuen SSD2 konnte nicht neu aufgebaut werden, da irgendwas mit der SSD4 (Softwareseitig) ebenfalls nicht korrekt war.


    Ich hab das nun als Raid10 neu aufgebaut und das Backup wieder eingespielt. Nun erhalte ich auch ein schönes (UUUU) ;)

    Vielen Dank nochmals für all euren Support.

    Ich hab mich nun dazu entschieden, den kompletten Raid-Verbund zu entfernen, neu zu erstellen und das Backup wieder einzuspielen. Das ist vermutlich langfristig die stabilere uns sichere Lösung, als das versuchen zu flicken.

    Vielen Dank für eure Antworten.


    Bei der neuen SSD handelt es sich um das gleiche Modell, wie auch die anderen 3.

    Diese war zuvor bereits mal in einem ander QNAP NAS verbaut. Ich hatte allerdings vor dem Einbauen sämtliche Partitionen am Desktop PC entfernt.


    Betreffend dem tauschen:

    Ich hab schon damit gewartet, bis es hiess, dass die SSD2 entfernt wurde, bevor ich diese dann wieder eingesetzt habe. Ich hab das dann anschliessend auch nochmals so gemacht, auch mit Ausschalten dazwischen, etc.. Das Ergebnis war leider immer dasselbe.

    Hallo zusammen


    Ich hatte neulich einen Ausfall einer SSD und habe diese getauscht. Der Raid-Verbund wird aber einfach nicht neu aufgebaut.


    Zusammenfassung:

    Bei meinem TS1277 habe ich in den ersten 4 Slots 4 Stk. 1TB SSDs verbaut, welche im Raid5 laufen. Die SSD 2 ist ausgefallen und somit habe ich (ohne die Weboberfläche zu verwenden) in laufendem Betrieb die SSD gegen eine andere 1TB SSD ausgetauscht. Normalerweise startet dadurch ja automatisch der Rebuild Prozess - In diesem Fall aber nicht.


    Die SSD wird erkannt und somit sieht eigentlich alles gut aus:

    pasted-from-clipboard.png


    Die Raid Gruppe selber ist aber noch immer Heruntergestuft und es startet kein Rebuild Prozess:

    pasted-from-clipboard.png


    Wenn ich versuche den Rebuild manuell zu starten, dann müsste ich laut GUI zwei leere Platten auswählen, was aber ja keinen Sinn ergibt. Ich möchte lediglich, dass die Sektoren der SSD 1,3 und 4 nun wieder ordnungsgemäss auch in die SSD 2 geschrieben werden. Hat da jemand eine Idee? Ich habe zwar Backups aller wichtigen Daten, würde es mir aber gerne sparen, diese wieder aufzuspielen, da über diesen Raidverbund auch alle Qnap Apps laufen.


    pasted-from-clipboard.png

    pasted-from-clipboard.png

    tiermutter

    Nee, ich hatte alles nach Anleitung gemacht.


    Aber ist nun im Endeffekt alles okay. Eventuell hätte der Support das auch noch hinbiegen können, aber der Weg zu formatieren und ein Backup einzuspielen verschafft mir sicherlich ruhigere Nächte und schütz vor weiteren Problemen (Wenn ich den Pool z.B. wieder expandieren möchte). Ebenso war das gerade mal gut um gezwungen zu werden die Daten aufzuräumen. :S

    QNAP Support Hat mal diese Anleitung zugesendet. Das ist aber die Standard vorgehensweise: https://www.qnap.com/de-de/how…apazit%C3%A4tserweiterung

    Einfach nochmals Antworten, dass Du diese Anleitung befolgt hast und es dennoch nicht funktioniert.

    Bei mir machen sie nun eine remote session.



    Der QNAP Support hat sich das Problem zwischenzeitlich angeschaut.

    Es scheint effektiv ein anderes Problem zu sein als bei HansWurst0815 .


    Allerdings sehr strange, was hier passiert ist.

    Bei der Migration von Raid 1 zu Raid 5 ist irgendetwas sehr falsch gelaufen. Der Raid-Controller geht aktuell davon aus, dass die ersten beiden SSDs im Raid 5 laufen. Die weiteren 2 SSDs gehören je nach Tool für die Auswertung auch dazu, oder eben nicht. Ganz speziell ist jedoch, dass beim Datenverschieben effektiv nur 2 der SSDs unter Last sind. Raid 5 mit 2 Platten ist aber nicht möglich, daher muss irgendwie im Hintergrund noch immer der Raid 1 funktionieren.

    Ich finde es schon beinahe beachtlich, dass ein so zerschossenes Setup überhaupt noch funktioniert.


    QNAP hat mir angeboten, den Versuch zu starten, nach einem Backup von mir, dies in Ordnung zu bringen - Allerdings mit der klaren Warnung, dass ein Datenverlust sehr wahrscheinlich sein kann. (An dieser Stelle ein grosses Lob an den QNAP Support, für die rasche und professionelle Unterstützung. Ich hatte nichts dergleichen erwartet)

    Ich setze nun die komplette Gruppe selber zurück und spiele dann wieder ein Backup ein. Besser von neuem beginnen um ein sauberes Setup zu haben.

    Scheint leider nicht nur bei Dir so zu sein.

    Habe gerade dasselbe Problem und wollte hier einen Beitrag deswegen erstellen.


    Einziger Unterschied liegt bei mir, dass ich von 2x SSD im Raid 1 auf 4x SSD im Raid 5 migriert hatte. Raid-Bereinigung, Raid-Rebuild, etc. bringt alles nix. Komisch finde ich, gleich wie bei dir, dass im PopUp "Startet" nur mit "" betitelt wird, aber keinen Inhalt hat.


    Ich erstelle ebenfalls mal ein Ticket.

    Hallo tiermutter

    Vielen Dank für Deine Antwort.


    Leider ist die Struktur von Qsync so aufgebaut, dass andere Freigabeordner nicht als Teamordner freigegeben werden können.

    Ich habe nun noch herausgefunden, dass ich zwar mit der Backup Funktion von HBS ein Backup vom qsync Ordner erstellen kann, nicht aber von den Teamordnern, da diese nochmals an einem anderen Ort gespeichert werden. Hier scheint es Out of the Box gar keine Lösung zu geben.


    Nach einigen anderen Beiträgen in Foren getraue ich mich nun aber ohnehin nicht mehr meine Daten an QSync zu übergeben. QNAP änderte bereits mit einem Update den Speicherort des .Qsync Ordners, was je nach Backup-Lösung das Backup ausbleiben lässt (Mehrere User waren davon betroffen, welche dies erst nach einem Crash bemerkten -> Daten weg).


    Zudem lässt sich QSync, wenn öffentlich betrieben, nur auf dem Port der Web-Oberfläche ansteuern. Wenn ich also eine Dateifreigabe für externe User erstellen möchte, bleibt mir nur die Möglichkeit das komplette GUI mit der "bösen" Welt zu teilen.


    Ich habe nun mal hinter einem Reverse Proxy im Docker Owncloud am laufen.

    - Bedienung ist intuitiver und umfangreicher

    - Einfache und stabile Backup Möglichkeit

    - Kann vom Rest abgekapselt betrieben werden, was mir eine relativ sichere Port-Öffnung ermöglicht.


    Ich teste noch Nextcloud und werde dann sicher bei einem der Beiden bleiben.

    Hallo zusammen


    Ich richte gerade QSync ein, was soweit hervorragend geklappt hat.

    Bevor ich das allerdings produktiv einsetze, möchte ich noch regelmässige Backups einrichten. Vorzugsweise einen Two-Way Sync in "Echtzeit" zur DropBox, damit ich auch die Version History von dort verwenden könnte. Dadurch hätte ich auch die flexibilität jemandem per Dropbox zugriff auf die Daten zu geben.


    Wie ich nun aber feststellen musste, unterstützt HBS 3 keinen Sync zwischen dem "homes/Username/.Qsync Ordner zu externen 3rd party Quellen (DropBox). :rolleyes:


    Hat da jemand eine Idee, wie ich das lösen könnte oder wie handhabt ihr das derzeit mit Backups von Qsync?

    Hallo tiermutter


    Vielen Dank für Deine Antwort.

    Ich konnte das Problem ausfindig machen, indem ich die Netzwerkkabel nun einmal mit mehr Systematik umgesteckt hatte.

    Das Problem lag an einem Port bei einem Switch, welcher noch vor dem NAS liegt.


    Es ist für mich noch immer Rätselhaft, weswegen es nach ein paar Mal Port-Wechsel und Neustarten beim NAS doch immer wieder funktioniert hatte, aber nachdem ich diesen Port beim Switch nicht mehr verwende taucht auch das Problem nicht mehr auf.

    Hallo zusammen


    Ich habe bei meinem Qnap TS1277 immer das Problem, dass wenn ich diesen Neustarte, was ich eigentlich nur vor und nach einem Firmware update tue, ich nicht mehr auf das Web GUI connecten kann.


    Der Boot-Prozess an sich scheint ohne Probleme zu funktionieren. Alle Schritte wie Boot Up Hard-Disks, Starting Services laufen ohne Probleme durch und ich kann mir auch die (statische) IP Adresse am schluss auf dem kleinen Display anzeigen lassen.


    Nach mehrmaligem Neustarten und mehrmaligem Umstecken bei den RJ45 Ports (mit anderer IP) scheint es dann wieder zu funktionieren.

    Danach kann ich auch wieder den RJ45 Port 1 mit der auch zuvor verwendeten statischen IP wieder verwenden.


    Leider habe ich so aber keinen Anhaltspunkt, wo denn genau das Problem sein könnte.


    Was ich sehe, ist das es etwas mit dem Netzwerk an sich zu tun haben muss. Im Anhang hat es einen Screenshot von der Netzwerkübersicht der Fritzbox. Wie ich hier sehe, wird der Server zwar erkannt und eine IP wird vergeben, aber selbst die Fritzbox selber erkennt nicht, wie der Server genau im Netzwerk eingebunden ist.



    Hat da jemand eine Idee, wie ich den Fehler weiter eingrenzen könnte?

    Crazyhorse


    Nochmals Dankeschön.


    Ich habe heute gerade festgestellt, dass QNAP irgendwann innerhalb der letzten paar Monaten eine neue Firewall App (QuFirewall) veröffentlicht hatte, welche an sich genau die Basic Regeln unterstützt, welche ich benötige.


    Regeln:

    1. Erlaube Port XY, wenn von IP XY

    2. Blocke alles andere aus dem WAN


    Da ich bei der pfSense sonst an sich auch nicht mehr eingestellt hätte, reicht mir das so vorerst auch aus und ist zudem noch Resourcenschonender, als wenn ich extra eine VM dafür laufen lassen muss.

    Vielen Dank für eure Antworten.


    FSC830

    Es geht mir darum, dass ich es vermeiden möchte eine Firewall zwischen NAT und allen Geräten zu hängen.

    Ich werde hier vermutlich nicht auf viel Verständnis stossen, aber für mich ist eine Firewall im Heimnetz, besonders wenn keine Ports geöffnet sind, unnötiges verkomplizieren. Zumindest bei einem so "flachen" Setup, wie ich es bei mir zu Hause habe.


    Vielleicht schreibe ich das aber auch nur, weil ich eine Firewall von Ubiquiti installiert hatte und immer wieder Probleme dadurch entstanden sind.


    Warum auch immer - ich würde sehr gerne den Ansatz versuchen, dass ich einen oder zwei Ports öffnen kann und diese vom Router auf die (Software) Firewall und von dort zu den Containern weiterleite, ohne dass die anderen Clients von der Firewall eingeschränkt werden. Dies gäbe mir die Möglichkeit ein paar Ports mit ausreichenden Sicherheitsmassnahmen zu öffnen, ohne dass ich beim restlichen Netzwerk im Konfigurationschaos ende.


    Falls dieser Ansatz aber zu Sicherheitslücken führen kann, so lasse ich mich sehr gerne belehren.


    Crazyhorse

    Vielen Dank. Dass das GUI nicht per WAN erreichbar ist, leuchtet mir jetzt ein und erklärt meine Fehlüberlegung.


    Ich glaube ich verstehe nun den Ansatz davon WAS ich umsetzen muss, aber leider noch nicht ganz WIE das gemacht wird.

    Ich habe nun alles umgesetzt, soweit ich das verstanden habe und mein Wissensstand dafür ausgereicht hat.

    An diesem Punkt wäre ich Dir aber sehr dankbar, wenn Du mir nochmals weiterhelfen könntest.


    Was ich gemacht habe:


    Ich habe in der Virtualization Station drei Netzwerkadapter hinzugefügt.

    Wie das in der Virtualization Station aussieht, ist auf dem angehängten Bild ersichtlich.


    Virtual Switch 1 - Für das LAN1, bzw. das Web GUI von pfSense

    Virtual Switch 1 - Für das "WAN" in pfSense (Port-Weiterleitung vom Router auf diese IP)

    Virtual Switch 8 - Für ein weiteres LAN in pfSense, wo ich dann gerne die Container zur weiteren Port-Weiterleitung anbinden würde


    Der Virtual Switch 1 ist im "normalen" Heimnetz mit der IP 192.168.1.214 konfiguriert (hier erreiche ich auch das NAS GUI)


    Der Virtual Switch 8 habe ich mit folgenden Daten eingerichtet:

    Statische IP

    IP: 192.168.10.1

    Subnetz: 255.255.255.0/24

    Standard-Gateway: 192.168.10.1

    DNS: 8.8.8.8

    IPv6 Auto-Konfiguration (Stateless)

    NAT Aktiviert


    DHCP Server wie folgt aktiviert:

    IP Bereich: 192.168.10.2 - 192.168.10.250

    Subnetz: 255.255.0.0/16

    Standard-Gateway: 192.168.10.1

    Primärer DNS Server: 192.168.10.1

    Sekundärer DNS Server: 8.8.8.8


    Besonders bei der DHCP Server Einstellung habe ich ehrlich gesagt keine Ahnung, ob das so richtig ist.





    Etwas mit dem Virtual Switch 8 scheint sicherlich noch nicht zu stimmen.

    Zumindest wird in pfSense keine IP Adresse für diesen "LAN" Adapter hinzugefügt.


    Das WAN, so wie das LAN1 scheint aber korrekt zu funktionieren und auf das WEB-GUI komme ich nun wie gewollt.


    An diesem Punkt komme ich aber leider nicht mehr weiter.


    1. Wie kann ich den Virtual Switch 8 richtig einstellen, dass darüber ein eigenes Sub-Netz läuft?

    Im Anhang habe ich noch einen Screenshot von der Zusammenfassung meiner Einstellungen.


    2. Wie kann ich die Container (laufen per docker-compose) so einrichten, dass diese über das Sub-Netz vom Virtual Switch 8 laufen?

    Oder alternativ: wie kann ich mein normal verwendetes Netzwerk auch über das separate Sub-Netz vom Virtual Switch 8 erreichbar machen?

    Ja, da hast Du natürlich recht. Dennoch komme ich so auf die € 2'000, wenn ich ein Gehäuse und 3x 18TB HDD kaufen muss.


    Ich überlege mir allerdings gerade einfach ein 8er Gehäuse anzuschaffen. Ich könnte ja die aktuell verbauten 6TB Platten ohne Raid für das Backup weiter Leben lassen.

    Hallo zusammen


    Ich würde sehr gerne die Netzwerkfunktionen vom NAS (und generell) etwas besser verstehen und habe mich deswegen einem kleinen Projekt angenommen.


    Mein Ziel ist es, das Web-GUI eines Containers über WAN aufrufen können. Voraussetzung ist jedoch, dass die Verbindung zuerst über pfSense in der Virtualization Station als Software Firewall geleitet wird, damit ich dort ein paar Restriktionen vornehmen kann.

    Leider ist das das Thema Netzwerk ein Fass ohne Boden und für mich nicht ganz einfach zu verstehen. Es scheint mir einiges an grundlegendem Wissen zu fehlen, welches ich bereits vorab erfolglos versucht habe, mir autonom anzueignen.



    Wie ihr dem ersten Screenshot entnehmen könnt, ist pfSense in der Virtualization Station zwei virtuellen Netzwerken zugewiesen. Nur das erste Netzwerk ist auch effektiv per LAN im Heimnetz und damit auch mit dem Internet verbunden.


    In pfSense wurde der Virtuelle Switch 1, welcher im Heimnetz, und dadurch auch über das Internet erreichbar ist, als WAN Interface und der Virtuelle Switch 2 als LAN Interface eingerichtet.


    Nun wird mir in pfSense die WAN v4 IP 192.168.1.44 und die LAN v4 IP 192.168.1.1 angezeigt.

    Auf das GUI komme ich aber leider nicht.


    Fragen:

    1) Weswegen kann ich per WAN v4 IP 192.168.1.44, welche am Virtual Switch 1 angebunden ist, welcher wiederum über den Adapter 1 läuft und somit im gleichen Netzwerk sein sollte wie meine anderen Geräte, nicht vom PC aus zugreifen (auch nicht anpingen)?

    Auch in der Netzwerkübersicht scheint keine IP zugewiesen worden zu sein.


    2) Verstehe ich es richtig, dass ich den Container, welcher auch von ausserhalb erreichbar sein sollte, an den Virtual Switch 2 (LAN in pfSense) anbinden muss. Anschliessend braucht es eine Portweiterleitung vom Router zum pfSense zur WAN IP und in pfSense eine weitere Portweiterleitung zum Container über das LAN Netzwerk (Virtual Switch 2)?


    3) Wie kann ich einen Container, welcher per Docker-Compose ausgeführt wird, auch dem Virtual Switch 2 zuweisen?



    Ich wäre sehr dankbar, wenn mich hier jemand in die richtige Richtung leiten könnte.

    Hallo zusammen


    Ich würde gerne Plex so einrichten, dass die Grafikkarte zumindest einen Teil der Codierung übernehmen kann.


    Ich habe hierzu eine Anleitung gefunden:

    https://www.reddit.com/r/qnap/…code_with_docker_and_gpu/


    Der einzige Punkt, an welchem ich scheitere (bislang) ist die saubere Einbindung der Grafikkarte.


    Code
    --device=/dev/nvidia0:/dev/nvidia0 \
    --device=/dev/nvidiactl:/dev/nvidiactl \
    --device=/dev/nvidia-uvm:/dev/nvidia-uvm \


    Über das GUI kann ich zwar die Grafikkarte auswählen (siehe angehängter Screenshot), die entsprechenden oben erwähnten Devices erstellt es mir dadurch aber im Container anscheinend leider nicht.

    Wie muss ich da vorgehen?



    Edit:

    In den Kommentaren bei oben verlinkten Tutorial hat jemand ein Docker-Compose File erstellt. Damit scheint es bei mir zu funktionieren.

    Wäre dennoch toll, wenn das auch per GUI möglich wäre, da ich nur so die Möglichkeit habe CPU entsprechend zu limitieren.


    Etwas weiter finde ich es seltsam, dass mir im QNAP GUI die GPU Auslastung immer mit 0% angezeigt wird. Die Codierung scheint aber über die Grafikkarte zu laufen und auch der Arbeitsspeicher der Grafikkarte wird entsprechend erhöht, wenn da gerade was läuft.

    Ist dieser Bug jemandem bekannt?