Beiträge von steinradler

    Hallo hie mal mein Update:


    Ich konnte die Daten nun wie folgt, am Sonntag Abend noch, aus dem snapshot wieder herstellen:

    File station / Momentaufnahem: den gewünschten snapshot auswählen: gewünschte Files/Ordner auswählen und auf kopieren klicken und dann in die gewünschte Freigabe wieder mit der File station einfügen.

    Vorher hatte ich noch wiederherstellen probiert waraufhin die selbe Meldung wie immer kam.

    Lustigerweise konnte ich dann auch kurz darauf den Snapshot manager wieder aufmachen solange bis die Wiederherstellung richtig losgelegt hat.

    Die Daten sind nun wieder hergestellt und der Snapshot manager funktioniert auch wieder.

    Ich sehe nun, dass ich für den ersten, also größten snapshot der Freigabe „dauerhaft behalten“ ausgewählt habe.

    Ob das auch eine Ursache des Problems sein kann? Somit muss ja eigentlich jede einzelne Änderung der Freigabe seit Anfang an behalten und mit allen weiteren snapshot verknüpft werden…


    Ich werden heute Abend noch mal eine saubere Sicherung erstellen und dann alle bestehenden snapshot löschen und ab heute neu beginnen.


    Und zum Support Ticket… hat sich bis heute keiner gemeldet.

    Reboot hat nichts gebracht :(

    Ich habe vorhin auch mal ein Ticket erstellt, hoffentlich bringt das auch mal was, bisher war meine Erfahrung eher mau.

    Rein theoretisch:

    Kann man die NAS neu intialisieren, aufsetzen ohne die Speicherpools zu verlieren?

    Snapshots zu verlieren, wäre auf Grund der Sicherung ja nicht so schlimm, aber die VM´s, Container und anderen Freigaben würde ich nicht gerne opfern.

    Hi,


    nein ist nicht voll.


    Das Backup wäre mit 31.12. für die meisten Daten okay, die verändern sich kaum.

    Dann habe ich noch das tägliche Cloud-Backup für die wichtigen Daten.


    Aber was hilft mir das bei dem Status? Wenn der Snapshot Manager nicht funktioniert?

    Langsam habe ich das Gefühl, dass die Situation/Zustand des Managers nicht mit dem Löschen der Freigabe direkt zusammen hängt.

    Mal schauen wie der Status morgen Früh ist.

    Hallo Crazyhorse,


    „leider“ nicht wirklich (beunruhigend), und nach 8-10 Stunden sollten die rund 800GB wohl auch kein Problem sein.

    Auch die CPU Auslastung ist minimal.


    Der Status unter Datenreduktion hat sich dann nach 2-3 Stunden eingestellt, aber Zugriff auf den Snapshot Manager habe ich noch keinen.

    In der File station kann ich den Inhalt der Momentaufnahmen zwar mit den gewünschten Inhalten sehen aber bekomme die selbe Meldung wenn ich etwas wiederherstellen lassen will.


    Kann ich die Freigaben oder den Pool irgendwie gefahrlos aushängen?

    Okay danke,


    ich verstehe glaube ich jetzt, durch das Löschen aller Daten, müssen diese nun erst in den Snapshot transportiert werden.
    Wenn die Daten noch in der Freigabe sind, werden ja auch nur gelöschte oder veränderte im Snapshot abgelegt. Eigentlich logisch.

    Es waren immerhin rund 750-820 GB die ich verschrottet habe...


    Noch ein Nachtrag,


    wenn man den NAS Papierkorb unbedingt zwischendurch mal manuell leeren will empfiehlt es sich wohl Abstand von der File station zu nehmen

    und das über folgendes Menü zu machen: Netzwerk / Netzwerkpapierkorb siehe Screenshot.

    Mir ist das auch das erste Mal in 30 Jahren passiert, aber erwischen kann es einen immer.

    Hallo,

    ich durch eigenes Verschulden alle Ordner einer Freigabe gelöscht, ich wollte den NAS Papierkorb aufräumen, habe zwischendrin was anderes gemacht, wohl den Papierkorp verlassen und als ich zurückkam alles ohne Netzwerkpapierkorb gelöscht.
    Okay wenn der Kopf ein Depp ist muss der Körper leiden. Aber für das gibt es doch snapshot, Sicherungen...

    Ich hätte nun einen aktuellen SnapShot (heute Nacht) der Freigabe die Betroffen ist, kann aber aktuell keine snapshots erstellt oder auf die Snapshot zugreifen oder welche löschen...
    ich bekomme immer die Meldung

    Code
    "Der Freigabeordner/die LUN is belegt"

    was mache ich falsch?

    Ich habe zwar eine Sicherung aber die ist nicht hundertprozentig aktuell, und eine zusätzliche Sicherung der allerwichtigsten Files in einem verschlüsseltem Cloud Backup aber der snapshot von heute Nacht wäre 100% aktuell aber aufwendig zusammenzuführen.
    Außerdem stimmt doch gerade was nicht, entweder liegt es an meinen Einstellungen oder ?? Ich muss doch jederzeit einen Snapshot erstellen, wiederherstellen und löschen können?

    Ich habe schon sämtliche Dienste und App beendet, es läuft eigentlich nichts mehr und trotzdem erhalte ich diese Meldung.
    Was ratet ihr mir? Gibt es Möglichkeiten was über die Kommandozeile zu machen?

    Eigenartig ist auch, dass unter Speicher/Snapshots die Anzeige für Komprimierung und Deduplizierung sich nicht oder gefühlt ewig nicht aktualisiert und dann nur für einzelne Freigaben im den einzelnen Pools.
    Das verhalten habe ich bei allen 3 meiner Speicherpools.

    Modell: TS-h886

    Aktuelle Firmwareversion: QuTS hero h5.0.1.2248

    Hallo top2bottom,


    schade, dass du mit dem tollen NAS so viele Probleme hast. Ja ich habe RDIMM 2x32GB von Samsung (M393A4K40CB2-CTD) und die funktionieren seit Anfang an problemlos. (sind halt nicht mit den 16GB UDIMM kompatible).

    Ich habe die original Riegel zum Glück noch (dank dem Forum) aber auf der Börse von Willhaben sind immer mal wieder welche zu haben, da gibt es Händler die verklopfen die direkt wenn der Kunde mehr RAM bestellt hat.

    Hast du dein altes NAS noch? Wenn ja wäre es bei deinem Fehler am sinnvollsten du versuchst eine längere Testphase mit dem neuen NAS indem du zuerst alles noch mal neu installierst und schrittweise mal grundlegend so konfigurierst wie du es dir wünscht.

    Wenn das dann entsprechend läuft kannst du die Hardware zu Teil (die HDD wirst wohl migrieren wollen) schon mal ausschließen.


    Ich war froh, dass ich mich in Ruhe mit QtTS hero mal beschäftigen konnte. Ich hatte ein Testsystem mit der selben Anzahl an HDD. Die meisten Daten habe ich dann synchronisiert und dann das RAID 5 mittels disc by disc replacemant auf die volle Kapazität erweitert. Der Rest der Daten wurde dann aus der Datensicherung hinzugefügt.

    Hallo Phonneo,


    sorry ich war eine Zeitlang nicht online. Wie du ja schon selber festgestellt hast hat auch bei mir alles ohne Probleme funktioniert.
    Das Rebuild dauert dann doch ne Weile wo bei es dann beim letzten Datenträger schon richtig schnell geht wie es ja auch mit Hero versprochen wird.


    Ich hatte allerdings SATA HDD gegen SATA HDD getauscht. Das System (system pool) habe ich auf NVME Spielgelung liegen.


    lg

    Hallo

    ich habe für einige Ordner meines Windows 10 Desktops eine mittels Qsync Client Version 5.0.1.0319 eine 2 Wege Synchronisation zu freigegebenen Ordnern am NAS eingerichtet.

    Heute ist mir aufgefallen, dass ständig neue Dateien in das Windowsverzeichnis synchronisiert werden obwohl die Ordner synchron sind und keine neuen Dateien erstellt oder hinzugefügt wurden.
    Es scheint sich um Dateien und Ordner zu handeln die im Namen einen Umlaut aufweisen. Wenn ich in das entsprechende Verzeichnis wechsle gibt es diese dann doppelt.

    Auf den ersten Blick sind die Ordner oder Dateien identisch. Öffne ich PowerShell und lasse mir den Inhalt mir dir anzeigen sieht man dass die Umlaute anders kodiert sind.


    Bei den Verzeichnissen kann man dann auch sehen, dass das Verzeichnis mit der anderen Darstellung/Kodierung später erstellt wurde.


    Hat jemand eine Idee warum die Synchronisation sich so verhält?


    Modell: TS-h886

    Aktuelle Firmwareversion: h4.5.3.1670



    pasted-from-clipboard.png


    20210613:

    Ich glaube ich habe die Ursache für das Problem gefunden, es dürfte am Qsync Pro von iPhone und iPad liegen.

    Ich habe für beide Geräte die Ordnerpaarung aufgehoben nun tritt das Problem nicht mehr auf. Nachstellen konnte ich es allerdings nicht.

    Blieb die Bereinigung, dazu habe ich festgestellt, das mittels powerShell die property der Creation time das Erstellungsdatum (nach dem ersten Anlegen des Qsyncjob) und des Dateinamens zur Sicherung und anschließenden automatischen Löschung für mich funktionierte.

    Jein. Kommt auf die Remoteverbindung an. RDP bringt seinen eigenen Anzeigetreiber mit. Also alles was mit der Ausgabe zu tun hat wird nicht von der Grafikkarte beeinflusst. Aber wenn du zum Beispiel ein Video konvertieren willst oder ähnliches, kann das sehr wohl von der GPU profitieren.

    vielleicht bring das hier für dich und andere NVIDIA Besitzer was, ich habe eine P1000 und es hat sich bei mir installieren lassen...
    https://developer.nvidia.com/designworks

    Sobald ich die PGU einer VM zuweise kann ich mir z.B. nicht mehr mit der WebKonsole oder VNC verbinden, das bleibt dann schwarz, zwischendurch kann ich mal ein Bild re freschen aber das wars.

    Mit Spice habe ich überhaupt noch keine Verbindung geschafft, ich habe aber auch keine HD-Station aktiviert, sollte aber auch so gehen, lohnt sich das hat das einen Vorteil gegenüber RDP?


    RDP funktioniert soweit gut.
    Es fühlt sich bei mir aber viel flüssiger an wenn ich Visuelle Stile und Menü und Fensteranimationen deaktiviere:
    pasted-from-clipboard.png


    Bei https://developer.nvidia.com/designworks konnte ich mich kostenlos registrieren und "Accelerate Windows Remote Desktop" herunterladen.


    pasted-from-clipboard.png


    Er sagt mir nun dass es zumindest aktiviert ist...


    pasted-from-clipboard.png

    Was ich lustig finde, dass ich das SSD Profiling-Tool gar nicht mehr auf meinem neue NAS habe ?(

    Aktuelle Firmwareversion: h4.5.2.1638


    Bin mir ziemlich sicher, dass es vor einem Monat beim hero auf der TS-873A noch installiert war :)
    Muss mir wohl eingebildet haben, vielleicht wars ja ein Test mit QTS wo es zwischendurch mal aktiv war.


    Habe gerade noch mal bei QNAP das app center mit FW und NAS geprüft, da ist es auch nicht angeführt...

    ..was ist nochmal dein Bedarf?

    erst mal geht es eben um die Frage ob der Betrieb der pfSense auf dem NAS Sinn macht.

    FW ist ein zukünftiges Projekt, wann genau ich das umsetzte weiß ich noch nicht. Zum Glück habe ich neben der IT auch noch andere Hobbies und der Sommer klopft auch schon an.

    Aber das muss reifen, ich hatte früher für spezielle Einsatzzwecke mit Astaro und diversen Anderen Lösungen umgesetzt. Das ist aber jetzt schon lange her und ich muss mir selbst erst wieder die Richtigen Fragen stellen was die Anforderungen sind. Klar ist aber, dass bei der derzeitigen Umsetzung mit FB bis auf das Gast-WLAN nichts sauber getrennt ist was getrennt gehört. Z.B. hat jeder „dumme“ Fernseher schon einen Fuß im Netz und sowas gehört sicher nicht zu den vertrauenswürdigen Geräten in meinem Netz. Benutzen tut man die Dinger dann doch...

    Eigene Cloud, VPN und Homeautomatisierung kommen dann auch dazu.
    Es geht aber klar um den privaten Einsatz geht. Sicherheit scheint mir beim Einsatz von Standard Routern eher zu kurz zu kommen.

    Werde ich machen!

    Ich kämpfe gerade noch mit dem initialen Setup der NAS, lass mir da Zeit da einige Einstellungen und Optionen für mich neu sind und ich mir einiges erst erarbeiten muss.

    Aus Erfahrung teste ich da lieber einiges aus und nerve Euch mit meinen Fragen. Aber besser als den Point of no return erreicht zu haben ab dem noch mal Alles zu ändern einen wahnsinnigen Aufwand bedeuten würde oder nur mehr mit Verlusten einhergeht.

    Testen werde ich die VM Lösung auf alle Fälle ob sie dann bleibt wird sich dann zeigen.


    Ich habe gestern auch mal kurz nach Appliances gegoogelt und schon welche mit 3-4 NICs, 4GB RAM und 8GB SSD um ca. 230€ gesehen. Teilweise schwierig einen Distributer dafür zu finden.

    Bzw. ist auch diese Appliance von Ubiquiti interessant, Anschaffungskosten ähnlich der Netgate Geräte, die Betriebskosten könnten höher sein: https://store.ui.com/products/udm-pro


    Wo bezieht ihr eure Netgates?

    Hallo ich spiele mich gerade mit den Einstellungen für den System pool und bin verstehe gerade nicht wie ich das SSD over provisioning einstellen kann. Laut Handbuch sollte ich Pool- und SSD over provisioning separat einstellen könnnen.


    pasted-from-clipboard.png


    Ich habe aber nur die Option das für den Pool einzustellen. Es zeigt mir insgesamt rund 931GB Speicher an. Die geschätzte Kapazität ist dann 872GB, verstehe ich auch nicht? Ist das das SDD over provisioning schon eingerechnet?


    pasted-from-clipboard.png


    Wie würdet Ihr das einstellen? Es sieht ja so aus als ob ca 7% hier eingerechnet werden. Wenn ich nun noch mal 10% für den Pool einstelle hätte ich rund 15%. Das wollte ich insgesamt als SSD over provisioning einstellen.




    pasted-from-clipboard.png

    Danke für die Antworten!


    Ich werde wohl erste Test auch mal mit der VM machen. Eine eigene Appliance hat absolut seinen Reiz, aber halt auch zusätzliche Kosten in der Anschaffung und im Betrieb.

    Je nach Hypervisor weniger gut für Echtzeitanwendungen wie Firewalls geeignet.

    Den Hypervisor kann ich mir ja nicht aussuchen, das ist KVM bei Qnap richtig? Ist das nun gut oder schlecht?

    Mich würde mal interessieren was ihr davon haltet pfsense als Virtuelle Maschine auf der NAS zu betreiben.
    Hat das so jemand schon produktiv in Betrieb oder ist das eher nur was für eine Test-Installation?


    Ich spiele mit dem Gedanken seit ich das TS-873A gegen das TS-h886 mit 4 Lan Ports getauscht habe.

    Ich habe derzeit eine sehr langsame Internetverbindung 12/1Mbit/s ADSL mit einer fritzBox aber das Glasfaser wird gerade bei uns im Ort gegraben und ist absehbar.

    Dann kommen erst mal 200/40Mbit/s und da möchte ich endlich auch eine "vernünftige FW" einsetzen.

    Ich habe einen Vlan fähigen Switch und mit den ausreichenden Lan Ports sollte sich das doch sicher aufsetzen lassen.


    Ich wäre euch für Pros, Cons und Erfahrungen mit dieser Konstellation dankbar.


    Mir fällt da vorerst folgendes ein:


    ProsCons
    eine appliance weniger
    NAS down FW down / Bereithalten einer simplen Ersatzlösung
    snapshots der VM
    Sicherheit?
    Ich denke die NAS sollte genügen Power für den Einsatz bieten