Beiträge von Anthracite

    Preiswerter USB auf 10GbE Adapter für knapp 100 EUR hier

    Für Notebooks und Kompaktrechner sicher interessant, aber für Geräte mit Kartenslot würde ich immer eine Einsteckkarte vorziehen, zumal diese gebraucht gekauft mit einem oder zwei sfp+ Ports nur die Hälfte des USB-Adapters kosten.


    Außerdem geht es hier um 25GbE, nicht um 10GbE.

    kamen nur Vertröstungen auf "nach die Feiertage".

    Das chinesische Neujahr (dieses Jahr übrigens genau heute, am 29. 1.) ist das zentrale Fest im ganzen chinesischen Kulturraum, so wie bei uns Weihnachten. Da gibt es mehrere offizielle freie Tage und meistens nehmen sich die Mitarbeiter noch ihren Jahresurlaub. Die chinesische Wirtschaft, auch die in Taiwan, setzt für etwa zehn Tage aus. Da bleibt dem deutschen Qnap-Support tatsächlich nur die Vertröstung.

    PostgreSQL habe ich hier nicht installiert (stattdessen laufen hier MySQL, Oracle und MSSQL), daher kann ich nicht konkret nachschauen, was das Problem ist, sondern muss etwas raten.


    Ich habe ebenfalls versucht den Aktuellsten phpPgAdmin zu installieren

    Deine Fehlermeldung bezieht sich nicht auf die Version des phpPgAdmin, sondern auf die des PostgreSQL-Servers. Dort ist 17.2 aktuell, aber dein 16.6 wird auch nicht zu alt sein.


    phpPgAdmin 7.13.0 hat übrigens "support for Postgres 13, provisional support for Postgres 14". Insofern kann es sein, dass deine PostgreSQL-Version schlichtweg zu neu ist. Versuch mal PostgreSQL 13.18.


    Ansonsten, was häufig zu Problemen führt: Die meisten Datenbanken sind per Default nur von localhost zu erreichen. Du versuchst es aber logisch von einem anderen Rechner aus. In der PostgreSQL-Konfiguration muss die Erreichbarkeit von anderen Rechnern aus freigegeben werden. Möglicherweise heißt der Konfigurationseintrag dazu listen_addresses.

    Du meinst zwei Spiele oder zwei VMs?


    Spiele greifen manchmal am System vorbei auf die Hardware zu, und das funktioniert dann über RDP nicht so, wie es soll. Es kann aber auch am Zeitverhalten liegen, was über RDP anders ist. Wenn dies der Fall ist, kann man eventuell noch andere Einstellungen/Treiber auf gut Glück ausprobieren, aber oft ist das Problem dann nicht zu lösen.

    Bin mir immer noch nicht sicher ob QuTS hero Vorteile bringt.

    So wie ich das sehe, ist der Unterschied lediglich, ob ext4 oder ZFS als Dateisystem zum Einsatz kommen. Der Rest ist praktisch gleich. Damit reduziert sich das auf die Frage, welches Dateisystem.


    ZFS hat unbestreitbar Vorteile, die aber fast nur im Unternehmensumfeld zum Tragen kommen. Beispiel Deduplikation:


    Wenn du virtuelle Maschinen vermietest (oder nutzt) und 50 fast identische Maschinen auf dem System laufen hast, spart Deduplikation viel Platz ein.

    Wenn 50 Mitarbeiter an ähnlichen Projekten arbeiten und ihre Arbeitsdateien auf dem NAS speichern, dann wird es auch sehr viele Kopien gleicher Dateien geben und Deduplikation spart viel.


    Im privaten Umfeld, wo das NAS als Speicher für Fotos, Musik und Filme dient, da werden doppelte Dateien eher die Ausnahme sein und Deduplikation wird mehr schaden als nutzen.


    Die Nachteile von ZFS, hoher Hauptspeicherbedarf, die hast du hingegen auch im privaten Bereich (wenn auch in angemildeter Form). Weitere Nachteile wie mangelnde Erweiterbarkeit von ZFS-Raids, scheint Qnap behoben zu haben oder beheben zu wollen.


    Bist du fit in der EDV und scheust dich nicht vor EDV herausforderungen: QuTS Hero.

    Soll es einfach nur laufen: QTS

    Die Logik dahinter verstehe ich nicht.

    GUI und Shell sind doch praktisch identisch und werden gleich bedient.

    Wieso sollen dann EDV-Kenntnisse dann ausschlaggebend dafür sein, welches System man nimmt?

    Mit uraltem Firefox auf noch älterem MacOS gelingt der Login nicht mehr.

    Versuch mal einen anderen Browser, z. B. die Firefox-Clones PaleMoon oder Waterfox. Damit kannst du auf altem Mac-OS noch einen aktuelleren Browser haben, so dass das Login funktionieren könnte.

    Daher die Frage: Kann man einfach auf 5.2.2 zurückmigrieren oder ist das heikel?

    Das sollte gehen, wobei ich mit dieser Version den Rückschritt nicht ausprobiert habe.


    Dennoch, dass die alten Browser nicht mehr unterstützt werden, ist vermutlich kein Fehler, sondern wurde nötig, um neue Features nutzen zu können, d. h. es ist nicht damit zu rechnen, dass zukünftige qts-Versionen den alten Firefox wieder unterstützen werden. Du würdest dann langfristig auf 5.2.2 hängen bleiben. Daher würde ich erst den Versuch mit anderen Browsern auf dem Mac machen.

    vermutlich egal

    Ja, ist egal. Es gehen sogar NAS anderer Hersteller, allerdings kannst du dann kein RTRR verwenden sondern nur rsync.


    Verbinden kannst du die beiden Geräte über ein VPN oder über einen ssh-Tunnel. Letzteres hat manchmal Vorteile, z. B. dann, wenn kein VPN verwendet werden darf (kann bei Firmennetzwerken vorkommen).


    Wenn du RTRR machst, geht nur von Qnap zu Qnap, dann kannst du synchronisieren und versionierte Backups machen. Bei rsync geht nur die Synchronisation.


    Die Synchronisation ist übrigens immer in nur eine Richtung. Ein Job auf NAS A sorgt für eine Synchronisation vom NAS A auf NAS B, aber Änderungen auf B werden nicht zurückgeführt. Das macht nichts, auf NAS B legst du ebenfalls einen Synchronisationsjob an, dann hast du eine gegenseitige Spiegelung (so gewünscht), wobei Spiegelung das nicht ganz trifft, denn es ist zeitversetzt und nur gewählte Freigaben werden synchronisiert.


    lhsei hat recht mit dem Einwand zur Synchronisation, eine Synchronisation ist kein Backup, denn wenn durch Schadsoftware oder eigene Schusseligkeit eine Datei zerstört wird, überschreibt die Synchronisierung die zerstörte Datei im Ziel. Wenn du im Ziel aber vom Eingangsverzeichnis der Synchronisation ein Backup per HBS mit Versionierung machst (darf in diesem Falle sogar auf dieselbe Platte/Volume gehen, was man sonst bei Backup tunlichst nicht machen sollte), dann hast du ein echtes Backup.

    Bei Backups ist die Geschwindigkeit aber nicht entscheidend, da die ohnehin weitgehend unbemerkt im Hintergrund laufen.


    Wenn das ein 2,5GbE-Switch ist, würde ich den mit dem 10GbE-Port des NAS verbinden. Ist das nur ein Gigabit-Switch, würde ich einen 10GbE-Switch kaufen, beide NAS damit verbinden und auch den PC auf 10GbE aufrüsten. Gut, kommt drauf an, was du genau hast.


    Wenn du kein Geld investieren willst, kannst du natürlich die Lösung mit dem Extrakabel und den zwei Netzwerksegmenten machen.

    Wie zum teufel kann ich mit HBS erreichen das die Daten von dem Lokalen NAS über die 10GB läuft?

    Am einfachsten kannst du das erreichen, indem du das Kabel für die Gigabitschnittstelle entfernst. Nur dann ist gesichert, dass aller NAS-Verkehr über 10Gb geht.


    Damit fragt sich, warum du in den Gigabit-Port überhaupt ein Kabel gesteckt hast?

    • Zugriff auf das NAS, wenn du die 10GbE-Schnittstelle kaputtkonfiguriert hast? Dann kannst du immer noch das Kabel in den Gigabit-Port stecken und kommst sofort wieder dran.
    • Höhere Geschwindigkeit durch weiteren Port? Vergiss es, das ist nur kontraproduktiv.
    • Hochverfügbarkeit in einem Firmennetzwerk für den Fall, dass die 10GbE-Verbindung plötzlich ausfällt (Defekt in Port, Kabel oder Switch)? OK, in dem Falle ergibt die zusätzliche Gigiabit-Verbindung tatsächlich Sinn. Aber ehrlich, seit ich nicht mehr an der Konfiguration herumspiele ist mir die 10GbE-Verbindung noch nie ausgefallen.

    dann sollten sowohl interne als auch externe Platten in den Standby gehen?

    Die Externe, bei der ich sorgsam darauf geachtet habe, ein offiziell als kompatibel aufgeführtes Modell zu nehmen, geht zuverlässig in den Ruhezustand, die Internen hingegen nicht. Im System laufen wohl zu viele Dienste, die immer mal wieder kurze Zugriffe verursachen.

    Gut, dann ist das Problem gelöst. Du kannst versuchen, ob du die Datei im "Geisterfriedhof" jetzt löschen kannst, ist aber auch egal. Da würde ich mir keine Sorgen drum machen.


    habe ich keine Berechtigung dazu

    Die Antwort wäre gewesen, ein sudo vor dem Befehl, also z. B.

    Code
    sudo mkdir /share/CE_CACHEDEV1_DATA/tmp

    Dann wird dein Passwort gefragt und du kannst den Befehl mit Root-Rechten ausführen.


    Den "echten Admin" habe ich seit mehreren Jahren nicht mehr benutzt.


    (Zum Hintergrund: Auch Sicherheitsgründen empfiehlt es sich, möglichst nicht mit admin oder root zu arbeiten. Wenn man mit dem normalen User arbeitet und beim Aufrufen eines Programmes oder bei z. B. dem rm-Befehl kommt die Meldung fehlender Rechte, kann man noch mal in sich gehen, ob das Programm koscher ist oder ob der Parameter beim rm-Befehl nicht einen fatalen Tippfehler hat.)

    Dann ist der Verzeichniseintrag defekt. Dies kannst du nicht direkt beheben.


    Was ich versuchen würde:


    Vorbereitung, für alles Weitere nötig: Alle anderen Dateien in ein neues Verzeichnis verschieben. Auszuführen im "Ordner darüber"

    Code
    $ mkdir Clip2
    $ mv Clip/alle_Dateien_außer_der_defekten Clip2/

    Jetzt sollte Clip nur noch die defekte Datei haben. (Wenn du die brauchst, musst du die aus einem Backup zurückholen und in Clip2 einspielen; kann auch nach den nachfolgenden Versuchen geschehen.)


    Jetzt versuch mal, das Verzeichnis zu löschen:

    Code
    $ rm -rf Clip


    Wenn das nicht geht, versuch, das Verzeichnis dorthin zu verschieben, wo es nicht vom Backup erwischt wird und damit nicht stört (muss aber auf dem gleichen Volume sein, sonst geht's mit dem Defekt eh nicht).

    Code
    $ pwd -P
    /share/CE_CACHEDEV1_DATA/xxx/yyy    # Ausgabe bei dir halt etwas anders
    $ mkdir /share/CE_CACHEDEV1_DATA/tmp # Anpassen an Ausgabe von pwd
    $ mv Clip /share/CE_CACHEDEV1_DATA/tmp

    Damit steht das defekte Verzeichnis ganz oben im Volume und stört nicht mehr das Backup.


    Falls das mit dem Defekten Verzeichnis ebenfalls nicht funktioniert, müssen die Unix-Reparaturwerkzeuge wie fsck & Co dran. Mit denen habe ich auf Qnap allerdings keine Erfahrung.

    Möglicherweise enthält der Dateiname ein nicht druckbares Zeichen, Steuerzeichen, Leerzeichen am Ende oder dergleichen. Selbst ein Backspace im Dateinamen habe ich schon erlebt.


    Versuch mal mit ssh, die Datei mit Tab-Ersetzung (erstes Zeichen des Dateinamens eingeben, dann Tab-Taste; funktioniert nicht, wenn das Steuerzeichen vor dem ersten druckbaren Zeichen steht) oder mit den Jokern ? und * zu erwischen. Mit ls kannst du prüfen, ob du nur die fragliche Datei erwischt hast, mit rm (wieder mit Tab-Ersetzung oder Jokern) solltest du sie dann löschen können.


    Wenn du ohnehin das ganze Verzeichnis mit der Datei löschen willst, dann sollte rm -rf auf das Verzeichnis auch gehen.