Beiträge von Anthracite

    Ups....
    da würde ich sagen, nimmt fast unifi 49 MB von den 173 MB ein.
    (denke ich muss nicht beide Verzeichnisse addieren...

    Ja, da hast du wohl den Schuldigen gefunden. Von den zur Verfügung stehenden 173MB sind 49MB prozentual gesehen doch ein dicker Batzen. Wenn Linux auf einer Festplatte installiert ist, sind 49MB im Root-Dateisystem kein Problem, aber bei Qnap in der Ramdisk sieht das anders aus.


    Nein, du brauchst die Werte nicht zu addieren. Im Verzeichnis /unifi liegen 49MB, und von diesen 49MB liegen 49MB - also von Rundungsungenauigkeiten abgesehen fast alles - im Unterverzeichnis /unifi/controller.


    Lösungsmöglichkeiten sind:

    • In Unifi Konfiguration ändern, so dass Daten nicht mehr in /unifi, sondern in /share/freigabe/unifi ablegt, also auf einer Festplatte mit genug Platz (ob das geht, weiß ich nicht, ich kenne unifi nicht)
    • Unifi löschen (nur dann sinnvoll, wenn unifi nur eine Spielerei ist und nicht wirklich benötigt wird)
    • /unifi ersetzen durch einen symbolischen Link (mit ln -s erstellt) auf /share/freigabe/unifi. Dies muss nach jedem Rebbot geschenen, da dabei die Ramdisk neu aufgebaut wird, und zwar bevor Unifi gestartet wird, also entweder im Startscript von Unifi oder in autorun.sh
    • Die Größe der Ramdisk in autorun.sh ändern wie oben beschrieben

    Es genügt, eine der genannten Lösungen durchzuführen. Die anderen Lösungen sind dann nicht mehr notwendig.

    => hast du für die ganzen Befehle eine schöne Übersicht, oder ist das einfach Linux Wissen

    Das sind Erfahrungen. Irgendwann stolpert man selbst über solche Probleme.

    Zu einzelnen Befehlen gibt es mit befehl -h oder befehl --help oder man befehl (letzteres auf Linux und Mac, aber nicht auf Qnap) Informationen.

    Welche Firmware ist aktuell installiert?

    Ist egal. Das Problem hat nichts mit der Firmware zu tun, sondern dem Drittanbieterprodukt Unify.

    Die Container Station kann ich natürlich auch deaktivieren, falls das hilft.

    Das hilft schon insofern, als dass nur dort Programme laufen, die nicht von Qnap selbst ausgeliefert wurden. Wenn die Ramdisk schon voll ist, ist danach aber noch ein Reboot fällig, weil das Deaktivieren nicht ausreichen wird, wieder etwas aus der Ramdisk zu löschen.


    Des weiteren gibt es noch den Tipp aus dem anderen Thread, die Ramdisk durch

    Code
    mount -o remount,size=768m /

    zu vergrößern, entweder ständig in autorun.sh oder einmalig für einen Test, wobei dann ein sudo davor muss. Vergrößern ist nur erfolgversprechend, wenn die Ramdisk noch nicht voll ist.


    Wenn du die Ramdisk vergrößert hast, kannst du mal die Container-Station wieder aktivieren, um zu sehen, ob nur ein bisschen Speicher in der Ramdisk fehlt oder ob die gleich wieder vollläuft (exorbitanter Bedarf eines Programmes oder ein Programm in Endlosschleife).


    Auch kannst du versuchen, den Verursacher zu finden. Mit

    Code
    sudo du -h -x --max-depth=2 /

    erhältst du einen schnellen Überblick, wo Speicher belegt ist. Die 2 kann durch eine andere Suchtiefe ersetzt werden, statt / kannst du in nachfolgenden Aufrufen auch ein anderes Verzeichnis angeben, welches du als zu voll verdächtigst.

    Wie strikt sind die QNAP NAS Systeme, insbesondere das TS-264 dahingehend?

    Qnap blockiert andere Karten nicht aktiv, aber der Treiber für die Karte muss im Linux-Kernel des qts enthalten sein.


    Baugleiche Karten zu offiziell unterstützten funktionieren in jedem Falle, bei Karten mit demselben Chipsatz kann man zumindest hoffen, bei Karten mit anderem Chipsatz sieht es schlecht aus.


    Jetzt weiß ich nicht, warum bei deinem NAS viel weniger Karten offiziell unterstützt werden als bei meinem. Wenn es daran liegen sollte, dass im DOM (dem Speicher für die Firmware) zu wenig Platz ist, und Qnap zum Platz sparen für das NAS jede Menge Treiber weggelassen hat, dann sieht es schlecht aus mit Karten, die in anderen NAS unterstützt werden. Es kann aber auch sein, dass es ein Platzproblem im Gehäuse ist, dann würden die Karten, die für andere NAS freigegeben sind, auch in deinem NAS funktionieren, vorausgesetzt, man schafft ihnen mit einer Bastelarbeit Platz.


    Um Firmware-Updates würde ich mir nicht so viel Sorgen machen. Die Treiber müssen für die offiziell unterstützten Karten ja weiterhin vorhanden bleiben. Im schlimmsten Falle geht man auf die letzte funktionierende Version zurück.

    daher habe mich jetzt doch für die QNAP 10G1T Karte entschieden

    Oha, die ist wirklich relativ teuer.


    Ich habe eine HP-Karte mit zwei sfp+ Ports, die baugleich zu einer offiziell unterstützten Emulex ist, und die funktioniert einwandfrei. Die Karte hat mich gebraucht bei Ebay gerade mal 35 Euro gekostet. Gebrauchte 10GbE-Ware gibt es teilweise recht günstig, weil Rechenzentren auf höhere Geschwindigkeit umstellen, aber nicht alles ist im Heimbereich brauchbar (Karten, Transceiver und Kabel schon, Switche eher nicht) und rj45 mit Kupfer findet man da normalerweise nicht.

    Wenn Kupfer, dann scheint der 2104-2T eine vernünftige Wahl zu sein.

    Und dann würde ich mit der 10GBit/s-Karte im NAS noch warten, bis die Geschwindigkeit abgerufen werden kann.


    Ein Hinweis: Wenn du einen Wifi7-AP mit 10GBit/s anschließen willst, das NAS und einen PC per Kabel mit der gleichen Geschwindigkeit, dann fehlt dir ein 10GbE-Port im Switch. Switche mit mehr 10GbE-Kupfer-Ports sind aber oft nicht lüfterlos, was schlecht ist, wenn der Switch nicht im Serverschrank oder im Keller steht.


    Wenn doch Glasfaser, mit dem Mikrotik CRS305 gibt es einen günstigen managed Switch mit sfp+. Da kann man im Prinzip auch sogenannte Transceiver für 10GbE-rj45 reinstecken, aber dann ist er nicht mehr so günstig.

    Ein 10Gbit Managed Switch ist gesetzt und verfügbar.

    Optisch mit sfp+ oder Kupfer mit rj45?


    Vorteil optisch mit Glasfaser: Preiswertere Switche und Einsteckkarten, keine Störungen durch Stromleitungen, größere Entfernungen und (in Zukunft) höhere Geschwindigkeiten, geringerer Stromverbrauch


    Vorteil Kupfer mit rj45: PoE möglich, Kupferkabel möglicherweise schon verlegt, 2,5GbE als Zwischenschritt möglich.


    Wenn der Switch mit sfp+ ist, weil optische Verbindungen angedacht sind, würde ich nicht zögern und gleich eine sfp+ Karte in das NAS einbauen. 2,5GbE als Zwischenschritt ist nur über rj45 möglich, was als sfp+ Transceiver zwar machbar, aber hier finanziell nicht attraktiv ist. Gebraucht gibt es Einsteckkarten mit ein oder zwei sfp+ Ports manchmal recht günstig; für das NAS sollte man aber eine Karte nehmen, die zumindest baugleich zu einer offiziell unterstützten Karte ist.


    Wenn rj45 mit Kupfer, dann würde ich dies hier

    Pragmatisch betrachtet würde ich wohl mit der bestehenden Hardware aka 2.5Gbit beginnen und dann bei Bedarf das NAS auf 10Gbit Steckkarte erweitern

    machen. erst mal sehen, ob die real erreichten Geschwindigkeiten überhaupt an der Grenze von 2,5GbE kratzen. Eine 10GBit-Karte kann man sich später immer noch kaufen. Teurer werden die nicht.


    Link Aggregation würde ich nicht in Erwägung ziehen. Ich hätte da so meine Zweifel, ob das mit WLAN dazwischen überhaupt (stabil) funktioniert.

    Das habe ich anders verstanden.


    Eine Versionierung erfolgt doch durch Veeam. Das Ergebnis davon wird dann gesynct.


    Alternativ könnte man auch nur die aktuellste Version syncen und die Versionierung mit einem Backup-Job auf Syno machen. Eine Versionierung bei der Übertragung von Qnap zu Syno geht ohnehin nicht.

    Habt ihr diese Einstellung in HBS schon ausprobiert?


    Synchronisierung bearbeiten -> Regeln -> Erweiterte Einstellungen -> Zusätzliche Dateien im Zielordner entfernen.


    Wenn das angewählt ist, werden alle Dateien, die es auf dem Qnap nicht mehr gibt, auch auf dem Syno entfernt.

    Kann ich da denn was machen?
    Die User verwenden QSYNC und sind grad fleißig am schaufeln.
    Kunde will jetzt den Original Speicher haben.

    Wichtig wäre das danach alles geht und das Ding sich nicht wieder lahm legt.

    Die Ausgabe in der Bildschirmkopie ist recht eindeutig:

    Die 32 GB Ram wurden komplett erkannt und funktionieren. Deine Speichertests kannst du dir sparen.

    Die Ramdisk und damit das Root-Dateisystem ist vollgelaufen. Damit sind jede Menge Fehlfunktionen unvermeidbar.


    Die Ramdisk ist bei Qnap knapp bemessen, läuft normalerweise aber nicht voll. Durch zusätzliche Apps kann das aber doch mal passieren.


    Die offizielle Lösung von Qnap ist, die App, die zu viel Speicher im Root-Dateisystem belegt, zu identifizieren und dort dieses Verhalten abzustellen.


    Eine offizielle Möglichkeit, die Ramdisk zu vergrößern, gibt es nicht. Dabei bräuchte bei dem Speicherausbau die Größe nicht so knapp gewählt werden.


    Inoffiziell geht es aber doch. In autorun.sh fügt man die folgende Zeile ein

    Code
     mount -o remount,size=768m /

    (hier für Vergrößerung auf 768MB; ganz so groß muss es vermutlich nicht sein, bei 32GB ist der Platz aber da).


    Falls das Kind bereits in den Brunnen gefallen ist, d. h. Root bereits voll ist, hilft das nicht mehr, dann ist es zu spät. Da ist erst ein Reboot nötig.


    Und wenn eine App außer Kontrolle gerät, z. B. in einer Endlosschleife Einträge an eine Protokolldatei anfügt (hatte ich mal in Linux), hilft das auch nicht.

    allerdings habe ich dann keine Sudorechte mehr, wie mir scheint

    Doch, sudo-Rechte sind vorhanden. Der User ist auch eindeutig als "admin" erkennbar.


    Die Abfrage kannst du auch dauerhaft ausschalten, wenn du in der Browser-GUI, Systemsteuerung -> Allgemeine Einstellungen -> Console Management das Häkchen bei "Console Management aktivieren" wegnimmst.

    weil sobald sudo -i eingegeben wird das System nur eine Vorauswahl an Befehlen zulässt.

    ??

    Man kann alle Befehle aufrufen. Da wird nichts eingeschränkt.


    Oder meinst du die vorgeschaltete Abfrage von ein paar Punkten, die man gerne machen möchte? Die Abfrage kann man beenden, und man kann den Aufruf auch ganz aus der profile-Datei entfernen.

    Abwärts kompatibel ist schon klar, aber nur 50% Leistung ?

    Kommt drauf an. Wenn du nur 50% Leistung benötigst, ist 100% Leistung auch nicht schneller.

    Die 2000MB/s reichen theoretisch für 2x10GbE, praktisch nicht, weil es auch Protokolloverhead gibt. Aber wie oft werden beide 10GbE-Anschlüsse komplett ausgelastet?


    Es ist also einen Versuch wert. ob du bemerkbare Leistungseinbußen hast, wenn du die 2x10GbE-Karte in den langsamen Slot steckst.


    Ein Problem kann beim TS-877 sein, dass in die langsamen Ports nur kurze Karten passen, da sie sonst mit dem Prozessorlüfter kollidieren. Eventuell kann man etwas überflüssiges Plastik vom Lüfter entfernen. (Wichtig ist der innere runde Plastiktubus, der äußere viereckige Rand ist nicht so wichtig.)

    kurzer Zwischenstand zu meinem Problem.... der Support hat das Problem an Forschung und Entwicklung weitergegeben.

    Forschung und Entwicklung ist ein schwarzes Loch.

    Das ist kein Zwischenstand, das ist der finale Stand. :cursing:


    OK, muss nicht so schlimm sein, aber verlass dich nicht darauf, dass da noch jemals was zurück kommt.

    und auf einigen wird der Speicher nicht mehr richtig erkannt!!!

    [...]

    RAMDisk - unzureichender Systemspeicher

    Die Fehlermeldung könnte auch bedeuten, dass die RAM-Disk zu klein dimensioniert ist, obwohl genug Speicher vorhanden ist.


    Gib mal in ssh

    Code
    free -m

    ein. Der Wert unter "total" zeigt, wie viel RAM qts erkannt hat.

    Und dann noch

    Code
    df -h /

    um zu sehen, ob die Ramdisk vollgelaufen ist.

    was ist ein Cron-Job

    Ein Cron-Job ist ein zeitgesteuert aufgerufenes Programm bei allen Unix-artigen Betriebssystemen.

    Siehe hier

    Add items to crontab – QNAPedia

    wie du einen Eintrag auf dem NAS einfügst. Der dortige Link bei "Background" zu WIkipedia hilft, wenn du keine Ahnung hast, was Cron ist.


    sachdienliche Hinweise

    Du musst den Unix-Dateinamen des Ordners angeben, nicht den SMB-Freigabenamen, denn der Zugriff erfolgt ohne SMB. Auf QNAP-NAS lautet der Name üblicherweise /share/Freigabe. Ich würde dann gleich noch einen Unterordner für das Backup anlegen, so dass der Name der Datei dann so lautet wie /share/Freigabe/DB-Backup/dump.sql.


    Auf einem NAS mit einer älteren Firmware?

    Ja, geht. Es kommt nur auf die Datenbank drauf an, nicht auf das Betriebssystem. Das Dump kannst du auch auf dem Windows-PC, Mac oder Linux-Rechner einspielen. Du brauchst dort nur eine installierte MySQL- oder MariaDB-Datenbank. Das Dump ist eine reine Ascii-Datei und kann auch editiert werden, insbesondere können einzelne Statements daraus entnommen und in der DB eingespielt werden. Das ist praktisch, wenn man nicht die ganze Datenbank, sondern nur einzelne Daten kaputt gemacht hat, aber dann sollte man wissen, was man macht.

    Was soll ich nun machen?

    Neue Festplatte kaufen. Die sieht defekt aus. Dass es die neueste Festplatte ist, hat nichts zu sagen, ein Teil der Festplatten sortiert sich in den ersten Wochen aus (QS beim Kunden).


    Theoretisch könnte das auch ein Defekt oder Wackelkontakt in Kabel oder Stecker sein, halte ich aber für weniger wahrscheinlich.


    Wenn noch Garantie/Gewährleistung drauf ist, nichts weiter machen, sondern Platte zurückgeben.


    Wenn keine Garantie mehr drauf ist, kannst du das Teil auch aufschrauben und nachschauen, ob sichtbar ein Stecker oder die Platte nicht komplett steckt. Wenn ja, lohnt noch ein Versuch (Stecker/Platte fest rein, Platte noch mal formatieren), andernfalls gleich neu kaufen.


    Ein Backup würde ich der Platte nicht anvertrauen.

    Ein Hinweis, auch wenn er nicht deine Frage beantwortet:


    Für dein Vorhaben ist das gute alte TimeMachine womöglich besser geeignet. Dort wird keine monolitische Backupdatei angelegt, sondern ein aus vielen vergleichsweise kleinen Dateien bestehendes Sparsebundle. Bei jedem TM-Lauf werden dann von diesen vielen Dateien nur relativ wenige geändert oder neu hinzugefügt. Daher wird dann bei einer Synchronisation vergleichsweise wenig übertragen, vom initialen Lauf einmal abgesehen. Bei täglicher Synchronisation hättest du die 1,4TB Volumen dann nicht pro Tag, sondern pro Monat.


    Von Interesse ist dies insbesondere dann, wenn das Ziel-NAS sich an einem anderen Standort befindet.

    Ist es tatsächlich so, daß DB, die direkt auf dem NAS installiert sind, nach QTS-updates reihenweise zugrunde gehen?

    Nein. Gerade ohne Kenntnisse von Containern und wenn "irgendeine Datenbank" reicht, würde ich einfach die angebotene Qnap-App nehmen. Das geht am einfachsten.


    Wenn das nicht reine Spielerei ist, sondern die Daten in der Datenbank einen gewissen Wert haben, solltest du aber ein regelmäßiges Backup machen. Das geht einfach mit mysqldump -u root -ppassword --force --all-databases >/pfad/zum/Ziel/dump.sql in einem Cron-Job, welcher dann einmal täglich oder wöchentlich ausgeführt wird, und der Pfad zum Ziel sollte auf eine Freigabe zeigen, die von HBS regelmäßig gesichert wird. Falls dann doch mal die Datenbank kaputt geht oder die Qnap-App nicht mehr gepflegt wird, kannst du die Datenbank schnell woanders aufsetzen.


    Nachteil der Qnap-App ist, dass du auf genau die dort angebotene Version von MariaDB angewiesen bist, und du hast keine Kontrolle über die Version der DB. Meistens ist das kein Problem, aber wenn doch, empfiehlt sich ein Container oder gleich eine Linux-VM. Ich mache letzteres. Die Datenbank nutze ich auch für Kundenprojekte, und dann muss sie schon mal dieselbe Version haben wie beim Kunden auch.


    Welcher $servername ist hier anzugeben, um aus einer php-Datei, die sich in einem Unterordner des /web/ befindet, auf die DB auf dem NAS zugreifen zu können?

    Da muss der Name oder die IP vom NAS rein. Eine IP vermeidet Probleme bei der Namensauflösung, verlangt aber eine feste Adresse beim NAS, die nicht von DHCP vergeben wird. Bei Betrieb über Container oder VM muss entsprechend die IP vom Container oder der VM da rein.

    Das kam auch, wenn kein Beta-Kanal ausgewählt war. Das war gerade der Fehler von Qnap.


    Muss ich die Version jetzt deinstallieren und die alte neu installieren?

    Funktionieren denn deine virtuellen Maschinen noch?


    Wenn ja, würde ich bei der unfreiwillig installierten Beta bleiben, bis diese durch eine offizielle, d. h. Nicht-Beta-Version abgelöst wird. Irgendwann kommt garantiert VS 4 ohne Beta.