Beiträge von tychen

    florit

    Ich hab in der alten NAS fast identische Einstellungen:


    Code
    # grep Videos /etc/exports
    "/share/CACHEDEV5_DATA/Videos"  *(ro,async,no_subtree_check,insecure,no_root_squash) 192.168.*(rw,async,no_subtree_check,insecure,no_root_squash)

    Und das funktioniert.


    Und warum ich denke, dass die Box defekt ist: Es wurden per rsync bereits 300+150 GB Daten rübergeschoben und während des Kopierens wurde das Laufwerk plötzlich readonly. Als das passiert ist, war ich bereits 3-4 Stunden nicht mehr am Rechner.

    Ich habe ja ein Subnet verwendet. World hat ro, und 192.168.* hat rw.


    Einzelne hosts einzutragen hätte mir auch nix genutzt, da mehrere hosts auf die Box ein Backup hätten machen sollen.

    Aber: Thread kann geschlossen werden, habe die Box soeben zurück geschickt.


    Irgendwas stimmt mit der sowieso nicht.

    Neben dem readonly Problem hat sie irgendwann angefangen, über mehr als 20 Stunden hinweg ein Raid1 neu zu synchronisieren. Gab vorher keine Stromausfälle, Crashes, etc. Ein zweites Raid1 lief normal und wurde nicht synchronisiert.

    florit Hier das exportfs -v (relevante Teile)

    Code
     (tynas2) # exportfs  -v
    /share/CACHEDEV2_DATA/Videos
    192.168.*(async,wdelay,hide,no_subtree_check,fsid=1e39c55f7b179a5bf1a5a8906c6aa408,sec=sys,rw,insecure,no_root_squash,no_all_squash)
    /share/CACHEDEV2_DATA/Videos
    <world>(async,wdelay,hide,no_subtree_check,fsid=1e39c55f7b179a5bf1a5a8906c6aa408,sec=sys,ro,insecure,no_root_squash,no_all_squash)

    Für world ist es ro, für 192.168.* sollte es rw sein. Ich mounte von 192.168.1.6.

    fstab auf dem Client ist nicht relevant, da "von hand" gemounted.

    Guten morgen zusammen,


    bin am Einrichten meiner neuen QNAP. Habe ein paar Shares angelegt und o.a. per nfs freigegeben. Unter anderem den Share "Videos".

    Hat auch geklappt letztendlich und ich habe einen rsync angestossen, der die vorhandenen Videos auf die QNAP rüberschieben sollte.

    Das lief auch für 150 GB ganz gut (Platz ist für ca. 4 TB) und dann kam dieser Output beim rsync:

    Code
    mylinux # cd DirWhereVideosAre; rsync -av * /tmp/b/
    [... 150 GB später]
    Aquarium/_Incoming2/Was ich mag _ Was ich nicht mag an meinem 60P Iwagumi _ AquaOwner-K_9ItoE2MwE.mkv
    Aquarium/_Incoming2/Was ich mag _ Was ich nicht mag an meinem Meerwasser Aquarium _ AquaOwner-ctMBFrmJVgY.mkv
    Aquarium/_Incoming2/Was ist ein Biotop-Aquarium und wie soll meines werden _ AAA #077-DE3LSJz40ZA.mp4
    rsync: [receiver] close failed on "/tmp/b/Aquarium/_Incoming2/.Was ich mag _ Was ich nicht mag an meinem Meerwasser Aquarium _ AquaOwner-ctMBFrmJVgY.mkv.9QUVAh": Read-only file system (30)
    rsync error: error in file IO (code 11) at receiver.c(888) [receiver=3.2.7]
    rsync: [sender] write error: Broken pipe (32)

    Sofortmaßnahmen, die ich ergriffen habe:

    1) Prüfen, ob das Filesystem auch rw eingehängt ist:

    Code
    mylinux # mount | grep Video
    tynas2:/Videos on /tmp/b type nfs (rw,relatime,vers=3,rsize=524288,wsize=524288,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.1.15,mountvers=3,mountport=48744,mountproto=udp,local_lock=none,addr=192.168.1.15)

    2) Prüfen, ob das Filesystem auf der QNAP auch rw exportiert wird:

    Code
    tynas2 # grep Videos /etc/exports
    "/share/CACHEDEV2_DATA/Videos" *(sec=sys,ro,async,wdelay,insecure,no_subtree_check,no_root_squash,fsid=1e39c55f7b179a5bf1a5a9806c6aa408) 192.168.*(sec=sys,rw,async,wdelay,insecure,no_subtree_check,no_root_squash,fsid=1e39c55f7b179a5bf1a5a9806c6aa408) 

    3) Reboot von QNAP und Linuxrechner

    4) Aktualisieren auf neuste Firmware + Reboot beider Systeme


    Leider bleibt das filesystem über nfs nicht beschreibbar (gilt für alle anderen über nfs exportierten Shares)

    Allerdings: Über CIFS kann die Shares munter befüllen.


    Eingestellt ist nfs v2/v3. Firmware ist aktuell. Box ist TS-932TX. Eingestellt für beide Systeme feste IP aus 192.168.0.0.

    NFS-Mount von einem anderen Linux-Client-System aus wird zwar gemounted, kann aber auch nicht beschrieben werden.


    Hat jemand eine Idee, woran es liegen kann, dass während dem Befüllen ein Share plötzlich nicht mehr über nfs beschreibbar ist, obwohl das über CIFS noch problemlos geht?

    Wo loggt der nfsd (wenn es den noch so gibt) hin?


    VG, Rainer

    Tach zusammen,


    nachdem meine 10 Jahre alte TS 569-L langsam Mucken macht, hab ich mir eine TS-932PX zugelegt. Bin grad am einrichten.

    Hab einen Linux und einen Windows Rechner. UID des normalen Users ist 1000, sowohl in der QNAP als auch auf der Linuxmaschine.


    Zum Thema Squash aus der nfs-Hilfe:

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    • Root-Benutzer zuordnen: Ordnet die Identität des Remote-Root-Benutzers einer einzelnen anonymen Identität zu und verweigert dem Benutzer besondere Zugriffsrechte auf dem angegebenen Host.
    • Alle Benutzer zuordnen: Ordnet alle Client-Anforderungen einer einzigen anonymen Identität auf dem NFS-Server zu.
    • Keine Benutzer zuordnen: Mit der Standardoption wird die Client-Root-Rolle nicht übertragen.

    Daraus werde ich nicht recht schlau.


    Was soll bei mir funktionieren?

    1. Lesender/Schreibender Zugriff der CIFS-User
    2. Lesender/Schreibender Zugriff des root Users auf der Linuxmachine. Ein chmod oder chown auf ein nfs-Verzeichnis sollte nicht in einem permission denied enden
    3. Lesender/Schreibender Zugriff des normalen Users auf der Linuxmachine.

    Was muss ich da einstellen bei squash und muss ich ggf. noch wo anders drehen?

    EDIT:

    Hatte auf der alten NAS NO_RROT_SQUASH und da hat so ziemlich alles funktioniert.

    Hab's jetzt mal mit "Alle Benutzer zuordnen" probiert und hab festgestellt, dass ein als root gesarteter rsync -rv local /nas/Pfad, den man abbricht und wieder neu startet, alle Dateien von frischem komplett neu überträgt. Hat jemand eine Idee, warum das so ist?



    Vg, Rainer

    Hallo zusammen,


    bei einer etwas größeren Backupaktion von Daten auf eine externe Festplatte kam es anscheinend vor 3 Wochen dazu, dass der interne Speicher in meiner TS-569L ausging und die Shares nicht mehr beschrieben werden konnten, weil nur noch read-only.

    Habe die NAS dann neu gestartet und dachte bis heute, dass alles wieder funktioniert.


    Per Zufall habe ich herausgefunden, dass die internen NAS to NAS Backups (auf die gleiche QNAP) nicht mehr gelaufen sind (hatte Jahrelang super funktioniert).


    Startet man Sicherungsmanager eines der Backups manuell kommt nach ein paar Sekunden die Fehlermeldung, dass das Backup nicht funktioniert hat. In der Übersicht klickt man auf "Suchen sie im Log nach Einzelheiten" und bekommt die Fehlermeldung

    Code
    "Rsync-Protokoll: @ERROR: Unknown module 'Backup1'". 

    Backup1 ist das Volume, das ich für die Backups nutze.


    In den Ereignisbenachrichtigungen steht:

    Code
    "[Remote Replication] (Sync) Audio failed: The destination folder path does not exist."

    Versucht man einen neuen NAS to NAS-Replikationsauftrag anzulegen füllt man zuerst die Einstellungen für den externen Ort aus (localhost, Port 873, etc) und drückt auf "Remote-Host-Test" kommt erst "Erfolg" und dann "Verarbeitung ..." was aber nicht beendet wird.


    netstat sagt, dass die Nas auf den Port 873 hört. Die Volumes sind auch da, da ich über nfs und CIFS darauf zugereifen und sichern kann.


    Leider bin ich etwas ratlos, zudem ein zweimaliger Neustart auch keine Abhilfe verschafft hat.


    Hat jemand noch ne Idee? Wo finde ggf. Logfiles? Unter /var/log hab ich nix brauchbares gefunden.


    VG, Rainer

    Moin,


    nein, ist nicht die einzige Platte. Geht um Speicherpool 2, siehe Screenshot.

    qnap01.png


    Wenn ich das richtig sehe, gibt es eine 4.4.1 für die Box.
    Ich meine allerdings irgendwann gelesen zu haben, dass ab 4.3. die Lizenz für den TwonkyMedia nicht mehr gültig ist, welchen ich unter 4.2. noch nutze.


    Grüße, Rainer

    Hi zusammen,


    im Vorfeld ne Frage zum Forum: Gibt's eigentlich sowas wie ne FAQ hier?

    Nun zum Thema: Ich möchte eine Single Disk durch eine größere ersetzen. Die darauf befindlichen Daten sind nochmal an anderer Stelle gesichert.

    Welche Schritte müssen ausgeführt werden?


    Erst innerhalb des Storage Pools den Share löschen?

    Dann sehe ich Im Storage Pool Management zwei Optionen:

    • Remove Pool
    • Safely detach pool

    Leider wird das im mir vorliegenden User Manual auf den 700 Seiten nicht beschrieben, was genau "Safely detach Pool" macht.


    Falls jemand Muse hat und mir die notwendigen Schritte aufschreiben könnte wäre ich echt dankbar.
    Nach Anleitunge habe ich schon gesucht, aber zumeist nur welche für Raids gefunden.


    Ist eine TS-569L mit 4.2.2


    Grüße, Rainer

    Tach zusammen,


    habe einen Share namens Images, auf dem ich heute mal ein bisschen aufgeräumt habe.

    Der frei gewordene Platz könnte so ca. 150 GB sein.

    Allerdings wird mir das bei df nicht angezeigt. Laut du sind 142 GB belegt, der Papierkorb sollte leer sein, aber df zeigt mir 332 GB in Benutzung.

    Any ideas?

    Hi zusammen,


    wir haben vor einigen Wochen eine TS-563 in Betrieb genommen. Läuft auch alles prima mit Ausnahme einer Sache:

    Nach einigen Firmwarupdates habe ich festgestellt, dass in der GUI unter Systemsteuerung -> Netzwerk- und Dateiservices das Fenster "Netzwerk- und virtueller Switch" zwar aufgerufen werden kann, aber keine Inhalte angezeigt werden (siehe Anhang). Eigentlich sollten doch hier z.B. IP-Adresse, Nameserver, etc. konfiguriert werden können, oder?


    Haben noch zwei weitere FW-Updates probiert, was aber an dem leeren Fenster nichts geändert hat.

    Aktuelle Firmware: 4.3.4.0597 vom 28.5.2018


    Grüße

    Rainer

    Vielen Dank für die Tipps. Schau ich mir mal an!


    Grüße

    Rainer

    War auf der Seite und hab's runtergeladen. Mal unabhängig davon, dass bei meinen Win 7 32-bit Maschine die Installation mit dem Satz "This machine does not meet the requirements" (möglicherweise weil 32-bit, aber das verrät mir veeam nicht :)) abbricht, habe ich auf der Veeam Homepage noch folgenden Satz zur Veeam Backup Free Edition gelesen:


    Hinweis: Der kostenlose VMware vSphere-Hypervisor (kostenlose Version von ESXi) wird nicht unterstützt. Lizenz für vSphere Essentials oder höhere Version erforderlich.

    vSphere Essentials oder teurer haben wir leider nicht.


    btr402 Sichert der veeam mit dem Linux-Agent die komplette Maschine auch als Image oder auf Fileebene?


    Gibt's sonst Alternativen zu dem von mir beschriebenen Szenario?


    Grüße

    Rainer

    Hallo zusammen,


    ich bräuchte mal eine Rat in Bezug auf das Backup von virtuellen Maschinen.


    Wir haben einen ESXi 6.5 Server aufgesetzt. Dieser zieht sich von einer TS-563 über nfs einen Share (ESX-Images), auf dem letztendlich der Datastore des ESX liegt (sprich alle vmdk-Files der virtuellen Maschinen).


    Aktuell (aber das ist sicher so nicht richtig) mache ich über NAS-to-NAS mit dem Backupmanager nächtens eine Kopie auf Fileebene aus dem Share ESX-Images in ein auf der gleichen NAS befindlichen anderen Share namens Backup. An sich hätte ich da auch keine Bedenken, wenn da nicht die Tatsache wäre, dass die VMs (die natürlich laufen) in der Zeit, während das vmdk-File kopiert wird, dort auch Änderungen schreiben.

    Das heißt für mich, dass erstmal die Gefahr gegeben ist, dass das vmdk-File auf dem Backup-Share nicht notwenidgerweise konsistent sein muss.


    Wie macht ihr das?


    Grüße

    Rainer

    Hi und danke für Deine Antwort.


    Bei Nas-to-Nas sehe ich leider keine Ereignisprotokolle. Ich seh halt bei den Systemprotokollen, dass die eine Sicherung gestartet ist und wann sie beendet wurde. Leider kann ich weger sehen, wieviel Files oder welches Volumen kopiert wurde.
    Die Logs, wie bei Dir rot umrandet, scheint es bei Nas-to-Nas nicht zu geben.


    Grüße
    Rainer

    Hi zusammen,


    ich nutze seit längerem neben den Platten für die Daten 2 Backup-Platten, die über NAS-to-NAS mit Daten versorgt werden.
    Auf Backup1 kommt jeden Tag eine 1:1 Kopie der zu sichernden Filesysteme (Zusatzdateien auf dem Backup1 werden gelöscht).
    Auf Backup2 kommen einmal die Woche die Daten von Backup1, allerdings werden hier die Zusatzdaten nicht gelöscht.


    Nun hatte ich die Tage zweimal den Fall, dass Sicherungen extrem langsam gingen (10 GB in 20 Minuten o.ä.)


    Ich würde gerne die Sicherungslogs einsehen können, weiss aber nicht, ob überhaupt welche erstellt werden und falls ja, wo diese zu finden sind.


    Für einen Tipp wäre ich sehr dankbar.


    Grüße
    Rainer