Laut Post#3 ja (ersetze CLI mit GUI )
Gruss
Laut Post#3 ja (ersetze CLI mit GUI )
Gruss
Naja, kann ja den Haken gesetzt aber nicht gespeichert haben.
Firmware Package per Qfinder installiert:
Aktuelle Firmwareversion: 4.2.6, Datum: 2019/09/21
TS-210:
[~] # /etc/init.d/nfs restart
nfs_get_lock
Shutting down NFS services: OK
Starting NFS services: re-export.
Shutting down NFS mountd:
Starting NFS mountd. Mountd port number = 30000.
OK
[~] #
Client:
~# rpcinfo -p 192.168.48.23
program vers proto port service
100000 4 tcp 111 portmapper
100000 3 tcp 111 portmapper
100000 2 tcp 111 portmapper
100000 4 udp 111 portmapper
100000 3 udp 111 portmapper
100000 2 udp 111 portmapper
100011 1 udp 30002 rquotad
100011 2 udp 30002 rquotad
100011 1 tcp 30002 rquotad
100011 2 tcp 30002 rquotad
100024 1 udp 30001 status
100024 1 tcp 30001 status
100005 1 udp 30000 mountd
100005 1 tcp 30000 mountd
100005 2 udp 30000 mountd
100005 2 tcp 30000 mountd
100005 3 udp 30000 mountd
100005 3 tcp 30000 mountd
Alles anzeigen
Auf dem NAS sieht das jetzt doch gut aus?
Geht es immer noch nicht?
Gruss
So war es ja auch vorher. Letzter Versuch:
-> Werkstandards wiederherstellen & Alle Volumes formatieren, Neustart
Habe jetzt aber keine Hoffnung mehr
Bist Du sicher das es am NAS liegt?
Evtl. hat der Client ein Problem.
Gruss
Noch eine blöde Frage: Dem link bzgl. Zugriffsrechte bist du gefolgt?
Warum? Das NAS wurde neu aufgesetzt.
Da hat per default jeder Host Zugriff.
Gruss
Spiel mal mit den (no)root-squash-Optionen. Ich meine mich dunkel zu erinnern, dass die mich mal eine Zeit lang beschäftigt haben. Aber keine Garantie für nix nich.
Es wäre mal interessant zu wissen, welche Fehlermeldung der Client beim mount-Versuch ausgibt.
Geht ein showmount -e <NAS-IP> ?
Gruss
Nunja, auch der letzte Versuch brachte keine Änderung. Habe es auch mit mehreren Clients probiert (raspberry, ubuntu, win10), überall fehlt nfs beim rpcinfo - Kommando.
showmount -e 192.168.48.207
Export list for 192.168.48.207:
/homes
/Web
/Public
/Multimedia
/Download
Und
mount -t nfs -v -o soft,rw 192.168.48.207:/Public /mnt/nfs
mount.nfs: timeout set for Mon Nov 4 23:39:34 2019
mount.nfs: trying text-based options 'soft,vers=4.2,addr=192.168.48.207,clientaddr=192.168.48.110'
mount.nfs: mount(2): Invalid argument
mount.nfs: trying text-based options 'soft,vers=4.1,addr=192.168.48.207,clientaddr=192.168.48.110'
mount.nfs: mount(2): Connection refused
mount.nfs: trying text-based options 'soft,addr=192.168.48.207'
mount.nfs: prog 100003, trying vers=3, prot=6
mount.nfs: portmap query retrying: RPC: Program not registered
mount.nfs: prog 100003, trying vers=3, prot=17
mount.nfs: portmap query failed: RPC: Program not registered
mount.nfs: requested NFS version or transport protocol is not supported
Alles anzeigen
Das sieht aber eher nach einem Client Problem aus.
Nfs läuft auf dem NAS, das sieht man beim showmount.
Meine Linux VM ist gerade down, ich werde mir das morgen mal ansehen.
Ist aber noch eine Suse 11 SP4.
Gruss
Anregungen für Testen:
1. Serveradresse und Einhängepunkt vor den Optionen. Mit den Reihenfolgen hatte ich auch schon trouble. Kommt dann wohl auf die Implementation auf dem Client an. Beim einen war's so, beim anderen anders.
2. Nimm einen rpi und fertige eine SD_Karte mit piCoreplayer an. Da gibt es in der Abteilung LMS in der Weboberfläche die Möglichkeit, ein NFS-Laufwerk einzubinden. (Die Weboberfläche auf Advanced einstellen.) Wenn damit das Einbinden klappt, via ssh auf dem rpi einloggen und mittels mount nachschauen, wie dort der Mountbefehl konfiguriert ist (mit welchen Optionen). In der Weboberfläche gebe ich nur Mount-Point, Server-IP und Share-Name ein.
Hier der letzte Test:
[~] # cat /etc/exports
"/share/MD0_DATA/Public" *(rw,async,no_subtree_check,insecure,no_root_squash)
[~] # ps -ef | grep -i nfs
1396 admin SW< [nfsiod]
9723 admin 576 S grep -i nfs
[~] # /etc/init.d/nfs restart
nfs_get_lock
Shutting down NFS services: OK
Starting NFS services: sh: /bin/mount: No such file or directory
sh: /bin/mount: No such file or directory
sh: /bin/mount: No such file or directory
sh: /bin/mount: No such file or directory
re-export.
Shutting down NFS mountd:
Starting NFS mountd. Mountd port number = 30000.
OK
[~] # ps -ef | grep -i nfs
1396 admin SW< [nfsiod]
12094 admin 580 S grep -i nfs
[~] # exportfs -rva
exporting *:/share/MD0_DATA/Public
exportfs: can't open /var/lib/nfs/rmtab for reading
unexporting -test-client-:/share/MD0_DATA/Public from kernel
[~] # touch /var/lib/nfs/rmtab
[~] # exportfs -rva
exporting *:/share/MD0_DATA/Public
unexporting -test-client-:/share/MD0_DATA/Public from kernel
[~] #
Alles anzeigen
Auch das letzte Update 4.2.6 vom 2019/11/07 brachte keine Änderung.
Ich gebe jetzt auf, QNAP ist weit weg vom Linux-Standard und bei mir nur noch 2. Wahl! Die fundamentalsten Dinge laufen nicht.
Habe auch NAS von Synology, die machen nicht solche Probleme.
Sehr merkwürdig,
?
Den Restart auf der Konsole habe ich auch mal mitgeloggt:
[~] # /etc/init.d/nfs restart
nfs_get_lock
Shutting down NFS services: OK
Starting NFS services: re-export.
Shutting down NFS mountd:
Starting NFS mountd. Mountd port number = 30000.
OK
[~] # ps -ef | grep -i nfs
519 admin SW< [nfsiod]
20063 admin SW< [nfsd4]
20064 admin SW< [nfsd4_callbacks]
20065 admin SW [nfsd]
20066 admin SW [nfsd]
20067 admin SW [nfsd]
20068 admin SW [nfsd]
20069 admin SW [nfsd]
20070 admin SW [nfsd]
20071 admin SW [nfsd]
20072 admin SW [nfsd]
22435 admin 536 S grep -i nfs
Alles anzeigen
Keine Ahnung, was bei Dir da nicht stimmt.
Evtl. Pfadangabe falsch?
Aber auch nach dem Neuaufsetzen?
Was macht der re-export n dieser Stelle?
Und warum läuft der Daemon nicht...?
Da weiß ich auch nicht weiter.
Gruss
Wenn du alles neu aufgesetzt hast, hast du auch einen neuen Ordner erstellt?
Denn du kannst ja nur einen Ordner mounten der auf dem entsprechenden Volumen erstellt wurde. Zumindestens ist es bei mir hier so.
Also ich nehme z.B. die erste Platte und erstelle einen Ordner darauf. Den kann ich dann per nfs mounten. Erstelle ich keinen Ordner kann ich auch nix mounten.
Also die Fehler treten alle auf der NAS auf, da brauche ich gar nicht erst mounten. Ist eine komplette Neuinstallation und alles Standard. Also zum vergessen.
Ich nehme an der Fehler wird beim Befehl exportfs -rva mit unexporting -test-client-:/share/MD0_DATA/Public from kernel angezeigt bzw. bleibt er dort stecken.