Hallo
und vorweg vielen Dank an: Anthracite
(tiermutter hab ich mal mit angepinnt)
Meine RAMdisk läuft voll
leider fehlt mir noch der Durchblick warum und weshalb...das Problem will ich schnell lösen.
Zum vielleicht erstmal beschäftige ich mich jetzt auch mit SSH mehr Danke den Beiträge konnte ich folgende Tolle Dinge jetzt ausführen (das Vergrößern der Ramdisk per autorun.sh hat noch nicht geklappt, Verzeichnis ist noch gesperrt)
System:
- TS-435Xeu mit 32 GB Speicher und 4x SATA 6GB im RAID
User: 6 aktuell
APP's:
- Qsync und 4 Freigegebene Verzeichnisse mit circa 2 TB. Daten
- Container Station (Protainer und Unifi)
benutzt wird das System:
- Zugriff auf Netzlaufwerke (4 Verzeichnisse für User freigegeben, hierauf wird gearbeitet...) / erfolgt Inhouse oder per VPN Wireguard / circa 2 TB Daten
- Sync per Qsync um Dateien Offline nutzen zu können (Netzlaufwerke)
- Unifi für die Verwaltung des WLANs
- HBS soll in Zukunft kommen um die NAS mit einer entfernten NAS zu sichern
Also im Grunde wird die NAS nur für die Dateiablage benutzt.
Boxafe (Beta) habe ich schon deaktiviert, weil ich dachte, dass das fürs volllaufen sorgt....da hab ich mich wohl geirrt, bzw. nur einen Teil herausgefunden.
Ach ja, momentan wird noch fleißig auf die NAS in die Laufwerke kopiert. (Die Migrieren gerade die Daten von Onedrive auf die NAS)
# free -m
total used free shared buffers cached
Mem: 32588 31457 1131 221 2683 22132
-/+ buffers/cache: 6641 25947
Swap: 23447 16 23430
df -h
Filesystem Size Used Available Use% Mounted on
none 173.0M 173.0M 0 100% /
devtmpfs 15.9G 64.0K 15.9G 0% /dev
tmpfs 64.0M 17.6M 46.4M 27% /tmp
tmpfs 15.9G 2.3M 15.9G 0% /dev/shm
tmpfs 16.0M 0 16.0M 0% /share
tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export
/dev/md9 493.5M 374.5M 118.9M 76% /mnt/HDA_ROOT
cgroup_root 15.9G 0 15.9G 0% /sys/fs/cgroup
/dev/mapper/vg1-lv1312
1.6G 2.5M 1.6G 0% /mnt/pool1
/dev/mapper/cachedev1
2.0T 1.0T 960.6G 53% /share/CACHEDEV1_DATA
/dev/mapper/cachedev2
7.9T 1.4T 6.5T 18% /share/CACHEDEV2_DATA
/dev/md13 417.0M 349.7M 67.3M 84% /mnt/ext
tmpfs 32.0M 27.3M 4.8M 85% /samba_third_party
tmpfs 48.0M 768.0K 47.3M 2% /share/CACHEDEV1_DATA/.samba/lock/msg.lock
tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock
/share/CACHEDEV2_DATA/.__eN__Windows-Backup
7.9T 1.4T 6.5T 18% /share/CACHEDEV2_DATA/Windows-Backup
/dev/mapper/vg1-snap10001
198.4G 59.1G 138.8G 30% /mnt/snapshot/1/10001
/dev/mapper/vg1-snap10002
2.0T 791.1G 1.2T 39% /mnt/snapshot/1/10002
/dev/mapper/vg1-snap10003
2.0T 791.2G 1.2T 39% /mnt/snapshot/1/10003
/dev/mapper/vg1-snap10004
2.0T 501.1G 1.5T 25% /mnt/snapshot/1/10004
/dev/mapper/vg1-snap10005
2.0T 952.5G 1.1T 47% /mnt/snapshot/1/10005
/dev/mapper/vg1-snap10006
2.0T 1013.0G 1018.4G 50% /mnt/snapshot/1/10006
/dev/mapper/vg1-snap10007
2.0T 1.0T 961.5G 53% /mnt/snapshot/1/10007
/dev/mapper/vg1-snap10009
2.0T 880.8G 1.1T 43% /mnt/snapshot/1/10009
/dev/mapper/vg1-snap20001
7.9T 4.2G 7.9T 0% /mnt/snapshot/2/20001
/dev/mapper/vg1-snap20002
7.9T 1.1T 6.8T 14% /mnt/snapshot/2/20002
/dev/mapper/vg1-snap20003
7.9T 1.2T 6.7T 15% /mnt/snapshot/2/20003
/dev/mapper/vg1-snap20004
7.9T 300.9G 7.6T 4% /mnt/snapshot/2/20004
/dev/mapper/vg1-snap20005
7.9T 1.3T 6.6T 17% /mnt/snapshot/2/20005
/dev/mapper/vg1-snap20006
7.9T 1.3T 6.6T 17% /mnt/snapshot/2/20006
/dev/mapper/vg1-snap20007
7.9T 1.3T 6.6T 17% /mnt/snapshot/2/20007
/dev/mapper/vg1-snap20009
7.9T 1.3T 6.7T 16% /mnt/snapshot/2/20009
tmpfs 128.0K 0 128.0K 0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/shmounts
tmpfs 128.0K 0 128.0K 0% /share/CACHEDEV1_DATA/Container/container-station-data/lib/lxd/devlxd
overlay 2.0T 1.0T 960.6G 53% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/1c0acb03896b3b28b2a0238efe3690202f4e558b27ca5d58d780a88c95f58acb/merged
overlay 2.0T 1.0T 960.6G 53% /share/CACHEDEV1_DATA/Container/container-station-data/lib/docker/overlay2/2aeae0109bc2c3ac4f04d71f04c3596badc7af34b2ae69be2ddeebe9ee03c585/merged
/dev/mmcblk0p5 7.7M 45.0K 7.7M 1% /tmp/config
tmpfs 1.0M 0 1.0M 0% /share/.quftp_client
/dev/mmcblk0p6 7.7M 45.0K 7.7M 1% /tmp/config
/dev/mmcblk0p5 7.7M 45.0K 7.7M 1% /tmp/config
/dev/mmcblk0p6 7.7M 45.0K 7.7M 1% /tmp/config
/dev/mapper/vg1-snap10008
2.0T 1.0T 960.7G 53% /mnt/snapshot/1/10008
/dev/mapper/vg1-snap20008
7.9T 1.4T 6.6T 17% /mnt/snapshot/2/20008
Alles anzeigen
Jetzt fehlt mir nur Verständnis das alles zu verstehen
Soll ich auf der NAS etwas deaktivieren?
So viele APP's finde ich laufen dort nicht, bspw. Security Counselor oder Malware Remover entfernen?
und leider ist das RAMdisk Problem wirklich unschön, dadurch sehe ich die Laufwerke nicht mehr und es kommt zu Problemen beim Syncen.
(Ordner brauchen teilweise sehr lange, bis sie in QSYNC zu sehen sind)
Die Container Station kann ich natürlich auch deaktivieren, falls das hilft.
Erkenne ich irgendwie welche Application die Ramdisk zu volllaufen bringt?