Hallo nochmals ich benötige das Szenario jetzt doch sehe die Freigabe aber nicht...
Beiträge von jogovogo
-
-
Vielen Dank für die Infos. Das Nas ist nur im Intranet erreichbar, machen jetzt via smb.
THX
-
Hallo zusammen!
Weiß jemand wie man ein externes Volume wie FTP benutzen kann?
VG
-
Euch vielen Dank für die schnellen und kompetenten Antworten!
Diese Forum ist immer wieder sehr hilfreich zur Zielfindung.
VG
-
Ja, die Rdma Struktur ist aufwändiger.
Weisst du wie viel Overhead ca. bei iscsi generiert wird gegenüber einem NFS Share?
Die Frage ist ob sich das in der Real World bemerkbar macht in einer RDS Umgebung.
Raw Hdds via iscsi ist für uns ideal in der Anwendung. -
Vielen Dank für eure Antworten,
die TS-977XU-RP liegt preislich vierfach, die Frage ist ob sich das lohnt...
Spaßeshalber mal bei einem Back-up nas, TS-451U, ein Volume konfiguriert und ein soft iscsi Adapter beim einen host konfiguriert und es war erstaunlich schnell.
Es sind Dell R640 mit je 2x Xeon E5 mit 512Gb Ram. Ein paar DCs und überwiegend RDS Server. Kein großer Traffic oder Iops, eher Cpu Performance.
-
Hallo zusammen,
es soll lokaler Speicher, an 2 Server, mit esxi abgelöst werden gegen ein neues Nas mit SSD-Caching via 10gb Sfp Anbindung (TS-435XeU)
Verbaut werden sollen 4 × 14 TB Enterprise Platten und zweimal M.2 mit je 2 TB.
Wie werden die beiden M.2 am zweiten am besten ver- /angewendet für die VMs, via Nfs, Iscsi?
Es stehen ja theoretisch 4 TB Cache wenn auch unbuffered zur Verfügung,
PS: Der lokale Speicher ist recht performant mit den großen Dell Raid Controllern mit 2 GB Cache.
VG
-
Das aktuelle Wirecard von Git läuft bei mir nicht richtig.
Gegebenenfalls muss ich am Routing rumbiegen, oder Docker, lieber wär’s mir nativ. -
Gehe auch davon aus dass die Qnap Kiste bremst.
Steht genug im Netz dass das wohl katastrophal implementiert ist.
Das Synology ist ein DS720+ mit 8gb.
Gesichert werden VMware hosts über Active Backup for Business.
Wenn ich z. B. ein Hypervisor direkt anspreche, ohne VPN über IP, dann komme ich auf 120-140 MB/s, im Büro.
-
Hallo zusammen,
weiß einer von euch was die Schnittstelle wirklich hergibt? (Evtl. nur 10 Mbit/s wie früher... ;-()
Vom RZ zum Büro besteht eine 1 Gbit/s Verbindung. (down)
Es besteht vom Synology (office) eine ovpv Verbindung zum qnap (RZ).
Der Durchsatz ligt bei ca. 7-9 MB/s.
VG
-
Hallo zusammen,
hab ein Problem mit dem oben genannten Adapter.
Sobald das Nas ausgeschaltet ist, sprich stromlos, hat es dann nach den booten die Netzwerk Adapter "nicht mehr" siehe Screenshots.
Wenn er vom USB getrennt und wieder eingesteckt wird funktioniert alles wieder.
Ist da eine Lösung bekannt?
-
Vielen Dank für eure Antworten,
das ist in der Tat nicht ganz offensichtlich wo der Overhead entsteht...
Werde es mal mit einem Mittelwert testen.
-
Die beiden Karten sind direkt verbunden, ohne einen Switch.
-
9000 natürlich...
-
Hallo zusammen,
probiere gerade ein bisschen mit einem Vmware Server rum.
Nun habe ich einen QNA-UC5G1T Adapter an das Nas angeschlossen.
Im Server selber befindet sich eine 10 GB Karte. Die Verbindung steht auch stabil mit 5 GB.
Wenn ich den Netzwerkadaptern sowie dem V Switch eine 9000 MTU eintrage wird das gesamte signifikant langsamer. (gegenüber 1500)
Solved: Multiple MTU Size in vSwitch and iSCSI Adapter - VMware Technology Network VMTN
Irgendwas "bimmelt" bei mir da bei 9000 und Qnap....
Hat wer von euch Erfahrung damit?
VG
-
-
Das ist da drin, siehe Anhang.
Hab damit leider zu wenig Erfahrung um mir ein Bild darüber zu machen.
-
Ich denke das ist eine nicht mehr angeschlossenen USB Festplatte die da irgendwie nicht raus "geht".
-
Hallo zusammen,
jetzt hab ich die Meldung leider wieder...
Code
Alles anzeigenFilesystem Size Used Available Use% Mounted on none 400.0M 280.2M 119.8M 70% / devtmpfs 3.8G 8.0K 3.8G 0% /dev tmpfs 64.0M 944.0K 63.1M 1% /tmp tmpfs 3.8G 136.0K 3.8G 0% /dev/shm tmpfs 16.0M 0 16.0M 0% /share /dev/sde5 7.8M 28.0K 7.8M 0% /mnt/boot_config tmpfs 16.0M 0 16.0M 0% /mnt/snapshot/export /dev/md9 493.5M 171.5M 321.9M 35% /mnt/HDA_ROOT cgroup_root 3.8G 0 3.8G 0% /sys/fs/cgroup /dev/mapper/cachedev1 16.1T 13.1T 3.1T 81% /share/CACHEDEV1_DATA /dev/md13 417.0M 417.0M 0 100% /mnt/ext tmpfs 1.0M 0 1.0M 0% /share/external/.nd tmpfs 1.0M 0 1.0M 0% /share/external/.cm tmpfs 1.0M 0 1.0M 0% /mnt/hm/temp_mount cmfs 8.1T 0 8.1T 0% /share/external/.cm/0/1480ca5c9-42ce-41c8-93ad-9a3d9e3b82b0 tmpfs 48.0M 68.0K 47.9M 0% /share/CACHEDEV1_DATA/.samba/lock/msg.lock tmpfs 16.0M 0 16.0M 0% /mnt/ext/opt/samba/private/msg.sock
-
Hallo zusammen,
danke für eure schnelle Antworten.
Ein Neustart hat's gerichtet.
VG