Das BSI ist für mich nicht maßgebend. Die sollten erst mal ihr PGP Keymangement und andere Ding in den Griff bekommen. Aber das tut auch nichts zur Sache, ich kann mir das nicht aussuchen und muss es umsetzen. Ich bin nur froh wenn wie das letzt QNAP Geräte losgeworden sind. Bis dahin gibt’s eben in Skript.
Beiträge von Imnothere
-
-
Das mag schon sein. Bei den >2000 Servern hier müssen wir auch aufpassen.
-
Die Ausführung auf der cli ist mir schon klar, aber ich will es remote automatisiert ausführen. Das kann ich alles selber basteln, oder es gibt schon etwas fertiges.
-
Hallo,
wir haben in unserer Firma 15-20 QNAPs bei denen regelmäßig das PW geändert werden muss. Das will ich natürlich nicht jedes mal über die GUI machen. Ich habe gesehen das Ansible über Umwege möglich wäre. Zuerst hatte ich die Hoffnung das über Q'center und eine Regel darin machen zu können, aber das gibt Q'center wohl nicht her. Gibt es für sowas schon ein fertiges Skript für Linux z.B. expect?
-
Welche Firmware? Es gibt einige Einträge im Veeam und QNAP Forum dazu. Es scheint, dass die Einstellung bei samba nicht der Default ist, QNAP sich aber entschieden hat es grundsätzlich zu aktivieren.
-
Ja, und SMB wird auch verwendet. Aber inzwischen ist ja klar, dass es am "strict allocate = yes" liegt.
Code
Alles anzeigenPS C:\windows\system32> Get-SmbConnection ServerName ShareName UserName Credential Dialect NumOpens ---------- --------- -------- ---------- ------- -------- serverxx veeam00 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam01 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx Veeam02 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx Veeam03 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam04 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx Veeam05 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam06 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx Veeam07 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam08 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx Veeam09 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam10 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam11 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam12 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serverxx veeam13 NT AUTHORITY\SYSTEM serverxx\fsveeam 3.00 0 serveryy Veeam03 NT AUTHORITY\SYSTEM serveryy\fsveeam 3.00 0
-
Habe ich jetzt ausprobiert, ist leider nicht so richtig elegant. Aber wenn es dauerhaft so funktioniert ist das ok. Die Zeit für ein Veeam synthetic full Backup an einem Standort, ist jetzt von 100 auf 5 Stunden gesunken.
-
Habe das Problem gefunden, es liegt an "strict allocation = yes" in der smb.conf. Leider bleibt eine Änderung dort nicht über Reboots erhalten, falls jemand weiß wie man das dauerhaft dort ändern kann, wäre das sehr hilfreich.
-
Nein, es läuft nichts im Hintergrund.
Das 12TB backup ist nun nach 9 Tagen fertig. Ich kann es nicht nachvollziehen, ich habe iperf installiert und bekomme vollen Durchsatz (es sind doch 10 GbE, nicht nur 1 GbE). Ich kann vom Backup Server das Share verbinden und 50GB Dateien mit 180 MB/s darauf speichern. Nur das Backup das darauf schreibt ist lahm, als Engpass wird auch das Ziel angegeben. Ich habe schon überlegt ob es an der smb session liegen könnte. Aber ich sehe einfach nichts Auffälliges. Auch per ssh verbunden auf der shell springt nichts ins Auge.
-
Das Backup erfolgt lokal, es ist also weder WAN noch VPN beteiligt, die Latenz zwischen Backup Server und NAS liegt bei <1ms. Die Interfaces sind aktuell noch nicht in einem bond, das muss noch angepasst werden. Aber selbst mit nur 1GbE Interface müsste ich doch deutlich über 20 MB/s kommen. Nach dem letzten Neustart waren es auch kurzfristig ~115 MB/s was für 1x 1GbE passen würde. Die ~100ms Latenzen die ich in der Performance Anzeige für das RAID sehe, kommen ja vom Storage, da spielt ja das LAN keine Rolle.
-
Hallo,
wir verwenden unterschiedliche QNAP Geräte an Außenstandorten als Ziel für Backups. Zugriff erfolgt per SMB. Grundsätzlich haben wir wegen SMB immer mit der der Performance zu kämpfen, aber bei einem speziellen Geräte ist sie so unterirdisch, dass es eigentlich nicht sein kann.
- TS-883XU-RP mit 8 x 8 TB im RAID 6, dazu REXP-1610U-RP mit 16 x 8 TB im RAID 6 (1 Disk als Spare)
- 1 Storage Pool mit ~140TB über beide Geräte
- 85 TB zugewiesen als thick volume, ~60 TB belegt
- keine Snaps
- kein Recycle Bin
- keine Verschlüsselung und keine SMB encryption
- 2 x 1 GbE
- ext4 delay allocation aktiv
Der Schreibdurchsatz liegt aktuell bei ~20 MB/s bei einer Latenz von 90 ms. Selbst Read Operationen sind nicht schneller zu diesen Zeiten. Das war schon mal etwas besser, bricht aber immer nach kurzer Zeit auf diesen Wert ein, oft auch unter 20 MB/s. Mir ist bewusst, dass RAID 6 ein Kompromiss ist, aber RAID 6 Volumes mit solchen Werten habe ich selten gesehen. Der eingebaute Performance Test zeigt 180-240 MB/s read für die Disks.
Was m it aufgefallen ist, dass das zweite RAID 6 Volume in der Erweiterung praktische keinen IO anzeigt im Monitoring. Der belegte Platz ist aber schon mehr als im Basisgehäuse verfügbar ist, also müsste eigentlich auch auf der Erweiterung mit immerhin 16 Disks geschrieben werden.
Ich bin ratlos, warum die Performance so schlecht ist. Hat jemand noch Tipps was ich prüfen oder ändern könnte?