Hilfe beim Aufbau von remote office Netz

  • Hallo,

    ich bin zur Zeit damit beauftrag mich für die Firma über die sinnvollste Möglichkeit unsere Infrastruktur umzubauen, da wir demnächst das Office komplett aufgeben zugunsten von Homeoffice/Remote-Working.
    Wir sind ein kleines Medienunternehmen und haben bisher im Office einfach alle Workstations über 10g Lan an unserem QNAP NAS angeschlossen.
    Seit Corona sind wir fast komplett auf Remote-Office umgestiegen, haben jedoch einfach weiter die halbgare Lösung über Anydesk genutzt.
    Das heisst: Wir haben jeweils lokal gearbeitet und dann sporadisch oder um die Rechenpower der zusätzlichen Workstations im Office zu nutzen, manuell die benötigten Daten über den Anydesk Filetransfer hochgeladen.
    Das das völlig unpraktikabel ist eigentlich ist uns klar, aber wir haben weder jemand, der sich dediziert Vollzeit darum kümmern kann, noch die Zeit gehabt bisher.

    Das grundsätzliche Setupo wird sein, dass das 50tb QNAP NAS an einer Location steht, hinter einem VDSL Router (Digitalisierungsbox). An diese angeschlossen sein wird ein Lizenz-Server (Windows rechner zum verwalten von Softwarelizenzen) und ggf. 2-3 Workstations zum rendern.
    Pro Remote Office stehen dann jeweils zwei Workstations, eine zum arbeiten, eine zum rendern.
    Die werden auch jeweils über einen Router (unterschiedliche Marken je nach Mitarbeiter) mit dem Internet verbunden sein.

    Unsere Anforderungen an die neue Infrastruktur sind:

    1. Sync aller lokalen workstations mit dem Office QNAP NAS in regelmässigen Abständen, wenn möglich auch mal in "Echtzeit".
    Beispielsweise wird auf einer Workstation eine Bildsequenz gerendert und der Mitarbeiter will nicht warten, bis die fertig ist um sie dann zu syncen, sondern jedes Bild sofort syncen.
    2. Erreichbarkeit des QNAP NAS im Office über das Internet von allen remote offices aus, um Daten zu syncen und ggf. Softwarelizenzen vom angeschlossenen Lizenz-Rechner zu bekommen.
    3. Zugriff auf Remote Office Workstations von anderen Remote offices. Geplant ist, dass pro Remote Office je zwei Workstations stehen, eine zum arbeiten, eine zum rendern.
    Und bei Renderengpässen sollen andere remote Offices auf die jeweilígen Rendernodes zugreifen können, um diese mitzunutzen.
    4. Wake on Lan um Die Workstations die am Office QNAP NAS angeschlossen sind aus dem Internet von einem anderen Remote Office aus hochzufahren bei Bedarf.
    5. Wake on Lan um die remote office Workstations übers Internet von anderen remote offices aus hochfahren zu können.
    6. Ganz wichtig: Filepfade müssen identisch bleiben auf den remote Workstations UND auf dem QNAP NAS im Office.
    Unsere Programme wie 3ds max oder After Effects verlieren sonst alle Dateireferenzen und die müssten sonst alle manuell neu verknüpft werden.
    Bisher war das bei uns so gelöst, dass ein Ordner auf dem QNAP NAS einfach als network drive gemapped war (P:Projekte). Im Office angeschlossene Workstations hatten damit automatisch alle dieselben Pfade, in den remote Offices mussten wir eben
    auch ein Drive P:Projekte anlegen und dafür sorgen alle Filepfade identisch wie auf dem QNAP NAS zu halten.

    Nach meiner Recherche bisher, habe ich bis jetzt 2.5 Lösungen im Auge:

    A) Qsync+dynDNS.
    Der Office QNAP NAS wir über die myQNAPcloud dyndns im Router übers Internet zu erreichen sein.
    Auf allen Workstations ist QSYNC installiert.
    Qsync synced in echtzeit bidirektional alle Projekte auf dem "P: Projekte" ordner im Office QNAP NAS über einen paired folder auf der lokalen Workstation.
    Über Storage Sense werden nicht genutzte Daten nach einer gewissen Zeit dann vom lokalen Drive gelöscht, bestehen aber weiter auf dem Office QNAP NAS als Backup.
    Eventuelle Versionskonflikte, falls Mitarbeiter aus verschiedenen Offices mal am selben Projekt arbeiten (kommt eher selten vor) werden über das Qsync Versionsmanagement gelöst.
    Nicht ganz klar ist, ob für die zweite remote workstation auch Qsync in Dauerschleife läuft und dann eben nur in eine Richtung synced (vom Office QNAP zur workstation), was ziemlich viel Bandbreite kosten würde,
    ob es reicht dort Qsync nur auf Bedarf anzuschmeissen und dann eben warten zu müssen, bis gesynced ist, oder ob man "P:Projekte" als network mapped drive einbinden kann im lokalen remote office lan.
    Habe irgendwo gelesen, dass das nicht empfohlen ist, aber noch keinen grund gefunden warum...


    Für Wake on Lan und um andere Workstations in anderen Remoteoffices mitnutzen zu müssen, muss auf jedem Remote office Router dann auch irgend ein drittanbieter DynDNS mit Portforwarding eingerichtet werden.

    B) Qsnyc+DynDNS+mehrere QNAP Nas
    Im Prinzip dieselbe Lösung wie A, mit dem Unterschied, dass die remote Offices keine internen HDDs oder SSDs nutzen als "P:Projekte", sondern jeweils an ein kleiners QNAP NAS im Heimnetz angeschlossen sind,
    ggf. auch nur über USB 3.2, da die 10g NAS oft deutlich teurer sind.
    Unklar ist, ob dann das Problem mit dem lokalen Sync zwischen den beiden Workstations im remote Office entfällt, bzw. wie man dann das lokale QNAP NAS einbindet als "P:Projekte".
    Der grösste Vorteil bestünde vor allem darin, dass man ggf. myQNAPcloud als DynDNS für alle remote Offices nutzen könnte, Speicherplatz einfacher aufgerüstet werden könnte und man ggf. noch andere
    QNAP NAS Vorteile nutzen könnte.
    Nachteil wären die deutlich höheren Investitionskosten.

    C) QVPN
    In der Lösung würde "einfach" der Office QNAP NAS als P:Projekte auf allen remote offices als network mapped drive verfügbar sein.
    Massiver Nachteil wäre allerdings, dass die Arbeitsgeschwindigkeit beim lokalen Arbeiten eingeschränkt wäre durch die Internetgeschwindigkeit und nicht durch die Geschwindigkeit der verbauten SSDs/HDDs, wie in den anderen beiden Lösungen,
    wenn man weiterhin alle Daten auf "P:Projekte" speichert.
    Man könnte überlegen, ob man hier auch eine Hybrid-Lösung findet, daher, man arbeitet an aktuellen Projekten lokal auf einem anderen network mapped drive (beispielsweise "Q:Lokal") und
    nutzt Qsync um Daten dann regelmässig mit dem "P:Projekte" Ordner auf dem QNAP NAS im Office zu syncen.
    Dann hätte man die Geschwindigkeit auf einer lokalen Platte zu arbeiten mit der Sicherheit des VPNS und der Erreichbarkeit aller Rechner im VPN Netzwerk (inklusive WOL möglichkeiten?).
    Allerdings wäre dann Unklar, wie man das Problem mit den verknüpften Referenzen löst.
    Geht es nur darum ein altes Projekt "wiederzubeleben", kann man es theoretisch via QSYNC einfach vom Office QNAP NAS zurück auf den "Q:Lokal" Ordner Syncen und hat dann lokal wieder alle filepfade korrekt.
    Aber wie könnte man das Problem lösen, diverse Workstations im VPN zu nutzen um ein Projekt zu rendern, dass auf einem remote office Rechner lokal erstellt wurde?

    Ich würde mich über Input von aussen zu freuen, da ich gerade an die Limits mit meinem Knowhow komme was die Planung angeht!

  • Moin,


    Du hast jetzt sehr viel geschrieben, daher wird die Antwort wahrscheinlich doppelt so ernüchternd sein:


    Sucht euch besser einen IT Dienstleister, der weiß wie man das alles ordentlich und sicher gestaltet.

    ;)

  • Ich würde da defintiv nichts mit irgendwelchem Rumgesynce machen.

    Ein sauberes VPN (oder mehrere, blicke ich gerade nicht so recht) und dann wird darüber gearbeitet. Gibt es die Bandbreite nicht her direkt über VPN zu arbeiten (das wäre Voraussetzung für Remotearbeit), dann müsste man sich eventuell damit behelfen, dass man sich die erforderlichen Dateien manuell zieht, lokal bearbeitet und wieder manuell hochlädt.

    Mir wäre so ein gesynce jedenfalls nichts für Daten mit denen produktiv gearbeitet wird, und wenn, dann mit doppelt und dreifach abgesicherter Backupstrategie...

  • Bin der selben Meinung wie tiermutter . Das rumgesynce wäre mir viel zu doof und auch zu unsicher. Außerdem muss man das ganze System ja auch verwalten können, sonst ist man immer auf jemand Externen angewiesen, der dann springen muss wenn mal was nicht funktioniert wie erwünscht.

    Bleibt also noch die gute alte VPN Verbindung zum Server, Daten runter laden, lokal bearbeiten und wieder hochladen.
    ggfs, muss man halt ins Office fahren und sich die Daten auf eine externe SSD kopieren, sollte es mal schneller gehen müssen.

  • Mod: Unnötiges Volltextzitat entfernt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen


    Naja, das manuelle ziehen von Daten ist ja was wir jetzt gerade machen und mir ist es drei mal lieber mich mit etwaigen sync problemen rumzuschlagen, als mit "human error"...ständig zu kontrollieren ob alle auch wieder brav die bearbeiteten Files zurück ins office laden wäre ne extra Vollzeitstelle...
    Abgesehen davon, dass man dann auch ständig files vergisst, die in den projekten vielleicht noch verlinked sind lokal etc.
    Die Bandbreite gibt das definitiv nicht her. Wir reden hier von zig gigabytes an .exr files, die dann in After Effects gecached werden müssen zum Beispiel.
    Wenn wir die dann beispielsweise im Office rendern und dann aber lokal arbeiten wollen, haben wir ne maximale Bandbreite von 500mbit/s zur Verfügung.
    Das heisst eine maximale Geschwindigkeit von 62megabyte/s, während die lokale SSD auf 600mbyte/s kommt...
    Es gibt in den Programmen die wir nutzen aber durchaus auch die möglichkeit relative Pfade statt absoluten Pfaden zu nutzen, was dann die Hybrid-Lösung via VPN/andere Driveletter vielleicht doch möglich machen würde.
    Da muss ich mich separat nochmal schlau machen...

  • Der Sync beachtet aber nicht, ob die Daten fertig bearbeitet sind oder nicht... der synct halt immer nach Vorgabe und könnte somit auch stets sämtliche Bandbreiten auslasten. Bei Echtzeit und dateibasiert ist das Ding ständig am rödeln. Lässt man den nur einmal täglich in der Nacht laufen (bzw. wenn niemand mehr arbeitet), dann muss man eventuell wieder lokal für Backups sorgen, je nachdem was an Verlusten zu verkraften ist. Und wenn dann des nachts mehrere Hundert (?) GB gesynct werden müssen, dann wird das bis zum Arbeitsbeginn bestimmt auch nicht fertig und die Bandbreiten sind erschöpft. Ich bin da aber auch nicht so im Thema und kann mir daher vielleicht nicht richtig vorstellen, von wo nach wo wie viele Daten unterwegs sind.

    Besonders beim hin und her gesyncte sind die human errors ja mit die Schlimmsten, was passiert denn bei Konflikten? Einer arbeitet stundenlang an einer Datei, einer macht sie später versehentlich auf, speichert ggf. ohne Änderung und dann?

    Aber der Sync / Datenaustausch ist hier ja auch nur ein Teil des Problems, zusätzlich soll dann auch noch jedes Homeoffice von jedem erreichbar sein, das wird ganz schön komplex!

  • Ja, ganz unkomplex wird das nicht zu lösen sein.
    Ich denk halt an ne DynDNS Lösung mit separaten subdomains für jedes Homeoffice und wir nutzen bereits "Deadline", wo ich dann (theoretisch) die remote rechner einbinden könnte, solange sie über DynDNS erreichbar sind und (theoretisch) auch über WOL kontrollieren könnte.

    Qsync hat halt noch nicht mal ne Progress-Anzeige für den Sync Status und wenn man kanns nur an oder ausmachen, nicht schedulen.

    Sync Konflikte zwischen Mitarbeitern sollten eigentlich kaum vorkommen, 90% unserer Projekte sind autark pro Mitarbeiter.
    Wir nutzen auch schon Perforce für Unreal Engine Projekte und könnten das ggf. auch noch einbinden für ein extra Layer an Versionskontrolle, aber für das allermeiste was wir nutzen wäre es overkill.

    Das syncen über Nacht hiesse ja auch, dass die Rechner zum syncen nonstop laufen müssten, soweit ich jetzt überschlagen habe, wären die Stromkosten dafür aber auch nach 3 Jahren noch niedriger als die Anschaffungskosten für weitere QNAP Nas pro Mitarbeiter.

  • Qsync

    ... halte ich für gänzlich ungeeignet. Syncen können andere Tools besser, was QSYNC gut kann weiß ich nicht :whistling:

    90% unserer Projekte sind autark pro Mitarbeiter.

    Dann würde es ja reichen, wenn je MA nur sein "persönlicher Ordner" gesynct wird, das erspart zumindest viel Traffic. Die anderen 10% müsste man dann anders lösen, ggf. wirklich mit manuellem up/download.

    Das syncen über Nacht hiesse ja auch, dass die Rechner zum syncen nonstop laufen müssten

    Auch noch, ja...


    Ich hab von eurer Arbeit wie gesagt halt auch keine Ahnung... schlimm wäre es (finde ich) wenn für jede kleine Änderung / Zwischenspeicherung an einer "großen" Datei ein Sync stattfindet.


    Unterm Strich bin ich halt auch nur Hobby-IT-Trottel, keine Ahnung was es da an guten Lösungen geben mag, daher ja auch mein Vorschlag in Post 2 ;)

    Und wie sammy229 schon schrieb: Dieses gesamte Konstrukt muss auch irgendjemand überwachen und entstören, schließlich ist das hier kein nice-to-have mehr sondern eure Arbeitsgrundlage. Wenn es dann richtig doof läuft, kann man unter Umständen auch nicht mehr aufs Office ausweichen, weil die Daten Schrott sind... wäre mir zu heikel :S

  • Hmm, das NAS bei einem MA über VDSL angebunden wird definitiv der Bottelneck sein, wie auch schon tiermutter schrieb. Damit das halbwegs funzt, brauchst du auch ein ordentliches VPN Gateway.

    Wenn ihr keinen Profi mit dem Aufbau befassen wollt oder könnt (finden könnt), würde ich eher bei unabhängigen Projekten dazu raten, eben jedem MA ein kleines NAS hinzustellen, alles andere wird nur zu Verdruss führen, da die Bandbreite nicht ausreichen wird und gerade Mediendaten recht groß werden können. Dann würde ich eher dazu raten, die NAS bei jedem MA nachts auf das Haupt-NAS zu synchronisieren.

    Kostet auch was, aber weniger, als einen neuen MA einzuarbeiten, wenn die alten aus Frust gehen...

  • Mod: Unnötiges Volltext-/Direktzitat entfernt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen


    Ja, wir sind in unserem letzten Gespräch auch dabei gelandet.
    Vermutlich reicht uns dann auch ein raid5 setup und wir können auf teure SSDs verzichten und haben immer noch genug speed zum Arbeiten.
    Einziges Problem dabei ist eben Sicherheit. Wir nutzen schon 2 factor authorisierung, da müsste man dann ja sowohl Firmen NAS als auch Homeoffice NAS ausreichend schützen.
    Ggf. müsste man sich noch überlegen Hardwarefirewalls für alle remote offices anzuschaffen beispielsweise.

    VPN fliegt auf jedenfall raus, da es einfach keine möglichkeit gibt für uns da vernünftige Geschwindigkeiten hinzubekommen und wir auch keine verschiedenen Driveletter vergeben können um Konflikte zu vermeiden. Relative Pfade für alles zu benutzen scheint leider auch nicht trivial zu sein und ist mit einer Menge möglicher Fallstricke verbunden.
    Ist halt ärgerlich wenn man mit gigabytes an footage arbeiten muss, wenns nur ein paar Excel Tabellen wären, wäre ich sofort bei VPN...:)

  • Ohne VPN wird das aber kaum sicher machbar sein... VPN ist Pflichtprogramm. Wenn die Hardware keine anständigen Geschwindigkeiten kann, dann muss neue her.

    Das was ihr vorhabt ist kein privates Kinderspiel, daran hängen Existenzen. Entweder die Voraussetzungen werden geschaffen oder der Traum ist vorbei.

  • Wir nutzen schon 2 factor authorisierung,

    Die ist bei QNAP so unsicher das sie nur Schall und Rauch ist (2FA QNAPS wurde ohne Probleme durch Malware verschluesselt) , deswegen ein NAS ja nie offen ins Netz.


    Btw bei großen Datenmengen würde ich immer auf RDP mit Office Lokalen Workstations setzen, Terabytes an Daten hin und her zu Syncen macht net viel Sinn.


    Bei Mediendateien gibts als Alternative ja auch Proxy Files.

  • Mod: Unnötiges Volltext-/Direktzitat entfernt! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen


    RDP haben wir auch bisher benutzt aber wir geben das lokale Office komplett auf und stellen auf 100% Homeoffice um.
    Mit RDP hatten wir diverse Probleme, angefangen dabei das keine Lösung bisher für uns schnell genug war um gleich flüssig wie lokal zu arbeiten.
    Mediaproxies kosten mehr Zeit zu erstellen, als wir haben und machen auch nur bei bestimmten Projekten überhaupt Sinn.
    Ausserdem sind das nicht die einzigen grossen Files, die wir syncen müssen.
    Wir haben eine kleine Renderfarm, die an den QNAP NAS im Office angeschlossen ist und dort auch bleibt, wenn der dann im neuen Zuhause steht und hier immer alles manuell zu syncen, was die zum rendern braucht ist viel zu Fehleranfällig (da brauch man nur mal ein einziges jpeg zu vergessen und hat 24 Stunden umsonst gerendert) und kostet auch zuviel Zeit.

    Wie gesagt, wir sind eine kleine Medienfirma, die weder mit sensitiven Daten arbeitet wie grosse deutsche Firmen oder Staatsmitarbeiter, noch teueres innovatives Knowhow besitzt, woran ausländische Spione interessiert sein könnten.
    Was natürlich nicht heisst, dass wir nicht trotzdem Opfer einer Ransomwareattacke werden könnten, das ist mir schon klar.
    Aber ist da eine QNAP/DynDNS Lösung mit Firewall wirklich nicht ausreichend sicher?
    Remote Desktop tools funktionieren ja auch nicht ohne Internet...
    Unsere Renderfarm würde auch nicht ohne Portfreigabe funktionieren, weil wir diverse Software Lizenzen online abfragen müssen dafür und ohne die können wir tatsächlich einpacken...

  • Aber ist da eine QNAP/DynDNS Lösung mit Firewall wirklich nicht ausreichend sicher?

    Die Firewall hat da ja schon verloren, da man den Traffic ja durchlassen muss. (Port Forwards).


    Wenn es um Video geht ist RDP in der Tat nur so halb gut. Ich hab aber keine Kunden die Remote mit Video arbeiten, kann da auch net viele Tipps zu geben. Jemand der sich perfekt damit auskennen sollte ist Bob Zelin. (Der richtet kleine bis große Medienunternehmen für Remote Arbeit ein.) Falls gute Englisch Kenntnisse vorhanden sind, einfach mal nach dem Namen googeln und den anschreiben. Unverbindlich Fragen kostet ja nix.

  • Und um es nochmal klar zu sagen und meine Vorredner aufzugreifen:

    VPN ist obligatorisch, egal wie, ihr werdet nur vernünftige VPN-Gateways brauchen, da selbst mit den lokalen NAS noch ordentlich Daten hin- und hergeschaufelt werden. Es wird nur nicht mehr während der Arbeitszeit werden, sondern des nachts, wo es nicht so schwer wiegt, allerdings muß die Bandbreite noch akzeptabel sein.

  • Jo, wir sind jetzt weg von der Idee das mit QNAP NAS zu machen. Wir waren da schnell bei Kosten von 2500 EUR pro Arbeitsplatz der mehr und das Setup insgesamt war einfach nicht sehr befriedigend.

    box.com bietet unlimited storage und wir sparen uns das ganze gehecksel mit VPN, da wir einfach keine lokalen Server oder NAS brauchen...
    Alle arbeit in höchster SSD Geschwindigkeit lokal bei sich zuhause, gesynced wird nur was gebraucht wird, Pfadstruktur bleibt intakt, in dem alle ihren Cloud Storage auf den selben Laufwerksbuchstaben mounten.

    Was wir noch an Servertools brauchen lassen wir über einen VPS bei einem anderen Anbieter laufen.

    Die Sicherheitslücken die es dann noch gibt, sind die portforwardings/Firewall exceptions, die wir brauchen für die Servertools (Rendermanager und Version Control Software) um auf die Rechner in den Remote Offices zugreifen zu können vom VPS aus.

    VPN funktioniert da leider auch nicht, da alle dieselben network mapped drives Laufwerksbuchstaben haben und es da konflikte gäbe in einem VPN.

    Aber das ist dann nicht mehr QNAP relevant.
    Insofern danke fürs mitdenken und bis die Tage!

  • Puuuuuuuuuh. Virtuelle Arbeitsplätze mit einem Qnap als "Server"?

    Ich finde das alles schon sehr gewagt.

    Gerade im Thema


    • Datenverfügbarkeit
    • Rechenkapazität
    • Backup
    • Mail etc.
    • Datenschutz
    • Datensicherheit
    • Zugriffssicherheit


    Da gehört, wie tiermutter schon gesagt hat, ein professioneller ITler dran.

    Es gibt genügend kleinere IT Systemdienstleister, die sich gerne der Sache annehmen.

    Für alles, das wir nicht im Hause erledigen, haben wir einen IT Systeminformatiker, der das nebenberuflich macht. Hauptberuflich ist er Systemadministrator im Angestelltenverhältnis und betreut nebenher KMUs, wie wir es sind.

    Diese Kerlchen sind oft wesentlich fitter als die Systemhäuser, die nur ihre Linie fahren. Vielleicht auch, was den Bereich open source Lösungen angeht. Anstelle teure Lizenzen bei namhaften Herstellern zu kaufen.


    Ich würde mir salopp gesagt einen Rack-Schrank hinstellen, Terminalserver mit richtig dicken Backen installieren, von denen ich in puncto Datenverfügbarkeit, Rechte, Zugriffe etc. alles sauber regeln kann. Davor einen Router, eine richtig dicke Sicherheits-Appliance. So, dass es einfach passt.

    Dann kann jeder, von jedem Endgerät aus seine Arbeit erledigen. Egal, wie alt oder neu, wie schnell oder langsam.


    Die Internetverbindung überträgt nur Bilddaten an den Remote-Rechner. Sollte die Rechenkapazität nicht ausreichen erweitere / tausche ich den Server und benötige keine neuen 10 Endgeräte.