Beiträge von Crazyhorse

    Ungleiche Bestückung ist immer alles andere als Ideal.

    Ob die 4GB das dann rum reißen ist fraglich.


    So muss der Controller ja immer erst rum planen/rechnen, wie er die Daten aufteilen kann, die 2er sind da direkt voll und die anderen noch fast leer bei gleicher Befüllung.

    Ich hole mit das PW aus KeePass und dann rein und ab.


    Der Angriffsvektor VPN Router ist halt deutlich härter, als wenn du diverse Dienst des QTS direkt ins Internet hängst.

    Ob jetzt CSS oder ein anderer BUG im Dienst schlummert ist recht schwer zu sagen.

    Die Folgen jedoch gravierend.


    Mein QTS kommt beim Scan, manuell gehärtet im LAN auf eine 4.x, ohne den manuellen Eingriff mit aktivem SMB 2.1 auf eine 9.x beim Security Scan.


    Wenn dir VPN zu viel Aufwand ist, bitte.

    Aber später nicht Meckern wenn dein NAS doch übernommen wurde und du das DOM recovery durchführen musst.

    Ja wegen der Sicherheit, arbeite jedoch auch als Netzadmin und das geht immer mehr richtung IT Security.


    Selbst im Büro muss ich mich für den Zugriff auf bestimmte Systeme erst im VPN anmelden inkl. 2 Faktor.


    Ist halt immer das gute alte Sicherheit vers. Komfort.

    Nutze auch das FritzVPN am iOS Handy.

    Das wird beim sperren halt schnell getrennt, Energiesparen halt.

    Aber so komme ich an alles ran von unterwegs, IP gibts per DHCP inkl. DNS.

    Surfen und alles läuft dann durch den Tunnel und brigt über mein eigenes Inet aus.


    Perfekt für ungesicherte Hotspots.

    Wenn du als Default Gateway die IP im VPN Netz nutzt, läuft alles darüber.


    Ich würde das an deiner Stelle nur aktivieren, wenn ich etwas administratives in dem Netz machen will.

    Ansonsten Tunnel trennen.


    Denn wenn du beim Surfen was fängst und das Teil sich im Schulnetz verbreitet, will ich nicht in deiner Haut stecken.

    Wenn da auch nur eine Datei abwandert wirst du mit dem BSI und der DSGVO bekanntschaft machen!

    Das ist alles andere als lustig.

    Das ist mal wieder super ungenau!


    Was ist ein großes Raid?

    3, 4, 8, 12, 24, 40 HDs?


    Um wie viel genau wird das Risiko erhöht?

    1%, 2%, 5%, 10%, 50%, 100%?


    Bei den HD Mengen die wir hier einsetzen, also meist 2, 4, 8 HDs, spielt das noch keine so große Rolle.

    Irgendwann erwischt es eine HD, dann die zweite dann die dritte usw.


    Wer von uns hier lastet seine HDs, was die IOs angeht wirklich dauerhaft aus?

    90+% der Zeit ideln die rum.

    Wir lassen hier keine Serverfarm mit 1k VMs aufwärts drauf laufen, dafür gibts andere Hardware.

    Also lasse die Kirche mal im Dorf.


    Denn selbst, wenn man alles falsch macht, wie Blackblaze (40 Standard HDs in einem Blade, davon ca. 10 in einem Rack), sind die Ausfallraten im Rahmen.

    Gut die teile jede Datei in 16+4 Teile, müssen die aber auch, da bei den 40k HDs jeden Tag mindestens 1 stirbt.


    Im profi Bereich geht es eh in Richtung virtual hotspare.

    Das kommt darauf an, was man in dem Moment noch alles auf dem Raid anstellt.

    Ein Rebuild ist ein sequenzieller Prozess, der wenn nicht gestört, ohne viel Stress für die HDs abläuft.


    Problematisch wird das erst, wenn gleichzeitig auf die Daten zugegriffen wird, eine VM läuft, der Mediaserver Aufnahmen und Transcodierungen händelt usw.

    Dann wird das ganze zum mega Stress für die HDs und die Köpfe fliegen wie wild von einer Spur zur nächste.


    In dem Fall ist die Chance das eine HD unter der extremen Belastung aufgibt größer, also wenn die sich nur um eine Sachen kümmern muss.

    Reduziert man also die Arbeitslast, so dass sich das System nur um das Rebuild kümmern kann/muss, verhindert man den Stresslevel der HDs massiv und das Ausfallrisiko wird minimiert.


    Aber von einem Rebuildschaden kann man nicht sprechen, denn der Prozess ist ja nichts weiter wie eine Blockkopie von vielen HDs auf eine neue.

    Es kann zu Lesefehlern kommen, die wiederum dann dazu führen, das ein Rebuild nicht möglich ist, da die CRC Prüfung der Daten unplausible Werte ergibt.


    Die frage ist, fällt das beim Block Rebuild auf oder erst später beim lesen der entsprechenden Datei.


    Aber auch so kann es alle x Bits zu einem solchem Fehler kommen, kann muss aber nicht.


    Der eine hat Glück und ihm fliegt jeden Tag eine Datei um die Ohren, der andere hat es nicht nicht...


    Ist halt wie mit jeder Wahrscheinlichkeit, alles kann nichts muss, also weiter mit dem Lotto spielen, denn nichts anderes ist das lesen von Daten von einer HD.

    Es wird ein Snapshot erzeugt und das wir dann weg gesichert, das hat bei mir bei Virtual Box auch immer funktioniert, auch wenn die VM lief, dafür sind ja die VMTools installiert, die das mit dem System abstimmen und die Prozesse für einen kurzen Moment parken.


    Das kann man also von jeder VM Umgebung erwarten.


    Das ist keine Raketentechnik!