Beiträge von nasferatu

    Wenn ich auf der SSD die VM installiere, kann ich aus der VM heraus die anderen platten ganz normal als "interne" platten nutzen?

    Klassische Antwort: Das kommt darauf an. Also normalerweise kannst Du aus einer VM nicht einfach auf das Dateisystem des Hosts zugreifen. Das widerspricht auch dem Gedanken, denn die VM verhält wie ein komplett eigenständiger PC, mit eigenen "Festplatten" etc. Du kannst allerdings natürlich über die Freigaben des NAS auf Inhalte zugreifen. Da das alles innerhalb des NAS abläuft dürfte der Performanceverlust eher klein ausfallen. Die Frage ist halt, was Du genau vorhast. Am einfachsten geht es über die ohnehin vorhandenen Netzwerkfreigaben. Ein direkter Zugriff auf die Platten wird aber nie möglich sein ( oder nur mit ganz bösen Hacks). Das will man aber ja auch nicht, weil einem ansonsten die VM das System schrotten könnte.

    lohnt es sich das QTS auf die SSD zu installieren und dann dort auch eine VM drauf auszulagern? oder merke ich hier keinen Vorteil zur normalen HDD?

    Also bei VMs ganz klar : JA!

    Das QTS ist eine knifflige Sache, weil viel davon glaube ich einfach aus dem Flash DOM eingeblendet wird, weil das System ja auch ohne Platte laufen muss. Allerdings können Apps und deren Datenbanken schon davon profitieren, insofern werde ich das nächste Mal auf jeden Fall mein System zuerst mit der SSD initialisieren und dann erst die anderen Volumes hinzufügen. Man kann einige Apps nachträglich auch zwischen Volumes verschieben, aber eben bei weitem nicht alle.



    Aber man darf natürlich auch keine Wunder erwarten, speziell nicht bei den Murkelprozessoren x51/x53 etc.

    Ist schon ein bemerkenswerter Ansatz den Blackblaze da verfolgt und offensichtlich auch erfolgreich umsetzt. Ich weiß nicht, ob du das hier kennst.

    Neee, den kannte ich nicht. Bin eigentlich auch kein Blackblaze Kenner, aber sie tauchen durch ihre Statistik halt immer mal wieder auf und ihr Konzept ist schon rel. einmalig.


    Möglich, dass sie dadurch die Firmware Nachteile der Desktop-Festplatten berücksichtigen können.

    Nun, es hat ja immer Vorteile sich nicht von den Mechanismen einer Blackbox Firmware abhängig zu machen. Gerade bei dem Konzept, wo man wild irgendwelche Platten kauft und sich schlichtweg nicht auf bestimmte Randbedingungen verlassen kann.

    Danke dir, das wäre eine Erklärung. Wenn man aber "mit erheblicher Redundanz" gearbeitet hätte, dann würde die Kosten-Nutzen-Rechnung nicht mehr stimmen. Im Grunde genommen, muss sich doch alles daran ausrichten.

    Naja, die haben sich das damals schon gut überlegt.

    Siehe auch : Detailed Backblaze Storage Pod Parts and Vendor List


    Der Post ist von 2009, also schon ein Weilchen her. Damals waren echte Serverplatten sicherlich 3x oder mehrmals so teuer wie große Desktop Platten. Wenn man dann stumpf rechnet dass man im Großeinkauf Restposten etc. noch günstiger kriegt, dann kann sich das schon rechnen. Und wenn ich dann einfach mit einem simplem Mechanismus die Daten verdopple oder verdreifache ohne den RAID Schnickschnack dann kann auch mal eine Platte ausfallen. Dann habe ich Spare Pods, die dann automatisch wieder Redundanz aufbauen usw. Also die sind solange im Geschäft, dass das wohl funktioniert.


    Bezüglich der Raid-Fähigkeit der Desktop-Platten könnte ich mir allerdings auch vorstellen, dass sie von Seagate eine angepasste Firmware bekommen haben

    Das glaube ich eher nicht, dass wäre bei einer sehr simplen Redundanz Strategie auch gar nicht nötig. Wenn eine Platte ausfällt wird einfach aus dem Sparepool eine neue mit den übrigen Daten befüllt. Da die Typen und Chargen breit gestreut sind dürfte sich das Ausfallrisiko auch verteilen. Und wenn ich es ganz schlau anstelle, würde ich per SMART in meinem Storagemanager dafür sorgen, dass der die Daten immer automatisch über möglichst viele Typen / Hersteller redundant verteilt.

    Wenn also Desktop-Platten in Raidsystemen ohne die Fehlerkorrektur-Routinen so anfällig gegen Ausfälle sind, wieso werden sie dann trotzdem zu zehntausenden von Blackblaze und vermutlich auch anderen Serverzentren eingesetzt?

    Also die ursprüngliche Idee von Backblaze war eigentlich, immer die billigsten Platten ohne Rücksicht auf Verluste zu nehmen. Man hat auch eigene Server Gehäuse gebaut ( die "Pods" ) und außerdem die Daten erheblich redundanter gespeichert, um bei zu erwartenden Ausfällen gewappnet zu sein. Zum Teil kann man das glaube ich auch auf deren Webseite nachlesen. Als sie angefangen haben war allerdings der Preisunterschied zwischen Server und Desktop-Platten erheblich größer, so dass diese Mischkalkulation durchaus sinnvoll war. Nebenbei haben sie dann ihre Ausfallstatistiken auf der Basis generiert. Mittlerweile ist es aber wohl so, dass auch Backblaze normale "NAS" Platten verwendet, weil die einfach nicht mehr so viel teurer als Desktop-Platten sind. Jedenfalls nicht die hohen Kapazitäten. Das war/ist halt ihr Alleinstellungsmerkmal, weil man für einen festen Betrag monatlich "unbegrenzt" Speicher bekommt, allerdings pro Computer, den man sichert. Andere Serverzentren machen das eher nicht so. Vermutlich benutzen sie auch kein normales RAID, so dass die Firmware Limitierungen da nicht zum tragen kommen. Im Gegensatz zu "normalen" RAID Szenarien, wo Desktop-Platten bei Lesehängern dieses eben schnell in den "Degraded" Zustand überführen, weil sie halt "ewig" versuchen einen Sektor zu lesen. Die "Anfälligkeit" muss nicht unbedingt höher sein, aber mechanisch sind 24/7 sicherlich robuster gebaut.

    dass Kunden wie blackblaze von den Herstellern stark umworben und direkt betreut und beraten werden.

    Ja, aber letztens stand auch bei Heise meine ich, dass Backblaze gar nicht mehr soviele Desktopplatten verbaut, weil die gar nicht mehr so einen immensen Preisvorteil haben. Und Backblaze kann auch schlecht als Referenz dienen, weil deren Konzept ja schon auf erhöhte Ausfälle ausgelegt ist. Wenn man 300 Platten einsetzt und davon ausgeht, dass sich vielleicht 1/3 vorzeitig verabschiedet kann man so eine Mischkalkulation aufmachen. Dem Privatmenschen sollte man sowas aber nicht empfehlen. Oder höchstens, wenn das NAS nur temporär als Backup läuft. Aber generell sind eben die Preisvorteile ja eben nicht mehr so deutlich dass man dieses Risiko unbedingt eingehen müsste meine ich.

    Ich finde aber, mit dieser Erklärung gäbe es keinen Grund in der Firmware zwischen Desktop und Nas-Systemen unterscheiden zu müssen.

    Naja, Desktop Platten sind ja mechanisch anders ( also typischerweise billiger) ausgelegt. Deswegen macht es ja schon einen Unterschied, ob Platten für den Arraybetrieb mit zusätzlichen Sensoren ausgestattet sind oder nicht. Natürlich könnte man sie genauso reagieren lassen, aber wenn die Platte dann unter erhöhtem Verschleiß leidet wäre das ja ein Vanbanque Spiel. Die meisten Leute kommen ja auch nicht mit Workload Angaben klar und wundern sich dann, warum der Drucker bei 100 Seiten / Tag dann nach 2 Monaten hin ist...

    as also muss in der Firmware der NAS-Platten optimiert sein, was ich für Desktop- und Server- LVM-Systeme nicht ebenso benötige?Is

    Ist das eine rhetorische Frage ? Soweit ich weiß sind Server Platten dafür optimiert, wesentlich kürzer zu versuchen einen fehlerhaften Sektor auszulesen. Weil ansonsten der RAID Verbund ungültig würde bei einer nicht antwortenden Platte. Ansonsten dürfte die Kategorie NAS/Server Platte ein reiner Marketing Gag sein. Hauptsache die Platten sind für den Dauerbetrieb geeignet. Und dann gibt es eben noch die Eignuzg für Arrays, das steht alles in den Specs. Also bei Seagate bpsw. sind einzelne Baureihen ja inzwischen für 1-8 Slots und die teureren für mehr gedacht. Das spezielle bei NAS Platten ist wohl eher das Augenmerk auf eine leicht geringere Performance zugunsten eines leiseren und sparsamen Betriebs. Meistens sind "echte" Enterprise Platten ja auch mit SAS Interface ausgestattet, da liegt man dann preislich auch nochmal woanders. Die NAS Eignung könnte man daher eher mit "Kleinserver geeignet" übersetzen. "Desktop" Platten dagegen setzt denke ich überhaupt nicht im RAID Verbund ein, weil sie eben dafür nicht gedacht sind. Gehen tut es natürlich trotzdem. Ist halt wie überall: als NAS Systeme für zu Hause noch nicht so verbreitet waren gab es das Label "NAS Festplatte" eben noch nicht. Dass das NAS letzlich einfach ein Server ist war nicht immer allen klar. Nun ist es verbreitet, deswegen pappen die Hersteller auf ihre Serverplatten nun "NAS geeignet" drauf. Und Serverplatten gibts halt in verschiedenen Preiskategorien mit unterschiedlichen Workloads etc.

    Ich ging von den Daten-Partitionen aus. Die Betriebssystempartition wird grundsätzlich neu geschrieben, auch ohne Plattformwechsel, Einstellungen werden importiert.

    Die Apps liegen aber auch auf den Datenpartitionen wie mir scheint...das hängt auch ein wenig davon ab wie man es sich einrichtet. Deswegen würde ich da zumindest erwarten, dass das ggf. ein Problem wird beim Wechsel von Arm zu X86. Aber im Detail weiß ich es natürlich nicht.

    Ich hoffe nur, das QNAP sich nicht das Lizenzmodell von Synology zu Eigen macht, über 160 Euro für eine VM-Instanz, je Docker über 50 Euro. Das wär' für mich ein K.O.

    Wollte mich eigentlich nicht in diesen Thread einmischen, aber als ich das gelesen habe ist mir doch kurz die Kinnlade runtergeklappt. Machen die das ernsthaft ? Microsoft hat ja auch so ein unseliges Modell, wobei man wohl hintenrum doch umsont den Hyper-V Server bekommt. Aber seis drum , genau DAS ist für mich eben auch ein Kritierum Pro Qnap, dass ich nämlich NICHT völlig von einer Plattform abhängig werde. Aber für Komfort bin ich jederzeit zu haben, und die QTS Oberfläche ist schon eine feine Sache. Leider ist eben die Qualitätssicherung ( wenn es denn eine gibt...) ziemlich unterirdisch. Dass man da kurz oder lang bei einer deart großen Vielfalt an Konfigurationen sich ins Knie schießt ist eigentlich nur folgerichtig...Microsoft kann davon schliesslich auch ein Lied singen. Und leider sind deren Updates mittlerweile ja auch ein Hochrisiko, das hatten die einige Zeit vor Windows 10 schonmal erheblich besser im Griff. Man muss sich eben entscheiden: mehr Qualität und Stabilität, dafür weniger schnell Features. Oder eben schnelle Features, dann wird aber auch hakeliger. Vmtl. wird auch QNAP nicht umhin kommen, so etwas wie einen LTS Channel, Fastring etc. einzuführen. Aber auch das Thema war ja schon lang und breit in der Diskussion. Soweit ich das mitbekommen habe ist ja das vQTS genau für den Zweck gedacht. Setzt aber natürlich eine gewisse Systempotenz voraus.


    Ergänzung:

    Da es ja um Alternativen geht: für mich gibt es derzeit keine, die so einfach zu administrieren und doch so flexibel ist. Alle Selbstbau Varianten ( da Verweise ich nochmal auf diesen Thread von mir, der bisher vor sich hin staubt) sind mit erheblichem Aufwand verbunden, aber natürlich hat man dann wirklich das meiste unter Kontrolle.

    Und die Werte über die Fehler Wahrscheinlichkeit sind in meinen Augen Müll, wieviel Red‘s sind den hier in der letzten Zeit als def. Gemeldet worden?

    Wenn Du die Bitfehlerrate meinst: das ist ein gängiges Maß und hat ja nichts mit einem Komplettausfall zu tun. Die Backblazestatistiken sind ja auch nur eine Momentaufnahme und können u.U. ein Indikator für Serien/Chargenprobleme sein. Wobei sie glaube ich für letzteres nicht detailliert genug sind.

    Nun ja, HGST wurde von Western Digital gekauft und wird über kurz oder lang verschwinden.


    Kann mir jemand eine Platte empfehlen. Bei den o.g. WDs, die ich jetzt drin habe, bin ich ja jetzt natürlich skeptisch. Danke schon mal!

    Die Zuverlässigkeit findet man im Datenblatt, wobei die "billigen" Platten meist mit einer Fehlerwahrscheinlichkeit von 10-14 daherkommen. Das heißt, 1 falsches Bit auf 100000000000000 Bits.... oder etwa alle 11,6 TB. Was einem zu denken geben sollte, wenn man eine 12 TB Platte mit dieser Quote hat. Das hieße bei einer 12TB nämlich unterm Strich, dass kein fehlerfreies komplettauslesen möglich wäre.


    Allerdings haben bessere Platten typischerweise eine Fehlerquote von 10-15, sind dann aber auch teurer.


    Auf jeden Fall sollte man darauf achten, dass die Platte in der Kompatibilitätsliste ist, dann ist man zumindest erstmal auf der sicheren Seite was die grundsätzliche Funktion und die Eignung für den Dauerbetrieb betrifft.


    Schlussendlich hilft nur eins: Backups, Backups und Backups. Und es ist hilfreich, wenn die Platten nicht übermäßig heiß werden, 40 -45°C sind ok. Grundsätzlich kann man sagen, wenn die Platte ohne Mucken die ersten 6 Monate überlebt hat man erstmal gute Karten, sofern die restlichen Umweltbedingungen stimmen ( Temperatur, Vibrationen, Staub...).

    Ich frage mich ehrlich gesagt, warum es dieses SWAP Problem überhaupt gibt bzw. warum ein Klick auf "Bereinigen" bei QBoost dann wieder auf wundersame Weise Gigabytes an Speicher freigibt. Wenn das ein so simples Problem ist, dann könnte man das ja wohl automatisieren. Es kann doch kein echtes Speicherleck sein, denn müsste man ja wirklich die beteiligten Prozesse abschießen bzw. neustarten. Ich wundere mich immer wieder, wieso das passiert.

    Mal eine ganz andere Frage:


    Ich habe immer mal mit dem Gedanken gespielt, mir einen eigenen kleinen kompakten Homeserver zu bauen. In Würfelform mit 4 Schächten gibt es ja durchaus eine gewisse Auswahl, darüber aber eher nicht so nach meinen bisherigen Recherchen. Ein kompaktes Gehäuse mit 6 - 8 Bays, in dass man ein kompaktes Mainboard ( ITX, µATX , hab jetzt im Formfaktoren Zoo so ein wenig den Überblick verloren) einbauen kann habe ich bisher aber eher nicht gefunden. Das sind dann meist gleich ziemlich klobige Towergehäuse. Grundsätzlich spricht ja nichts gegen QNAP, wenn man allerdings was mit etwas Rechenpower haben möchte, dann wirds doch schnell exorbitant teuer, was dann doch erstmal vom investieren abhält. Vielleicht kennt ja jemand was taugliches, was nicht ganz so bekannt ist.

    Ich denke, der Sprung von 8 auf 16GB ist eher marginal, weil die Leistung des Systems für ernsthafte Rechenleistung ( Bildverarbeitung, VMs etc.) viel zu klein ist. Da würde ich das Geld lieber in eine kleine SSD investieren, die man als Systemplatte und für VMs nimmt. Das senkt spürbar die Latenz bei vielen Anwendungen. Wenn Du wirklich was rechnen willst nimm lieber einen "ordentlichen" Prozessor.

    Sind die wirklich so wenig perfomant? Fände ich schade.

    Gib den konkreten Prozessortyp bei Google ein und guck mal bei "Passmark". Da siehst Du, wo die einfachen Atom basierten CPUs so stehen. Wenn ein echter Desktop Prozessor im NAS werkelt kannst Du auch eher Desktop Performance erwarten. Also ich sage mal i3,i5,i7, Ryzen. Die TVS Reihen sind eher Desktoptauglich. Aber leider auch eben deutlich teurer. Und natürlich wesentlich stromhungriger.

    Rui


    Wenn bei Dir das Stromnetz derart instabil ist solltest Du besser etwas höherwertigeres nehmen als die ganz einfachen USV, die erst beim Spannungsabfall anspringen. Die besseren trennen wirklich das Netz und lassen den internen Wechselrichter permanent laufen, so dass die Batterie Spannungsspitzen etc. gut wegpuffert. Allerdings braucht die USV dafür selber auch Strom, so dass Du (ich meine ca. 10W) permanent Mehrverbrauch hast. In einer der letzten c't wurden USV mal getestet, da wurde diese Problematik angesprochen, die ich so auch noch nicht auf dem Schirm hatte. Und ganz wichtig: der Akku ist natürlich ein Verscheissteil, so dass Du damit rechnen musst, den alle 3 - 4 Jahre zu erneuern. Ist zum Glück nicht so eine Rieseninvestition, sollte man aber bedenken. Vor allem, dass man ihn auch selbst tauschen kann.