Beiträge von Crazyhorse

    Ja das wird die auch, aber wenn eine VM durch dreht und ein Prozess sich aufhängt, dann geht deine NAS auf 100% und im schlimmsten Fall kannst du dich dann nicht mehr anmelden, weil du in den Timeout läuft.


    Daher so wenig wie möglich, so viel wie nötig vergeben.


    Überbuchen ist nie gut, vor allem nicht wenn es zu einer kritischen Lastsituation kommt.


    @carsten_h

    Bin doch auch noch neu mit der QNAP unterwegs, den Virtual IO habe ich noch nicht getestet, ich hatte nur mal SATA eingestellt und da war suspend nicht möglich, er dann auf IDE hin gewiesen.

    Gerade versucht, suspend läuft und wenn es noch mal schneller arbeitet in Verbindung mit der SSD, dann ist es perfekt.


    Danke

    Also scheint es so, als ob die NAS das LACP Protokoll nicht sauber auf die bereits aktiven Ports setzt.


    lldp ist auf dem Switch aktiv?


    Nur zur Sicherheit, schaue mal nach ob es für den Lancom ein Update gibt und was hier an Fehler korrigiert wurde.


    Also ist der Port Status nach dem Booten, welcher genau?

    Aushandlung läuft aber die Ports werden nicht in den LACP Port Channel eingebunden?

    Was sagte den die Log vom Switch?


    Wie ist der LACP Status wen die Kiste bootet?

    Da gibts ja so was wie, Down, Up, in Aushadlung, Ok.


    In welchem Stadium klemmt es?


    Kommt die NAS Online wenn du die Ports shut, dann no shut setzt, nachdem es vollständig gebootet ist?


    Hast du eine automatisch Fehler Rückstellzeit auf dem Switch eingestellt?


    Nicht das hier das Problem liebt, da das NAS die Ports nicht gleich als LACP aktiviert, das ist ja eine Software seitige Lösung und braucht erst mal Zeit beim Booten.

    Ich verwende in der Virtualsiation Station IDE und writeback, da ich eine USV habe, geht hier nix verloren, auch wenn der Strom mal ausfällt.

    Mit der SATA Anbindung für die HDs kannst du VMs nicht parken, das finde ich wichtig, brauche ich die Ressourcen kurz anderweitig, parke ich die und mache nächsten Tag genau an der Stelle weiter.


    Wenn die VMs dann noch auf der SSD liegen, die massiv IOs liefert, ist das schon das auch schön schnell.

    Die HDs mit 100-150 IOs sind da deutlich langsamer, wenn du dann noch Daten verschiebst und die VMs Updates installiert, gehts damit gar nicht weiter.


    Zudem solltest du jeder VM nur 2 Kerne geben, so kann eine dir das NAS nicht völlig auslasten und du hast immer noch genug Rechenleistung, die auf der NAS an zu melden und eine durch gehende VM hart zu beende, sollte das notwendig sein.

    Kannst den Artikel ja per PM senden, das sollte hier ja möglich sein.


    Per Name hat es sagen wir mal 4-6 Stunden das Netzlaufwerk eingebunden und es war alles ok, dann auf einmal war es offline und nicht mehr zu verbinden, da es laut Windows noch verbunden war.

    Ganz komisch. Oder ich habe in QTS eine Funktion erwischt das das bewirkt, Bonjoure z.B. hatte ich mal abgeschaltet.


    Dann per IP das Netzlaufwerk neu verbunden und seit dem war es immer verfügbar.


    Tja bei der FritzBox kannst du leider nix am DNS einstellen, hätte hier ja gern den Namen der QNAP FQDN eingetragen und damit split DNS genutzt, aber das funktioniert leider nicht mit diesem Haufen Plastik.


    Ah ich glaube ich habe den Artikel gefunden.

    Ich dachte bei Win 10 läufte zero Conf nur noch über mDNS, habe daher auf meinem Mini Switch Mutlticast Support aktiviert, eine IP hat er in dem Netzt sowieso so das er Querier werden kann.


    Aber ich hatte meine Laptop mit LAN und WLAN verbunden, vielleicht war es das.

    Multi Homed ist anscheinend immer noch problematisch.


    Ansonsten mit Wireshark den Anmeldevorgang mit mitschneiden, dann kann man sich das ansehen und muss nicht mehr raten.

    Nach meinem Kenntnisstand, kannst du ein Raid 1 ganz einfach an einem PC mouten und auslesen, wenn er denn das Dateisystem versteht.

    Sprich mit einem ext4 Treiber sogar unter Windows.


    Bei allen anderen Raid Varianten sieht es jedoch anders aus.

    Aber mit einer HD kannst du sowieso nur ein Einzellaufwerk einrichten, das könntest du aber später in ein Raid 1 migrieren.

    Leider haben sie die HD Preise in den letzten 3 Jahren kaum geändert, ich habe damals eine Toshiba 4TB mit 7200rpm für 115€ bestellt, jetzt kostet das Modell bei dem Hersteller 113€.

    Wenn die nicht langsam mit den Kapazitäten hoch und den Preisen runter gehen, schrauben wir bald nur noch ssds überall rein.


    4TB haben immer noch das beste Preis / Leistungs Verhältnis, sind jedoch schon fast von den 8TB Modellen eingeholt.


    Wenn du also eh neu kaufen musst, dann würde ich gleich die 8TB Version anpeilen, vor allem da du jetzt noch die Möglichkeit hast das einfach extern zu sichern. Wenn du dann in kürze die 12TB auslagern musst, wird das nicht mehr so einfach.

    Ich kenne das von mir selbst, wollte erst auch nur ein Raid 1 mit 2*4TB, jetzt läuft ein Raid 5 mit 3*4TB.


    Wer Platz hat, verballert den auch ganz schnell wieder.


    Also denke noch mal drüber nach ob du das wirklich nur für 2 Jahre planen willst oder länger, der Aufpreis pro GB gerechnet ist nicht so groß.

    Entwickeln sich die HDs wie in den letzten 3 Jahren, dann wird sich da kaum was dran ändern.

    Das ist doch eher für den lokalen Zugriff nutzbar, ich kenne jedenfalls noch keine Infrastruktur die damit längere Stecken überbrückt oder ganze Netzwerke aufbaut. Wenn du also eh nur per LAN auf der Kiste arbeitest kannst du dir das sicherlich sparen.


    10G ist schon sehr nett, leider noch teuer, aber das war Gbit vor 10-15 Jahren auch noch und heute bremst es einen wieder aus.

    Die ersten 10G Mobos kommen jetzt schon daher, das wird nicht mehr lange dauern.


    Stecke das dann lieber in 10Gbit Infrastruktur, das wird kommen, da akuelle SSDs auch hier schon wieder gelangweilt über MVMe den Adapter fluten bis er um Gnade bettelt.

    Ja die APs reizen mich auch, bin jedoch am überlegen gleich zwei der HDs zu nehmen, die Dinger sind echt krank, 800-900Mbit über Wlan ist einfach hart.

    Sehr gute Entscheidung, Lancom haben wir mal eine Zeit in einem Standort betreuen müssen und das war alles andere als toll, obwohl zentral über den Controller verwaltet.


    Ja HPs gehen nicht so leicht drauf, die muss man schon schwer misshandeln. So einen 1800er habe ich auf der Arbeit mal aus einem Verteiler raus geschmissen, nur GUI geht gar nicht wenn man die Infrastruktur zentral verwalten will.

    Also arbeitest du immer noch mit POE Injektoren.


    Da nervt mich, das ich durch eine Port Shut den AP nicht neu starten kann wenn der sich wirklich mal hart weg gehangen hat.

    Da ist POE einfach genial.


    Ich habe einen 2910 hier liegen sowie einen 2520, hängt halt vom AP Modell ab was ich im Haus später einsetzen, wenn es mal fertig ist. Der 29er braucht ein wenig mehr Strom, bietet dafür jedoch POE+ und kann Routen.

    Wichtig ist bei den HPs die auf einen aktuellen Firmware Stand zu bringen, habe mit den Dinger schon die tollsten Sachen erlebt.

    Der Netzwerk Stack scheint ein wenig Buggy zu sein, bei mir taucht ständig eine neue apipa Adresse auf, obwohl mein NAS nur mit einem Port an der FritzBox hängt.

    Ok ein vSwitch ist eingerichtet, ein SDN Switch auch und dann noch für zwei Docker die NAT Netze.


    Aber hey das ist jetzt keine Raketentechnik das sollte das Teil können.


    Mit der 4.3.6 wir zumindest das apipa Problem gelöst, könnte natürlich mit deinem Problem zusammen hängen, ich drücke die Daumen.