Beiträge von nasferatu

    Bisher stimmt das leider so. Grundsätzlich ist es kein Problem, macht die Sache aber natürlich unübersichtlich. Ab der 4.3.5 soll man Volumen auch verkleinern können, ob das auch für den Pool allgemein gilt weiss ich leider nicht. Zur Sicherheit kannst Du Dir Ja erstmal als Workaround eine niedrige Warnschwelle setzen um nicht überrascht zu werden, wenn der Speicher voll ist.

    Also ich habe jetzt für mich mal Versuchsweise Turnkeylinux Core als Basis verwendet und es darauf mit folgendem Befehl installiert:


    Code
    curl -L https://install.pi-hole.net | bash


    Allerdings lief das Script nicht gleich durch, sondern hing beim Installieren des Webinterface. Dazu musste man noch php-cgi und php-sqlite3 manuell nachinstallieren und das install script nochmal starten. Vemutlich würde es gleich laufen wenn man diese Pakete vorher installiert.


    Was ich noch nicht probiert habe ist, jetzt wirklich das gesamte Netz auf den DNS vom PI-Hole zu setzen. Das müsste aber m.E. ohne Probleme gehen. Jedenfalls läuft das erstmal besser als die Versuche mit DietPi.


    Edit:

    Wenn man VOR der pi-hole Installation php-cgi / php-sqlite3 installiert läuft das Install script durch. Und man sollte gleich eine statische IP vergeben.


    Edit2:

    Scheint gut zu funktionieren.

    Pi-Hole-Turnkey.png

    Die Frage ist ob man im Qnap irgendwo oder irgendwas dazu einstellen muss/kann.

    Normalerweise nicht soweit ich weiß. Bei den Backupjobs kann man ggf. eine Drosselung einstellen. SmartShare kenn ich jetzt nicht so- Was heißt denn eigentlich "vorher" ? Gabs ein Firmware Update o.ä. ? Zumindest hat es QNAP auch schon gelegentlich geschafft, dabei irgendwelche Bremsen versehentlich einzubauen, zuletzt bei externen USB Wechselmedien. Da offenbar kein VPN zum Einsatz kommt ist auch der Router wohl nicht die Bremse. Bei der FB7490 ist da nämlich so bei 10MBit/s Schluss und die 7590 schafft wohl auch "nur" 35Mbit/s. Vielleicht ist bei den Netzwerkeinstellungen etwas verstellt, im wesentlichen kann man da mit den MTU Einstellungen Probleme bekommen. Ich denke aber nicht, dass es hier ein Problem gibt. Da kann man eigentlich nur Schrittweise vorgehen und mal eine direkte Verbindung testen, vielleicht auch umgekehrt ( macht auch teilweise einen Unterschied), unterschiedliche Protokolle etc. Das kann bisweilen recht mühselig sein, so eine Bremse zu finden. Von Hause aus würde ich wie gesagt meinen drosselt das QNAP da eigentlich nichts im default.

    Ich denke das einfach langsamer ist als vorher. Für 3-4GB braucht er viel länger als vorher.

    Du solltest erstmal einen groben Breitbandtest machen um festzustellen, ob Dein Kabel wirklich die Kapazitäten bereitstellt. Zum Beispiel über https://breitbandmessung.de/ .

    Es ist nämlich durchaus nicht selten so, dass gerade Kabelanschlüsse über den Tag sehr stark schwanken, vor allem zu den Abendzeiten wenn alle streamen, downloaden und sonstwas machen. Man teilt sich die Bandbreite mit allen im jeweiligen Segment. Bei DSL ist das zumindest bisher nicht ganz so kritisch.

    Leider haben alle Medienapps von QNAP aus mir nicht erfindlichen Gründe keine Option, eine automatisierte Sicherung anzulegen. Wie wichtig das wäre zeigt sich mal wieder hier. Gerade weil die Sortiererei so enorm zeitaufwendig ist. Bei den Musik / Videoapps hat man ja das gleiche Problem. Es kann doch nicht so ein Aufwand sein, da mal einen automatisierten CRON Job zu integrieren.

    Es stellt sich immer wieder heraus, dass viele NAS Benutzer der Annahme unterliegen, dass ein NAS ebenso einfach, ohne Vorkenntnisse und ohne Investition an Zeit, Geduld und Lesestunden zu bedienen ist wie eine Eieruhr

    Wobei man natürlich auch sagen muss, dass dieser Eindruck durch die Produktpräsentation und Werbung auch forciert wird. Aber grundsätzlich hast Du natürlich recht und die Erkenntnis ist alles andere als neu und auf beliebige Lebensbereiche erweiterbar: vor 30 Jahren hatte man eben Geräte, die im wesentlichen genau EINE Funktion hatten. Heute hat man zu Hause eine IT Landschaft, die komplexer ist als die eines kleinen Mittelständler vor genausolanger Zeit. Das dies überhaupt meistens funktioniert ist ja schon erstaunlich. Allerdings entbindet es auch ( und da ist QNAP leider wirklich nicht sonderlich positiv aufgefallen) nicht davon, wenigstens eine gewisse Sorgfalt in der Releasestrategie zu fahren oder wenigsten diese so zu gestalten, dass man entweder auf Stabilität oder auf das neueste beste tollste Feature setzen kann. Leider hat sich ein Großteil der IT Industrie inzwischen in diese Richtung bewegt und das Debakel mit dem letzten Windows Upgrade spricht ja ebenfalls Bände. Vor allem, weil man schonmal besser war. Als Endkunde kann man einfach nur folgendes tun:

    • festlegen, welche Features man unbedingt nutzen will ( und vor dem Kauf so gut es geht sicherstellen das diese auch tatsächlich so funktionieren)
    • alles andere als nice-to-have betrachten, aber nicht mit MissionCritical Status
    • für Basteleien am besten ein Zweitgerät hinstellen, auf das es nicht so ankommt ( wenn es sich finanziell darstellen läßt)

    Das sind keine besonders tiefschürfenden Erkenntnisse (und entbindet QNAP keinesfalls davon, in die Support- UND Entwicklungsqualität zu investieren). Aber anders kommt man m.E. heute im Wust der Optionen und Möglichkeiten nicht mehr weiter. Das passt auch auf beliebige andere Hersteller eierlegender Wollmichsäue. Es hat ja meistens auch einen Grund, warum es bei Unternehmen etc. für einzelne Aufgaben immer noch dedizierte Lösungen gibt bzw. Funktionen wirklich getrennt werden, damit man nicht auf einmal komplett ohne Hosen dasteht.


    Um auf DO1DRA zu kommen, dessen Probleme eigentlich nicht in diese Kategorie passen: das sind schon Bolzen, die möchte ich mit so einer Pauschalkritik nicht abtun. Da kann man auch ( zumindest dem Lesen nach) jetzt nicht behaupten, dass da jemand was gemacht hätte ohne sich um die technischen Hintergründe zu kümmern. Das von Release zu Release häufig irgendeine Option auf einmal kaputt ist oder ander als gedacht funktioniert zeigt leider nur, das QNAP tatsächlich keine vernünftige Qualitätssicherung bzw. kein (automatisiertes) Testkonzept für die Kernfunktionen hat. Das ist angesichts der Komplexität auch enorm schwierig. Deswegen kann man dazu nur sagen, das man jedes Update mit Bedacht fahren sollte. Es gibt keinen Grund, jedes Update mitzumachen. Vor allem nicht, wenn man ein funktionierendes System hat. Zu lange sollte man sie sicherlich auch nicht aufschieben, weil das dann auch die Gefahr von Problemen erhöht. Aber man kann ohneweiteres 2-3 Monate ins Land gehen lassen und schauen, ob Updates verstärkt Probleme bereiten.

    Das ganze Containerzeugs scheint ja zumindest auf dem QNAP eher holprig zu laufen. Vielleicht hätte einer mal Zeit, das Ding auf Turnkeylinux o.ä. zu installieren. Ich hab im Moment da keine Resourcen, sollte aber prinzipiell wohl gehen. Warum das DietPI nicht geht ist ja auch unklar, es gab ja hier im Thread mind. einen, beim das auch mal lief. Ich glaube, mit der VM hat man einfach erheblich weniger Probleme was die ganzen Netzwerkgeschichten angeht. Und so schlimm sollte die Last der VM im Betrieb dann auch nicht sein.

    Irgendwas mit er wechselt auf Shell, weil der Boot zu lang gedauert hat.

    Ich glaube, wir haben da alle das gleiche Problem: irgendwas findet er nicht beim booten. Man sieht etwas mehr, wenn man im RecoveryMode startet, die Option wird kurz am Anfang im Bootmenu geboten. Hilft mir leider nicht weiter, vielleicht sollte man mal einen älteren Build probieren. Irgendwas mit initramfs und einem fehlenden Device verursacht das Problem.

    Hallo,


    ich habe ein etwas merkwürdiges Problem. Und zwar hat ein einzelner Nutzer übermäßig viele SAMBA login fails. Bei allen anderen kommt es auch gelegentlich mal vor, aber bei diesem Nutzer ist es besonders häufig. Das QNAP läuft als BackupDC, die fehlgeschlagenen Anfragen scheinen vom lokalen winbind Dämon zu kommen:


    loginfail.png



    Ich bin etwas verwirrt an welche Stelle ich da an erster Stelle suchen sollte. Die Firmware ist 4.3.4.0644.


    Edit:


    Die höchste SMB Version ist momentan 2.1, die Clients ( auch der mit den vielen Fails) sind Win7 Rechner.

    hmmm. vielleicht liegt das Problem doch woanders. Es scheint, dass diese Login fails alle ohne Domain Prefix passieren, was ja verständlich wäre. Merkwürdig ist jedoch, dass der häufig auf die Netzwerkresourcen ein "Zugriff verweigert" bekommt. Deutlich häufiger als alle anderen Nutzer, bei denen das hin und wieder mal passiert und nach Anmeldung oder Credential Eingabe dann auch wieder weg ist...

    Aber nach über 25 Jahren im Entwicklungsumfeld, kann ich doch das ein oder andere Problem einordnen

    Ich wollte Dir keinesfalls zu Nahe treten, war allerdings angesichts der angenommenen Erfahrung doch ein wenig verblüfft ob der Probleme. Je nach Rechnung kann ich mittlerweile auf eine ähnlich lange Erfahrung zurückgreifen, auch mit schiefgegangenen bzw. nicht gemachten Backups. Und vielleicht sollte man lieber sagen: NAS ist einfach ein Server, Punkt. Auch dazu gab es diverse Diskussionen, aber letztlich läufts daraus hinaus. Kein frei konfigurierbarer eben. Damit ist man an bestimmten Punkten bezüglich Datensicherung auf die integrierten Lösungen angewiesen, was manchmal nervt. Aber ansonsten hat sich da eigentlich nix geändert, was nicht auch schon am PC vor 5,10,15, 20 Jahren gegolten hätte...bis auf die Menge, mit der man heute hantiert.

    Für das Zusammenspiel hätte ich gerne Tips gehabt, die auch für den Hausgebrauch machbar und erschwinglich sind.

    Also es gibt bspw. hier einen schönen Blog Artikel um das Thema. Aber ein simples Rezept gibt es leider nicht. Eine Variante ist, externe Backupjobs anzulegen, und dann entsprechend manuell die Medien zu rotieren. Oder eben ein 2., 3. NAS nur zum Backup anzuschaffen und das jeweils zeitgesteuert hochfahren. Der Variantenreichtum ist da unbegrenzt. Cloud ist für den einen oder anderen auch eine Lösung. Aber die universelle Lösung gibt es nicht.


    Das aus meiner Sicht größte Manko ist allerdings, dass man das QNAP nicht einfach ähnlich wie Windows Imagemäßig sichern kann.

    Mit 2x RAID1 wär das nicht passiert...aber sei's drum, hinterher ist man immer schlauer und anderen gute Ratschläge erteilen ist einfach. Aber ein bisschen fürchte ich musst Du Dir schon selbst an die Nase fassen, gerade weil Du, wenn Du aus der Softwareentwicklung kommst, der Problematik des Datenverlustes näher gewesen sein wirst als andere.



    Aber es ist wie es ist: wir hantieren heute mit Datenmengen, die vor 20,30,40 Jahren entweder undenkbar bzw. nur in größten Rechenzentren bewegt wurden. Und was dort für ein Aufwand mit Tapebackups und anderen Strategien getrieben wurde und wird wäre zu Hause auf jeden Fall teuer. Zumindest muss man sich bewusst sein, dass man mit einem NAS und ein paar Platten erstmal gar keine Redundanz hat. Oder vielleicht die zwischen irgendwelchen Endgeräten wie Handies, Notebooks etc. Aber eigentlich muss man jedes TB mind. 2 oder 3 fach vorhalten ( Kompressionsstrategien mal aussen vor gelassen), um den größten Unbilden wie Plattenausfalls, HW Ausfall und amoklaufende Viren/Nutzer aus dem Weg gehen zu können. Die Kosten haben die wenigsten im Blick, bis die Daten dann weg sind. Wie man den Wert seiner Daten einschätzt ist eben schwierig, vor allem, weil man ( zumindest bei mir) bspw. Fotos und Videos in einer Menge generiert, die ebenfalls vor 10 Jahren undenkbar war. Nicht alles muss man aufheben, nur zum sortieren kommt man im Alltag auch kaum. Und da liegt die Krux....

    kann man aber schon davon ausgehen, dass mehrere Programme gleichzeitig fehlerfrei auf einer CPU laufen können.

    Naja, spätetstens seit Spectre muss man auch da vorsichtig sein. Auch wenn das nur "abhorchen" ist, das Grundproblem ist und bleibt die Komplexität. Je mehr Abhängigkeiten da sind desto mehr Konfliktpotential gibt es. Unter dem Aspekt wundert es mich ohnehin, dass so "wenig" dabei schiefgeht. Wobei speziell die Softwareentwicklung bei QNAP hier gewaltiges Verbesserungspotential hat, was die Zuverlässigkeit betrifft, keine Frage. Aber ob es nun Microsoft, Apple, Google, Facebook oder wer sonst noch sind: alle haben inzwischen reichlich Bolzen in ihrer Historie.


    Ich will nichts entschuldigen und ärgere mich oft selbst genug über die halbgaren QNAP Lösungen. Allerdings in erster Linie auch deshalb, weil die Ideen wirklich gut sind, aber der Focus halt leider viel zu wenig auf der Betriebssicherheit und auch der Backup/Restore Schiene liegen, gerade auch bei den Apps. Das schränkt die Verwendbarkeit im Berufsalltag leider arg ein, weil man keine vernünftige Backupstrategie für die App Daten außerhalb vom manuellen herumklicken etablieren kann. Die (meisten) Apps können ihre Daten ja noch nichtmal selbst zeitgesteuert sichern...von der NAS Konfiguration ganz zu schweigen!

    Tja, beim Thema Raid konnte mich noch keiner so richtig überzeugen. Besonders unter dem Gesichtspunkt "Hausgebrauch" scheue ich mich, doppelt so viele Platten in ein System zu stecken mit dem Gedanken an mehr Sicherheit.

    Naja, RAID heißt "Ausfallsicherheit", nicht Backup. Ein immer wieder gern diskutiertes Mißverständnis. Ob man das zu Hause braucht oder ob einem das wichtig ist, ist die zweite Frage. Man kann das Geld und die Platten eben auch in ein 2. NAS investieren, was dann zeitgesteuert für Backups bereitsteht. Oder man packt die Platten in externe Gehäuse, dann muss man es halt manuell machen. Spätestens bei großen Volumes über mehere Platten wird man untendrunter eine RAID Lösung haben wollen, sonst steigt die Ausfallwahrscheinlichkeit in ungeahnte Höhen.


    Der weitaus größere Teil sind bzw. waren die Mediendateien meiner Frau. Dies waren ursprünglich 5-6 TB. Musik und Musikvideos konnten komplett gerette

    Naja, das ist aber auch keine wirklich riesige Menge, und wäre mit 2 externen Platten locker zu handeln gewesen. Die werden sich ja auch nicht permanent geändert haben. Und sind das alles selbsterstellte Daten ? Dann sollte man erst recht ensprechend Geld investieren um Redundanz zu schaffen. Anders kann man es leider nicht sagen, es kann immer was schiefgehen. 1 einzelnes Backup ist dann auch schnell zu wenig.


    Beim letzten Teil der Sicherung von Datenbanken und Softwareentwicklung wird es komplizierter. Der Gesamtumfang liegt bei geschätzt 2 TB

    Naja, je spezieller desto komplizierter. Ich würde ja , was wohl auch der Fall ist, hier viel mit Virtualisierung machen. Dann braucht man nur noch entsprechende Medien, die entsprechend schnell sichern können. Oder eine Snapshot Lösung, die man kontinuierlich irgendwo hinspiegelt und dann nochmal periodisch sichert . Die Frage ist, welchen Wert haben die Daten. Nur daran kann sich der Aufwand messen lassen. Es gibt leider keine simplen Antworten auf dem Gebiet. Ich persönlich hätte gerne wieder den Zustand, dass ich auf unveränderlichen Medien wie DVDs/Blurays vernünftig sichern könnte , und das auch langzeitstabil. Aber die Datenmengen sind eben so, dass das nur sehr begrenzt funktioniert und außerdem extrem Zeitaufwendig ist. Die Zeit, wo optische Medien ein vielfaches größer als die HDs waren sind ja erstmal vorbei.

    Jegliche Nutzung von Raid verbietet sich meiner Meinung nach, da Aufwand, Kosten und Nutzen in keinem vernünftigen Verhältnis stehen (gilt nur für den Hausgebrauch). Beim Versuch, die Daten von 4 Platten ohne QNap-Hardware wiederherzustellen, habe ich nach fast 12 stündiger Laufzeit eine Platte komplett verloren.

    Würde ich so nicht sagen. Ich nutze ausschließlich RAID1, weil dies einfach am primitivsten ist und zur Not am ehesten zu recovern ist. Was ist bisher noch nicht musste. Und dann lieber mehrere RAID1 kombinieren, wenn man größere Volumes benötigt. Aber das kostet natürlich Platz und die Frage ist, brauch man die Ausfallsicherheit.



    Wie gehe ich mit einem so langen Hardwareausfall um bzw. wie schütze ich mich davor.

    So dumm es klingt: mit einem identischen 2. Gerät. Oder zumindest einem , das kompatibel ist. Es gibt keinen Ersatz für Redundanz, genausowenig wie für Hubraum. Die Alternative ist ein Servicevertrag wie bei bspw. Dell, wo zu am nächsten Tag Ersatzteile oder gleich einen neuen Rechner hast. Aber auch hier gibt es nichts umsonst.


    Ich habe mit dem NAS noch keine wirklich überzeugende Sicherungsstrategie kennengelernt. Durch meinen Job kenne ich natürlich schon ein paar Ansätze, aber Unternehmensdaten zu sichern ist sicherlich "einfacher".

    Das NAS alleine reicht natürlich nicht. Was keine "Sicherung" ist, aber im Alltag praktisch ist, sind Snapshots auf Laufwerken, auf denen man viel ändert und wo mehrere arbeiten. Ansonsten habe ich inzwischen ein ausgedientes 2. Qnap, welches einmal Wöchentlich für diverse Backupjobs zeitplan gesteuert hochfährt und dann wieder schläft. So ist zumindest das NAS zeitweise nicht am Netz, sollte ein Virus sein unwesen Treiben. Davon abgesehen werden natürlich spezielle Backupuser genutzt, damit die Backupfreigaben nicht einfach verändert werden können. Damit ist man schon einigermaßen sicher. Und ansonsten hilft nur in regelmäßigen Abständen eine Sicherung auf externe Medien, die dann im Schrank liegen. Am besten im Rotationsprinzip, so dass man vielleicht 1 Monat zurückgreifen kann. Oder eben Themenweise, manches ändert sich öfters als anderes. Aber solange es im Schrank liegt kann üblicherweise auch nichts kaputtgehen. Aber das ist natürlich auch immer eine Frage der Datenmengen. Aber untern Strich kann man nur sagen: je wertvoller einzelne Daten für einen sind, desto mehr Aufwand muss man betreiben. Und da ist ein einzelnes NAS nur der erste Schritt. Und je mehr anderes man auf dem System macht, desto komplexer wird es und desto höher ist das Risiko. Dann vielleicht lieber ein billigeres 2. NAS als Backupsystem besorgen, auf dem praktisch nichts installiert wird.

    Es ist nicht egal wenn plötzlich der Domaincontroller nimmer geht und kein Mitarbeiter mehr zu den täglich benötigten Daten kommt. Es ist auch nicht egal wenn QSirch nimmer geht und man keine Dokumente mehr findet.

    Das ist völlig richtig und im Produktivbereich nicht akzeptabel. Über QSirch habe ich mich auch schon diverse Male geärgert, weil es eigentlich ein Killerfeature sein könnte, aber in der Praxis leider sowohl zu Hause als auch auf der großen 1685 arg träge ist und eigentlich keine vernünftigen Suchoperatoren / Verknüpfungen bietet. Mit den Defaults kommt man meist nicht weit. Aber gut, dass war nie als essentielles Feature vorgesehen, deswegen hat es eher keine Auswirkung im täglichen Betrieb. Meine Vorstellung war ohnehin, den DC von einem dedizierten Server in eine VM zu migrieren. Das habe ich bisher noch nicht gemacht, weil ich da nicht die Ruhe zu hatte. Aber die Idee ist u.a., dass man die VM zur Not auch rel. einfach wieder auf einem dedizierten System hosten kann. DIe Virtualisierung von QNAp ist ja zum Glück kein Eigengebräu, bis auf die UI. Von daher sollte man eine QNAP VM auch schnell wieder auf einen VMWare oder QEMU oder KVM Server kriegen. Aber ansonsten ist die Virtualisierungsplattform wirklich eins der besten Features von QNAP. Die Containerstation grundsätzlich auch, wobei ich mit der trotz aller Vorsätze bisher wenig gemacht habe. Aber die scheint auch allgemein hakeliger zu sein.



    Das mit den Servern ist so eine Sache. Wir sind ein kleines Unternehmen. Mit 1 Vollzeitkraft und 5 Teilzeitmitarbeiterinnen an zwei Standorten


    Ich kenn das Problem. Leider bist Du da auch für M$ nicht mehr interessant, wie man schon an der EInstellung des SBS sieht. Die sagen , nimm doch Azure AD...was übrigens auch schon ausgefallen ist.

    Der Haken ist leider schon immer gewesen, dass man ein laufendes Setup, speziell was Kerndienste anbelangt, nur sehr behutsam aktualisieren sollte. Leider hat man da bei QNAP keine Wahl. Bei M$ aber auch nicht mehr. Ubuntu Updates/Upgrades sind auch Glückssache. Irgendwas geht hinterher immer nicht mehr.


    Man kann QNAP ankreiden, dass sie keinen vernünftigen Businesssupport bieten und das die "Backup" Strategie, was das NAS selbst anbelangt, eigentlich ein Witz ist. Bzw. nicht vorhanden. Das muss man leider so hart sagen.


    Davon abgesehen habe ich bisher für unserer Zwecke das erhalten, was ich wollte: eine flexible, vorkonfigurierte Serverlösung mit einfachen Erweiterungsmöglichkeiten und rel. leichter Wartbarkeit. Aber es ist halt wie mit allen Infrastruktursachen: Man kann sich im Baumarkt alles mögliche an "einfachen" Lösungen kaufen und in sein Haus bauen. Irgendwann scheitert irgendwas dann doch an den falschen Angaben des Herstellers, merkwürdigen Seiteneffekten oder eigenem Unvermögen. Dann braucht man den vernünftigen Handwerker, der dann i.d.R. auch preislich anders zu Buche schlägt.


    Man kann sich immer was von einem Systemhaus mit Wartungsvertrag hinstellen lassen, und je nach Ausgestaltung müssen die dann antanzen und zusehen, wie sie was vebocktes wieder geradebiegen. Aber auch das kostet und bekanntermaßen nicht zu knapp. Es ist ein allgemeines Komplexitätsproblem, und daran kranken alle mehr oder weniger. Auch das müsste man strenggenommen schon bei der Planung berücksichtigen. Bspw. ein dedizierter AD Server, der eben NICHTS anderes tut. Und an dem dann auch nicht groß rumgefrickelt wird, wenn er denn mal läuft. Ein Server, der zig Dienste anbietet ist eben weniger stabil. Deswegen gibt es ja auch die Virtualisierung, um das abzumildern. Oder die Schmalspurlösung namens Container. Aber klar, diesen Aufwand kann und will nicht jeder treiben. Aber letztenendes landet man immer wieder bei der Einschätzung, dass Eierlegende Wollmichsäue anfällig für erheblich mehr Krankheiten sind als vielleicht das einzelne Hausschwein...