Beiträge von nasferatu

    Ich persönlich habe seit jetzt bald 3 Jahren QNAPs und muss zumindest für mich sagen, dass sie in meinem Umfeld für mich sehr gut funktionieren. Dabei habe ich hier im Forum auch mit Kritik sicher nicht hinterm Berg gehalten. QNAP hat leider 2 Probleme:


    1. Komplexität:

    Das haben aber mittlerweile die meisten IT Produkte, man denke nur an das letzte Windows 10 (Zwangs)Upgrade, welches mal eben Deine privaten Dateien verschwinden lässt, zumindest in einzelnen Setups. Aber auch Ubuntu ist da nicht unbedingt besser und Nischen Distros machen eben mehr Arbeit und auch da kann vieles schiefgehen, Letztlich gilt immer noch der Spruch "Never change a running system". Und wenn doch: Backup, Backup, Backup!


    2. Die taiwanesische Mentalität:

    Leider scheint es doch so zu sein, dass man die Kundenbedürfnisse einzelner Märkte nicht wirklich separat bedienen will/kann. Zumindest hat diese Erfahrung ja wohl auch christian machen müssen bei seinen Besuchen. Sonst hätte man hier eine vernünftige Business Division und auch eine lokale Entwicklung, die mehr tut als bloss Lokalisierungsmacken auszubügeln. Man legt zumindest ( vor allem in letzter Zeit ) eher mehr Wert auf bunte Feature, als einige Grundprobleme mal ernsthaft anzugehen. Wozu leider auch ein wirklich durchdachtes Backupssytem mit Baremetal Restore gehört. Stattdessen hat man den Appstore mit Cloudbackup Apps geflutet. Nur leider kann keine einzelne wirklich den Systemzustand per Oneclick Option konsistent sichern und wiederherstellen. Das ist also leider ein Gefrickel.


    Davon abgesehen erfüllt mein NAS alles, was ich gerne haben wollte: eine simple Virtualisierungslösung um eigene Serveranwendungen aufzusetzen ohne gleich dem Lock-In Syndrom anheim zu fallen, Snapshotsfilesysteme um versehentliches Überschreiben /ändern etwas besser im Griff zu haben und ein Medienspeicher.


    Ich kann nur raten, den Spieltrieb mit neuen Firmware Versionen so zu zügeln dass man nicht sein Produktiv-NAS schrottet wegen eines dann meist banalen Features. Oder eben zusieht, dass man VORHER alles, was einem lieb und wichtig ist in Sicherheit bringt. Was man ohnehin regelmäßig machen sollte, denn das NAS kann wie jedes Gerät auch mal den Geist einfach so aufgeben. Wenn man sich so diszipliniert, dann hat man eigentlich wenig Probleme. Es ist ein Server mit einer Vielzahl von Konfigurationsoptionen und wenn man das alles nicht will, dann sollte man lieber was simples nehmen, was wirklich nur rudimentäres bietet wie SMB / DLNA und vielleicht noch ein paar Druckserveroptionen. Synology ist auch nur bedingt die Rettung, denn auch dort wird man nicht von Problemen verschont. Allerdings ist Synology aus meiner Sicht dahingehend clever, dass sie ( ähnlich wie Apple) nur eine sehr eingeschränkte Hardwarepalette anbieten, was die Komplexität entsprechend senkt. Aber wie wir alle wissen hat auch Apple schon diverse Male ins Klo gegriffen.

    Ich würde sagen, grundsätzlich ist da nicht wirklich CPU Power vonnöten. Kritisch würde es höchstens, wenn man solche Features wie Live-Transcoding nutzen wollte. Davon halte ich persönlich aber wenig, weil es eine Notlösung ist und was ich so über die Qualität gelesen habe ist das wirklich nur ein Notnagel. Am ehesten sinnvoll für Leistungsschwache Geräte wie Tablets oder Smartphones, die mit nativ 4k vielleicht überfordert wären. Aber wenn der Fernseher 4K kann, dann braucht man auch kein Transcoding und macht sich vmtl. nur das Bild kaputt, wenn man das NAS und nicht den TV die Inhalte hochrechnen lässt.

    das billigste 431p2 und statt RAID nutze ich meine Platten alls einzeln.

    Das würde ich auch raten. Fürs Backup braucht man nicht unbedingt RAID sondern kann lieber die maximale Kapazität rausholen. Bei mir wird die alte 439 dafür genutzt und per Zeitplan wöchentlich eingeschaltet. Dann ist auch die Belastung erheblich geringer und solange das NAS aus ist können auch keine Trojaner Unsinn anstellen. Wobei das Backup ohnehin ein dedizierter Backup User macht, der als einziger Schreibrechte besitzt.

    Hat ne ARM CPU ist aber dafür deutlich günstiger.

    Naja, wenn ich mir anschaue, was Qnap vor allem bei den ARM Kisten mit der Firmware in letzter Zeit für Mist verzapft hat, dann trifft es der Begriff "Datengrab" schon recht gut. Ich persönlich habe nur x86 NAS, und zumindest hatte ich da bisher ( toitoitoi) noch nie mit Firmwareverursachten Datenverlusten zu kämpfen. Mir sind die ARM Kisten aus dem Grund inzwischen ziemlich suspekt...

    Also ich würde da auch zu einem extra NAS raten. Im Zweifel kannst Du ja die Volumes per iSCSI o.ä. auf dem 253er einrichten, so dass das Zweitgerät wirklich im wesentlichen nur als Plattengehäuse fungiert. Das kann dann bspw. auch eine 431 P2 sein, was recht günstig wäre. Dann hättest Du ggf. eine etwas einheitlichere Verwaltung. Jedenfalls lohnen sich die Erweiterungsgehäuse preislich überhaupt nicht.

    Benötige ich dazu einen virtualisierten Server auf der NAS? Kann ich auch andere Betriebssysteme auf der NAS installieren? Oder löst man das ganz anders?

    Du installierst ein Windows oder Linux in einer VM auf dem NAS per Virtualization Station, ganz recht. Und darin dann Deine Anwendungsprogramme. Allerdings ist zu berücksichtigen, dass bspw. alles was Celeron / Pentium basiert ist ziemlich schwachbrüstig daherkommt, soweit man per Browser, VNC oder RDP dann auf die GUI zugreifen möchte um die Programme zu bedienen. Also Deine 451+ ist da eigentlich für produktives Arbeiten zu langsam. Um mal bspw. eine CD zu brennen oder anderes geht es schon, es ist aber sehr träge.

    Naja, wir haben hier eine 1685, allerdings mit SSDs bestückt. Prinzipiell würde es mich wundern, wenn QNAP da irgendwelche Vorgaben macht, weil auch die SSDs ja ganz stumpf mit SATA angebunden sind. Aber natürlich ist es naheliegender, solche Slots allein aufgrund der Kapazitätsfrage typischerweise für SSDs zu verwenden. Gibts denn einen ernsthaften Grund dafür ? Ich habe die 2.5 Zoll jeweils für ein System Raid1 und ein Cache Raid1 verwendet. Höchstwahrscheinlich kann man da auch noch mal 2TB 2.5 Zoll Platten reinstecken, wenn man das die maximale Speicherausbeute haben möchte. Ansonsten würde ich da einfach mal offiziell anfragen.

    Nunja, FTP ginge vielleicht auch wenn das im Docker Container aktiv verfügbar ist. Allerdings musst Du Dir im klaren sein, dass Du ausschliesslich die Dateien im Datenverzeichnis erwischt bzw. die ganze Installation. Das Datenbankbackend, sofern das nicht SQLite ist muss separat(!) gesichert werden. Leider hat Nextcloud nicht von sich aus irgendeinen vorkonfigurierten Job, der das mitmachen würde soweit ich weiß.

    Und was ist, wenn die BackUp Jobs warum auch immer, noch nicht fertig sind und ich knalle die Festplatte nach 45Minuten einfach aus?

    Hmmm, die Dect210 Steckdosen von AVM können Geräte mit einer definierten Leistungsaufnahme nach einer festzulegenden Dauer abschalten. Also wenn die Platte ohne Zugriffe etc. bspw. 2W zieht oder ( was besser wäre ) wirklich in den Ruhezustand geht, dann könnte man bspw. bei der Steckdose festlegen, wenn der Verbrauch länger als 10min unter 2W liegt, dann ausschalten. Und zu einem festen Zeitpunkt nach Plan wieder einschalten.


    Die wesentliche Frage ist nur, ob die Unterschiede in der Leistungsaufnahme wirklich so eindeutig sind, dass das sicher unterschieden werden kann. Bei so niedriger Leistungsaufnahme kann das u.U. problematisch sein. Leider können die Zeitplanjobs (aus welchen Gründen auch immer) nicht das USB Medium automatisch unmounten nach fertigstellung, Das macht nur die externe Sicherung, die man aber wiederum nicht mit einem Zeitplan versehen kann...


    Ansonsten könnte man sich u.U. noch ein Shellscript basteln, was man dann selber triggern kann zum unmounten und ggf. noch einen LAN Steckdose damit schaltet.

    Bei der Größenordnung ist QTier glaube ich hoffnunglos überzogen, siehe auch Pfeiffer . Am ehesten macht ein SSD Cache Sinn. Ich persönlich würde ihn aber auch nur zum lesen verwenden, weil ein Schreibcache immer riskanter als ein reiner Lesecache ist. Das natürlich genau nicht Dein Anwendungsfall. Aber ansonsten müsste man es eigentlich so machen:


    1.Erstinstallation nur mit SSD -> Systemapps landen auf SSD und das Systemvolume. Nicht das gesamte QTS, denn das liegt im DOM. Wenn man Sicherheit will müsste man hier strenggenommen auch ein RAID1 nehmen.

    2.) weitere Datenplatten hinzustecken und Volumes einrichten

    3.) wenn gewünscht, zusätzliche dedizierte SSD als Cache konfigurieren. Leider kann man SSDs nicht teilweise als Cache verwenden, sondern nur ganz oder gar nicht.


    Ich habe ein RAID1 aus 2 SSDs als (Lese)Cache konfiguriert, weil wir SSDs über hatten aus PCs. Allerdings haben wir jetzt auch nicht so die Hochlastanwendungen, so dass das eigentlich nicht so viel bringt.


    Das 453 hat aber glaube ich nur 4 Slots und keine M2 Slots, sonst hätte man da gute Möglichkeiten, SSDs unterzubringen. Die 2 TB Samsung nur als Cache zu verwenden scheint mir ein wenig übertrieben.

    Du hast ihn aber mit dem Domainnamen angepingt , also etwa


    Code
    ping qnap.firma.local


    Dazu sollte man erwähnen das wir grade erweitern und der neue Rechner relativ schlecht mit dem WLAN Verbunden ist , daher wohl die Zeitüberschreitung


    Also, wenn Ihr keine stabile Netzwerkverbindung habt, dann brauchen wir da gar nicht weiter zu suchen...das muss ja wohl als erstes stabil(!) funktionieren. Da darf es überhaupt keine Paketverluste oder Timeouts geben.

    Ja, ich tendiere auch dazu WD Red Festplatten zu kaufen.

    Wie gesagt, wenn Du das ernsthaft im 24/7 Betrieb laufen lässt sollten es schon NAS Platten sein. Ich habe die Greens zwar auch im 24/7 Betrieb in einem kleinen DLINK DNS320 gehabt, allerdings hat da auch der HDD Standby reibungslos funktioniert. Bei Qnap ist einfach zuviel am laufen, so dass das einfach nicht zuverlässig geht. Aber im 2. NAS, welches dann zeitgesteuert 2-3mal die Woche für ein paar Stunden hochfährt sollten solche Platten auf jeden Fall taugen. Nur im RAID würde ich sie sicherheitshalber nie betreiben. Aber trotzdem ist ein externes Backup sicherhlich noch zusätzlich empfehlenswert, weil ja auch Hardwareschäden am Gehäuse schnell mal alle Platten schrotten können.

    kannst du mir das genauer erklären ?

    Naja, Ferndiagnosen sind naturgemäß schwierig. Wobei mir bei Deiner Antwort so ein bisschen das Grundverständnis fehlt. Gibt's bei Euch keinen Admin ? Zumindest die Grundprinzipien von DNS muss man schon verstehen, sonst wird das mit AD sehr schwierig. Probiere mal ein ping von der Kommandozeile auf den AD Server, ich vermute, das ist euer QNAP. Wenn es da schon hakt, habt ihr ein Problem. Der AD Server sollte den DNS übernehmen ( und auch DHCP im Zweifel). Wenn das bspw. Euer Router macht, dann gibt es ggf. Kuddelmuddel. Wenn Dir das jetzt alles nichts sagt musst Du aber fürchte ich erstmal mit den Netzwerkgrundlagen beschäftigen, sonst wird erklären reichlich schwierig. Da führt leider kein Weg dran vorbei.

    JA. Immer NAS-Festplatten in ein NAS.


    Die sind fast nicht teurer als Desktop-Platten.

    Das stimmt mittlerweile schon, was den Preis anbelangt. Wobei ich wie gesagt denke, das, wenn man das NAS eher wie einen Desktop PC fährt dann auch keine besondere Angst haben muss. Es kommt halt auf das Sicherheitsniveau an. Unersetzliche Daten sichert man ohnehin mehrfach. Aber wenn man auf diese Art eine einfache, automatisierte Zusatzsicherung einziehen kann spricht ja auch nichts dagegen, wenn man die Platten schon rumzuliegen hat. Und zum Experimentieren ohnehin nicht. Nur mit RAID sollte man wirklich aufpassen, weil das eben andere Anforderungen stellt, auch bereits im Desktop PC.

    Auf den ersten Blick sieht es so aus, als ob der Rechner den DNS Server nicht erreicht. Das DNS läuft ja zwingend auch auf dem AD Server und ist eine Grundvorraussetzung, damit da überhaupt etwas geht. Also zunächst müsste man mal klären, ob der einzubindende Rechner vernünftigt DNS Anfragen auflösen kann und die Domänenserver Adresse korrekt aufgelöst wird . Bspw. mit Ping.

    Also ich habe auch in meinem Backup NAS ein paar Greens verbaut. Das wird aber eben nur einmal die Woche hochgefahren. Vor allem sollte man Desktop Platten, die nicht als Server/NAS Variante deklariert sind, möglichst nur als Einzelvolume laufen lassen. Diese Platten sind nicht für den RAID Betrieb gedacht und daher kann es dann schneller kommen, dass das RAID degraded ist. Das hat eher Gründe in der Firmware als tatsächliche Hardwareursachen. Und der (überflüssige) Rebuild ist dann ein besonderer Stress, für den diese Platten auch nicht ausgelegt sind. Aber mit Einzelvolumes geht es schon, aber man sollte den Platten wirklich Ruhephasen gönnen. Die sind halt für Laufzeiten von im Schnitt 8h / Tag ausgelegt.

    Und was findet der Angreifer bei der unverschlüsselten Übertragung verschlüsselter Daten raus?

    Naja, als Abschluss, weil es dann wirklich OT wird, würde ich sagen, die Login Daten des RTRR Servers. Und da gibt es ja nur einen, der gleich das ganze Dateisystem sieht...was ich auch bei RSync nicht so dolle finde. Machen zwar alle so, aber ich finde eigentlich, auch dort sollte eine Nutzerverwaltung mit entsprechenden Rechten greifen...aber nu is schluss. Zumindest mit der Grundsatzdiskussion. Auf jeden Fall sollte die Transportverschlüsselung bei allen RRTR Varianten nicht solche Auswirkungen haben, das ist schon armselig.

    Das geht aber ganz gut per RDP selbst über ein VPN wenn ich nicht zu Hause bin.

    Ich würde eben sagen, alles was Oberflächenlastig ist braucht auch eine Desktop CPU. Wenn man die UI nur hin und wieder zum konfigurieren braucht, dann geht es auf den kleinen Kisten auch, solange man genug RAM und die VM auf einer SSD hat. Aber wenn man Desktopanwendungen virtualisieren will braucht man auch ein NAS mit Desktop-Performance.