Beiträge von awinterl

    Hallo Macwerk,


    nicht über die Oberfläche des NAS über den normalen Linux weg, also per SSH auf das NAS schalten, wäre das schon möglich aber äußerst unpraktisch.
    Das Nas ist kein PC und deshalb ist der Aufbau wie Daten auf dem NAS verwaltet werden Netzwerk bezogen.
    Man erstellt auf dem NAS eine Freigabe vergibt in der Freigabe die erforderlichen Berechtigungen man kann die Freigabe dann weiter Organisieren mithilfe von Unterordner innerhalb der Freigabe.
    In den Unterordner gelten die Berechtigungen der Freigabe welche auf hier einfach weiter vererbt werden.
    Im Grundsatz sind hier alle Anforderungen die sich hier stellen umsetzbar.

    Zitat von "Diskutant"


    ...Aber zwischen 35 und 45 ist demnach undefiniert.



    Frei nach Einstein...


    der Lüfter dreht ab 35 Grad bis 45 Grad Relativ :D


    Also Relativ schneller als Langsam aber Langsamer als Schnell...


    Iss doch ganz einfach mensch ;)

    Zitat von "Diskutant"

    Was habe ich falsch gemacht, dass hier niemand antwortet? :?:


    Du hast dir die Antwort praktisch selber gegeben :)


    Zitat

    und was passiert nun zwischen 35 und 45?


    Zwischen 35 und 45 Grad dreht der Lüfter langsam unterhalb von 25 Grad ist er aus und ab 45 Grad dreht er voll auf...

    Hallo Datareet,


    Zitat von "Datareet"


    ... mit ActiveDirectory. Es laufen keine Programme oder sonstigen dinge darauf(knapp 250GB Daten).


    Also würde ein Nas laut Kunden vollkommen ausreichen?


    Klingt mir so als wäre der Server grundsätzlich eigentlich überdimensioniert gewesen.
    Da die meisten Funktionen des AD sowieso nicht benötigt wurden spricht hier zunächst mal nichts gegen einen kompletten Ersatz durch ein NAS!


    Zitat


    Ich habe aber zweifel wegen der alten domäne.
    1.Ohne server können sich die benutzer nicht mehr anmelden (somit müssen alle Benutzer lokal angemeldet werden)
    2.Wenn ich alle Daten auf das NAS kopiert habe muss ich alle Benutzer manuell anlegen und die Rechte vergeben


    Müsste im ersten Schritt nicht mal sein die QNAP können auch der Domäne erst mal beitreten dann kann man eine Zeitlang Domäne und Server Parallel fahren und die Benutzer Schritt für Schritt aus der Domäne nehmen und im
    Nas anlegen.


    Ich kenne eigentlich nur den umgekehrten Weg also hin zu einer Domänenstruktur von dem her ist das erst mal ein Theoretischer Ansatz wie ich das ganze umsetzen würde...


    Zunächst mal würde ich die Dokumentation(Benutzergruppen, Verzeichnisstruktur, Verzeichnisberechtigungen usw.) durcharbeiten und abgleichen und wo nötig entsprechend überarbeiten.


    Man müsste hier in 2 Wellen arbeiten in der ersten Welle baut man die Verzeichnisse vom alten Server auf dem NAS neu auf. Versorgt die Verzeichnisse mit entsprechenden Rechten der Domänengruppen da werden dann wahrscheinlich schon die ersten Probleme mit undokumentierten Berechtigungen auf einzelne Dateien im Verzeichnis ans Tageslicht kommen. Da kann man dann gleich anfangen das gerade zu biegen.


    Nun kann man mal probehalber die ersten Dateien in die entsprechenden Verzeichnisse kopieren und prüfen ob die entsprechenden Gruppen und Benutzer passen und jeder in der alten Domänenstruktur auf dem neuen NAS an seine Daten kommt!
    Da kann man mal am Freitag nach dem Mittag ne Stunde einplanen so das alle Mitarbeiter am Test teilnehmen können.
    Mit etwas Glück klappt das alles auf Anhieb dann kann man anfangen das Finale der ersten Migrationswelle zu terminieren da werden dann an einem Arbeitsfreien Tag die ganzen Dateien vom Server auf das NAS geschoben.
    Ab jetzt dient der Windows Server nur noch als Login Server für die Mitarbeiter.


    Jetzt kann man erst mal etwas Luft holen und erst mal schauen was man noch anpassen muss da gibt es bestimmt noch einige selten gebrauchte Dateien wo ein Mitarbeiter nun plötzlich keinen Zugriff mehr hat.
    So Dinge kann man jetzt in Ruhe reparieren!


    Dann startet man die zweite Migrationswelle in dem man die Benutzer auf dem NAS neu anlegt geht recht schnell wenn man die Benutzernamen aus dem AD in eine Textdatei importiert und dann im NAS importiert.
    Benutzergruppen sind hier leider Handarbeit aber wenn man schon mal dabei ist kann man sich auch gleich überlegen ob man die Gruppen nicht etwas flacher einfacher gestalten kann usw.
    Ist das alles erledigt kann man die Benutzer den Benutzergruppen hinzufügen und diesen die Berechtigungen auf die Verzeichnisse geben.
    Eine Schablone für die Berechtigungen hat man ja eigentlich schon durch die Domänengruppen, zu mindestens wenn man die Gruppen nicht neu angelegt hat aber egal wie, eine Dokumentation ist hier immer angebracht!


    Jetzt muss man sich überlegen wie man bei den Client PCs vorgehen will!
    Die Benutzer verlieren auf jeden fall ihr Benutzerprofil wenn die Rechner aus der Domäne genommen werden von dem her sollte man sich hier eine Strategie überlegen wie man das Benutzerprofil kopieren kann um es dann einem
    Lokalen Benutzer mit dem gleichen Benutzernamen wie auf der NAS wieder spenden kann.
    Hier sucht man sich am besten einen Mitarbeiter als Versuchskarnickel aus der sich mit seinem PC quasi "freiwillig" zur Verfügung stellt.
    Wenn man hier aber mit System Images arbeitet kann man aber immer noch zurück und nochmal seine Strategie überarbeiten :D


    Hat das alles Hand und Fuß kann man sich überlegen ob man alle Clients auf einmal aus der Domäne nehmen will und quasi übers Wochenende die letzte Migrationswelle abschließt....
    oder doch lieber Arbeitsplatz für Arbeitsplatz abarbeitet würde ich wohl eher so machen da hat man nicht gleich alles lahmgelegt wenn man doch noch einen Wurm in seinem Konzept hat!


    Dann kann der Windows Server auf den Schrott oder zur Zweitverwertung platt gemacht werden....


    Das ganze ist natürlich ein Prozess der etwas länger dauert aber das ist bei jeder Komplett Migration so...


    Am schnellsten wäre natürlich der Umstieg auf neue Server Hardware mit Windows und Domäne Migration damit wären arbeiten an den Clients unnötig wenn man es richtig macht.
    Aber in deinem geschilderten Fall würde ich auch sagen wäre rausgeschmissenes Geld da stecke ich lieber das was ich an der Hardware Spare in die zukünftige Backup Strategie.


    wie gesagt nur mal ein Theoretischer Denkansatz...

    Zitat von "cybersufer11"


    Ich würde gerne wissen, wie Ihr eure Qnaps sauber haltet und sicher! Ihr würdet mir sehr helfen um meine System sicher zu machen!!


    Hallo cybersurfer11,


    Da ich mein Nas nur von meinen Clientsystemen mit Daten beschicke, da ist natürlich eine Virenscanner vorhanden, bin ich für meine Umgebung zur der Überzeugung gekommen das ich auf dem NAS keinen extra Virenscanner benötige.
    Ich denke einfach solange man nicht direkt über ssh Konsole Daten aus dem Internet auf den Server unkontrolliert kopiert ist das Risiko sich einen Virus einzufangen vom können des Client Virenscanner abhängig.
    Und hier gibt es keine 100%ige Sicherheit wie eigentlich bei allem im Leben.

    Zitat von "Templer500"


    Wie hast du das Problem gelöst?


    Hallo Templer500,


    eigentlich gar nicht dynek schreibt ja das die automatischen updates nicht funktionieren und er hier mit dem Support in Kontakt steht.
    Deshalb stellt er neue QPKGs recht zeitnah zur Verfügung die muss man dann einfach drüber installieren und die Clients muss man dann halt manuell neu installieren.

    Zitat von "BennyTurbo"


    Wo stellt man das in der AD ein, also welches Zeitintervall er akzeptieren darf?


    Hallo Benny,
    so wie man eigentlich fast alles im AD einstellt in den Gruppenrichtlinien man sollte hier allerdings genau Wissen was man tut, wie man es tut und vor allen Dingen welche Auswirkungen es hat!


    Das wäre also auf jeden Fall die letzte Stellschraube an der ich etwas ändern würde!

    Hallo Benny,


    Zitat von "BennyTurbo"

    Hallo,


    ich hoffe mir kann jemand helfen.


    Helfen direkt wohl leider nicht...


    Zitat

    "Es besteht ein Zeitunterschied...


    Wenn ich im QNAP auf Aktualisieren gehe und als Zeitserver Server aus dem Internet nehme oder sogar den DC selbst, aktualisiert er die Zeit irgendwie verzögert und geht immer noch minimal anders als die Server Uhren.


    Grundsätzlich sollten alle Client Rechner in einem AD ihre Zeit auf den DC der Domäne Synchronisieren!
    Von dem her sollte hier der DC Statisch eingetragen sein das macht Qnap aber eigentlich schon von alleine sobald das NAS in die Domäne genommen wird.
    Minimale Abweichungen sollten dabei eigentlich auch unkritisch sein hab ich allerdings persönlich auch noch nicht erlebt.
    Ich lasse das Nas alle 4 Stunden mit dem DC abgleichen im Standard setzt hier Qnap, soweit ich mich erinnern kann, 8 Stunden an was in meiner Umgebung aber nicht funktionierte.
    Mit den 4 Stunden hatte ich jetzt noch nie Probleme mit Zeitabweichungen!


    Zitat


    Woran kann das liegen? Habt Ihr das auch? Wenn ja, welche Lösung gibt es?


    Ich setzte das Nas ja nur in meiner privaten AD Umgebung ein und hier läuft das ganze eigentlich absolut Problemlos.
    Ich hatte über die Jahre schon Geräte die schafften es einfach nicht die Uhr über eine Stunde synchron zu halten Abweichungen von 1 Minute zähle ich hier als Hardware Defekt die Teile gehen dann umgehend zurück.
    Einzige Pseudo Lösung ist ansonsten noch den Sync Intervall auf wenige Minuten herunter zu drehen.
    Deiner Beschreibung entnehme ich das es über die Jahre öfters vorkommt daher tippe ich hier eher auf einen Hardware Defekt wenn ansonsten in den Protokollen nichts zu finden ist.

    Zitat von "tokon"


    Was macht die DDNS-Funktion auf dem NAS genau und was macht eine solche Funktion auf einem anderen Gerät (z.B. Router) anders?


    Im Grunde machen beide das gleiche zumindestens von der Funktion her.


    Der Unterschied liegt in den verschiedenen Aufgabenbereiche deines Routers und der NAS in deinem Netzwerk.
    Dein Router baut die Verbindung zu deinem Provider auf und versorgt alle Clients hinter deinem Router mit einer Netzwerk IP und einem Standardgateway und einer DNS Adresse.
    Die IP wird in den Voreinstellungen deines Routers per DHCP dynamisch deinen Clients zugeteilt damit ist das Telefonbuch(DNS) deines internen Netzwerkes deinem Router bekannt.
    Damit deine Clients Wissen unter welcher Adresse das Telefonbuch(DNS) bekommt es auch die DNS Adresse über den DHCP zugewiesen.
    Dein Router ist also vereinfacht ausgedrückt die Vermittlung in deinem Netzwerk.


    Ist zum Beispiel dem Client mit dem Rechnernamen "Rechner-1" vom DHCP die IP-Adresse 192.168.0.2 zugewiesen worden kann der Router Intern einen Aufruf \\rechner-1 richtig auflösen und wird die Netzwerkfreigaben auf diesem Client anzeigen sofern welche angelegt sind.
    Der Router kennt aber nur die Internen IP Adressen Ziele außerhalb deines Lokalen Netzwerkes werden von deinem Router einfach an das Telefonbuch(DNS) deines Providers weitergereicht und dann an deinen Client vermittelt.


    Der DDNS Dienst macht praktisch die Externe IP deines Routers zu einer Statischen Adresse in dem der DDNS Dienst bei jedem IP Wechsel die neue IP unter der DDNS Adresse einträgt.
    Dein Router ist somit immer unter der Adresse http://XXXX.dynalias.com erreichbar auch wenn die externe IP deines Routers ständig wechseln würde.


    An deinem Router kannst du jetzt entscheiden an welchen Client Rechner die Anfragen von Außerhalb deines eigenen Netzes über welchen Port weitergeleitet werden.
    Hier kommt dann wieder das Interne Telefonbuch(DNS) deines Routers ins Spiel er kennt alle Clients und kann folglich die Anfragen von Extern auch an alle möglichen Geräte weiterleiten.


    Angenommen du leitest die Anfragen welche von Extern über den Port 80 an deinen Router gestellt werden über die Portweiterleitung an den "Rechner-1" weiter....


    Wird bei dem Aufruf http://XXXX.dynalias.com die Startseite des Web Servers auf dem Rechner-1 dem aufrufer zurückgegeben.


    Dein Nas in der Standardkonfiguration kennt nur seine eigene IP-Adresse und seinen eigenen Namen und hat auch direkt keinen Zugriff auf das Telefonbuch des Routers und somit kann als Ziel einer Externen Anfrage auf http://XXXX.dynalias.com über Port 80 auch nur Zugang zum Web Server des NAS erlangt werden, zumindestens Theoretisch.


    Das ist jetzt eher eine einfache erklärung einer recht komplexen Materie aber so hat das mein Sohn recht schnell verstanden ich hoffe das hilft etwas :thumb:

    Zitat von "Capet"


    ...
    In einem der PCs sind 2 Netzwerkkarten vorhanden. Nr. 1 für den Zugang zum LAN, Nr. 2 hätte eine direkte Verbindung zum NAS (über die fragliche 2. Ethernetschnittstelle) und würde jeweils nur speziell für Wartungszugriffe auf das NAS aktiviert. Der OpenSSH-Dienst auf dem NAS würde so eingerichtet werden, dass er nur an der Wartungsschnittstelle lauscht und nicht über die "öffentliche" Schnittstelle erreichbar ist.


    Ziel des Aufbaues ist es, abgesehen von den Wartungszugriffen, das NAS vom Rest des LANs so weit wie möglich zu isolieren.


    Hallo Capet,


    also ein Dirty DMZ, ja kann man machen, ist nicht so wirklich das Gelbe vom Ei vom Standpunkt Sicherheit ausgesehen.
    Wäre aber so mit üblichen Konsumergeräten so einigermaßen abzubilden.


    Ob das allerdings mit einem zusammengeschnippelten USB-Ethernet Adapter und der Qnap eigenen Netzwerk Karte einigermaßen spielt da will ich nicht mal Spekulieren.
    Da wäre schon die Investition in eine der größeren Qnap's mit eingebauten 2 Schnittstellen angebracht aus meiner Sicht!
    Versuchen kostet ja nicht viel die USB Ethernet Adapter kosten nicht die Welt und Versuch und Irrtum macht bekanntlich klüger :D
    Ich würde das einfach mal drauf ankommen lassen und probieren was geht und was nicht scheint mir ja jetzt nicht wirklich eine Produktive Umgebung zu sein so das da mal keine Millionen flöten gehen weil Zeitweise mal gar nichts geht.



    Vielleicht hilft aber auch dieses zwar etwas ältere How To von Heise weiter http://www.heise.de/netze/arti…selbst-gebaut-221656.html noch andere Ansätze zu finden oder abzuleiten.

    Zitat von "GorillaBD"


    Nö, auch ein RAID1 ist kein Backup, sondern lediglich eine Ausfallsicherung.


    hmm, vielleicht lieg ich auch wirklich total daneben aber ich fürchte gerade diese Definition führt nicht wenige in die Irre :D


    Ich verstehe unter Ausfallsicherheit/Ausfallsicherung zum Beispiel wenn ich mein Rechenzentrum gegen den Ausfall des Stromnetzes mit einem Notfallgenerator ausrüste.
    Dieser Notstromgenerator sichert mich gegen den Ausfall der Stromversorgung ab und ich kann mein Rechenzentrum weiter im vollen Umfang in Betrieb halten.


    Bei einem RAID baue ich dagegen eine Verfügbarkeitssicherung ein, ich nehme den Ausfall einer Festplatte billigend in Kauf kann dadurch aber den Datenbestand weiterhin zur Verfügung halten.
    Die höhere Verfügbarkeit erreiche ich dabei durch Redundanz der Daten, nicht durch die Redundanz der Festplatten!


    Bei höheren RAID Leveln fangen die unterschiede dann langsam an zu verschwimmen....


    Fakt ist aber das man diesen Aufwand nicht betreibt um Festplatten gegen Ausfall zu sichern sondern um die Daten Verfügbar zu halten.
    Ist eher schon so das es relativ Wurscht ist wieviele Platten im Monat in die Schrottkiste fliegen Hauptsache der Geschäftsbetrieb läuft durch und Geld wird verdient :mrgreen:


    Auf arbeit habe ich mir deshalb angewöhnt im Zusammenhang mit RAID das Wort Sicherung/Sicherheit gar nicht mehr zu verwenden sondern nur noch die Verfügbarkeit anzuführen!
    Macht das Diskutieren mit nicht IT beleckten Schlipsträgern ähh Entscheidern ;) etwas einfacher denn wenn die Sicherung/Sicherheit hören ist die nächste Frage schon Programmiert
    "Ist doch dann alles gegen Ausfall gesichert warum bitte ist da dann noch so ein teurer Posten mit Datensicherung/Restore (Hardware/Lizenzen) enthalten?"


    Ok ich gebe zu ist ein bißchen Haarspalterei ;)
    Aber ich komme immer noch nicht ganz darüber weg, seit ich in diesem Forum lese zumindestens, wieviele Leute sich ohne echte NOTwendigkeit so einen Klotz wie ein RAID Privat ans Bein binden :o

    Hallo madmatze,


    Zitat von "madmatze"

    Moin,


    ich hätte da mal gewußt warum man ein Backup machen sollte??
    Ich benutze meinen NAS als MP3 Station und zur Ablage einiger Word und Ecxel Dateien, Treiber Dateien und vielleicht mal ein Filmchen!!
    Habe derzeit ebenfalls ein Raid 5 installiert!!


    Das klingt natürlich immer Super cool... ;) "ich hab ein NAS zuhause da speicher ich alle meine Daten und abgesichert ist das mit einem fetten RAID5"
    Da gibt es nur ein Problem, egal welches RAID, die Daten sind nicht gesichert sondern man hat nur die Verfügbarkeit erhöht!
    So wirklich versteh ich auch nicht wie sich das über die Jahre gerade im Privaten Umfeld so in die Gehirne gefressen hat das ein RAID gleichzusetzen wäre mit "Sicherheit der Daten" :roll:
    Gerade in meinem beruflichen Umfeld ist es wichtig, das überall wo ein RAID eingesetzt wird, immer auch aktuelle Backups zur Hand sind!
    Denn nur die wenigsten RAID Wiederherstellungen nach einem Plattenausfall schaffen es die Daten wieder zu 100% Konsistent zur Verfügung zu stellen.


    Deshalb habe ich für mich im Privaten Rechenzentrum :D auch nach einer Kosten/Nutzen Analyse auf den Einsatz von RAID bis zum heutigen Tag auf reinen Datespeichern verzichtet.
    Lieber regelmäßig Backups fahren und das möglichst nach dem Großvater/Vater/Sohn Prinzip da hab ich mehr von als mich mit RAID's herumschlagen zu müssen.
    Auf der Arbeit bekomme ich Geld dafür da ist das dann OK aber zuhause möchte ich mir da nicht auch noch nen Kopp drum machen.


    Wo ein Raid 5 bei mir zuhause Sinn macht ist meine Workstation dort ist das Betriebssystem mit 3 * 300 GB Platten im Raid 5 am laufen und sichert mir auch bei einem Plattenausfall die Verfügbarkeit der Maschine zu!


    Zitat

    Jetzt aber zur Hauptfrage zurück und eine Erklärung warum ich diese stelle:
    Ich dachte das sich die Leute einen NAS aufstellen um darauf ihre wichtigen Daten zu speichern weil sie vielleicht keinen Platz auf ihren Rechner haben bzw die Kapazitäten darauf niedrig halten wollen!
    Vielleicht aber auch weil sie Angst haben einen Datenverlust auf dem Rechner zu bekommen!


    Einen Teil der Frage beantwortest du dir ja bereits selber "Wichtige Daten" die hat man nach der Investition in einen Zentralen Speicher im eigenen Netzwerk in ständiger Verfügbarkeit, von welchem Gerät man sie auch immer abrufen will.
    Im Idelafall arbeitet man dann mit seinen Daten eigentlich schon einfach redundant.
    Zumindestens kann man sich das so einrichten in dem man die Daten zunächst auf seinem Lokalen Rechner speichert und diese Verzeichnisse regelmäßig mit dem NAS synchronisieren lässt.
    Die Wahrscheinlichkeit das Lokaler Rechner und Zentrales NAS gleichzeitig Defekt, die Daten Physikalisch nicht mehr wiederherstellbar, sind zwar nicht unmöglich aber doch eher unwahrscheinlich.


    Ich habe einige Bekannte die zuhause im Privaten Umfeld mit dieser Methode arbeiten und sich damit die Anforderungen zu etwa 99% abdecken was die Datensicherheit angeht.
    Da wird dann einmal im Monat noch ein Backup der Lokalen Daten vom Rechner auf ein externes Speichermedium gezogen, dafür ist dann jedes Familienmitglied selber verantwortlich.
    Ist für mich das Klassische NAS als Backup Verfahren wenn hier mal arbeiten am NAS anstehen ist es eigentlich mehr der bequemlichkeit geschuldet vor den Arbeiten das NAS einmal komplett extern zu sichern.
    Falls dann doch mal was schiefgehen sollte ist es schneller wenn man die Daten auf dem NAS aus dem Backup wieder einspielt als wenn man alle Clientrechner wieder ein Initialen Sync machen lässt.


    Das funktioniert allerdings nur solange wie man hier mit Notebooks und Desktop Rechnern arbeitet welche ausreichend Speicherplatz zur Verfügung stellen.


    Das ist heute nicht mehr immer gegeben, es ziehen Tablets und Ultrabooks in die Privaten 4 Wände ein, und der Speicherplatz wird auf diesen Geräten schnell mal Mangelware!
    Aber ist ja kein Problem man hat ja das NAS im Netzwerk man lagert also den Speicher den man auf seinem Tablet nicht mehr hat einfach aus und kann trotzdem jederzeit darauf zugreifen...
    Spätestens jetzt sind die Daten aber nur noch Zentral genau einmal vorhanden und damit auch bei einem Defekt des NAS bez. der Festplatte im NAS verloren!


    Wenn man jetzt nicht anfängt über ein regelmäßiges Backup nachzudenken hat man irgendwann ein Problem, die Wahrscheinlichkeit das es zu einem Datenverlust kommt braucht man nicht einmal ausrechnen, es wird passieren aber keiner weiß wann!


    Zitat


    Jetzt ist es natürlich schön ein Backup zu haben, aber nun ist durch einen blöden Zufall das Backup auch kaputt. Was jetzt??


    Tja das ist dann aber ganz blöd gelaufen.... :tongue:
    Naja im Regelfall sollte man ein Backup nach der Erstellung immer auch auf Integrität überprüfen lassen nur ein funktionierendes Backup ist ein Backup!
    Es ist aber auch einer der größten Kämpfe die ich in der Firma immer mal wieder auszutragen habe wenn gefragt wird "Warum ist euer Backup Fenster eigentlich immer so Groß? Kann doch nicht sein das ihr zum Sichern X Stunden braucht".
    Es kalkuliert niemand mit ein das man auch die Zeit für die Backup überprüfung mit einrechnen muss!


    Zitat

    Hätte er von dem Backup auch ein Backup machen sollen würde nun vielleicht die Antwort heißen.


    Es ist natürlich immer gut wenn man das Backup vom Backup des Backup zur absoluten Sicherheit hat :mrgreen:
    Nein, ein Backup ist nur dann ein Backup wenn man nach der Erstellung desselben auch die Integrität überprüfen lassen hat!
    Selbst dann sind noch nicht alle unwägbarkeiten restlos abgesichert deshalb hat man zur Sicherheit noch zusätzlich ein älteres Backup zur Verfügung auf das man dann im Notfall noch zurückgreifen kann.
    Damit verliert man wohl Daten und das ist ärgerlich und kostet Geld aber man hat keinen Totalverlust!


    Achja, sollte ich es bis jetzt noch nicht erwähnt haben, Backup ist teuer.....
    Ohne Daten da stehen kann im Privaten Bereich reichlich ärgerlich sein gefährdet aber in 99,998% aller Fälle nicht die Existenz!
    Geschäftlich sieht das natürlich ganz anders aus.


    [qoute]Aber irgentwann ist ja mal die Backup Latte zuende. Ich kann ja nun schlecht mir 20 Externe Platten nur zum Backup hinstellen bzw die Daten auf BluRay speichern (was dann bei 6TB auch 120 Disks wären)!
    Nur dann brauch ich das Geld auch nicht für einen NAS ausgeben![/quote]


    Da sind wir dann endgültig bei der wirtschaftlichen Seite des ganzen angelangt....
    Sieht man sich das ganze im Privaten Umfeld genau an, am besten mit einer umfassenden Risikobewertung, müsste man eigentlich zu dem Schluß kommen Backup lohnt sich nicht!
    Eine wirtschaftliche Notwendigkeit zum Archivieren und Sichern von Privaten Daten gibt es nicht.
    Existenzielle Notwendigkeiten gibt es eigentlich auch keine.
    Bleibt nur noch das man vielleicht an einigen Privaten Erinnerungen festhalten will welche man in Form von Bildern, Videos etc. gerne als seine persönlichen Schätze betrachtet.
    Da muss man sich jetzt halt überlegen Was sind mir diese Daten Wert?


    Zitat

    Bitte nicht falsch verstehen das ist lediglich nur eine Verständnisfrage meinerseits!


    Kein Problem diese Fragen sind ja auch nicht so abseits von den täglichen Problemstellungen.
    Die einfache Ultimative Antwort auf die, doch eigentlich einfache Frage, kann ich dir aber auch nicht wirklich geben.
    Die Frage muss sich eigetlich jeder selbst beantworten und die Antwort kann sich dann auch nur auf sein eigenes Privates Umfeld beziehen und auch nur hier ihre Richtigkeit haben.
    Man muss halt Konsequent sein, wenn die Daten nämlich mal weg sind und man hat sich dazu entschlossen keine Backups zu machen, hilft kein Fluchen und schimpfen weg ist weg!

    Zitat von "Mr.Mase"


    ...
    Hab dem NAS eine feste IP zugeteil 168.254.100.100
    Mein Router hat die IP 192.168.178.1 es ist eine fritzbox DHCP ist aktiviert.


    Hallo Mr. Mase,
    das passt aber nich so ganz zusammen zum einen sollte man für ein Privates Netzwerk nur IP-Adressbereich aus dem Privaten Adresspool nehmen.


    Die Fritzbox benutzt bereits im Standard den Klasse C Bereich 192.168.XXX.XXX es spricht also nichts dagegen diesen Bereich auch bei deiner NAS einzusetzen.
    Setze die Statische IP am NAS auf eine IP-Adresse welcher nciht vom DHCP Server der Fritz vergeben wird und trage dann als DNS Server 192.168.178.1 und als Standard Gateway ebenfall die Adresse der Fritzbox.
    Jetzt klappt es auch mit der Verbindung Fritz zu Qnap...


    Es spricht aber auch nichts dagegen den DHCP Server einzusetzen und die QNAP automatisch konfigurieren zu lassen!

    Zitat von "StefanieB"

    Die meisten der von Dir geschilderten Probleme sind ja auf einen Stromfressenden Prozessor ....


    naja wenn man es sich aussuchen kann ist ein dezidierter Server in Form einer NAS die bessere Entscheidung...
    Trotz alle sollte man auch bei vermeintlichen Stromsparern immer daran denken das man dann mit Server Diensten auf dem Notebook arbeitet und es ist manchmal erstaunlich mit welcher Lautstärke man den Lüfter plötzlich hört...

    Zitat von "StefanieB"


    ...
    Hat vielleicht jemand noch einen Hint für mich warum man nicht einfach ein Notebook mit DUAL Core und defektem DIsplay als LINUX Server nimmt, statt einem NAS?
    Nicht falsch verstehen, ich bin nur soooo Noobine darin, dass ich nicht drauf komme.


    Hallo Stefanie,
    solange das Notebook technisch soweit in Ordnung ist das es abschaltet wenn es zu heiß wird spricht im ersten Ansatz eigentlich nicht wirklich was dagegen. Ich hatte 3 Jahre lang ein Notebook wo mir die Tastatur kaputt ging als Server missbraucht.
    Grundsätzlich dagegen spricht eigentlich nur die zuverlässigkeit, das Notebook ist technisch einfach nicht dafür ausgelegt ständig verfügbar zu sein, damit ist also ein Risiko verbunden das von jetzt auf nachher das Teil kaputt ist.
    Auf was man unbedingt achten sollte wenn man dann doch ein Notebook "missbraucht"....


    • Der Akku sollte ausgebaut werden können!
    • Großzügig ausgelegtes Netzteil verwenden, die Netzteile der Hersteller werden meistens sehr sehr heiß!
    • Der Standort für das Notebook sollte sorgfältig ausgewählt werden das Gerät braucht Luft zum Kühlen und wenn es einigermaßen Staubfrei ist wäre es auch nicht schlecht, sonst kühlt das nur am Anfang :D
    • Notebook Deckel offen lassen ist bei den meisten Modellen angeraten sonst gibt es immer wieder einen Hitzstau, braucht ja nicht komplett sein.
    • Eventuell zusätzliche Kühlung einplanen, ich hatte zusätzliche Ventilatoren angebastelt da durch die zerstörte Tastatur die Kühlung nicht mehr optimal war.
    • Kontrollierte Umgebung, also mindestens einmal am Tag ein Auge drauf werfen ist nicht die schlechteste Idee!


    Ein weiterer Punkt der natürlich gegen den Einsatz spricht ist der das es einfach nicht "Professionell" ist, aber nun da denk ich mir das teil einfach wegwerfen ist auch nicht der Hit :mrgreen:


    Meine Notebook Server hat es immerhin auf Stolze 3 Jahre Laufzeit gebracht bevor der Hitzschlag ihn dahin raffte _hurted:
    Das kann aber auch sehr viel schneller gehen das der Defekt Teufel einen erwischt deshalb sollte man das immer nur als Notlösung sehen und jederzeit darauf gefasst sein das Schluss ist!

    Zitat von "drharry"


    ...
    Auf die Hitachi kann ich ext. über Rechner Daten aufspielen u. auch abspielen....die nimmt mir doch bei Hitachi niemand als defekt ab!!!! Kann mir bitte jemand einen Tipp geben?


    Hallo DrHarry,


    versuch doch mal mit einem Diagnose Programm des Herstellers die Platte zu testen.
    Aber selbst wenn dieses Tool keinen Fehler anzeigt wenn du alle möglichkeiten ausgereizt hast und die Platte immer noch funktioniert kann man die Festplatten mit einem Verdacht auf einen Defekt ohne weiteres Einschicken.
    Wenn ich das noch richtig im Kopf habe ist die Festplatten Sparte von Hitachi mittlerweile an Western Digital verkauft worden aber auch hier müsste es möglichkeiten geben.
    Hatte jetzt hier mit WD Platten noch nie Probleme aber bei Seagate wird das recht unkompliziert gehandhabt wenn man eine Platte mit einem verdacht auf einen Defekt hat.
    Wichtig ist halt das man zumindestens mit dem Hersteller Tool die Platte getestet hat und sich mit dem genau beschriebenen Fehlerbild an den Support wendet.
    Bei mir wurden dann einige Platten auch ohne extra Kosten Vorabgetauscht das ist allerdings Kulanz vom Hersteller und kommt wahrscheinlich auf das alter der Platten an.

    Zitat von "SaschaL"

    Leider bleibt es aber, weil es eine gekaufte Software gibt auf Access Basis....


    Deshalb suche ich immer noch nach Tipps um dieses zu ermöglichen.


    Hallo Sascha,


    ok dann ist das mal gesetzt und erst mal alle anderen Theorien obsolete :(
    Jetzt ergeben sich aber einige Fragen...


    • Ist die Datenbank bei euch jetzt schon aktuell im Einsatz oder startet das Projekt erst?
    • Falls ja, wie ist das ganze aktuell aufgebaut?
    • Habt ihr bereits einen Fileserver in der Domäne?
    • Was könnte dagegen sprechen die Access Backend Datei dort zu Hosten?
    • Welche Empfehlungen gibt den der Hersteller für den Betrieb der Anwendungen vor?
    • Von welchen Dateigrößen Umfängen muss ausgegangen werden?
      Wichtig wären hier ja nicht die Schreib und Leseraten der Festplatten von dem her wären SSD's wahrscheinlich hier nie ausgereizt.
      Aber eine recht hohe Bandbreite sollte vorhanden sein ob man hier jetzt mehrere GB Netzwerkkarten per Trunking zusammen schaltet wäre dann eine Sache der Skalierung man kann also erst mal mit 2 Karten Anfangen.
      Sollte sich aber auf jedenfall die Möglichkeit zum Ausbau mit noch einigen Netzwerk Karten nicht verbauen. Das spricht zunächst einmal gegen die meisten Konsumer NAS von der Stange.


    Im Endeffekt kann man aber sagen ohne genauere Kenntnisse wie die Access Applikation aufgebaut ist lässt sich hier nur sehr schwer eine Empfehlung aussprechen.


    Meine persönliche Meinung wäre ja das nur für diese Anwendung eine Extra NAS einzukaufen mehr oder weniger rausgeschmissenes Geld wäre... :)


    Würde ich mein Geld mit dem Verkauf von NAS verdienen würde ich natürlich andere Aussagen machen :mrgreen:
    Ohne weitere Kenntnisse der Infrastruktur bei euch im Hause würde ich hier die QNAP empfehlen welche ich hier auch im Einsatz habe!


    Bei der TS-559 Pro II (wird aber glaub ich nicht mehr verkauft) also der Nachfolger TS-569 Pro hier passen die äußeren Anforderungen Leistungmäßig voll umfänglich!


    Von der Konfiguration und der Festplatten Belegung würde ich empfehlen für die Systemplatte (Schacht 1) eine Western Digital Red 2TB diese dann im Einzeldiskbetrieb einsetzen.
    Für die Schächte 2-4 Seagate ST500NM0011 500 GB welche dann im RAID 5 eingerichtet werden und wo die Access Backend Datei ihr zuhause findet.
    In Schacht 5 kommt dann auch nochmal eine ST500NM0011 diese wird aber als Spare Platte eingesetzt für den Fall das eine Platte aus dem RAID 5 defekt gehen sollte.


    Man sollte aber dann nicht vergessen das man auch noch Speicher benötigt um die Access Backend wenigstens über Nacht jeden Tag weg zu sichern und das möglichst nachdem Großvater-Vater-Sohn-Prinzip also sollte man sich auch hier der Backup Strategie intensiv widmen!


    So hat man die Möglichkeit die Aufgaben des NAS noch etwas zu spreizen in dem man die Einzeldisk in Schacht 1 noch als Freigabe im Netz zur Verfügung stellen kann.


    Ohne Backupspeicher zu berücksichtigen würden hier etwa 1000 Euro den Besitzer wechseln :thumb:

    Zitat von "Präsi"

    Wenn Du den (einzigen?) DC herunterstufst, ist er kein DC mehr - dann wird auch nichts mehr repliziert.


    Hallo Sascha,


    der TO spricht aber bereits von mehreren DC's von dem er einen (den welcher in der QNAP eingetragen ist) entfernt hat so zumindestens versteh ich das.


    Ok dann ist das mit dem Betriebsmaster auch Quatsch hast recht :oops:

    Hallo Warlord,


    Zitat von "Warlord711"


    ...
    Nachdem ich einen unserer DC entfernt hatte, musste ich die QNAP auf einen neuen DC konfigurieren, sprich den Punkt "AD Servername:" ändern.


    Wie wurde denn der DC entfernt?
    Normalerweise Stuft man den Domäner Server der die FSMO (Betriebsmaster) Rolle hat zunächst herunter lässt das ganze replizieren und Stuft dann einen anderen Server wieder hoch zum Betriebsmaster.


    Welche Version wird denn eingesetzt?


    Zitat


    Danach fingen die Probleme an:


    1. wenn ich die QNAP über den DNS Namen anspreche, komme ich auf die Ordner, kann auch im Windows Explorer die Dateirechte/Sicherheit ändern.
    Dort sind jedoch nun auch numerische Benutzer in der Form "Unix User\300034" vorhanden. Bereits vorhandene Berechtigungen sind teilweise verschwunden.


    2. wenn ich die QNAP über die IP Adresse anspreche, kann ich auf keinen Ordner zugreifen und kann auch keinerlei Dateirechte/Sicherheitseinstellungen über den Windows Explorer ändern.


    Klingt für mich danach als das die Domäne nicht komplett repliziert war und deswegen die QNAP schwierigkeiten mit dem neuen DC hat.


    Zitat


    Vor allem letzteres ist schlecht, da alle Laufwerkmappings über IP konfiguriert sind.


    Ist auch kein guter Einfall das so in einer Windows Domäne zu lösen ich würde die Mappings mit FQDN umsetzen mit der Domäne kommt ja ein zuverlässiger DNS Server der auch funktionieren muss da sonst das ganze AD einbricht.
    Dann das Mapping gleich über die Gruppenrichtlinien durchführen lassen so sind änderungen später recht schnell durchgeführt.