Beiträge von awinterl

    Zitat von "torty85"

    Danke für deine Antwort. Damit meinst du dann den Papierkorb von Windows 10, oder?


    Nein der Papierkorb auf dem NAS also so wie es sein soll.
    Wäre sonst etwas seltsam in einem etwas größeren Netzwerk wenn bei jeder Löschaktion die Dateien in den Lokalen Papierkorb des Client Rechner kopiert werden.
    Wenn es ein Windows Server wäre würde ich auf Offline Dateien tippen aber die Möglichkeit gibt es meines Wissens nach nicht auf den Qnap NAS!
    Mich würde bei deiner Konfiguration eher mal interessieren ob es wirklich möglich ist die Dateien aus dem Papierkorb auch wieder herzustellen und die dann auf der Qnap Freigabe liegen?
    Das wäre mal ein durchaus interessantes Feature!

    Hallo Torty,


    ich habe alle meine Rechne bereits auf Windows 10 umgestellt und eben nochmal getestet, eigentlich benutze ich den Netzwerk Papierkorb nicht, funktioniert wie gewünscht die Dateien werden beim löschen in den Papierkorb geschmissen.

    Hallo Adrian,


    da ein Raid 10 eine Kombination aus 2 Raid 1 darstellt welche in einem Raid 0 zusammen gefasst sind, wird hier eine direkte Migration nicht möglich sein. Ob es beim Qnap möglich ist wenn du deine 2 neuen Platten zu einem Raid 1 migrierst und dann die beiden Raid 1 zu einem Raid 0 verbinden kannst habe ich noch nicht getestet wäre aber ein Versuch Wert.
    Ansonsten Backup musst du sowieso machen dann kannst du das ganze auch neu Aufbauen ich denke nämlich Kopieren ist bei der Qnap schneller als Synchronisieren.

    Also die Liste vom Support scheint nicht so ganz zu stimmen meine TS-569L kennt keine Volume Snapshots mit der 4.2.


    Ich habe meine Storagepools mal komplett entfernt und neu angelegt keine Chance.


    Hat das denn auf irgendeinem Modell schon jemand ans Laufen gebracht?

    Hallo Oliver,


    da stellt sich erst mal die Frage was wollt ihr mit MPIO erreichen bei einer direkt Verkabelung?
    Das Multipathing kann ja nur funktionieren wenn das ganze über eine IP abgewickelt wird in eurer aktuellen Konfiguration benötigt ja jede Netzwerkarte seine eigene IP.

    Hallo joephi,


    ich fürchte was du vorhast funktioniert mit der Qnap nicht.
    Deine Informationen sind auch etwas dürftig um also nicht Raten zu müssen solltest du noch etwas über deinen aktuelle Konfiguration schreiben.
    Sekundäre Domänencontroller gibt es nicht und für den Einsatz als Backup Domänencontroller gibt es meines Wissens bei der Qnap keine Möglichkeit.

    Hallo Rocky,


    Zitat von "rocky"


    Hab aber jetzt noch mal anderes Problem. Das gehört zwar nicht in diesen Tread.
    Wie sicher ist denn der Web-Server, wenn man diesen zuschaltet? Habe jetzt Webspeicher bei Strato und wollte versuchen meine Pages vom eigenen Server zu veröffentlichen. Oder sollte man dies generell nicht machen? Habe den DDNS-Dienst von no-ip.


    Ist nicht unbedingt mein Fachgebiet aber wenn du schon Webspace gemietet hast würde ich da nichts ändern.
    Das ist nun meine persönliche Meinung aber ich denke wenn man eine Webpage anbieten möchte will man ja auch dafür sorgen das die Seiten gefunden werden. Was aber auch bedeutet das auch andere Subjekte als die gewünschten Seitenbesucher auf die IP aufmerksam werden.
    Recht Fatal wenn diese dann auf dem Homeserver durch irgendeinen Bug volle Kontrolle erlangen sollten!
    Ich würde empfehlen bleib bei deinem Webspace...


    mfG


    Andreas

    Hallo Schorge,


    Zitat von "schorge"


    Ich habe gerade einen riesen Fehler gemacht,
    generell verstehe ich unter Initalisieren das neu aufbauen einer
    Datenbank, aber falsch gedacht und jetzt ist eine Woche arbeit gelöscht.
    (letzte Backup war vor ner Woche :cursing::cursing: )


    Schlechte Karten und Nein das ist kein Systemfehler vor dem Neu Initialisieren steht im Dialogfenster genau was gleich passiert ;)
    Das gute ist so ein Fehler passiert einem in der Regel nur einmal dann überdenkt man sein Backup Konzept und klopft es nochmal auf Schwachstellen ab.
    Es gibt einfach nie zu viel Backup sondern leider in der Regel immer genau eins zu wenig!


    mfG


    Andreas

    Hallo Rocky,


    Zitat von "rocky"

    Hallo Andreas,


    alle wichtigen Daten werden natürlich auf 2 externen USB-Platten täglich gesichert!


    Wunderbar das hört man gerne...


    Zitat von "rocky"


    Das Raid5 habe ich nur gewählt, wenn wirklich mal eine Platte defekt geht. Dann kann man ja diese im laufenden Betrieb ohne Datenverlust austauschen! Was wäre denn, wenn ich kein Raid5 hätte und eine Platte gibt den Geist auf. Da wären ja die Daten erstmal futsch. Wie bekommt man denn dann raus, welche Daten verloren gegangen sind?


    Ähem Naja das eine ist die Theorie die Praxis sagt hier leider was anderes hier kommt es immer wieder zu Datenverlusten während dem Rebuild und das mit Hardware Raid Controllern die soviel Kosten wie die ganze QNAP.
    Bei der Qnap reden wir von einem Software RAID und wenn du das Forum etwas durchsuchst findest du einige Storys die zeigen das man immer ein Backup haben sollte!

    Zitat von "rocky"


    Ich denke mal mit dem Raid5 ist es schon ok. Nur mit der Größe bin ich noch etwas verwirrt, denn bei 16TB müssen doch am Ende noch ca. 13-14TB über bleiben.


    Hmm nein ich denke die Werte passen genau...
    Rechnen wir das mal kurz durch
    Die Formel für die Netto Kapazität von RAID 5 lautet (Anzahl der Festplatten − 1) × (Kapazität der kleinsten Festplatte).


    Bei deiner alten Konfiguration mit 7 Festplatten legte der Assistent folgendes an
    Eine RAID Gruppe mit 6 Platten + 1 Hotspare

    Code
    (6-1) * 2 TB = 10 TB


    Nachdem hinzufügen der 8. Festplatte wurde die Hotspare Platte beibehalten die Rechnung lautet also

    Code
    (7 - 1) * 2 TB = 12 TB


    Ich sehe hier keinen Fehler...
    Nochmal zur Erinnerung RAID 5 braucht mindestens 3 Festplatten und wird in der Praxis äußerst selten mal mit 5 Festplatten aufgebaut meistens wird mit 3 Platten + Hotspare Platte gearbeitet!

    Zitat von "rocky"

    Habe jetzt einfach ein 2. Volumen mit dem Rest von 6,52GB (siehe Bild vom 1. Trend) erstellt. Ich hoffe, das es richtig war: :?::?:


    Gigabyte wären verkraftbar :D damit würdest du nicht in Gefahr laufen deine Bruttokapazität zu überbuchen.
    Ich denke du meinst aber wohl doch Terabyte.


    Damit hast du in Datavol1 eine Kapazität von 10,88 TB und in Datavol2 (auch wieder mit Thin Provision) 6,52 TB macht zusammen 17,40 TB :shock:
    Wenn du das immer im Hinterkopf hast wenn du Daten auf deine Qnap ziehst OK aber wehe du vertraust mal einfach auf das was dir die Qnap als Frei anzeigt _hurted:


    Ich würde es folgendermaßen machen (zu mindestens bei dieser Ausgangs Situation)

    Code
    2. Volume anlegen mit Thick Provision und einer Kapazität von 2 TB
    Jetzt kann man sich überlegen ob man die Freigaben Stück für Stück auf das neue Volume umzieht um dann das Datavol1 abzulösen oder man lässt es so passieren kann hier ja nichts.


    Wenn du aber wirklich auf Maximale Speicherkapazität angewiesen bist und in absehbarer Zeit mit den 12 TB nicht auskommen solltest musst du deine Qnap nochmal komplett neu aufbauen.
    So wie es momentan eingerichtet ist bietet es dir keine Möglichkeit mehr die Kapazität ohne Neuaufbau zu vergrößern!


    mfG


    Andreas

    Hallo Rocky,


    nun eigentlich ist die Problematik von Daten Sicherung und/oder Daten Verfügbarkeit, unverändert in den letzten Jahrzehnten von dem her ist hier alles beim alten geblieben :)
    Und ich kämpfe hier bereits seit über 20 Jahren an 2 Fronten (Privat und beruflich) um den absolut Optimalen Weg zu finden... 8-)


    Wenn du zum einen maximales Speichervolumen haben willst wäre, zumindest aus meiner Sicht, der bessere Weg gewesen die Laufwerke ohne RAID einzusetzen das wäre bei deiner Hardware dann die vollen 16 TB.
    Jetzt kommt es darauf an wie hoch bei dir das Nutzdaten Volumen und die erwarteten Steigerungsraten in den nächsten 3 Jahren einzuschätzen sind, um hier Empfehlungen zu geben.
    Ein weiterer Punkt ist deine Backup Strategie welche du dir für deine Nutzdaten aufgebaut hast.


    Wenn man das alles kennt "könnte" man vielleicht eine Aussage treffen ob du das ganze komplett falsch aufgebaut hast oder wo man eventuell noch Optimieren kann.


    Achja Nochmal die klare Ansage ein RAID, ersetzt kein Backup und ist kein Backup, es ist ein Instrument der Sicherung der Verfügbarkeit im laufenden Betrieb!

    Hallo Rocky,


    Zitat von "rocky"


    also angenommen, ich möchte kein neues Volumen erstellen, kann ich dann das alte um 6,52TB erhöhen. Sehe ich das richtig?


    Wenn du deinem Volume jetzt nochmal 6,52 TB zuweisen solltest ist das Volume Überprovisioniert dein Volume hat mehr Speicherplatz als Physikalisch auf den Platten tatsächlich verfügbar sind.
    Irgendwie denkst du hier zu kompliziert :)
    Dein Volume hat eine Zugewiesene Kapazität von 10,77 TB die Maximale Kapazität deines Raid 5 vor dem hinzufügen der neuen 2 TB Platte


    Das Volume ist mit Thin Provisioning eingerichtet worden, die Standard Vorgabe von Qnap :-/, bedeutet das Volume (kann man sich als Datei vorstellen) benötigt nur die tatsächliche Menge Speicher im Speicherpool.
    Der Vorteil eines Volumes mit Thin Provisioning ist zum einen die schnelle Erstellung und das nicht benötigter Kapazität schnell wieder freigegeben werden kann.


    Mal ein kleines Beispiel
    Ich erstelle ein neues Volume in dem Speicherpool und nehme hier nicht den Assistenten zuhilfe



    Ich habe noch eine Freie Pool Kapazität von 8 TB das bietet mir der Wizard dann auch gleich als Vorgabe an
    Meine Firmware Version bietet im Standard immer Thick-Provisioning an ich möchte jetzt aber bewußt das Volume mit Thin Provisioning anlegen!


    Ich Nehm eine Kapazität von 100 GB aus meinem Pool und weiße diese dem Volume zu.
    Die Erstellung durchführen und zunächst wird das Volume Initialisiert


    Das geht jetzt recht schnell halbe Minute und das Volume ist bereit
    Nach der Initialisierung und Optimierung sieht das Volume wie folgend aus.


    Erster Schock :shock: keine 100 GB Kapazität sondern nur 97,93 GB halte ich für einen Fehler von Qnap in der Firmware etwas Speicher für die Verwaltung kann man akzeptieren 2 GB sind heftig :x
    Freie Größe dann sogar nur noch 97,75 GB
    Dem Volume sind schon 1% Speicher zugewiesen so Groß ist das Volume aktuell wirklich.
    Entscheidend ist aber im Moment meine freie Speicherpool Kapazität ist immer noch 8 TB das Thin Volume benötigt also im Moment ohne Daten, außer die für die Verwaltung, keinen Speicher.


    So jetzt das gleiche noch mal mit einem Volume das auf Thick basiert.
    Gleicher Speicherpool anderes Volume


    Die Konfiguration


    Die Erstellung dauert jetzt schon einen Tick länger bei 100 GB reicht das aber nicht für einen Kaffee :D
    Und nun das Ergebnis


    Auf den ersten Blick erst mal alles genau gleich wie beim Volume mit Thin Provisioning
    Sieht man aber genauer hin bemerkt man zunächst das es hier keinen zugewiesenen Speicher gibt klar das Volume wurde mit der vollen Größe von 100 GB erstellt!
    Dann sieht man aber auch das der Speicherpool um die 100 GB kleiner wurde Thick halt


    Zitat von "rocky"


    Könntest du mir bitte noch einmal erklären, was der Hinweis auf dem 1. Bild zu bedeuten hat? Da steht was mit 141,26TB. Oder ist das ein Fehler und muss GB stehen?


    Nein das ist kein Fehler :mrgreen: aber verwirrend
    Wobei man sich über die Nützlichkeit dieses "Features" im SOHO Umfeld wohl auf das vortrefflichste Streiten kann.
    Als Qnap Besitzer kann man hier schön Angeben 8-) :tongue:


    Zum Glück fragt Qnap nochmal ob man als Anwender wirklich noch alle Tassen im Schrank hat :)



    Einen wirklichen Nutzen wird das ganze nur bei wenigen Anwendungsfällen haben aber schön das es möglich ist :mrgreen:


    mfG


    Andreas

    Hallo Rocky,


    Zitat von "rocky"


    Also müsste ich jetzt doch das Volumen um 2TB erhöhen (siehe 1. Trend)? Oder um 6,52TB?


    Müssen nicht du kannst auch ein neues Volume aufmachen und diesem die 2 TB übergeben und hier dann gleich auf Thick zu wechseln.
    Dann kann man ja Verzeichnis um Verzeichnis auf das Thick Volume umziehen und das Erste Volume entsprechend verkleinern.
    Auf der anderen Seite ist der Verlust an Performance, durch Thin Provisioning, nicht so wahnsinnig hoch als das man hier auf biegen und brechen reagieren müsste.


    Zitat von "rocky"


    Mit der früheren Software war irgendwie alles einfacher!


    :D und bevor es NAS gab war es noch einfacher...


    Die Technik mit den auf Speicherpools basierenden Volumes bietet auch Vorteile und Möglichkeiten die man früher nicht hatte.


    mfG


    Andreas

    Hallo Rocky,


    Du hast in deinem Speicherpool ein Volume erstellt.


    Wichtig ist hier das du Thin Provisioning aktiviert hast das bedeutet dem Volume wird nur soviel Speicherplatz zugeordnet wie verwendet wird Plus etwas Speicherplatz für die Verwaltung.


    Dein Volume kann eine Größe von 10,77 TB bekommen davon sind aktuell 6,15 TB belegt.


    Die 6,15 TB bedeuten das von deinem Volume mit möglichen 10,77 TB 56% (Tatsächlicher Speicherverbrauch + etwas Reserve) zugewiesen sind.


    Man sieht bei deinem Speicherpool das er eine mögliche Kapazität von 12,67 TB hat das ist die 2 TB Platte welche du deinem Speicherpool hinzugefügt hast.


    Diese 2 TB könntest du jetzt deinem Volume hinzufügen oder ein neues Volume erstellen.

    Hallo Maddin,


    Zitat von "Maddin2"


    Da wo der NAS sonst zuhause ist bekommt er von einer Fritzbox fest die Adresse 192.168.178.49 zugewiesen. Allerdings bin ich mir nicht sicher ob er das von alleine auch so sieht oder auf DHCP steht und dann einfach das nimmt was die Fritzbox ihm so zuteilt.


    Na wenn die FB normalerweise DHCP spielt und die Adressen zuweist wird er das ohne das du das in der Qnap auf Statisch gestellt hast auch weiterhin tun!
    Soll heißen die NAS generiert sich nach einiger Zeit eine Zeroconf Adresse aus dem Bereich 169.254.0.0 bis 169.254.255.255!
    Dein Laptop stellst du auf auf diesen Bereich ein und die Subnetz Maske auf 255.255.0.0 jetzt müsste der Qfinder die NAS finden und du kannst Statische IP-Adressen konfigurieren.
    Wahrscheinlich dauert das finden etwas also solltest du dem qfinder etwas Zeit lassen.


    mfG


    Andreas

    Hallo Rocky,


    die Frage ist recht allgemein gestellt das Bild ist recht selbst erklärend bezieht sich aber nicht auf den Speicherpool sondern auf das Volume.
    Du hast eine Volume mit Thin Provisioning bei einer freien Pool Kapazität von 6,52 TB mit 11 TB angelegt also überprovisioniert.


    Die Frage ist wohl eher was willst du erreichen?



    mfG


    Andreas

    Hallo Foldach,


    Zitat von "Foldach"


    ich habe für nächste Woche einen Auftrag bekommen, bei dem ich echt nicht weiß wie ich das realisieren soll :)
    Unser Vertrieb hat eine QNAP TS-870U-RP mit einer QNAP SAS-6G2E-U SAS Expansion Card verkauft.


    hmm Wenn die das einfach so eingekauft haben ohne Rücksprache und Planung... urrgs :cursing:

    Zitat von "Foldach"


    Ziel ist es nun, dass die Backups (mit Veeam) auf die QNAP gesichert werden und von der QNAP auf eine TapeLibrary (HP StoreEver 1/8G2).


    Wie wird den der HP aktuell angesteuert?


    Zitat von "Foldach"


    Was habe ich dort für Möglichkeiten? Wie kriege ich dieses BandLaufwerk entweder sichtbar für meinen Backupserver (Server2012R2 auf VMWare) oder habe ich die Möglichkeit das Laufwerk direkt von der QNAP anzusteuern?


    Das dürfte kein kleines "mal so eben nebenbei" Projekt werden wenn es kein gefrickel werden soll.
    Das sind eigentlich die vorbereitenden Arbeiten bevor man in die Beschaffung geht von dem her würde ich dem Vertrieb erst mal freundlich aber bestimmt darauf vorbereiten das hier noch einige Kosten auflaufen werden :)
    Einen Physikalischen Server würde ich auf alle Fälle mal einplanen welcher dann zwischen Qnap und HP vermittelt.
    Veam kenne ich nur als Backup Lösung für VMWare und Hyper-V in wie weit sich hier Autoloader ansteuern lassen musst du dann mal bei Veam nachfragen.
    Das ganze sollte natürlich in das SAN Netzwerk eingebunden werden.
    Ob eine Anfrage bei Qnap zwecks der Möglichkeit zur direkten Anbindung eines Autoloaders an dein NAS was bringt wage ich zu bezweifeln aber Fragen kostet erst mal nüscht.


    Ansonsten würde ich mir Hilfe suchen die darf dann auch mal was Kosten abgerechnet wird hier natürlich auf die Kostenstelle des Vertriebes.


    mfG


    awinterl

    Hallo Michi,


    ich kann dir nur mal 2 Fehlerquellen nennen wirklich eine klare Lösung habe ich keine gefunden unter meiner alten NAS mit 3.7.3 Firmware ist das ganze 3 Jahre ohne Mucken gelaufen!


    Zitat von "Michi69"

    Wenn ich versuche mittels Symantec Backup Exec einen Backup To Disk Ordner auf dem QNAP zu zugreifen ( den ich bereits erfolgreich im Einsatz hatte)gibt es einen Berechtigungsfehler....Zugriff verweigert
    Wenn ich uber die Weboberfläche auf die Qnap Zugreife.....mit dem lokalen Admin -> kein Problem
    Wenn ich unter Windows mit einer Netzlaufwerkverbindung ( QNAP Admin oder AD Gruppe) auf den Qnap zugreifen will -> kein Problem
    ...
    Frage -> Wo muß ich auf was achten, damit ich mit einem Domänen Account auf den QNAP zugreifen kann.......


    Leider schreibst du nichts über die Firmware Version auf deiner NAS bei mir hatte ich in den letzten Wochen bei meiner Qnap TS569L mit der 4.1 ähnliche Probleme hier allerdings mit Acronis.


    Zunächst lief die Kombination aus Windows 2012er AD und Acronis Backup mehrere Wochen ohne Probleme um dann auch plötzlich und ohne Änderungen am System keine Zugriffsberechtigung mehr zu haben.
    Das Problem traf aber alle Windows Domänen Benutzer welche als Backup Bots in der NAS Berechtigt waren.
    Einer der ersten Anlaufpunkte ist dann bei mir immer die Zeit Synchronisation mit dem Domänencontroller welche allerdings aktiv war aber trotzdem lief die Uhr der NAS meinem DC plötzlich 94 Sekunden voraus, mag die AD überhaupt nicht.
    Die NAS neu gestartet, den Neu Boot tut gut, Ergebnis Nadaa Zeit passte nicht NTP Dienst auf dem NAS lief richtiger DC war eingetragen NTP Server lief alle Clients ansonsten synchron :x
    OK geändert hat sich schon was die NAS lief von der Zeit her meinem DC 187 Sekunden hinterher....
    Zeit manuell richtig eingestellt, könnte ja sein das ist nicht das einzige Problem, suuper Anmeldungen funktionieren wieder
    Nur sollte die Synchronisation über NTP funktionieren also den NTP Server am NAS jetzt nicht mehr den FQDN verwendet sondern die IP des DC Uhrzeit kräftig verstellt und gewartet..... _hurted: Uhrzeit bleibt falsch
    NTP Server auf dem NAS neu gestartet Aktualisierung über die Shell Erfolg keiner...
    NAS neu gestartet Uhrzeit blieb falsch...
    Wieder den FQDN als NTP Server eingetragen recht frustriert erst mal ne halbe Stunde was anderes gemacht und als ich an der NAS zurück war stimmte die Uhrzeit plötzlich und läuft seither wieder absolut Synchron :x :x


    Letzte Woche plötzlich wieder das Problem alle Bots hatten keine Anmelderechte mehr Uhrzeit aber Synchron _hurted:
    Neustart zwecklos 3 mal probiert Situation unverändert....
    Da es dann etwas Zeitkritisch wurde, das Backup Fenster hat sich unerbittlich geschlossen, aus der Verzweiflung raus die NAS aus der Domäne genommen und nochmal neu hinzugefügt und seitdem läuft es wieder also die Fehlerursache eigentlich nicht gefunden :(


    Ich werde das Gefühl nicht los das hier die Firmware noch Zicken macht....


    mfG


    Andreas