Beiträge von dh1saj

    Das Entfernen ging binnen Sekunden auf 21% bzw 85%, je nach Volume.

    Da hängt es jetzt. Seit Tagen.


    Restart schon probiert. Er macht dann nach Anzeige da weiter wo er war.

    Gefühlt hat der Re-Boot 3x so lange gedauert wie sonst, aber passiert scheint eben nichts zu sein.


    Wobei, ich hab tatsächlich nicht drauf geachtet, ob er wieder bei Entfernen 0% anfing und eben beim jeweils selben Wert wieder stehen blieb, oder ob er direkt mit den 'alten' Werten weitergemacht hat. Wär vielleicht noch mal eine Runde wert, selbst wenns nur der Neugier wegen ist ;)

    Naja, ich hab ja noch andere, lebendige Pools drin.

    Die will ich eigentlich nicht plätten.


    Aber ja, nach dem Init müssten sich die unbeschädigten Pools ja wieder herstellen lassen.

    Insofern - die Methode würde wohl das Ziel erreichen.

    Allerdings - die Daten in den anderen Pools brauch ich noch. Da ist die Hemmschwelle zum Init einfach hoch.....


    Wenn es also irgendwie anders ginge... wäre mir bauchgefühlt arg viel lieber 8)

    Hallo allerseits,

    Vor einiger Zeit hab ich zwei freie Bays eines TVS1271 mit zwei alten Platten bestückt und mit diesen einen RAID1 Speicherpool aufgebaut.

    Wurde als Spielwiese verwendet, absolut nix wichtiges. Lief eben so mit, unattended.

    Wie es der Teufel will sind jetzt binnen kürzester Zeit beide Platten gestorben. Altersschwäche. Egal.


    Der Pool ist auf "Fehler (Schreibgeschützt)" gegangen. Auch klar.

    Also Platten in die Tonne, Pool rauslöschen. Problem gelöst.

    ABER - Pool rauslöschen klappt nicht!

    Die Volumes darin und auch ein Snapshot-Vault hängen jetzt auf "Entfernung xx%" - und das seit ewig. Passieren tut nichts.


    Ich finde keine Möglichkeit den defekten Pool einfach aus der Verwaltung zu schmeißen.

    Es geht in keinster Weise um die Daten oder so. Ich will bloß aufräumen.....


    Eine Idee wie man das hinkriegt?


    Thanks in advance!

    Joh. So gehts mir auch..... ?(


    Aber auf eine Idee hast Du mich gebracht..... wenn irgendwer/irgendwas seine Dateien ständig nur 'touched' werden im BackUp eben keine HardLinks angelegt, sondern physisch neue Instanzen. Und damit wird Dynamik generiert und jede alte Instanz könnte plötzlich physisch sehr groß werden..... größer als je gedacht.


    Also muß ich 'einfach' (von Hand *schnüff*) für alle Verdächtigen mal Latest und die erste ältere Instanz vergleichen. Mit Bordmitteln im Webinterface des NAS. Sollten die plötzlich arg ähnlich groß sein......


    Thanks!


    Jochen

    Naja, das mit den HardLinks ist mir schon klar.
    Und wenn ich "von außen" drauf schaue kommen da natürlich gigantische Datenmengen zusammen..... das ist ansich egal, bloß eben keine Aussage.... Selbst wenn ich mir nur EINE Sicherungsinstanz anschau - eine um die andere - weiß ich immer noch nicht ob ich "echte" Bytes zähle oder virtuelle (via HardLink)......


    Aber "intern" sollte die Speicherverwaltung ja schon korrekt merken wenn die 6TB große Backup-Freigabe (fast) voll gelaufen ist - und genau das ist passiert. Will sagen DIESE Warnung müsste ja ansich stimmen. Ansonsten wäre da ja ein Fehler im Speichermanagement des QNAP.


    Wenn ich mir z.B. den "latest" Ordner eines RRTR-Jobs mit den Bordmitteln anschaue, dann hat der z.B. 300GB. Die erste ältere Instanz hat 500MB. Ziemlich logisch soweit. Aber jetzt ALLE Instanzen in ALLEN Jobs von Hand anschauen.... zumal das pro einzelnem Vorgang schon recht ewig dauert.... AUWEIA!



    Effizient rausfinden wo wirklich "physische" Bytes liegen geht nur "von innen". Also mit einem passenden Tool auf dem betreffenden NAS.
    Und genau das suche ich........ irgendwas, das stark automatisiert z.B. auf Basis von 'stat' oder 'ls -l' aufdröselt was physisch wie groß ist. Klingt unlustig & aufwendig...... any idea welcome!

    Hallo allerseits,
    ich betreibe hier ein TVS-1271 als globales Backup-Ziel für diverse andere NASen.
    Zur Anwendung kommt RRTR und die APP Backup-Versioning.
    Das funktioniert auch alles wie gedacht, bloß wurde ich heute von einer Warnung überrascht: Die Backup-Freigabe hängt bereits bei 6 TB Speicherverbrauch.
    Die gesamten Quelldaten alle zusammen sind knapp größer 1TB und werden auch nie größer als 2TB werden.


    Diese vorgenannten Quelldaten von etwas mehr als 1TB haben jetzt binnen 8 Wochen das Backup-Ziel auf 6TB aufgeblasen....
    Das Backup-Versioning frisst nicht soviel, soweit ich das beurteilen kann. Sind ja nur die Unterschiedsdaten, welche da jeweils gespeichert werden. Und Links zur neuesten (unveränderten) Datei. Und so arg viel Dynamik ist da gar nicht drin....


    Jetzt wollte ich mal nachschauen welcher der Job-Ordner in der gesamten Backup-Freigabe wie groß ist. Und ggf. welcher Unterordner etc.....
    Einfach nur um rauszufinden woher die Datenmenge kommt (und um abzuschätzen wie das weitergehen soll...).



    Jetzt die Frage: Gibt es irgendein TOOL, welches mir in effizienter Weise die Größe der einzelnen Äste der Ordnerstruktur einer Freigabe anzeigt? Ähnlich TREE in der Windows-Welt z.B.?



    Danke & Gruß
    Jochen