TS-410 - Raid5 - Kapazität erweitern d. Festplattenaustausch

  • Zitat von "Bionic"


    Eine entsprechende Funktion wäre wohl mal ein Grund für einen Verbesserungsvorschlag an Qnap, denn wenn ich mich richtig erinnere, ging ein Datenträgerwechsel schon Ende der 80er - mit Disketten (rechteckige, flachen Dinger aus Plastik ;) )


    Ich verstehe Deinen Wunsch nach hier mehr Komfort ("Spanning" eines Backupjobs über mehrere externe Festplatten), lese ihn so im Forum aber nach nunmehr zwei Jahren zum ersten Mal, das ist also scheinbar kein Bedarf in der Breite. Dennoch kannst Du den Vorschlag ja mal an QNAP richten.


    Oder in unserer "Wunschliste" eintragen: --> http://forum.qnapclub.de/viewforum.php?f=405


    GLG GBD

  • So, ich hab das Raid mit den 3 Platten jetzt fertig.


    Habe die Platten doch nicht einzeln entfernt oder speziell gelöscht.
    Ich habe das alte Raid nach Backup einfach über die Funktion Sofort Entfernen in der Datenträgerverwaltung aufgelöst
    und habe danach einfach ein neues Raid 5 mit der neuen Größe erstellt. Lief einwandfrei durch.
    Formatiert (~1 Stunde), danach das Synchronisieren (36 Stunden).


    Bleibt die Frage, warum die TS die Kapazitätvergrößerung nicht ganz einfach durch ihre Funktion selbst gelöst hat, wie beschrieben.
    Hach, das wäre ja zu einfach... :roll:


    Jetzt wieder alle Daten zurück auf den Server, via esata ~ 25MB/s (das Schreiben auf die Platten ging noch mit ~ 50MB/s), dauert ein paar Tage.


    Demnächst dann die Kapazitätserweiterung mit dem Einbau der 4. Platte. Bin schon gespannt, ob er das macht.


    freundliche Grüße

  • Weiter geht's.


    Gestern die Austauschplatte bekommen und in den 4. Schacht eingesetzt.
    Formatiert und über Nacht nach defekten Blöcken suchen lassen.
    Werde jetzt die Festplatte dem Raid 5 hinzufügen. Vorgang läuft, wird sicher 1-2 Tage dauern, wenn es klappt.
    Drückt mir die Daumen!


    ---Edit---


    Zitat von "Bionic"

    Vorgang läuft, wird sicher 1-2 Tage dauern, wenn es klappt.


    wohl eher 5 Tage... :schnarch: :mrgreen:

  • So, heute morgen hat das Nas die neue Platte dem Raid erfolgreich hinzugefügt, es läuft jetzt über alle 4 Platten, statt auf vorher 3.
    Dies hat also schon mal geklappt.
    Leider hat es die Erweiterung von ~ 8 GB auf 11176 GB nicht durchführen können:

    Zitat

    Server Name: QNAS
    IP Address: 192.168.0.10
    Date/Time: 23.06.2014 03:58:24
    Level: Error
    [RAID5 Disk Volume: Drive 1 2 3 4] Expanding Raid Device failed.


    auch das manuelle anstoßen, mit Abschalten sämtlicher Dienste und Neustart, hat nicht funktioniert,
    nach etwa anderthalb Stunden wird abgebrochen und wieder zurückgesetzt.

    Zitat

    Server Name: QNAS
    IP Address: 192.168.0.10
    Date/Time: 23.06.2014 13:51:28
    Level: Error
    [RAID5 Disk Volume: Drive 1 2 3 4] Raid Size Expansion failed.


    Jemand noch eine Idee?
    Haben das andere noch lösen können?
    Scheint hier ein ähnliches Problem zu sein: klick


    Grüße


    -------------------------
    Edit:


    Noch ein Problem:
    Ein Bekannter kam hinzu und versuchte es mal nach dieser Anleitung, via SSH/Putty.
    Leider funktionierte der Befehl lsof +f -- /dev/md0 nicht und e2fsck -f /dev/md0 wurde auch nicht ganz ausgeführt (Fehler wie hier - zu wenig Speicher?). Ich habe das dann abgebrochen. Wir kamen bis zum Punkt mdadm --grow /dev/md0 --size max, den das System ohne e2fsck-Check aber nicht ausführen wollte.
    Das Raid ist aber seitdem ständig Entladen (wegen umount /dev/md0 ?), auch nach Neustart. Wie kann ich das wieder mounten?


    Grüße

  • Zitat

    Ein Bekannter kam hinzu und versuchte es mal nach dieser Anleitung, via SSH/Putty.
    Leider funktionierte der Befehl lsof +f -- /dev/md0 nicht und e2fsck -f /dev/md0 wurde auch nicht ganz ausgeführt (Fehler wie hier - zu wenig Speicher?). Ich habe das dann abgebrochen. Wir kamen bis zum Punkt mdadm --grow /dev/md0 --size max, den das System ohne e2fsck-Check aber nicht ausführen wollte.
    Das Raid ist aber seitdem ständig Entladen (wegen umount /dev/md0 ?), auch nach Neustart. Wie kann ich das wieder mounten?


    Es wäre sehr hilfreich, bei den Befehlen, die nicht funktioniert haben, die jeweilige Fehlermeldung zu sehen...


    Den lsof - Befehl brauchst du nur, wenn der umount - Befehl nicht funktioniert, um herauszufinden, wer den Speicherplatz noch in Gebrauch hat. Deinem letzten Satz zufolge hat das umount aber funktioniert. ;)


    Der gegenteilige Befehl zu umount /dev/md0 ist ganz einfach mount /dev/md0 .


    Welche Meldungen kamen bei e2fsck ? Welches Dateisystem hast du eigentlich?
    Mit

    Code
    mount | grep /dev/md0 | awk '{print $5}'

    auf der Kommandozeile kann man das herausfinden.


    Und - wo wir gerade auf der Kommandozeile sind - kannst du mal die Ausgabe von

    Code
    mdadm -D /dev/md0

    posten?


    Grüße,
    Nestolea

  • Hallo,


    Danke, das Du vorbeischaust. :thumb:


    Dateisystem ist ext4


    Code
    [~] # mdadm -D /dev/md0/dev/md0:        Version : 01.00.03  Creation Time : Sun May 18 13:12:25 2014     Raid Level : raid5     Array Size : 11716348608 (11173.58 GiB 11997.54 GB)  Used Dev Size : 3905449536 (3724.53 GiB 3999.18 GB)   Raid Devices : 4  Total Devices : 4Preferred Minor : 0    Persistence : Superblock is persistent  Intent Bitmap : Internal    Update Time : Tue Jun 24 22:30:18 2014          State : active Active Devices : 4Working Devices : 4 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 64K           Name : 0           UUID : b9db3bc5:4969715f:081f259a:2d3cf5aa         Events : 39490    Number   Major   Minor   RaidDevice State       0       8        3        0      active sync   /dev/sda3       1       8       19        1      active sync   /dev/sdb3       2       8       35        2      active sync   /dev/sdc3       3       8       51        3      active sync   /dev/sdd3[~] #


    Code
    mount | grep /dev/md0 | awk '{print $5}'


    zeigt gar nichts an...


    bei

    Code
    # e2fsck -f /dev/md0

    kam

    Code
    Pass 1: Checking inodes, blocks, and sizesError allocating block bitmap (4): Memory allocation failede2fsck: aborted


    Code
    cat /proc/mdstat


    gibt mir folgendes aus:


    Grüße

  • Ich habe so gut wie keine Ahnung von Linux. Hab einfach mal free eingegeben:

    Code
    [~] # free
                  total         used         free       shared      buffers
      Mem:       255676       216672        39004            0         6340
     Swap:       530040         4332       525708
    Total:       785716       221004       564712
    [~] #


    Kapazität erweitern gibt es jetzt nicht mehr, weil das Raid entladen ist (aber wohl noch da?!).
    Es lässt sich natürlich auch nicht mehr prüfen.


    Edit: Ach ja, bei mount /dev/md0 kommt:

    Zitat

    [~] # mount /dev/md0
    mount: can't find /dev/md0 in /etc/fstab or /etc/mtab

  • Zitat von "Bionic"

    Hab einfach mal free eingegeben:


    Passt schon. :D


    Im übrigen hat QNAP in der neuen FW auf Grund genau dieser Probleme die Online-RAID-Erweiterung bei den ARM-NAS auf 8TB begrenzt.


    Du kannst mal folgendes Probieren:


    1. Swap erhöhen

    Code
    swapoff /dev/md4mdadm -S /dev/md4mkswap /dev/sda2mkswap /dev/sdb2mkswap /dev/sdc2mkswap /dev/sdd2swapon /dev/sda2swapon /dev/sdb2swapon /dev/sdc2swapon /dev/sdd2


    Ein erneutes 'free' sollte jetzt für Swap ca. 2120000 anzeigen.


    2. MD0 wieder mounten - vorerst read only

    Code
    mount /dev/md0 /share/MD0_DATA -t ext4 -o ro


    3a. Wenn das RAID jetzt wieder im Admininterface zur Verfügung steht und die Kapazitätserweiterung auch, dann diese starten.
    3b. Ist die Kapazitätserweiterung immernoch deaktiviert, dann MD0 normal mounten

    Code
    umount /dev/md0
    mount /dev/md0 /share/MD0_DATA -t ext4


    weiter mit 3a

  • Du bist (auch) ein Held! :D


    Danke! :thumb:


    Wieder da.
    Ich hoffe, das hält erst mal. :oops:
    Ich starte die Erweiterung jetzt nochmals.


    Ach ja:


    Edit: Habe mir den Vorgang noch mal zu Gemüte geführt.
    Mit mount /dev/md0 /share/MD0_DATA -t ext4 -o ro habe ich praktisch das Raid also wieder geladen
    und dann den Speicher -als Auslagerungsdatei auf den Festplatten angelegt- erhöht. Richtig?
    Alternativ gäbe es dann also noch die Möglichkeit eines Versuchs mit einem USB-Stick?!
    Aber Vielleicht klappt es ja diesmal und die Idee macht Schule!


    Grüße

  • Nun dann viel Erfolg. :thumb:


    Zitat von "Bionic"

    Speicher -als Auslagerungsdatei auf den Festplatten angelegt- erhöht. Richtig?
    Alternativ gäbe es dann also noch die Möglichkeit eines Versuchs mit einem USB-Stick?!


    Im ersten Punkt hast du das vorhandene Swap, was aber über alle Platten als md4 gespiegelt ist, beendet, das RAID1 md4 aufgelöst und dann die dort verwendeten Partitionen jeweils zu einzelnen Swaps gemacht und aktiviert. Somit steht dir praktisch der vierfache Platz als Swap zur Verfügung.
    Sollte der nicht ausreichen kannst du zusätzlich dazu auch noch per USB-Stick weiteren Swap hinzufügen.

  • Moin!


    Anscheinend ist es geschafft! :mrgreen:


    Allerdings ist das Raid jetzt wieder entladen... und ich kann deshalb nichts sehen oder tun.


    Bevor ich jetzt was falsches mache, was nun? Neustart? Swapfile zurücksetzen?
    Die beiden Fehlermeldungen sind nichts weiter, oder?

  • Das NAS muss eh nach diesen Aktionen neu gestartet werden. Dann erst kann man sehen, was sich getan hat.
    Bevor du dies aber tust, führe bitte noch die Befehle

    Code
    dmesg
    cat /proc/mdstat
    cat /proc/mounts

    aus und poste hier das Ergebnis.


  • Hallo,


    Sorry, ich habe heute Morgen noch Deinen mount-Befehl eingegeben, weil ich das Ergebnis nicht abwarten konnte. :engel:
    mount /dev/md0 /share/MD0_DATA -t ext4
    Ergebnis sieht so aus:

  • Die Ausgaben zeigen nichts auffälliges. Die beiden Warnungen im vorherigen Post stammen wohl daher, dass du ja alle Services beendet hattest.

    Zitat von "Bionic"

    mount /dev/md0 /share/MD0_DATA -t ext4
    Ergebnis sieht so aus:


    Das sieht eigentlich auch gut aus. Trotzdem solltest du das NAS neu starten, um zu schauen, ob das RAID den Neustart überlebt und vor allem, um den Rest des Systems wieder in einen definierten Zustand zu versetzen.

  • Ja, danke. Darauf habe ich gewartet. Ich starte dann mal neu und hoffe, es klappt.
    Melde mich gleich wieder.


    So, Raid ist leider nach dem booten entladen... :|

  • Hmmm, kein Grund zu erkennen, warum md0 nicht gemounted wird.


    Poste bitte mal die Ergebnisse von:

    Code
    df
    cat /etc/config/raidtab
    cat /etc/config/mdadm.conf
    cat /etc//storage.conf
    getcfg Misc Configured