Raid 5 auf TS-809U-RP entladen nach Filesystemcheck

  • Hellas zusammen, ich bin neu hier, meine Suche nach dem Thema brachte mich nicht wirklich weiter .. vor allem wollte ich nicht blind irgendwelche gerosteten befehle ausprobieren die womöglich für ander Prozessoren oder Versionen geschrieben wurden...

    Kurz zu mir, bin 48, mit Linux seit 20 Jahren vertraut, allerdings mehr als user als als admin oder Entwickler.


    Ich nenne eine TS 809u mien eigen, die seit 3 jähren eigentlich super läuft und habe da 8 platten in einem RAID 5 drin.


    kürzlich habe ich einen Routinemäßigen FS check gemacht von der User Interface Oberfläche aus, nach 44% stieg mir die NASmit einem Fehler aus, seitdem lässt sich der RAID nicht mehr mountain.


    ein

    cat /proc/partitions

    ergibt


    ein

    mdadm --examine /dev/sda3


    ergibt


    Das OS ist das derzeit aktuelle 4.2.6


    der QNAP support hat nach einer Woche nicht geantwortet :(

    jemand ne Idee ?



    eins noch .. dieser Beitrag hier ist für die Tonne :

    https://helpdesk.qnap.com/inde…n-md0-neu-assembeln-mdadm

    hat bei mir nix gebracht :


    eins noch .. das script

    storage_boot_init 2


    lief durch und gab mir folgendes aus:

    wo check ich denn den degrade error ?? in /var/logs is nuescht....

  • Was geben denn cat /proc/mdstat und md_checker aus?

    Die sind interessanter als cat /proc/partitons.


    Gruss

  • unfucking fassbar .. es scheint wieder zu gehen nachdem ich einen

    e2fsck_64 -f /dev/md0

    abgesetzt habe und dann


    /etc/init.d/mountall


    habe ich zumindest wieder die Verzeichnisse gesehen und die files .... stellt sich nur die frage ob die Daten alle noch in Ordnung sind ... die menge zu durchforsten wird ne weile dauern ob da was korrumpiert ist :(

    Code
    [~] # cat /proc/mdstat
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
    md0 : active raid5 sda3[0] sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1]
    34175410752 blocks super 1.0 level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]
    bitmap: 3/10 pages [12KB], 262144KB chunk


    Code
    md8 : active raid1 sdh2[8](S) sdg2[7](S) sdf2[6](S) sde2[5](S) sdd2[4](S) sdc2[3](S) sdb2[2] sda2[0]
    530128 blocks super 1.0 [2/2] [UU]


    Code
    md13 : active raid1 sda4[0] sdd4[5] sde4[6] sdf4[7] sdg4[8] sdh4[9] sdc4[4] sdb4[3]
    458880 blocks super 1.0 [8/8] [UUUUUUUU]
    bitmap: 0/8 pages [0KB], 32KB chunk
    
    md9 : active raid1 sda1[0] sdh1[14] sdg1[13] sdf1[12] sde1[11] sdd1[10] sdc1[9] sdb1[8]
    530112 blocks super 1.0 [8/8] [UUUUUUUU]
    bitmap: 0/9 pages [0KB], 32KB chunk
    
    unused devices: <none>
  • Na dann ist ja alles wieder gut (vorbehaltlich Datenprüfung).

    Der verlinkte Artikel passt schon, nur ist eben jede Raid-Fehler Situation doch ziemlich individuell.

    Generell hat er jedoch Gültigkeit.


    Gruss