Hallo miteinander,
mir hat in Vergangenheit dieses Forum hier schon mehrmals geholfen. Vielen Dank!
Nun habe ich mir letzte Woche 3x 6TB Platten (WD60EFRX) angeschafft und als RAID-5, mein TS-420 komplett frisch aufgesetzt. Nach der initialisierung die mehrere Tage dauerte habe ich alle meine Daten ins RAID geschaufelt. Ein paar Minuten nach dem ersten restart des Gerätes hatte ich I/O Schreib- / Lesefehler aud der HDD1 und HDD2 inklusive logische Rückstufung des RAID-Status.
Wohl aus Verzweiflung habe ich dann einen grossen Fehler begangen
1. Ich habe aus diesem Forum (Beitrag ist etwa 1 Woche alt) einen Code-Schnipsel via telnet auf meinem NAS eingegeben.
2. Dieser Code-Schnipsel enthielt soweit ich dies interpretieren konnte so eine Art Partitionstabelle eines RAID-5.
3. Danach erst, habe ich die Platten mit "Jetzt suchen" nach Fehler abgsucht (I/O Fehler)
4. Dank Schritt 3 sind nun alle Platten wieder "Grün" und ok
5. Doch habe ich mit Schritt 2 offenbar eine vierte HDD migriert, die es in meinem System nicht gibt.
Leider, leider gelang es mir bisher nicht mehr den Thread zu finden..
6. Nach Schritt 4 wurden in der Datenträgerverwaltung: RAID 5-Datenträger: Laufwerk 1 2 3 4 angezeigt
7. Nach einem weiteren neustart war in der Anzeige nur noch RAID 5-Datenträger: Laufwerk 1 2 3 (was ja eigentlich gut wäre)
Zum Problem:
Hier eine Übersicht der aktuellen Konfiguration:
Der RAID-Status läuft im herabgesetzten Modus. Ich vermute dass der Grund bei der fehlenden vierten HDD ist. Kann mich jemand unterstützen? Oder ist Hopfen und Malz verloren? Meine Daten habe ich komplett gesichert, möchte aber aufgrund der enormen initialisierungs-zeiten nicht unbedingt das RAID plattmachen.
Danke für eure Unterstützung
bribbon
Nachtrag:
[~] # cat /proc/mdstatPersonalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]md0 : active raid5 sda3[0] sdb3[1] sdc3[2] 11717907072 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]md4 : active raid1 sdc2[2](S) sdb2[1] sda2[0] 530048 blocks [2/2] [UU]md13 : active raid1 sda4[0] sdc4[2] sdb4[1] 458880 blocks [4/3] [UUU_] bitmap: 49/57 pages [196KB], 4KB chunkmd9 : active raid1 sda1[0] sdc1[2] sdb1[1] 530048 blocks [4/3] [UUU_] bitmap: 60/65 pages [240KB], 4KB chunkunused devices: <none>[~] #[~] #
[~] # mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 00.90.00
UUID : 9ad938a3:898bfce8:9683ac17:805c8166
Creation Time : Mon Nov 24 18:53:03 2014
Raid Level : raid1
Used Dev Size : 530048 (517.71 MiB 542.77 MB)
Array Size : 530048 (517.71 MiB 542.77 MB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 9
Update Time : Mon Dec 1 11:44:26 2014
State : clean
Internal Bitmap : present
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 8d693e3e - correct
Events : 0.24157
Number Major Minor RaidDevice State
this 0 8 1 0 active sync /dev/sda1
0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 0 0 3 faulty removed
[~] #
[~] #
Alles anzeigen
--- EDIT ---
Die Sache scheint schlimmer als gedacht.
Ich habe gerade im Manual gelesen das man ein RAID-1 auf RAID-5 migrieren muss. Diesen Schritt habe ich wohl übergangen.
Ich hatte die alten HDD's entfernt:
HDD 1+2 = clone RAID-1
HDD 3 = single disk
HDD 4 = single disk
und durch die neuen wie im Post 1 beschrieben ersetzt. Ich schaltete dazu das NAS ab und tauschte direkt alle HDD's. Nach dem start des NAS war alles frisch wie nach einem Firmware reset. Ich musste alles neu konfigurieren. Deshalb bin ich davon ausgegangen das alles ok ist!
So habe ich einen frischen RAID-5 Verbund erstellt. Ist das womöglich das Problem?
Dies sind meine ersten RAID Erfahrungen. Aus Angst das meine alten Festplatten formatiert werden wenn ich diese wieder einstecke, habe ich diese nicht mehr ins NAS gesteckt. Diese Platten sind mein Backup..
Ich hoffe jemand kann mir helfen