Mod: Unnötiges Volltext-/Direktzitat entfernt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
Nein, sehe dazu nirgendwo eine Möglichkeit
Mod: Unnötiges Volltext-/Direktzitat entfernt! Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen
Nein, sehe dazu nirgendwo eine Möglichkeit
Sorry vergessen, ist ein TS-453mini mit FW 5.0.0.1932
Moin! Selbst 10 Jahre später scheint diese Anleitung noch zu funktionieren
Ich habe die neue Festplatte (1000 GB) zunächst als externes Laufwerk per USB angeschlossen und dann wie beschrieben die bisherige Systemplatte (256 GB) per dd kopiert.
Nach dem Neustart des NAS mit der neuen Platte anstelle der alten funktioniert soweit auch alles wunderbar, das NAS fühlt sich an, als wäre nichts gewesen (auch ohne manuellen Restore der Settings).
Jetzt stehe ich aber vor dem Problem, dass die Partition auf der neuen 1000 GB Platte durch den dd nur so klein wie zuvor auf der alten Platte ist, sprich die zusätzlichen 750 GB können nicht verwendet werden.
Gibt es eine Möglichkeit, entweder die Partition zu erweitern (per resize2fs?) oder vielleicht den dd-Befehl noch einmal anders auszuführen, um gleich beim Kopiervorgang die komplette Größe der neuen Platte nutzen zu können?
Hi zusammen, die alten Daten sind nicht weg, sondern werden nach der Aktivierung der Console nur nicht mehr angezeigt.
Lösung siehe Multimedia Ordner auf eine andere Festplatte verlegen
Hey, ich habe dasselbe Problem wie folgt gelöst:
Anmeldung auf der Konsole.
In /share/CACHEDEV1_DATA wird automatisch von der Multimedia Console der Ordner "Multimedia" angelegt.
Diesen löschen (VORSICHT: Vorher schauen, ob wichtige Dateien enthalten sind!):
Dann einen Link auf den eigentlichen Multimedia-Ordner anlegen (bei mir in CACHEDEV4):
Jetzt verweist der Ordner /share/CACHEDEV1_DATA/Multimedia/ auf das richtige Ziel /share/CACHEDEV4_DATA/Multimedia/.
Problem bei mir: In QuMagie bzw. Photo Station 6 werden zwar alle Fotos aus /share/CACHEDEV4_DATA/Multimedia/Fotos/* importiert, aber die Ordneransicht ist in beiden Apps leer. Das ist sehr schade, da ich darüber gerne neue Alben anlegen würde.
Keine Ahnung, ob das mit meiner Verlinkung bzw. einem (daraus resultierenden?) Berechtigungsproblem liegt?!
Ich habe testweise ein paar Alben aus der macOS Fotos-App auf das QNAP (4.4.3.1381) exportiert und dort in einer Ordnerstruktur abgelegt.
Über die QNAP Multimedia Console habe ich die Fotos in QuMagie und die Photo Station 6.0.10 importiert.
Wenn ich es richtig verstanden habe, sollten automatisch die Ordner angezeigt werden, in denen ich die Alben/Fotos im Dateisystem abgelegt habe.
Aber da ist bei mir leider auch gähnende Leere. Eine manuelle Funktion zum Anlegen der Ordner gibt es nicht (macht auch keinen Sinn).
Hat jmd. dazu eine Idee?
Hallo Forum,
zur Ausgangslage:
NAS-Modell: TS-453mini
Firmware-Version: 4.3.6.0993
4 Single Disks - kein Raid (ich habe meine Gründe, Backups sind vorhanden)
Zuletzt hatte ich nach einem Stromausfall immer wieder das Problem, dass die Systemplatte nicht clean war und mir das NAS alle paar Tage abstürzte.
Also habe ich die Systemplatte gemäß https://itler.net/qnap-nas-zur…en-vollstaendig-loeschen/ mit
fdisk -d all /dev/sdc bearbeitet, die anderen drei Platten entfernt und das NAS nur mit der Systemplatte gestartet und neu initialisiert + Import des letzten Konfig-Backups.
Anschließend habe ich das NAS mit den restlichen Platten neu gestartet und wollte diese mit "Wiederherstellen" frisch einbinden (inkl. der Daten).
Für 2 von 3 Platten hat das wunderbar geklappt, nur eine Platte macht Zicken!
Ich sehe die Platte zwar im Speichermanager unter "Speicher -> Datenträger/VJBOD", aber weder unter "Storage"Snapshots" noch unter "Übersicht -> Speicher".
Im Putty sehe ich mit df, dass die fehlende Platte im Gegensatz zu den anderen nicht gemountet ist.
Passend dazu gibt es auch keinen Eintrag zur Platte in /etc/mtab
Manuell mounten mit
funzt nicht:
Die üblichen Tools sehen für mich sauber aus:
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md4 : active raid1 sda3[0]
1943559616 blocks super 1.0 [1/1] [U]
md3 : active raid1 sdb3[0]
1943559616 blocks super 1.0 [1/1] [U]
md2 : active raid1 sdc3[0]
3897063616 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdd3[0]
240099264 blocks super 1.0 [1/1] [U]
md322 : active raid1 sda5[2](S) sdb5[1] sdc5[0]
7235136 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md256 : active raid1 sda2[2](S) sdb2[1] sdc2[0]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md321 : active raid1 sdd5[0]
8283712 blocks super 1.0 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdd4[0] sda4[32] sdb4[33] sdc4[34]
458880 blocks super 1.0 [32/4] [UUUU____________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdd1[0] sda1[32] sdb1[33] sdc1[34]
530048 blocks super 1.0 [32/4] [UUUU____________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Alles anzeigen
...wobei md2 bzw. sdc3 die fehlende Platte ist.
mdadm -E /dev/sd[abcd]3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 1691478e:406b6dfe:0673ce26:b8ce8bd1
Name : 4
Creation Time : Mon Dec 21 20:39:50 2015
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 1943559616 (1853.52 GiB 1990.21 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=272 sectors
State : clean
Device UUID : dd320841:6649fecc:79049997:4a6f6431
Update Time : Sat Jul 27 01:30:11 2019
Checksum : 6fc3978e - correct
Events : 982
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 7b509c5f:f6e9e9a7:d15b05e4:20c73ae5
Name : 3
Creation Time : Tue Jul 10 20:11:40 2018
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 3887119240 (1853.52 GiB 1990.21 GB)
Array Size : 1943559616 (1853.52 GiB 1990.21 GB)
Used Dev Size : 3887119232 (1853.52 GiB 1990.21 GB)
Super Offset : 3887119504 sectors
Unused Space : before=0 sectors, after=264 sectors
State : clean
Device UUID : db8164cd:66747edc:3fe4b28e:4a8497ad
Update Time : Sat Jul 27 01:30:11 2019
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : cf78c37e - correct
Events : 101
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 9c52f0a5:57a543b3:99af0eaf:dd0a2c4b
Name : 2
Creation Time : Mon Jul 9 10:14:50 2018
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 7794127240 (3716.53 GiB 3990.59 GB)
Array Size : 3897063616 (3716.53 GiB 3990.59 GB)
Used Dev Size : 7794127232 (3716.53 GiB 3990.59 GB)
Super Offset : 7794127504 sectors
Unused Space : before=0 sectors, after=264 sectors
State : clean
Device UUID : 562458fd:dd6879de:29d92dcb:b56a3a23
Update Time : Sat Jul 27 00:48:33 2019
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : f0cc45b5 - correct
Events : 113
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : 2c81f67e:080095e6:9890d048:6d56a177
Name : 1
Creation Time : Mon Jul 22 11:47:52 2019
Raid Level : raid1
Raid Devices : 1
Avail Dev Size : 480198624 (228.98 GiB 245.86 GB)
Array Size : 240099264 (228.98 GiB 245.86 GB)
Used Dev Size : 480198528 (228.98 GiB 245.86 GB)
Super Offset : 480198888 sectors
Unused Space : before=0 sectors, after=352 sectors
State : clean
Device UUID : 551087f5:d7db0fef:ec08bb4e:2c88ce89
Update Time : Sat Jul 27 01:47:30 2019
Bad Block Log : 512 entries available at offset -8 sectors
Checksum : 9c5f0ca4 - correct
Events : 20
Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
Alles anzeigen
md_checker
Welcome to MD superblock checker (v1.4) - have a nice day~
Scanning system...
HAL firmware detected!
Scanning Enclosure 0...
RAID metadata found!
UUID: 2c81f67e:080095e6:9890d048:6d56a177
Level: raid1
Devices: 1
Name: md1
Chunk Size: -
md Version: 1.0
Creation Time: Jul 22 11:47:52 2019
Status: ONLINE (md1) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
1 /dev/sdd3 0 Active Jul 27 01:47:57 2019 21 A
===============================================================================
RAID metadata found!
UUID: 9c52f0a5:57a543b3:99af0eaf:dd0a2c4b
Level: raid1
Devices: 1
Name: md2
Chunk Size: -
md Version: 1.0
Creation Time: Jul 9 10:14:50 2018
Status: ONLINE (md2) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
2 /dev/sdc3 0 Active Jul 27 00:48:33 2019 113 A
===============================================================================
RAID metadata found!
UUID: 7b509c5f:f6e9e9a7:d15b05e4:20c73ae5
Level: raid1
Devices: 1
Name: md3
Chunk Size: -
md Version: 1.0
Creation Time: Jul 10 20:11:40 2018
Status: ONLINE (md3) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
3 /dev/sdb3 0 Active Jul 27 01:30:11 2019 101 A
===============================================================================
RAID metadata found!
UUID: 1691478e:406b6dfe:0673ce26:b8ce8bd1
Level: raid1
Devices: 1
Name: md4
Chunk Size: -
md Version: 1.0
Creation Time: Dec 21 20:39:50 2015
Status: ONLINE (md4) [U]
===============================================================================
Disk | Device | # | Status | Last Update Time | Events | Array State
===============================================================================
4 /dev/sda3 0 Active Jul 27 01:30:11 2019 982 A
===============================================================================
Alles anzeigen
mdadm -D /dev/md2
/dev/md2:
Version : 1.0
Creation Time : Mon Jul 9 10:14:50 2018
Raid Level : raid1
Array Size : 3897063616 (3716.53 GiB 3990.59 GB)
Used Dev Size : 3897063616 (3716.53 GiB 3990.59 GB)
Raid Devices : 1
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Sat Jul 27 00:48:33 2019
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : 2
UUID : 9c52f0a5:57a543b3:99af0eaf:dd0a2c4b
Events : 113
Number Major Minor RaidDevice State
0 8 35 0 active sync /dev/sdc3
Alles anzeigen
Derzeit läuft der FS-Check auf defekte Blöcke auf der "fehlenden" Platte, bisher fehlerfrei.
Hat jemand eine Ahnung, wie ich das Volume wieder sauber eingehängt bekomme?
Vielen Dank!!!
Nachtrag: Die Ausgaben von testparm und less /dev/sdc3 passen aufgrund der Zeichenbeschränkung leider nicht mehr rein, folgen dann später...
Zitat von "warpcam"Wo genau hast du im Web-UI nachgeschaut, ob die Platte gefunden wurde?
Überall
Keine Chance, habe mittlerweile zwei weitere externe USB-Platten getestet, das NAS mag nicht.
Ich denke, ich müsste das Gerät mal durchstarten, aber das geht leider gerade nicht:
http://forum.qnapclub.de/viewtopic.php?f=25&t=37496
Danke für den Tipp, hat aber leider nichts gebracht
Ich habe alle Partitionen von der USB Festplatte über ein Linux komplett gelöscht.
QTS mag mir die Platte aber noch immer nicht über die Weboberfläche anzeigen, egal ob ich sie an einen USB 2.0 oder 3.0 Port anschließe.
Über die Shell bekomme ich zumindest das USB Gerät an sich angezeigt:
[~] # lsusb
Bus 001 Device 002: ID 1c05:2074
Bus 001 Device 010: ID 174c:55aa ASMedia Technology Inc.
Bus 001 Device 007: ID 046d:c52b Logitech, Inc. Unifying Receiver
Bus 001 Device 004: ID 1005:b155 Apacer Technology, Inc.
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 002: ID 1c05:3074
Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Es muss doch irgendeine Möglichkeit geben, dieses Laufwerk zu mounten?!
Hallo Forum,
vorweg: Ja ich weiß, die Intenso Memory Center USB 3.0 Platte steht nicht auf der QNAP Kompatibilitätsliste.
Sieht vielleicht trotzdem jmd. eine Möglichkeit, die Platte irgendwie am TS-453mini gemountet zu bekommen?
Laut dmesg wird die Platte ja zumindest korrekt erkannt, nur leider wird sie nicht in der Weboberfläche als externes Gerät angezeigt
[142281.284316] usb 2-1.2: new SuperSpeed USB device number 15 using xhci_hcd
[142281.303570] usb-storage 2-1.2:1.0: USB Mass Storage device detected
[142281.310607] usb-storage 2-1.2:1.0: Quirks match for vid 174c pid 55aa: 400000
[142281.318558] scsi26 : usb-storage 2-1.2:1.0
[142282.325310] scsi 26:0:0:0: Direct-Access Intenso USB 3.0 device 0 PQ: 0 ANSI: 6
[142282.333726] Check proc_name[usb-storage].
[142282.338324] sd 26:0:0:0: Attached scsi generic sg5 type 0
[142282.345994] sd 26:0:0:0: [sdg] Spinning up disk...
[142283.351750] .........ready
[142291.493842] sd 26:0:0:0: [sdg] 732566646 4096-byte logical blocks: (3.00 TB/2.72 TiB)
[142291.502073] sd 26:0:0:0: [sdg] Write Protect is off
[142291.507053] sd 26:0:0:0: [sdg] Mode Sense: 43 00 00 00
[142291.507309] sd 26:0:0:0: [sdg] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[142291.517013] sd 26:0:0:0: [sdg] 732566646 4096-byte logical blocks: (3.00 TB/2.72 TiB)
[142291.591247] sdg: sdg1
[142291.594600] sd 26:0:0:0: [sdg] 732566646 4096-byte logical blocks: (3.00 TB/2.72 TiB)
[142291.603060] sd 26:0:0:0: [sdg] Attached SCSI disk
Alles anzeigen
Testweise habe ich die Platte bereits als Fat32, exFat und EXT4 formatiert, bisher keine Chance
--- ModEdit ---
Ok, jetzt wird es richtig schräg: Ich sehe das Gerät sogar in der Virtualization Station und kann es einer VM zuordnen und darüber verwenden!
Aber keine Chance, das Gerät irgendwie in der File Station verwendbar zu machen...
Anbei noch ein paar Infos...
fdisk -lu Disk /dev/sda: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectorsUnits = sectors of 1 * 512 = 512 bytes Device Boot Start End Blocks Id System/dev/sda1 1 3907029167 1953514583+ ee EFI GPTDisk /dev/sdd: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectorsUnits = sectors of 1 * 512 = 512 bytes Device Boot Start End Blocks Id System/dev/sdd1 40 1060289 530125 83 Linux/dev/sdd2 1060296 2120579 530142 83 Linux/dev/sdd3 2120584 3906011969 1951945693 83 Linux/dev/sdd4 3906011976 3907007999 498012 83 LinuxDisk /dev/sdc: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectorsUnits = sectors of 1 * 512 = 512 bytes Device Boot Start End Blocks Id System/dev/sdc1 40 1060289 530125 83 Linux/dev/sdc2 1060296 2120579 530142 83 Linux/dev/sdc3 2120584 3906011969 1951945693 83 Linux/dev/sdc4 3906011976 3907007999 498012 83 LinuxDisk /dev/sde: 515 MB, 515899392 bytes8 heads, 32 sectors/track, 3936 cylinders, total 1007616 sectorsUnits = sectors of 1 * 512 = 512 bytes Device Boot Start End Blocks Id System/dev/sde1 8 10495 5244 83 Linux/dev/sde2 * 10496 492031 240768 83 Linux/dev/sde3 492032 973567 240768 83 Linux/dev/sde4 973568 1007615 17024 5 Extended/dev/sde5 973600 990207 8304 83 Linux/dev/sde6 990240 1007615 8688 83 LinuxDisk /dev/md9: 542 MB, 542769152 bytes2 heads, 4 sectors/track, 132512 cylinders, total 1060096 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/md9 doesn't contain a valid partition tableDisk /dev/md13: 469 MB, 469893120 bytes2 heads, 4 sectors/track, 114720 cylinders, total 917760 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/md13 doesn't contain a valid partition tableDisk /dev/md256: 542 MB, 542834688 bytes2 heads, 4 sectors/track, 132528 cylinders, total 1060224 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/md256 doesn't contain a valid partition tableDisk /dev/md1: 5996.3 GB, 5996376686592 bytes2 heads, 4 sectors/track, 1463959152 cylinders, total 11711673216 sectorsUnits = sectors of 1 * 512 = 512 bytesDisk /dev/md1 doesn't contain a valid partition tableDisk /dev/sdf: 2000.3 GB, 2000398934016 bytes255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectorsUnits = sectors of 1 * 512 = 512 bytes Device Boot Start End Blocks Id System/dev/sdf1 1 3907029167 1953514583+ ee EFI GPT
Hier sieht es ja irgendwie so aus, als sei die defekte Platte bereits aus dem Raid Verbund entfernt und die verbleibenden Platten im Sync sind?!
mdadm --detail /dev/md1
/dev/md1:
Version : 1.0
Creation Time : Sat Dec 5 20:45:49 2015
Raid Level : raid5
Array Size : 5855836608 (5584.56 GiB 5996.38 GB)
Used Dev Size : 1951945536 (1861.52 GiB 1998.79 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri Dec 18 14:21:37 2015
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 1
UUID : 402fa5ab:4b5a601f:40f14d6b:33fe4fe0
Events : 52024
Number Major Minor RaidDevice State
0 8 51 0 active sync /dev/sdd3
3 8 35 1 active sync /dev/sdc3
4 0 0 4 removed
4 8 3 3 active sync /dev/sda3
2 8 19 - faulty
Alles anzeigen
Hallo Forum,
ich habe erst letzte Woche mit einem TS-453mini ein Raid 5 mit 4 Festplatten aufgebaut, soweit alles gut gelaufen.
Nun hatte ich gestern einen Komplettabsturz des Systems, worauf nach dem Neustart eine neue WD RED Platte Fehler meldete:
Drive3 medium error. Please run a bad block scan on this drive or replace it if the error persists.
Drive3 Read I/O error, UNRECOVERED READ ERROR sense_key=0x3, asc=0x11, ascq=0x4, CDB=28 00 dd bd f2 d8 00 00 08 00 .
Grundsätzlich läuft alles noch, Zugriff auf die Daten ist möglich, aber...
- die Raid-Gruppe zeigt den Status "Heruntergestuft"
- in der Volume-Verwaltung heißt es "Wird synchronisiert (100%)
- Status der scheinbar defekten Platte: "Anormal"
- S.M.A.R.T. Status: Warnung bei "Current Pending Sector"
Frage 1:
Läuft da jetzt noch eine Synchronisierung, oder zeigen mir die "100%" schon das Ende?
Frage 2:
Darf ich das NAS in diesem Zustand ausschalten oder bekomme ich beim Reboot Probleme, solange ich keine neue, fehlerfreie Platte einstöpsele?
Frage 3:
Was passiert, wenn ich die defekte Platte entferne, übernehmen dann die drei verbleibenden Platten den Raid 5 Betrieb oder muss zwingend eine neue Platte hinzugefügt werden?
Frage 4 (basierend auf 3):
Wurde der Raid 5 Verbund schon automatisch auf die drei verbleibenden Platten verteilt oder kann ich diesen Vorgang nun manuell starten?
Frage 5:
Warum werden mir bei der Volume Verwaltung alle Platten mit Status "Gut" angezeigt (siehe Screenshot)?
Danke für eure Unterstützung!
Hallo Forum,
weiß zufällig jmd., ob und wie es möglich ist, in der HD Station in Chrome oder Firefox Java Plugins auszuführen?
Ich würde gerne das Citrix Java Client Plugin verwenden, um auf eine Citrix Farm zugreifen zu können.
Leider bekomme ich in Chrome nur die Meldung "This plug-in is not supported", in Firefox ist "gar nix" möglich.
Hat jemand eine Idee?
Oder ist es vielleicht sogar möglich, das native Citrix Plugin zu installieren und über einen der beiden Browser zu verwenden?
Eine Version für Linux gibt es zumindest...
Grüße
Aha! Hab ich vor lauter Buchstaben glatt überlesen :oops:
Danke! :thumb:
Hi, vielen Dank für deine Antwort.
Ich bin wie folgt vorgegangen, lief alles fehlerfrei:
Leere RED in das neue TS-453MINI eingebaut und als Single Disk konfiguriert.
Anschließend zur Sicherheit per NAS to NAS Synchronisation die Daten vom alten NAS auf die neue einzelne RED Platte gezogen.
Danach die RED aus dem MINI ausgebaut und die alten GREEN Platten in gleicher "Slot-Reihenfolge" in das MINI gesteckt.
Wurde sofort alles bestens erkannt, selbst die alte Konfiguration inkl. IP-Adressen und Passwörter kam mit. Das Backup zuvor hätte ich mir also "eigentlich" sparen können
Daraufhin die RED Platte hinzugefügt und alle Daten in den neuen Raid 5 Verbund migriert.
Hat alles zusammen mit 1,6 TB an Daten ca. 20 Stunden gedauert.
Nebenbei:
Die WD Green Platten liefen bei mir bisher 4 Jahre im alten TS-239 Pro II+ fehlerfrei im Raid 1 Verbund.
Hallo Forum,
folgende Ausgangslage:
Ich habe in meinem TS-453MINI drei Platten zu einem Raid 5 Verbund gebündelt, die Migration aus einem Raid 1 Verbund lief dabei schmerzfrei.
Nun habe ich noch eine 4. Platte voller Daten, welche ich gerne auf die drei Raid 5 Platten verschieben würde.
Kann ich in den 4. Slot einfach die einzelne Platte einbauen und diese OHNE DATENVERLUST als Single Disk konfigurieren und daraufhin die Daten innerhalb des NAS von der einzelnen Platte in den Raid Verbund kopieren?
Danke für eure Unterstützung!
zu 2)
Habe soeben die positive Antwort bei QNAP gefunden:
http://docs.qnap.com/nas/4.2/S…html?system_migration.htm
Ich gehe mal davon aus, dass das TS-239 Pro II+ unter "TS-x39" und das TS-453 Mini unter "TS-x53" fallen
Hallo Forum,
die Ausgangslage:
Derzeit betreibe ich ein TS-239 Pro II+ mit 2x WD Green 2 TB Platten im Raid 1 Verbund (200 GB Freiplatz vorhanden).
Nun überlege ich, mir für's Wohnzimmer ein TS-453mini zu holen, u.a. weil ich mehr Platz brauche, ich mir ein wenig mehr Performance für Plex erhoffe oder wenigstens Kodi per HDMI nutzen kann.
Fragen:
1)
Gibt es besonders positive/negative Erfahrungen mit dem TS-453mini?
2)
Kann ich die beiden WD Green 2 TB Platten aus dem TS-239 Pro II+ ohne Datenverlust problemlos in das neue TS-453mini migrieren?
Bei QNAP selbst habe ich nur diese Anleitung gefunden, welche aber scheinbar keine neueren Modelle nach 2013 berücksichtigt?!
http://docs.qnap.com/nas/4.0/d…html?system_migration.htm
3)
Sollte die in Frage 2 angesprochene Migration klappen, könnte ich danach den Raid 1 Verbund mit den beiden WD Green 2 TB Platten um eine neue/leere WD Red 2 TB Platte erweitern und damit (ohne Datenverlust) einen Raid 5 Verbund erstellen?
4)
Die Frage ist wahrscheinlich unsinnig, ich stelle sie trotzdem:
Könnte ich in Frage 3 anstelle einer neuen/leeren WD Red 2 TB Platte auch eine bereits beschriebene WD Red 2 TB Platte verwenden und diese Daten mit den Daten der beiden WD Green 2 TB Platten in einem Raid 5 zusammenführen?
5)
Würdet ihr in der Preisregion bis knapp 500€ ein anderes NAS anstelle des TS-453mini empfehlen?
Danke für eure Unterstützung!
Tja, ich hab's mit diesem Workaround dann leider doch wieder nur 12 Tage geschafft, Backups zu schreiben, bevor das Image von Time Machine nun als korrupt angezeigt wird und zwecks Stabilität ein neues Backup erstellt werden soll.
Fairerweise muss ich erwähnen, dass ich zwischenzeitlich auf 10.9 gewechselt bin...hat aber zumindest die ersten Tage gut funktioniert.
Das Reparieren des Volumes anhand dieser Anleitung hat wiederum nicht gefruchtet: http://www.garth.org/archives/…-based-backup-errors.html
Es ist zum Heulen.
Zur Sicherheit wird also gleich wieder auf eine externe USB-Platte gesichert... :x
Sehr coole Idee, das mit dem sparsebundle auf dem QNAP werde ich mal testen, DANKE!