Es gibt aber auch nur eine kleine Anzahl an aktuellen 8-Bay NAS Geräten die QuTS hero unterstützen.
Beiträge von big-maec
-
-
Hatte gedacht, wenn Qnap bei einigen Geräten die Grafikkarte mit "Hardware Transcoding" explizit angibt, dann kann man auch nur die nutzen.
Vielleicht gibt es noch eine Qnap APP außer Plex, die das dann benötigt?
Auf der Plex Seite gibt es wiederum eine eigene Liste:https://www.qnap.com/en-us/com…ty/?device_category=gpgpu
Mal geschaut die Kompatiblitätsangabe ist währscheinlich für die Multimedia Console die App hat auch ein Hardware transcoding feature.
-
Hi,
ich weiß ja nicht wo Ihr das seht, aber keine der Grafikkarten ist für Transcoding zu gebrauchen.
Sonst wäre das expliziet in der GPGPU Kompatiblitätsliste mit "Hardware Transcoding" aufgeführt.
Bei dem TS-473A steht es so:
Kompatibilitätsliste - QNAPQNAP entwickelt und liefert hochqualitative Network Attached Storage Systeme (NAS) und professionelle Netzwerk Video Rekorder (NVR) für Anwendungen im…www.qnap.com -
Ja wenn das so gehandhabt wird, dann ist das so.
-
Was mich ja eigentlich aus dem Tritt gebracht hat ist die Angabe zu den 15,56 TB nich zugewiesen Speicherplatz.(erste Bild)
Da müste ja noch 5,46 TB abgezogen werden für den Datenschutz. Im Moment muss ich davon ausgehen das 1 Fesplatte für den Datenschutz genutzt wird. Ich hoffe ich finde noch eine Grafik im System wo mir das mal aufgeschlüsselt angezeigt wird.
-
Oh ha okay habe nicht überlegt in der Hektik. Das nach Abzug nur etwas über 15 TB übrig bleiben ist mir jetzt wo ich das sehe auch verständlich.
Der Verlust bei den 10 TB war mir auch klar, wollte später auf 4 x 10 TB aufrüsten. Im Moment bin ich eh noch auf der Suche nach einer vernünftigen Festplatten Konfiguration mit dem was ich habe. Aktuell habe ich 2x 16 TB und 1x 8 TB im DAS als Backup.
Die 2x 10 TB und 2x 6 TB im NAS.
Danke nochmal an alle.
-
Ich habe testweise mal einen Pool und einen Freigabeordner erstellt er nimmt nur 16 TB.
Bei 3 Festplatten zeigt er mir das an:
Bei 4 Festplatten zeigt er mir das an:
-
Im RAID Rechner werden 4x 6 TB als Basis genommen und aufgeteilt. Was im NAS als Basis genommen wird weiß ich nicht da ja fast 16 TB nicht zugewiesen werden.
-
Hallo,
mal eine Frage zum QNAP RAID Rechner und der realen Einrichtung.
Habe im RAID Rechner RAID 5: (Gleicht Kapazität und Schutz aus, wobei ein Laufwerk für die Datensicherung verwendet wird) ausgewählt und
folgende Zusammenstellung eingetragen 2x 10 TB und 2X 6 TB.
Als Ergebnis kam:
Nutzbarer Speicherplatz: 18 TB
Für den Datenschutz erforderliche Kapazität: 6 TB
Ungenutzter Speicherplatz: 8 TB
Hier nochmal der link zum Rechner: https://www.qnap.com/de-de/sel…ro&poolOp=none&ssdOp=none
Im NAS Gerät mit QuTS hero Version 5 habe ich beim RAID5 einrichten als Ergebnis 16TB nutzbarer Speicherplatz und 16TB nicht genutzter Speicher. Was mache ich hier falsch?
-
Nach längerem suchen habe ich mir vor kurzem ein TS-473A zugelegt aber auch nur, weil ich das NAS für 649€ bekommen habe. Bei gleichem Preis hätte ich eher ein Synology 1521+ gekauft. Die Grafikausgabe beim TS-473A habe ich mal mit einer Gigabyte 1030 ausprobiert, fand die Ausgabe aber bis jetzt nicht so gut alles ziemlich groß abgebildet und die Ausgabe des Bildes kommt ziemlich spät. Wie gesagt habe das NAS auch noch nicht lange.
Hier noch ein 7 Seiten Test vom TS-473A.
-
Ich habe kein Backup von diesen 3 Festplatten, deshalb versuche ich ja das ganze wiederherzustellen. Ein Teil habe ich ja gerettet auf diesem NAS.
-
So, bin wieder einen Schritt weiter. Das Problem das ich habe lässt sich jederzeit im NAS reproduzieren. Wenn man ein Volumen entfernt und das NAS neu startet, wird die Platte danach als Leer erkannt. Weil nach dem entfernen aus dem System auf der Festplatte was geändert oder sogar gelöscht wird. Hier sollte Qnap mal den Vorgang in dem QTS überprüfen und gegebenenfalls nachbessern.
Wenn die Platte als Leer erkannt wurde, sind immer von /dev/sdx3 einige Daten weg oder beschädigt unter anderem auch der Super Block, UUID usw. so das die Platte nicht mehr wiederhergestellt (eingebunden) werden kann. Die Partition ist auf der Festplatte aber noch zu finden.
Mein jetziger Plan ist /dev/sdx3 zu reparieren, da der Super-Block wohl ein Backup hat in verschiedenen Blöcken hat versuche ich den wieder aus den Backup Blöcken wiederherzustellen. Habe mir dafür eine Platte zum üben angefertigt, da es ja ein leichtes ist den Fehler zu reproduzieren.
Falls das jemand schonmal gemacht hat, darf er sich ruhig melden.
Code
Alles anzeigen[~] # blkid /dev/sda1: UUID="4044a942-f082-908a-a681-7d9c06c8f11a" UUID_SUB="10297b67-206b-72bd-2194-e2584c89e1b4" LABEL="9" TYPE="linux_raid_member" /dev/sda2: UUID="c6291fde-3c52-f87c-4306-260d164b3741" UUID_SUB="d0f7b773-b9f6-1380-a21b-0f53c26e9f87" LABEL="256" TYPE="linux_raid_member" HIER fehlt: /dev/sda3 <----------- /dev/sda4: UUID="4b9b98fc-4482-bd38-ee5a-92af67708c59" UUID_SUB="9d4c926e-8a9f-f54b-2924-06f6764c0b2d" LABEL="13" TYPE="linux_raid_member" /dev/sda5: UUID="6608826a-bf26-bb2a-95fd-b02de140c03b" UUID_SUB="93f61df9-d61b-1ca8-7740-a68ef73a8903" LABEL="322" TYPE="linux_raid_member" [~] # tune2fs -U random /dev/sda3 tune2fs 1.45.5 (07-Jan-2020) tune2fs: Bad magic number in super-block while trying to open /dev/sda3 [~] # mke2fs -n /dev/sda3 mke2fs 1.45.5 (07-Jan-2020) Creating filesystem with 58560936 4k blocks and 3661824 inodes Filesystem UUID: 2517f33f-10e9-48c7-b8d2-937ebc4ce93a Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872
Im Moment suche ich auch noch fsck? Gefunden heißt e2fsck
Code[~] # e2fsck -p -C 0 /dev/sda3 e2fsck: Bad magic number in super-block while trying to open /dev/sda3 /dev/sda3: The superblock could not be read or does not describe a valid ext2/ext3/ext4 filesystem. If the device is valid and it really contains an ext2/ext3/ext4 filesystem (and not swap or ufs or something else), then the superblock is corrupt, and you might try running e2fsck with an alternate superblock: e2fsck -b 8193 <device> or e2fsck -b 32768 <device>
-
Hallo,
OK Danke schonmal.
-
Hi,
nein kann ich nicht machen da ich mich mit LVM weiter beschäftigen möche. Bin mir aber noch nicht ganz sicher wie ich das von Hand, Schritt für Schritt hinbekomme.
Was ich bis jetzt gemacht habe:
Putty und Winscp installiert und mir das System mal genauer angeschaut bzw. Backups von Config, Backup und Archiv Dateien gemacht. Mich mit einigen Befehlen auseinandergesetzt: blkid, vgs -o+devices, lvs -o+devices, pvcreate, vgcfgrestore usw. die lvm_config gelesen.
Gefunden habe ich im Verzeichnis "/etc/config/lvm/archive/
" 4 Dateien Qnap System \mnt\HDA_ROOT\.config\lvm\archive\vg289_00061-1324643956.vg" inkl. der Metadaten von den 2 Festplatten die nicht mehr eingebunden werden.
Als Beispiel habe ich mal den Code von einer beliebigen Festplatte angehangen:
Code
Alles anzeigendescription = "Created *before* executing '/sbin/vgchange vg289 --addtag snap_reserved:0'" creation_host = "NASF6C8E9" # Linux NASF6C8E9 4.2.8 #2 SMP Thu Mar 24 10:11:51 CST 2022 armv7l creation_time = 1651590055 # Tue May 3 17:00:55 2022 vg289 { id = "vCR2VM-gMdZ-FjyW-1u63-JUYh-6VSt-Q8jUbt" seqno = 6 format = "lvm2" # informational status = ["RESIZEABLE", "READ", "WRITE"] flags = [] tags = ["cacheVersion:1", "PoolType:Static", "StaticPoolRev:2"] extent_size = 8192 # 4 Megabytes max_lv = 0 max_pv = 0 metadata_copies = 0 physical_volumes { pv0 { id = "QyvPmg-FAkj-2Z0A-JEIF-yyQG-lh3e-uPb0d1" device = "/dev/md2" # Hint only status = ["ALLOCATABLE"] flags = [] tags = ["over_provisioning:0"] dev_size = 468487168 # 223.392 Gigabytes pe_start = 4096 pe_count = 57187 # 223.387 Gigabytes } } logical_volumes { lv545 { id = "fgxzo0-nW0M-fqGB-ErZU-VmCA-pvOt-ewu7t5" status = ["READ", "WRITE", "VISIBLE"] flags = [] creation_host = "NASF6C8E9" creation_time = 1651590054 # 2022-05-03 17:00:54 +0200 read_ahead = 8192 segment_count = 1 segment1 { start_extent = 0 extent_count = 571 # 2.23047 Gigabytes type = "striped" stripe_count = 1 # linear stripes = [ "pv0", 0 ] } } } }
Mir ist noch nicht ganz klar welche Reihenfolge ich einhalten muss um die LVM Daten bezüglich PV, VG und LV wieder herzustellen.
Bisherige Versuche schlugen fehl weil mir noch nicht klar ist welche Reihenfolge ich einhalten muss. Wäre schön wenn mir jemand bei den ersten Schritten helfen könnte ?
Code
Alles anzeigen[~] # vgs -o+devices VG #PV #LV #SN Attr VSize VFree Devices vg288 1 2 0 wz--n- 14.54t 0 /dev/md1(0) vg288 1 2 0 wz--n- 14.54t 0 /dev/md1(3812448) vg288 1 2 0 wz--n- 14.54t 0 /dev/md1(36864) [~] # lvs -o+devices LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert Devices lv1 vg288 -wi-ao---- 14.40t /dev/md1(36864) lv544 vg288 -wi------- 144.12g /dev/md1(0) lv544 vg288 -wi------- 144.12g /dev/md1(3812448) [~] # vgcfgrestore -f /etc/config/lvm/archive/vg291_00001-1877857357.vg vg291 Couldn't find device with uuid it8KCR-EJ0h-CoH9-kuVd-v3in-0ePF-3suipc. PV unknown device missing from cache Format-specific setup for unknown device failed Restore failed. [~] # pvcreate --uuid "nu0ouw-rzB1-stuD-3aAi-zKoA-v4nI-2EXFWe" --restorefile /etc/config/lvm/archive/vg290_00000-1674724861.vg /dev/md2 Couldn't find device with uuid nu0ouw-rzB1-stuD-3aAi-zKoA-v4nI-2EXFWe. Device /dev/md2 not found (or ignored by filtering). [~] #
-
Hallo,
funktioniert auch leider nicht mit init_lvm.sh. Es werden immer noch die 3 Festplatten als leer angezeigt.
Wenn ich verschiedenen Befehle benutze, erscheinen auch nur Daten von den beiden Festplatten die im RAID1 sind. Der Rest ist nicht so wirklich da.
Code
Alles anzeigenlogin as: admin admin@192.168.0.10's password: +-------------------------------------------------------------------------+ | Console Management - Main menu | | | | 1: Show network settings | | 2: System event logs | | 3: Reset to factory default (password required) | | 4: Activate/ deactivate a license | | 5: App management | | 6: Reboot in Rescue mode (w/o configured disk) | | 7: Reboot in Maintenance Mode | | Q: Quit (return to normal shell environment) | | | | | | | | | | | | | | | | | | | | | | | +-------------------------------------------------------------------------+ >> q (processing) +-------------------------------------------------------------------------+ | Main > Quit | | | | Are you sure you want to exit the console menu and return to normal | | shell environment? (Y/N) | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | +-------------------------------------------------------------------------+ >> y (processing) [~] # /etc/init.d/init_lvm.sh Changing old config name... mv: unable to rename `/etc/config/qdrbd.conf': No such file or directory Reinitialing... Detect disk(8, 0)... dev_count ++ = 0Detect disk(8, 16)... dev_count ++ = 1Detect disk(8, 32)... dev_count ++ = 2Detect disk(8, 48)... dev_count ++ = 3Detect disk(8, 64)... dev_count ++ = 4Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). Detect disk(8, 0)... Detect disk(8, 16)... Detect disk(8, 32)... Detect disk(8, 48)... Detect disk(8, 64)... Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). sh: /sbin/lspci: No such file or directory sh: /sbin/lspci: No such file or directory sh: /sys/block/sdd/device/qnap_param_latency: Permission denied sh: /sys/block/sdc/device/qnap_param_latency: Permission denied sh: /sys/block/sdb/device/qnap_param_latency: Permission denied sh: /sys/block/sda/device/qnap_param_latency: Permission denied sh: /sys/block/sde/device/qnap_param_latency: Permission denied sys_startup_p2:got called count = -1 Done [~] # lvmdiskscan /dev/md256 [ 517.69 MiB] /dev/md1 [ 14.54 TiB] LVM physical volume /dev/md9 [ 517.62 MiB] /dev/md13 [ 448.12 MiB] /dev/md322 [ 6.90 GiB] 0 disks 4 partitions 0 LVM physical volume whole disks 1 LVM physical volume [~] # vgdisplay --- Volume group --- VG Name vg288 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 77 VG Access read/write VG Status resizable MAX LV 0 Cur LV 2 Open LV 1 Max PV 0 Cur PV 1 Act PV 1 VG Size 14.54 TiB PE Size 4.00 MiB Total PE 3812479 Alloc PE / Size 3812479 / 14.54 TiB Free PE / Size 0 / 0 VG UUID vBJPzq-okIh-vCeE-8V6Y-0pIK-k1Ai-iD58u0 [~] # pvscan PV /dev/md1 VG vg288 lvm2 [14.54 TiB / 0 free] Total: 1 [14.54 TiB] / in use: 1 [14.54 TiB] / in no VG: 0 [0 ]
Ich habe nochmal ein bisschen herumexperimentiert mit einer leeren Festplatte und die neu im System eingerichtet. Danach einfach mal on the fly auf einer anderen Platte gewechselt.
Wie es kommen musste, war danach ein Fehler da, habe dann mal das Script init_lvm.sh ausgeführt. Das Script hat mir dann aber von dem Einzellaufwerk alle Einträge und Verzeichnisse aus dem System gelöscht.
Code
Alles anzeigen[~] # qcli_storage -d Enclosure Port Sys_Name Type Size Alias Signature Partitions Model NAS_HOST 1 /dev/sdb HDD:data 14.55 TB -- QNAP FLEX 5 WDC WD161KFGX-68AFPN0 NAS_HOST 2 /dev/sda HDD:data 14.55 TB -- QNAP FLEX 5 WDC WD161KFGX-68AFPN0 NAS_HOST 3 /dev/sdc HDD:data 232.89 GB -- QNAP FLEX 5 WDC WD2500AAKX-603CA0 [~] # ls index_default.html [~] # ls /share/ Backup@ CACHEDEV1_DATA/ CE_CACHEDEV2_DATA/ NetDisk1@ NetDisk2@ Public@ external/ homes@ [~] # ls /share/ Backup@ CACHEDEV1_DATA/ CE_CACHEDEV2_DATA/ NetDisk1@ NetDisk2@ Public@ external/ homes@ [~] # qcli_storage -d Enclosure Port Sys_Name Type Size Alias Signature Partitions Model NAS_HOST 1 /dev/sdb HDD:data 14.55 TB -- QNAP FLEX 5 WDC WD161KFGX-68AFPN0 NAS_HOST 2 /dev/sda HDD:data 14.55 TB -- QNAP FLEX 5 WDC WD161KFGX-68AFPN0 NAS_HOST 3 /dev/sdc HDD:free 5.46 TB -- QNAP FLEX 5 WDC WD60EFRX-68MYMN1 [~] # /etc/init.d/init_lvm.sh Changing old config name... mv: unable to rename `/etc/config/qdrbd.conf': No such file or directory Reinitialing... Detect disk(8, 0)... dev_count ++ = 0Detect disk(8, 16)... dev_count ++ = 1Detect disk(8, 32)... dev_count ++ = 2Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). Detect disk(8, 0)... Detect disk(8, 16)... Detect disk(8, 32)... Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). sh: /sbin/lspci: No such file or directory sh: /sbin/lspci: No such file or directory sh: /sys/block/sdc/device/qnap_param_latency: Permission denied sh: /sys/block/sdb/device/qnap_param_latency: Permission denied sh: /sys/block/sda/device/qnap_param_latency: Permission denied sys_startup_p2:got called count = -1 Done [~] # ls /share/ Backup@ CACHEDEV1_DATA/ NetDisk1@ NetDisk2@ Public@ external/
-
Hallo,
das werde ich am Wochenende mal ausprobieren, vorher werde ich noch einige Daten von Drive 1 sicher. Mal schauen wie es läuft.
Hallo,
hat leider nicht funktioniert siehe Logfile.
Code
Alles anzeigenCould not chdir to home directory /share/homes/Thomas: No such file or directory [Thomas@NASF6C8E9 /]$ /etc/init.d/init_lvm.sh Changing old config name... mv: unable to rename `/etc/config/ssdcache.conf': Permission denied mv: unable to rename `/etc/config/qlvm.conf': Permission denied mv: unable to rename `/etc/config/qdrbd.conf': No such file or directory mv: unable to rename `/etc/config/raid.conf': Permission denied Reinitialing... Fail to lock log file! : Permission denied Detect disk(8, 0)... dev_count ++ = 0Detect disk(8, 16)... dev_count ++ = 1Detect disk(8, 32)... dev_count ++ = 2Detect disk(8, 48)... dev_count ++ = 3Detect disk(8, 64)... dev_count ++ = 4Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). Fail to lock log file! : Permission denied Detect disk(8, 0)... sg_inq: error opening file: /dev/sg0: Permission denied sginfo(open): Permission denied file=/dev/sg0, or no corresponding sg device found Is sg driver loaded? Detect disk(8, 16)... sg_inq: error opening file: /dev/sg1: Permission denied sginfo(open): Permission denied file=/dev/sg1, or no corresponding sg device found Is sg driver loaded? Detect disk(8, 32)... sg_inq: error opening file: /dev/sg2: Permission denied sginfo(open): Permission denied file=/dev/sg2, or no corresponding sg device found Is sg driver loaded? Detect disk(8, 48)... sg_inq: error opening file: /dev/sg3: Permission denied sginfo(open): Permission denied file=/dev/sg3, or no corresponding sg device found Is sg driver loaded? Detect disk(8, 64)... sg_inq: error opening file: /dev/sg4: Permission denied sginfo(open): Permission denied file=/dev/sg4, or no corresponding sg device found Is sg driver loaded? Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). Fail to lock log file! : Permission denied count = -1 sys_startup_p2:got called count = 5 Fail to lock log file! : Permission denied Perform NAS model checking... NAS model match, skip model migration. Fail to lock log file! : Permission denied Fail to lock log file! : Permission denied Fail to lock log file! : Permission denied Fail to lock log file! : Permission denied Fail to lock log file! : Permission denied Fail to lock log file! : Permission denied touch: /tmp/.boot_done: Permission denied touch: /tmp/.boot_done: Permission denied sh: /sys/block/md1/queue/read_ahead_kb: Permission denied touch: /tmp/.boot_done: Permission denied touch: /tmp/.boot_done: Permission denied Done [Thomas@NASF6C8E9 /]$ sudo /etc/init.d/init_lvm.sh We trust you have received the usual lecture from the local System Administrator. It usually boils down to these three things: #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility. Password: Changing old config name... mv: unable to rename `/etc/config/qdrbd.conf': No such file or directory Reinitialing... Detect disk(8, 0)... dev_count ++ = 0Detect disk(8, 16)... dev_count ++ = 1Detect disk(8, 32)... dev_count ++ = 2Detect disk(8, 48)... dev_count ++ = 3Detect disk(8, 64)... dev_count ++ = 4Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). Detect disk(8, 0)... Detect disk(8, 16)... Detect disk(8, 32)... Detect disk(8, 48)... Detect disk(8, 64)... Detect disk(252, 0)... ignore non-root enclosure disk(252, 0). sh: /sbin/lspci: No such file or directory sh: /sbin/lspci: No such file or directory sh: /sys/block/sdd/device/qnap_param_latency: Permission denied sh: /sys/block/sdc/device/qnap_param_latency: Permission denied sh: /sys/block/sdb/device/qnap_param_latency: Permission denied sh: /sys/block/sda/device/qnap_param_latency: Permission denied sh: /sys/block/sde/device/qnap_param_latency: Permission denied sys_startup_p2:got called count = -1 Done [Thomas@NASF6C8E9 /]$
-
Hi,
habe es gerade mal an einer Festplatte ausprobiert. Leider bekomme ich einen Fehler.
Code
Alles anzeigen[Thomas@NASF6C8E9 /]$ cat /proc/partitions major minor #blocks name 1 0 204800 ram0 1 1 204800 ram1 1 2 204800 ram2 1 3 204800 ram3 8 16 15625879552 sdb 8 17 530125 sdb1 8 18 530142 sdb2 8 19 15615918988 sdb3 8 20 530141 sdb4 8 21 8361829 sdb5 8 0 15625879552 sda 8 1 530125 sda1 8 2 530142 sda2 8 3 15615918988 sda3 8 4 530141 sda4 8 5 8361829 sda5 31 0 1088 mtdblock0 31 1 384 mtdblock1 31 2 32768 mtdblock2 31 3 221184 mtdblock3 31 4 32768 mtdblock4 31 5 221184 mtdblock5 31 6 15360 mtdblock6 8 32 9766436864 sdc 8 33 530125 sdc1 8 34 530142 sdc2 8 35 9756483343 sdc3 8 36 530144 sdc4 8 37 8353796 sdc5 9 9 530048 md9 9 13 458880 md13 9 256 530112 md256 9 322 7235136 md322 9 1 15615918848 md1 252 1 15464792064 dm-1 252 0 15464792064 dm-0 [Thomas@NASF6C8E9 /]$ ls /share/ Backup@ NetDisk1@ external/ CACHEDEV1_DATA/ Public@ [Thomas@NASF6C8E9 /]$ mkdir /share/MD3_DATA [Thomas@NASF6C8E9 /]$ mount -t ext4 /dev/sdc3 /share/MD3_DATA mount: wrong fs type, bad option, bad superblock on /dev/sdc3, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so [Thomas@NASF6C8E9 /]$
Wenn ich die mal über einen Adapter an den USB Port stecke bekomme ich folgende Information.
-
Dann werde ich mal abwarten. Habe mir das gestern noch mal angeschaut aber im Augenblick noch großes ?
Die Festplatten waren einzel im statischen Volumen eingebunden und dementsprechen war für jede Festplatte ein eigener Raid Eintrag vorhanden. Mal schauen wie ich da weiterkomme.
Im Moment suche ich mir Beiträge raus die mit "init_lvm.sh" zusammenhängen.
-
Die "Wiederherstellung" hatte ich auch schon versucht, er meldet jetzt das kein Volume vorhanden ist und weiter passiert auch nichts.
Deswegen habe ich mich per SSH mit Putty eingeloggt um mir erstmal eine Übersicht zu verschaffen. Da mir aber die richtigen Linux Kenntnisse fehlen habe erstmal nur geschaut und noch nichts weiter unternommen.
-
Hallo,
Danke schonmal für die Antwort. Gemacht wurde folgendes. Platten aus einem 2ten aber defekten baugleichen Ts-531 ausgebaut. Eingerichtet wurden die Platten noch mit einer QTS 4er oder sogar vielleicht 3er Version, weiß ich aber nicht mehr und habe dann noch Updates bis zur ersten 5er Version eingespielt.
Die Daten von dem funktionierenden TS-531 sind auf einem TS-653D kopiert worden, danach habe ich das TS-531 mit den Festplatten in Slot 1 und 2 die im Raid1 sind neu aufgesetzt. Verwendet habe die Aktuelle Version 5.0.0.1986.
Habe danach im laufenden Betrieb die Platten aus dem defekten NAS eingesetzt, mit der Funktion "wiederherstellen" wurden die Platten mit dem Volumen eingebunden.
Die richtige Kapazität wurde angezeigt, allerdings wurde kein Freigabeordner angezeigt, den Freigabeordner habe ich ersteinmal nur bei der 10TB in Slot 4 manuell hinzugefügt. Der Verzeichnissinhalt wurde mir auch richtig angezeigt.
Habe dann sofort die 10 TB von Slot 4 auf die in Slot 1 und 2 (RAID1) kopiert. Nach dem kopieren wollte ich das NAS in einem anderen Raum stellen, habe das dann heruntergefahren, umgestellt und wieder hochgefahren. Nach dem das NAS hochlaufen ist, wurden mir die Platten als leer angezeigt. Die 10TB in Slot 4 hatte ich zwischendurch wieder raus da die Platte eh kopiert bzw. leer war. Das Festplattenraid in Slot 1 und 2 läuft ganz normal. Jetzt hoffe ich mal das ich die Daten von der 8 TB Slot 3 und der 10 TB Slot 5 wieder hinbekomme.