Ich habe gesehen, der installierte Realtek Treiber ist Version 2.14.0 (von 2020) und es gibt inzwischen 2.17.1 (von 2023). Leider habe ich aber vom Treiber kompilieren keine Ahnung
Beiträge von Guido83
-
-
Den installiert das NAS selbst. Neu gestartet habe ich bereits mehrfach. Wenn man den Netzwerkadapter am USB Port einsteckt, muss man das NAS, wie oben beschrieben, sowieso neu starten, damit der Adapter angezeigt wird.
-
Aber es gibt ja einen Treiber?!
-
Wie kann denn ein USB Port sowas nicht unterstützen? Wie soll sowas technisch möglich sein?
-
Ich habe mir für mein älteres NAS (TS-853A) einen USB Ethernet Adapter mit Realtek RS8156 Chip geholt, um ein schnelleren Netzwerkanschluss am NAS zu haben. NAch dem Einstecken wird er zunächst nicht vom QTS (v 5.1) erkannt. Nach einen Reboot wird er jedoch als 2.5G Netzwerkadapter im QTS erkannt (laut dmesg wird der r8152 Treiber verwendet, was auch korrekt ist). Es funktioniert so weit, jedoch sobald ich einen Filetransfer starten möchten, bricht die Verbindung extrem ein, Die Dateiübertragung geht auf 200 kbit/s und die gesamte Verbindung ist nicht mehr nutzbar. Woran könnte das liegen?
-
und funktioniert das auch bei dir?
Ich habe auch schon öfter mal versucht den container (containrrr/watchtower) zum Laufen zu bringen, aber bei mir updatet er leider gar nichts
-
Ja in dem Fall kannst du mit dem Eintrag in der autorun die swap partitionen einfach deaktivieren. Ich habe dazu jedoch ein weiteres Skript erstellt und das wird dann genauso wie das andere in der autorun.sh aufgerufen
-
Nein, wie ich einen Beitrag vorher schon geschriben habe, gehört die erste Zeile [~]# cat disconnect_internal_raid.sh NICHT in das Script. Dein Script muss so aussehen:
Bash
Alles anzeigen#!/bin/bash echo "Disconnecting md9" mdadm /dev/md9 --fail /dev/sdh1 mdadm /dev/md9 --fail /dev/sdg1 mdadm /dev/md9 --fail /dev/sdf1 mdadm /dev/md9 --fail /dev/sde1 mdadm /dev/md9 --fail /dev/sdd1 mdadm /dev/md9 --fail /dev/sdc1 mdadm /dev/md9 --fail /dev/nvme0n1p1 echo "Disconnecting md13" mdadm /dev/md13 --fail /dev/sdh4 mdadm /dev/md13 --fail /dev/sdg4 mdadm /dev/md13 --fail /dev/sdf4 mdadm /dev/md13 --fail /dev/sde4 mdadm /dev/md13 --fail /dev/sdd4 mdadm /dev/md13 --fail /dev/sdc4 mdadm /dev/md13 --fail /dev/nvme0n1p4
und das speicherst du in einer Datei die meinetwegen disconnect_internal_raid.sh heisst. Diese Datei kopierst du dann zum Beispiel in den admin homes Ordner /share/CACHEDEV1_DATA/homes/admin/ und machst diese ausführbar chmod +x disconnect_internal_raid.sh
Wenn es beim booten auch ausgeführt werden soll, muss folgendes in die autostart.sh angehängt werden:
Dazu Flash mounten:
autorun.sh bearbeiten, entweder mit WinSCP oder in der SSH console mit:
Datei speichern und ausführbar machen:
dann den Flash wieder unmounten:
Anschliessend würde ich unbedingt noch den cronjob erstellen, damit das RAID täglich synchronisiert wird.
-
Emby Server, Jellyfin Server (Docker)
Kodi in HD Station mit Emby Plugin
-
Wo hakt es denn bei den Skripten?
In dem verlinkten thread wird es ja eigentlich sehr ausführlich beschrieben. Für diejenigen die sich nicht so gut auskennen ist es etwas verwirrend, dass dort bei den skripten der befehl zum anzeigen des Skriptinhaltes mit im Code steht. Beispiel:
mit dem Befehl cat rebuild_internal_raid.sh
wir der Inhalt der Datei rebuild_internal_raid.sh in der Console ausgegeben. Um bei diesem Beipiel zu bleiben. In der Anleitung steht, das Skript zum Entfernen der Laufwerke sei:
Code
Alles anzeigen[~]# cat disconnect_internal_raid.sh #!/bin/bash echo "Disconnecting md9" mdadm /dev/md9 --fail /dev/sdd1 mdadm /dev/md9 --fail /dev/sdc1 mdadm /dev/md9 --fail /dev/sdb1 echo "Disconnecting md13" mdadm /dev/md13 --fail /dev/sdd4 mdadm /dev/md13 --fail /dev/sdc4 mdadm /dev/md13 --fail /dev/sdb4
Aber eigentlich sollte das Skript nur folgendes beinhalten:
-
Das finde ich eine der besten Methoden und ich hatte schon längst überlegt genau so etwas zu machen.
Mit den Änderungen ist mein NAS nun auch endlich mal ruhig.
-
mein System ist auch non-stop aktiv durch die beiden prozesse:
jbd2/dm-12-8
kworker/u8
das gibt mir nur leider überhaupt keinen Aufschluss darüber was die Ursache ist.
-
Ich habe die Lösung für unser kleines Problem gefunden. Und zwar funktioniert es, wenn ich im LE Container und im NGINX container das html verzeichnis als named volume mounte anstatt als persitent volume. Im docker-compose file sieht das so aus:
Dann funktinoert die Zertifikatgenerierung ohne Probleme.
-
Der LE Client legt die Files bei mir an, das ist nicht das Problem. Erst wenn die ACMe challenge läuft und die generierten files abgeholt werden sollen, kommt es zum Fehler. Das NGINX Log file gibt dann auch für jeden host den fehler aus:
Code2018/12/04 19:00:30 [error] 33#33: *34 open() "/usr/share/nginx/html/.well-known/acme-challenge/cMYMeDDKQemuGEcHn-ofn8b9ouB7in7zX2cFi9YgGxc" failed (13: Permission denied), client: 172.68.174.102, server: wiki.***.***, request: "GET /.well-known/acme-challenge/cMYMeDDKQemuGEcHn-ofn8b9ouB7in7zX2cFi9YgGxc HTTP/1.1", host: "wiki.***.***"
-
Ich habe exakt das gleiche Problem wie Black_Fry
Sobald der LE-Companion-Container "./force-renew" aufruft, meldet der Log des proxy-Containers:
CodeGibt es ein Lösung zu dem Problem?
-
Vielen Dank für die Aleitung. Hat perfekt funktinioniert. So kann ich nun wunderbar PHP 7 nutzen
-
super! das hat die raid.conf repariert, genau so wie ich es wollte.
Vielen vielen Dank!
-
Ich habe, nachdem das Rebuild trotz ausgeworfener vierte Platte weiter lief, zunächst das rebuild durchlaufen lassen. Problem war dann dass das RAID5 aus 4 Festplatten bestand, von der aber eine nicht funktionierte. Diese vierte Platte habe ich dann aus dem RAID entfernt:
Anschliessend wurde das RAID mit 3 Platten wieder neu aufgebaut und funktioniert auch.
Die Ausgbae von md_checker:
Code
Alles anzeigenWelcome to MD superblock checker (v1.4) - have a nice day~ Scanning system... HAL firmware detected! Scanning Enclosure 0... RAID metadata found! UUID: b6454749:78953b46:9c17db06:b0779fe4 Level: raid1 Devices: 1 Name: md1 Chunk Size: - md Version: 1.0 Creation Time: Dec 22 17:47:04 2016 Status: ONLINE (md1) [U] =============================================================================== Disk | Device | # | Status | Last Update Time | Events | Array State =============================================================================== 1 /dev/sda3 0 Active Sep 14 17:21:06 2018 226 A =============================================================================== RAID metadata found! UUID: 99586d6c:24c50cdb:f0acfb45:18720796 Level: raid1 Devices: 1 Name: md2 Chunk Size: - md Version: 1.0 Creation Time: Sep 11 15:39:18 2018 Status: ONLINE (md2) [U] =============================================================================== Disk | Device | # | Status | Last Update Time | Events | Array State =============================================================================== 2 /dev/sdb3 0 Active Sep 14 17:21:06 2018 2 A =============================================================================== RAID metadata found! UUID: a628a2db:f957e9a3:5a0d6c2b:3d17a7d2 Level: raid1 Devices: 1 Name: md3 Chunk Size: - md Version: 1.0 Creation Time: Sep 13 11:54:04 2018 Status: ONLINE (md3) [U] =============================================================================== Disk | Device | # | Status | Last Update Time | Events | Array State =============================================================================== 5 /dev/sdc3 0 Active Sep 14 15:40:54 2018 8 A =============================================================================== RAID metadata found! UUID: 07476cc5:aa1cccea:50f0d1bc:da35e787 Level: raid5 Devices: 3 Name: md4 Chunk Size: 512K md Version: 1.0 Creation Time: Jan 1 00:56:06 2017 Status: ONLINE (md4) [UUU] =============================================================================== Disk | Device | # | Status | Last Update Time | Events | Array State =============================================================================== 6 /dev/sdd3 0 Active Sep 14 17:18:20 2018 40065 AAA 7 /dev/sde3 1 Active Sep 14 17:18:20 2018 40065 AAA 8 /dev/sdf3 2 Active Sep 14 17:18:20 2018 40065 AAA ===============================================================================
also alles in Ordnung. man sieht, md4 besteht aus 3 Platten. Zugriff auf die Daten habe ich auch. Es wird aber bei jedem Start des NAS neu synchronisiert, weil das QTS noch immer 4 Platten erwartetn. in der raid.conf steht auch folgendes drin:
Code
Alles anzeigen[RAID_4] uuid = 07476cc5:aa1cccea:50f0d1bc:da35e787 id = 4 partNo = 3 aggreMember = no readonly = no legacy = no version2 = yes deviceName = /dev/md4 raidLevel = 5 internal = 1 mdBitmap = 0 chunkSize = 512 readAhead = 2048 stripeCacheSize = 0 speedLimitMax = 0 speedLimitMin = 50000 data_0 = 6, 5000C500931E9346 data_1 = 7, 5000C50092DCD4B7 data_2 = 8, 5000C500931AF126 data_3 = 4, (REMOVED)
-
nachdem nun die dritte Festplatte endlich funktioniert stehe ich noch vor einem problem.
Da das rebuild ja für 4 Platten gemacht wurde, obwhl eine davon ja sofrt nach beginn des rebuild ausgefallen war, lief der rebuild durch. resultat war natürlich dass das raid degradiert wurde, weil eine der 4 platten ja fehlte. ich habe dann per madm die fehlende platte entfernt, die grösse des raid wieder korrigiert und neu erstellen lassen. hat auch wunderbar funktioniert. das raid 5 funktioniert wieder. allerdings wird im qts noch immer die 4te platte mit angezeigt, jedoch mit dem zusatz "existiert nicht".
cat proc/mdstat zeigt jedoch nur 3 Platten an und auch dass das raid aus 3 laufwerken besteht.
Problem ist, jedes mal wenn ich das nas neu boote, wird im qts das raid synchronisiert (dauert dann etwa 16h)
kann ich dieses problem irgendwie lösen?
-
Jetzt habe ich die neue Platte ausprobiert, in einem anderen Schacht.
Genau das gleiche Problem. Festplatte zuerst erkannt, konnte aber kein Volume erstellen. Nun rattert sie auch pasuenlos, scheint also nun wieder kaputt gegangen zu sein
Die Platte wird auch jetzt nicht mehr erkannt. Ich glaube irgendwie nicht dass beide Platten von Anfang an defekt waren
EDIT:
nachdem sie nun die ganze Nacht durchgerattert hat, hat sie sich dann irgendwann beruihgt und wurde nach einem Neustart dann wieder erkannt. Mals sehen wie es nun weitergeht
Ich muss mich jetzt nochmal melden. Die Festplatte scheint nun wieder zu funktionieren und ich habe mal die system settings resettet. Dann konnte ich die neue Festplatte zum bestehenden RAID hinzfügen. Di Migration hat anschliessend gestartet, doch nach einer Weile gabe es einen Fehler "Hard Disk Ejected". Angeblich wurde die neue Platte während der Migration entfernt (was natürlich nicht gemacht wurde).
Nun ist die Platte wieder mal verschwunden, jedoch läuft die Migration munter weiter?!?
Was hat das wieder zu bedeuten?
Code
Alles anzeigen5020, 0,2018-09-05,22:21:19,System,127.0.0.1,localhost,[Pool 1] Started expanding storage pool., 0,1536178879,NULL,NULL,NULL,NULL, 5021, 0,2018-09-05,22:21:19,System,127.0.0.1,localhost,Started to expand RAID Device., 0,1536178879,NULL,NULL,NULL,NULL, 5022, 0,2018-09-05,22:22:21,System,127.0.0.1,localhost,Started to expand RAID Device: Add Host: Disk 4., 0,1536178941,NULL,NULL,NULL,NULL, 5023, 0,2018-09-05,22:27:04,System,127.0.0.1,localhost,Expanding RAID Device completed. Host: Disk 4 is added., 0,1536179224,NULL,NULL,NULL,NULL, 5025, 0,2018-09-05,22:38:27,admin,192.168.0.10,localhost,[App Center] Python3 enabled., 0,1536179907,NULL,NULL,NULL,NULL, 5026, 0,2018-09-05,22:49:05,System,127.0.0.1,localhost,Host: Disk 4 Disabled NCQ since timeout error., 0,1536180545,NULL,NULL,NULL,NULL, 5027, 2,2018-09-05,22:50:55,System,127.0.0.1,localhost,A drive has been detected but is inaccessible. Please check it for faults., 0,1536180655,NULL,NULL,NULL,NULL, 5028, 2,2018-09-05,22:52:28,System,127.0.0.1,localhost,Hot-remove Host: Disk 4 failed., 0,1536180748,NULL,NULL,NULL,NULL, 5029, 2,2018-09-05,22:52:32,System,127.0.0.1,localhost,Host: Disk 4 unplugged., 0,1536180752,NULL,NULL,NULL,NULL, 5030, 1,2018-09-05,22:52:40,System,127.0.0.1,localhost,[Pool 1] Migration skipped with RAID Group 4., 0,1536180760,NULL,NULL,NULL,NULL, 5031, 2,2018-09-05,22:52:46,System,127.0.0.1,localhost,Expanding RAID Device failed., 0,1536180766,NULL,NULL,NULL,NULL, 5032, 0,2018-09-05,22:53:13,System,127.0.0.1,localhost,[Pool 1] Started migrating with RAID Group 4., 0,1536180793,NULL,NULL,NULL,NULL,