Beiträge von maci23

    Bei meiner TS563 kommt ca. 2min nach dem Einschalten der NAS immer eine Temperaturwarnung.

    Die NAS-Temperatur hat dem Schwellwert von 60 Grad überschritten...

    Nach einigen Minuten steht dann im Log, dass wieder die Normaltemperatur erreicht wurde.


    Dann läuft sie normal.


    Ein paar mal ist es schon vorgekommen, dass sich die NAS abgeschaltet hat, obwohl das Gehäuse alles andere als heiß war.

    Der Lüfter lief zwar schneller und daher lauter.


    Aber es kann doch nicht sein, dass die NAS so schnell heiß wird.

    Im Raum hat es etwa 22 Grad und im Schrank wo sie steht ca. 32 Grad, aber nur wenn die NAS schon länger lief.


    Hat der Prozessor einen eigenen Lüfter oder wird alles mit dem großen Lüfter gekühlt?

    jedes normale rsync Aufruf mit Rsync Server (der auch auf der NAS läuft) schaut so aus:

    Code
    /usr/bin/rsync -aP --password-file=/share/Download/scripts/rsyncpassword --delete [Quelle] rsync://admin@[ip_Adresse]/[Zielverzeichnis lt. rsyncd.conf]

    Wenn ich das zwischen den beiden Qnap's laufen lasse, kommt der Fehler "Segmentation fault".


    Lösung lt. einem Forum: "--sever-mode=0" einfügen.


    Also Aufruf geändert auf:

    Code
     /usr/bin/rsync -aP --sever-mode=0 --password-file=/share/Download/scripts/rsyncpassword --delete [Quelle] rsync://admin@[ip_Adresse]/[Zielverzeichnis lt. rsyncd.conf]


    Code
    @ERROR: auth failed on module [Defintion in der rsyncd.conf]
    rsync error: error starting client-server protocol (code 5) at main.c(2625) [sender=3.0.7]

    Hier stehe ich dann an, denn es immer wieder dieser Fehler.

    Ich habe die rsyncd.conf auch ergänzt im die Angabe des secrets File und dieses auch angelegt.


    Update:

    habe nun den ssh Key der backup-nas in meiner hauptnas hinterlegt.

    Somit ist ein ssh Login von der Backup-Nas auf meiner Hauptnas möglich.


    Rsync läuft mit ssh Login und dadurch ohne Passwort abfrage.

    Somit lasse ich nun mein Backupscript in der Konsole über crontab einmal täglich laufen.

    Nach dem Backup schalte ich die Backup NAS wieder ab.


    Ich werde nun den Rsync Server auf beiden NAS abdrehen, da ich den nicht nutze.

    Danke, aber dass die TS 219 alt und langsam ist, ist mir bewusst.


    Ich frage mich nur warum ein rsync script in der Konsole vieles schneller ist der Sicherungsmanager.

    Weiters frage ich mich, warum ich im QNAP Linux kein normales rsync Script starten kann.


    Wenn ich die Fehler in Bezug auf QNAP suche, kommen finde ich keine Lösungen.

    Also heißt das für mich das das QNAP Linux ein Closed Source ist.

    Ich musste mein Backup neu aufbauen.

    Da es sich um eine größere Datenmenge (größer als 6TB) handelt wollte ich nicht alles von meiner TS-563 über das Netzwerk auf meine TS219 PII übertragen.

    Also habe ich die externen Platten genommen und diese als Beginn mal übertragen.


    Wenn ich nun den Sicherungs Manager mal auf einen Teil der Daten einrichte auf der TS-219 PII gibt er nach kurzer Zeit aus, dass er noch mehr als 4000 Stunden braucht.

    Das kann doch nicht sein?


    Wenn ich ein normales rsync auf einer Raspberry anstoße, läuft das mit dem gleichen Verzeichnis wie beim Sicherungs Manager in ein paar Minuten durch.


    Ich will das aber automatisieren und nicht immer den Raspberry dafür nehmen.


    Ein Rsync Script wie ich bei Normalen Linux Maschinen beruflich verwende, schlägt mit auth failed immer fehl.

    Also hält sich das QNAP Linux nicht an das normale rsync.

    Hallo,

    Ich habe in meine TS219P II eine neue Platte (WD Red 10TB) eingebaut.

    Initialisiere diese NAS komplett neu, da sie als Datensicherung dienen soll.

    Verwende kein Raid.


    Die NAS initialisiert nun schon seit etwas mehr als 30 Stunden und ist immer noch nicht fertig.

    Im Qfinder steht immer Updating...


    Ist das normal?

    Ist ja eine Einzelplatte und kein Raid, dass diese NAS ja per Software aufbaut.

    Wichtig ist relativ, es geht mir vor allem um den Verlauf, und wenn ich auf ältere Daten zurückgreifen will.


    Ich bin normal Linux gewohnt, hier funktioniert ein Plattentausch ohne Probleme. Auch verwaiste Raidplatten mounten ist leicht.

    Was ist den das für ein umständliches Vorgehen. Zuerst Daten sichern, dann tauschen und dann wieder Zurückkopieren.

    Umständlicher geht es nicht mehr.


    Ich sehe zwar die Partitionen und auch das Raid mdxxx

    Doch ich kann es nicht mounten.

    Ein Readonly Mount würde mir schon helfen.


    Eines steht für mich jedenfalls fest: eine NAS kommt mir nicht mehr ins Haus, wenn wieder mal ein Neukauf ansteht. Ist zwar leichter zu administrieren, aber die Probleme die im Fehlerfall auftreten, sind unter linux wesentlich leichter und ohne Datenverlust, wenn die Platte noch läuft!


    Zur Info: Neue Datensicherung läuft wieder, aber nicht mehr mit QNAP, sondern ganz einfach mit einem Raspberry Pi und 2 Festplatten im Raid 1. Natürlich ohne den alten Daten. Hoffe nur dass meine Kollegen in den nächsten Wochen keine alten Daten aus der DS brauchen.


    Gruss

    Hallo,


    Ich habe eine QNAP TS563 mit 5 Festplatten.

    4 Platten hängen in einem Raid 5 Verbund. Die 5. Platte beinhaltet meine Datensicherung der AP Rechner und ein kleines Verzeichnis.

    Ich habe nun die 5. Platte gegen eine größere getauscht.

    Dazu musste ich den alten Storagepool löschen. Habe nun einen neuen Angelegt und alles läuft.

    Doch nun ist mein Problem, dass ich gerne die alte Datensicherungsdaten übertragen hätte.


    Wie kann ich das anstellen?

    Wenn ich Platte extern per USB anhänge kann ich nicht zugreifen. Damit ich Zugriff bekommen würde, müsse ich die Platte formatieren. Doch genau das will ich nicht.

    Wie komme ich an diese Daten?


    Gruß Georg

    Die Errormeldungen wie oben beschrieben hatte ich gestern morgen gezählte 189 mal alle 1 min eine Meldung.
    ZU dieser Zeit war kein anderer Rechner im Netz. Nur eine Verbindung nach extern mit owncloud.


    Erst als ich die Owncloud am externen Rechner geschlossen habe, war Ruhe.


    Heute morgen startet meine NAS, aber ohne Netzwerkverbindung. Es gab auch keine Logfiles.
    Die Nas lief, aber ohne Zugriff. (erkannt habe dich dies am Lüfter und an den Leds.


    Nachdem ich die NAS dann unsanft beendet hatte, war auch wieder eine Netzwerkverbindung da.
    Die Owncloud extern ist immer noch geschlossen, daher auch keine Fehler wie oben beschrieben.


    Hier noch ein paar Auszüge aus dem Logfile.


    Code
    The system is unable to save your settings (file = [/etc/config/qpkg.conf], section = [QKVM], field = [Qkvm_Status], value = [STARTING]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance.
    
    
    The system is unable to save your settings (file = [/tmp/.qbox_max_log.conf], section = [qbox=global], field = [CGI_Number], value = [2]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance.
    
    
    The system is unable to save your settings (file = [/etc/config/uLinux.conf], section = [wlan0], field = [Configure], value = [TRUE]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance.


    Mich würde nur interressieren, was diese Aussagen sollen?


    An wenn kann ich mich wenden und das zu analysieren?


    Gruß Georg

    Nein ist nicht aktiv.


    Ich habe aber ein Vermutung inzwischen.
    Hatte beim herumbasteln an einer Raspberry ein doppelt vergebene IP Adresse.
    Dann kam gleich wieder diese Meldung.


    Hallo,


    Heute morgen, nach dem automatischen Start meiner Qnap TS563 hatte ich die Meldungen wieder.


    Habe mich darauf per SSH eingeloggt. Dabei habe ich gesehen dass die ramdisk /tmp voll ist.
    hier waren 3 größere Dateien mit Namen wie phpvYbl6g
    angelegt vom User httpdusr


    Ich habe diese dann einfach gelöscht. Hat nicht gleich genützt.
    aber nach 5 min hat es von selbst aufgehört


    Inzwischen hat sich das ganze normalisiert. Im /tmp Verzeichnis liegen derzeit 288k von 64MB


    Ich frage mich nur was das soll.
    Hängt es evtl mit Owncloud zusammen?


    Ich habe hier einige Dateien drinnen die nach extern über den https Port gesynct werden sollen.
    Sobald ich das stoppe ist ruhe.


    Wie kann ich das hinbekommen?


    Oder soll ich das tmp Verzeichnis auf die Platte verlegen. Hier ist viel Platz.

    Der ganze Spuk ist wieder weg.
    Seit einer Stunde keine Meldung mehr.


    Auch der Zugriff auf die NAS geht ohne Probleme.


    Voll ist auch nichts, und war auch nicht.

    Hallo,


    Bei ist plötzlich die Meldung gekommen:

    Code
    Level: Error
    The system is unable to save your settings (file = [/etc/config/uLinux.conf], section = [wlan0], field = [Use DHCP], value = [TRUE]) due to insufficient ramdisk space. If restarting the server does not solve the problem please contact support for further assistance.


    Die alle 10 sec.
    Was soll das heissen?


    Was mich irritiert ist wlan0 - Ich habe ja gar kein Wlan auf meiner NAS TS563.


    Gruß
    Georg

    Ich war nur in der Datei drinnen, habe aber nichts verändert.
    Beim verlassen fragte er trotzdem ob er sichern soll.
    Das habe ich gemacht. Anscheinend reicht das schon.


    Ich lade mir gerade das letzte Update. Danach spiele ich es ein.


    Künftig mache ich mir über ssh eine Sicherheitskopie der Datei.

    Hast du den Systemport geändert? Wenn der Systemport auf 443 steht, kannst du den nicht dem Webserver 443 geben.

    Der Standardsystemport steht immer noch auf 8080, der https Systemport auf 444.


    Der Webserver akzeptiert keinen einzigen https Port.
    Auch das angebotene zurücksetzen bringt nichts.
    Zurücksetzen habe ich schon 2 mal gemacht. Das Übernehmen der Einstellungen dauert immer 10 - 15 min.
    Wenn ich dann die Webserver Einstellungsseite verlassen will, fragt er mich ob ich die Einstellungen sichern will.
    Das geht immer so dahin, wenn ich die Einstellungen sichern will. Jedes mal 10 -15 min warten, dann wieder das gleiche.
    Mein Webserver akzeptiert nur den Port 80, der ist immer ein.
    Habe auch nichts geändert über ssh.
    Der Standard 8081 ssh Port war von Anfang an inaktiv.
    Wenn ich jetzt die ganze Nas zurücksetze, sind 6 TB Daten wieder zum zurücksichern.


    Ich kann normalerweise Apache Server unter Ubuntu Linux einrichten.
    Doch so etwas habe ich noch nie erlebt.
    Irgendwie zweifle ich schon an dem QNAP System. X(

    Hallo,


    Auf meiner neuen QNAP TS-563 mit Firmware 4.2.2 will der Webserver nicht unter https laufen.


    Der Login mit https funktioniert. Dieser Login läuft bei mir unter Port 444


    Der Webserver soll unter Port 80 (Standard) und auch unter 443 (Standard https Port) laufen.
    Das nimmt er mir jedoch nicht an. Das gleich beim vorgeschlagenen Port 8081.


    Sobald ich https aktiviere und auf übernehmen klicke, sagt mir mind 10 min Änderungen werden übernommen.
    Dann zeigt er die Seite an als wäre es eingerichtet, wenn ich jedoch den Webserver neu aufrufe ist wieder der https Teil grau und nicht ausgewählt.


    Was kann ich tun?