Beiträge von AndreasL

    Die Frage ist ob x59 Pro + die gleichen Specs wie meine x59 Pro II hat ...

    Bei x59 Pro II gibt es dort nur das Kingston Modul wo man nicht sicher sein kein welche Version man bekommt (die dann halt geht oder nicht). Mehr ist für Pro II Modelle in der DB nicht zu finden.


    Ich werde mal dem phs Modul eine Chance geben.

    Ich betreibe hier noch einen Qnap TS-559 Pro II der problemlos seinen Zweck erfüllt. Ich weiß, die Kiste ist alt. Irgendwann bin ich auf die Idee gekommen den leeren RAM Sockel mit einem Modul zu bestücken. In meinem Fundus schlummern so einige Module aus ausgeschlachteten Notebooks. Theoretisch passen sie rein aber der Qnap mag damit nicht booten. Das übliche Problem, Piepen, alles leuchtet, nichts passiert.

    In der Datenbank hier im Forum ist das Modell nicht vertreten. Bei der Suche im Internet werde ich auch nicht wirklich fündig. Das Modell scheint nicht weit verbreitet zu sein.

    Hat jemand eine Empfehlung für ein Modul 1GB oder 2GB das wirklich funktioniert? Ich würde so was in einer Resterampe preiswert zu schießen. Neu wird man das nicht mehr kriegen und ich will dafür natürlich nicht viel Geld ausgeben. Vielleicht kann hier auch ein User weiterhelfen wenn er was funktionierendes rum zu liegen hat.,


    Gruß Andreas

    Hast du mal geprüft ob die Kamera im Netzwerk einwandfrei funktioniert? Ich habe heute durch Zufall mit einem anderen Modell (Reolink E1 Zoom) gespielt und war erfreut wie gut die Kamera mit meinem alten Qnap und der Survilience Station funktioniert.


    Zum Prüfen der Kamera Funktionen und Analyse der ONVIF Daten sowie Stream URL verwende ich folgendes Tool:

    ONVIF Device Manager https://sourceforge.net/projects/onvifdm/

    Oben links die Zugangsdaten für die Kamera eingeben nicht vergessen.


    Evt hilft dir das bei der Erkundung des Problems.

    QNAP neu starten ohne irgendwelche Einstellungen zu ändern. Nach dem Neustart in den Netzwerkeinstellungen prüfen ob Dir ein Fehlerhaftes Internet Gateway angezeigt wird. Wenn ja, Adapter für das Gateway erneut einstellen. Jetzt sollte die Meldung weg sein. Jetzt den Hybrid Backup erneut starten.


    Bei mir hat der in der FW 5.x mit identischer Meldung selbst bei Lokalen Jobs (Intern auf USB RDX) plötzlich den Dienst quittiert. Der Neustart hat dann geholfen.

    Ein Ticket dazu hast Du bei QNAP aufgemacht?

    Nein. Derzeit ist die Datenlage noch zu konfus um da was sinnvolles zu schreiben. Mit dem Stand jetzt, so wie ich das Problem beschreiben kann, können die bei Qnap sicher nichts anfangen. Ich kanns ja nicht einem reproduzierbaren Umstand festmachen. Die Antwort auf so ein Ticket kann ich mir aus leidvoller Erfahrung denken.

    Ich kann die Netzwerkkarte nicht ändern. Das ist ein 10GB SFT+ direct Anschluß. Die beiden Internen 1GB Anschlüsse werden nicht verwendet.

    Am Browser liegt es nicht. Das Gerät lief unter 4.5.x einwandfrei seit März 2021 ohne einen Schluckauf. Die Probleme treten erst seit V5.x auf.

    Ich habe heute Nacht Meldungen vom System erhalten, das ein Backup Job nicht durchlief (cannot find folder bla bla).

    Darauf hin bin ich auf die Weboberfläche gegangen, was nach dem Anmelden schon wieder 10 Skunden dauerte eh was passiert.

    Hier fehlten mir dann die üblichen Anzeigen für die Anzahl der Meöldungen im Log, verbundene Geräte (2x RDX, einmal USV), laufenden Jobs. Auch das Icon für den Status Monitor war wieder nicht anklickbar. Kann man so verstehen das die GUI zwar geladen wird aber aktive Inhalte nicht angezeigt werden.


    Zum Glück reagierte dann das admin-pull Down Menü noch und konnte den Punkt Neustart wählen. Das kam dann nach einiger Zeit auch hoch, beendete die Dienste und führte den start durch. Dauer: 10 Minuten vom Klick auf Neustart bis der Qnap wieder da war.

    Ok, jetzt hab ich das Thema mit den Netzwerkadaptern lösen können. Muss noch prüfen ob das bootfest ist.

    Ist es leider nicht :( Ich musste heute wieder einen Neustart machen weil das System nur noch träge reagierte und einer meiner Sync Jobs in Richtung USB nicht mehr startete. Wieder war das GW weg, wieder kam die Meldung das der iSer Treiber nicht installiert werden konnte. Wieder musste ich das GW erneut setzen. Es nervt :( Finger weg von der V5.x

    Das NAS denkt weiterhin es wäre offline. Es findet deshalb auch keine Updates, verschickt keine Mails usw.

    Per SSH auf dem System ist selbstverständlich alles im Internet erreichbar. Kennt das Problem jemand?

    ja, kenne ich. Leider. Das eingetragene Gateway bei den Netzwerkadaptern ist nach dem Update irgendwie ungültig. Das System erkennt nicht mehr welches das passende Interface mit welchem Gateway ist. Lösung: Nochmal über die GUI rein in Settings, die vorhandenen Einstellungen bestätigen und siehe da, alles geht wieder - zumindest bei mir. Aus irgendeinem Grund werden die Einstellungen beim Start nicht gelesen, stehen dann aber später doch zur Verfügung. Nach dem Aktualisieren der Einstellungen werden auch wieder Updates angezeigt.

    Wenn ich mir den Beitrag von AndreasL so ansehe könnte es ein Problem mit den Netzwerk-Einstellungen geben. Mal abwarten, was die anderen User so melden.

    Dem ist so. Nach dem Update ist das Defaultgateway 'weg'. Nicht wirklich, denn ich kann das System erreichen aber in der Netzwerkverwaltung wird mir bei dem LAN Port angezeigt, dass das System angeblich nicht ins Internet kommt (bin remote per VPN im Kundennetz). Editiert man die Settings und stellt das Gateway nochmal ein ist das System zufrieden und zeigt prompt auch wieder verfügbare Updates an. Den iSER Treiber habe ich inzwischen manuell von QNAP global runter geladen aber noch nicht installiert. Das mache ich erst wenn ich physischen Zugriff zum System habe, denn hier habe ich von einem Kollegen gehört, das er nach der Installation sein System physisch ausschalten musste um es wieder ans Netz zu bekommen, reset hat hat nicht gereicht und die Büchse war nicht mehr erreichbar.

    Das Verhalten kann ich auch für eine TS-877XU bestätigen. Das ging gestern soweit, dass ich irgendwann die Meldung erhalten habe 'Server ist ausgelastet'. Ich habe es dann noch geschafft den Restart zu aktivieren, was locker 5 Minuten gedauert hat ehe sich was getan hat. Der Restart hat dann auch noch mal 5 Minuten gedauert ehe das System wieder anpingbar war. Ich dachte schon, die Kiste kommt überhaupt nicht wieder hoch.


    Nach dem Restart meckert das System dann wieder rum, das es den iSER Treiber nicht laden kann. Im Netzwerkmanagment ist mal wieder das Defaultgateway 'verschwunden' obwohl die Kiste erreichbar ist. Man muss also nochmal das GW einstellen, dann wird die Netzwerkverbindung wieder als OK angezeigt und prompt kommen auch wieder App-Updates rein.


    Die V5.x scheint mir noch ganz schön Bug-Verseucht zu sein.

    Beim Update meiner TS-877XU-RP gibt es 2 Fehlermeldungen:


    Code
    Fehler	2021-12-07	10:14:07	System	127.0.0.1	App Center	App Installation	[App Center] Failed to download QsyncServer. The installation package is unavailable.
    Warnung	2021-12-07	10:12:03	admin	127.0.0.1	Hardware Status	---	[Hardware Status] Failed to install the advanced network driver for iSER. There is no internet connection, or there is a problem when connecting to the internet. The driver will automatically install once the system connects to the internet and the NAS reboots. If the problem persists, go to the following link to download the advanced network driver: https://www.qnap.com/download

    Ob sich die RDX Medien nun wieder auswerfen lassen werde ich beobachten. Ich hoffe, dass es jetzt wieder klappt.


    Gruß Andreas

    Erkannt werden per USB3.x an einer TS-877XU-RP bei mir 2 Tandberg USB RDX Laufwerke, die ich zu externen Sicherung bestimmter Daten einsetze (nächtlicher Qsync Job). Formatiert sind die Medien mit NTFS. Unter 5.0.0.1853 laufen die Laufwerke als solches mit lesen/schreiben einwandfrei und erreichen auch einen sehr guten Durchsatz. Soweit alles OK, Leider lassen sich aber die Medien nicht mehr per Knopfdruck auswerfen, so wie das noch unter V4.x geklappt hat. Das System gibt die Medien nach dem Sicherungsjob nicht frei und lockt die Laufwerke. Entweder muss ich über das Webinterface die Laufwerke auswerfen oder jemand vor Ort muss per Notfall Entriegelung (langes Drücken auf den Knopf des Laufwerks) das Medium hart entfernen.


    Heute haben wir das System auf .1858 gebracht und ich werden morgen Nachmittag sehen ob der Auswurf wieder klappt. Wenn nicht muss ich die Kiste irgendwie zurück nach V4.x bringen, wovor mir graut. Wer zu dem Thema weitere Infos oder Kontakte hat kann hierzu gerne was schreiben, jede Hilfe ist mir willkommen.

    mit der .1853 gibt es ein Problem beim auswerfen der Tandberg RDX Medien, die per USB an einem TS-877XU-RP hängen. Die Medien werden bei Druck aufdie Taste nicht freigegeben und ausgeworfen. Unter V4.x ging das noch. Bei V5 gibt es jetzt Probleme damit. Man muss den Notauswurf durch langes Drücken machen.. Ich aktualisiere gerade auf .1858 und hoffe, das das Problem damit weg ist. Gibt es dazu Erfahrungen von jemanden anderen?


    Gruß Andreas

    Guten Tag in die Runde,


    es gibt mehrere Standorte, die mit VPN (100Mbit sync) verbunden sind. In jedem Standort größere aktuelle Qnaps, die HybridMount unterstützen.


    Bislang wurden die Standorte zur Zentrale für ein Firmen internes Cloud Verzeichnis einfach per 2-Wege RTRR alle xx Minuten syncronisiert. Das ist aber aufgrund der massiven angewachsenen Datei Anzahl (>1Mio steigend) nicht mehr in realistischen Zeiten möglich, da der Job mehrere Stunden braucht um die Remote Dateien zu scannen. Also habe ich mir das HybridMount angesehen. Erste Tests mit Remote Device Einbindung sehen ganz nett aus, man kann damit aus den Filialen live auf das eine Verzeichnis in der Zentrale arbeiten, der Traffic hält sich in Grenzen da die Dateien klein sind. Die User connecten in ihrer Filiale an den Qnap und machen selber keine Connections über das VPN auf. Soweit nett.


    Ideal wäre natürlich wenn man das File Gateway mit Cache dafür nutzen könnte aber hier werden nur fest definierte Cloud Dienste vorgegeben. Die Daten müssen aber im Haus bleiben. Gibt es irgendeinen Weg einen selbst definierten 'Cloud' Anbieter zu definieren, der ein einfacher FTP Host mit Benutzer/Passwort ist? Das Caching zu nutzen wäre schon richtig gut für meinen Anwendungsfall.


    Ich befürchte, das so was derzeit nicht möglich ist aber vielleicht kommt das noch? Hat da vielleicht jemand nähere Infos (Beta Tester)? Das wäre dann die Lösung für viele meiner Probleme.


    /update: das Einbinden eines Externen Gerätes hat sich auch schon wieder erledigt, da man nur von der FileStation auf dieses Device zugreifen kann und nicht aus dem LAN. Verflixt.


    Gruß Andreas

    das ist möglich, aber ich will nicht eine komplette Sicherung rückspielen, da zwischenzeitlich Userrechte oder Freigaben geändert sein können. Die Sync Jobs ändern nicht so schnell. Der Admin vor Ort macht nicht jedes mal eine komplette Sicherung oder sagt uns Bescheid wenn er sonst was macht, so das es beim Rückspielen einer vollen Sicherung noch mehr Probleme gibt.


    Inzwischen bin ich auf den Ordner /mnt/HDA_ROOT/.config/qsync gestoßen, weiß aber nicht ob das alles ist und was davon relevant ist.


    Gruß Andreas

    Gegeben: TS-459U+ FW: 4.2.6 2017/06/07 mit Hybrid Backup App


    Es ist bereits 2x vorgekommen, das nach einem durch die USV initiierten Shutdown (*) und Re-stat des Qnaps alle angelegten lokalen Sicherungs- und Replikationsjobs weg waren. Die Ziele existierten noch, Reinkommende Jobs wurden noch angezeigt. Dieser Bug scheint sich schon durch einige FW Versionen zu ziehen.


    Kann mit jemand sagen, wo und welche Dateien man sichern muss (mit WinSCP) um im Fall eines Falles die Jobs nicht immer wieder neu anlegen zu müssen? Das ist in so fern auch wichtig, das die Sicherungsjobs bei der Anlage unter dem alten Namen im Ziel einen Order mit _1 am ende anlegen. Das wiederum hat zur Folge, das der nächste Lauf *alle* Dateien in das neue Ziel kopiert und die Daten doppelt auf dem Sicherungsziel liegen. Das kann bei großen Datenmengen ein echtes Problem werden. Wenn das wieder passiert will ich die entsprechenden Dateien wieder hoch kopieren können um stundenlanges basteln zu vermeiden. Auf dem Gerät laufen *viele* Jobs mit einigen Einstellungen, so das die Neu-Anlage nicht ganz so trivial ist.


    Gruß Andreas


    (*) Der Qnap hat den Selbsttest der APC USV mitbekommen aber nicht das Ende des Tests und hat einen Shutdown ausgeführt. Dieses Problem tritt seit FW 4.2.6 auf, in der .5 war alles ok.

    Bei einem Kunden kommt in Angesicht der Welle von Verschlüsselungstrojaner der Wunsch auf, den bislang zur Sicherung eingesetzten Qnap zusätzlich auf Tape (Library) zu sichern damit ein Medienbruch stattfindet und sich ein Virus dorthin nicht ausbreiten kann. Die Dezentrale Lagerung wegen Diebstahl/Feuer ist zweitrangig.


    Bislang erschien eine Replikation mittels RTRR ausreichend aber das soll geändert werden. Wir reden außerdem über Datenmengen > 20TB.
    Hat damit jemand Erfahrung? Wie ist es gelöst worden? Preis ist erst einmal nebensächlich, es geht um Business Lösungen von denen einiges abhängt.
    Es soll die Sicherung der Daten, die auf dem Qnap liegen, einmal die Woche auf das andere Medium geschrieben werden um im Worst Case Fall eine Basis zu haben.


    Gerade erschienen ist von Tandberg die Quickstore Station 4. Kann man sowas mit iSCSI an den Qnap anbinden um es als Sicherungsziel zu verwenden?
    Freie Lanports sind am Qnap noch vorhanden so das man die Sicherung direkt mit X-Over Kabel anschließen kann ohne über das Firmen-LAN zu gehen.


    /update: Noch ein paar Sachen dazu
    Es laufen mehrere VMware Hosts (ESX). In einer VM ist ein Windows Server mit Acronis als Backup Managment installiert (Acronis VMware 11.5 Advanced). Wenn man nun z.B. einen Quantum Superloader3 mittels SAS an den VMhost anschließt könnte man die Acronis Funktion zum duplizieren auf Tape verwenden? Dann macht der Qnap nichts in Sachen Backup sondern Acronis schiebt es zum Qnap und anschließend eine Kopie von Qnap auf Tape.


    Ich muss einfach mal rum fragen, da ich so was noch nicht gemacht habe. Bei so einer d2d2t Lösung muss ich auch erst mal raus bekommen wie man so ein SAS LTO an einen ESX Host anschließt und in einer VM benutzt.


    Vorschläge sind willkommen.
    Gruß Andreas