Beiträge von amadeus21

    Jetzt bin ich's wieder. Man hat ja auch noch meist Weiteres zu tun, als sich mit den Bits&Bytes herumschlagen : -)


    wenn ich gkobler richtig verstehe, fährt er die Sicherung einfach "händisch" - was natürlich das Transparenteste ist. Auf diese Weise backuppe ich die shares meiner TS-264 schon länger auf eine separate SSD. Bon. Wenn HBS 3 halt generisch auch pCloud unterstützen würde, wäre das etwas komfortionöser. Wie man sein pCloud-"Volume" allerdings aus einem Linux-Umfeld (= NAS) heraus mounted und dann ein Backup fährt, das übersteigt einfach meine Künste.

    Also werde ich es erstmal "griechisch-römisch" mit geeigenter BackUp-Software (Mac Studio M1) von Volume zu Volume versuchen.


    Danke an alle!

    Johannes

    Hallo "Becker2020", gibst immer so hilfsbereit Auskunft. Danke! (Viell. solltest Du mal Dein ID in "Becker 2024" ändern ? ; -)


    Also: Ich habe jetzt mal in die Speicherplatzerstellung geschaut. :saint: pCloud ist leider wie gesagt nicht im Angebot. Wenn die "rundausstattung" am Anfang der Liste nehme, schwindelt mir aber ebenso: Außer meiner user-ID und PW zur Anmeldung in der pCloud habe ich erstmal nichts. Schon zweimal nicht eine IP, Port und was weiß ich. (Ich arbeite von Mac M1 aus, voll abgefahren die fusion-Systemerweiterung, die die pCloud wie ein normales volume mountet!)


    Kurz: Ich bräuchte da schon was "für Doofe"...


    Auch beim Öffnen der Fritzbox ins Internet bräuchte ich evtl. Hilfe. Immerhin kann der Server ja aktuell seine Updates ziehen. Aber (natürlich) uPnP, und das port forwarding für http und https sind off. Ebenso serverseitig der ganze mycloud-Kram, dynDNS (falls das hier von relevanz...)


    Auch ein Aspekt: Könnte das den Service-Anbieter ärgern, wenn man da tapfer BackUps drauf fährt? Es gibt ja so sonstige ISP-Billigheimer", die dem Zeitgenossen "Internetflatrate !!" anbieten - wenn man es dann aber sausen lässt, schmeißen sie einen raus.



    Grüße von Johannes!

    Darf ich diesen thread nochmal vorholen? Ich habe nämlich die analoge Frage:


    Kann ich – gerne mit HBS – meine NAS mit unkomplizierten Mitteln in meinenen pCloud Accout sichern? Einfach immer nur den aktuellen Stand, ohne versioning etc.


    Modell: TS-264

    Firmwareversion: 5.1.5.2645


    Das wäre super und würde mir ne Menge sonstiger "Improvisationen" (USB HDD) ersparen.

    In der Liste der "unterstützten Cloud-Speicher" fehlt leider pCloud, obwohl die sich ja nicht erst Vorgestern erfunden haben.

    Ich weiß nicht, ob das von Belang ist: Aktuell hängt die NAS natürlich im LAN, sämtliche Zugänge vom/ins Internet sind aber in der NAS und im DSL-Router (Fritzbox) deaktiviert.



    Danke für eine laien-verständliche Auskunft und ohne Konsolen-Tipperei ; -) !


    Johannnes

    Ich bin zu sehr Laie, um in solchen Höhen da mitzureden.
    Natürlich hat mich die Meldung der "unbekannten Erweiterung" los geschickt. "Da klemmte irgend was". Also habe ich Firefox im "geschützten Modus" (wohl "ohne alle Zusatzmodule etc.") neu gestartet (wollte ihn nicht gleich resetten, weil einem dann ja aber auch alles wegfliegt.) Zuvor den Rechner neu gestartet, den DSL-Router neu gestartet. Man weiß ja nie.

    Alle diese Maßnahmen haben aber nichts gefruchtet - Weigerung von Firefox, mit der website zu verbinden (komischerweise Safari eben nicht).


    Dann ist mir irgendwie beim Wühlen in der Admin-Oberfläche (mithilfe von Safari) die Seite mit dem SSL-Zertifikat untergekommen. Dort war die Meldung, dass das Zertifikat bald ablaufen würde (in 14 Tagen oder so). Dann habe ich versucht, eine Erneuerung anzustoßen. Das ging dann nicht, weil ich das komplette Paket "myQnapCloudLink" incl. DDNS deaktiviert hatte. Alles aktiviert, SSL-Zertifikat erfolgreich neu runtergeladen:
    Zugriff per Firefox funzt wieder (danach den ganzen Zinober mit Cloudlink etc wieder deaktiviert). Zugriff per Firefox weiterhin ok.


    Was ich mir überhaupt nicht leisten könnte, wäre eine Übernahme des NAS durch Malware usw. Also habe ich – als Laie – mal alle Löcher zugemacht (evtl. zu viele/unsinnige), die sich nach "Zugriff von außen" anfühlen, bis rauf zur Fritzbox/Weiterleitungsregeln etc.


    Alle Softwares (Systeme, Anwendungen) bewährt "neueste Version".

    Firefox stieß vielleicht beim SSL auf eine Inkonsistenz/flag, gab aber eine nicht wirklich stichhaltige Fehlermeldung aus?


    Grüße

    Herzlichen Dank Herr Becker (?) für diesen Hinweis!


    Das https ist ein Relikt aus der Zeit, wo ich die NAS zeitlich jeweils begrenzt noch im Internet hängen hatte, um gelegentlich Personen Zugriff auf eigene Produktionen zu ermöglichen oder im Urlaub dorthin Film-/Bildmaterial auszulagern. Da man dies (zumindest als Laie und ohne dieses VPN-Gesumse per Smartphone) ja nur noch als "Selbstmörder" heute tun kann, habe ich alles drum herum auch im im DSL Router deaktiviert, aber den Admin-Zugriff auch im Heimnetz bei https gelassen.


    Nochmals danke!


    Johannes

    Gelöst: Ich habe das an sich noch gültige SSL Zertifikat von let's encrypt geschlöscht und neu geladen.
    Der Zugriff ist nun auch über Firefox (mit den entsprechenden Ausnahmen-Akzeptieren) wieder möglich.


    - - - -


    Guten Abend zusammen!

    Vielleicht hängt es mit einem Firefox-Update zusammen, aber soeben stelle ich fest, dass Firefox mir den LAN-Zugriff auf meine TS 264 alternativlos verweigert, mit der Begründung:

    Fehler: Gesicherte Verbindung fehlgeschlagen
    Beim Verbinden mit <IP-Adresse:Port-Nr.> trat ein Fehler auf. Das Zertifikat enthält eine unbekannte kritische Erweiterung.

    Code
    Fehlercode: SEC_ERROR_UNKNOWN_CRITICAL_EXTENSION

    Bisher gab Firefox eine Meldung aus, dass die "Verbinung nicht sei", ob ich die Webseite dennoch aufrufen möchte? Dies wird nicht nehr angeboten.


    Im Hausnetz habe ich bisher als Link gesetzt:

    https://<IP-Nummer des Servers : Portnummer>


    Unter Apple Safari funktioniert es mit der entsprechenden Meldung, dass die Verbindung nicht sicher sei. Safari nutze ich aber nur, wenn Firefox zickt.


    Frage: Haben die bei Mozilla irgend wo die Schraube stärker angedreht? Oder mache ich etwas ganz frisch falsch?

    Die NAS hängt nicht im Internet (hoffe ich zumindest 8o ), die Portnummer habe ich schon vor Jahren geändert.


    Anbei ein Screenshot vom Server-Setup.

    screen.jpg

    Die Systemport-Nummer (wann wird die von wem benutzt? Ist jedenfalls NICHT die, die ich bei LAN-Zugriff unter der Angabe der IP nutze!) und die https-Portnummer (die nutzte ich bisher immer nach dem Doppelpunkt und funktionierte) sind natürlich unterschiedlich.

    (Die restlichen setup Parameter sind mir als Laie "bömische Dörfer", hab ich die Finger von gelassen, die werden leider bei QNAP auch nicht erklärt.)


    Nachtrag: Als SSL-Zetrtifikat nutze ich das von "lets encrypt". Vielleicht hat sich hier was verhakt?




    Vielen Dank für eine Hilfe bzw. Hinweis!


    Johannes

    Das ist ja man nun eine gute Info. Tz tz tz, das hätte ich nun nicht gedacht! Super, für Deine Info!

    Wahrscheinlich werde ich die Platten einfach reintauschen und dann "an langen Winterabenden" das ganze nochmal neu hochheben. Ja, das ist nicht mal nebenher getan.


    Ich glaube, man kann hier jetzt das ursprgl. Problem für geklärt erklären.


    Ich danke nochmals allen für ihre Mithilfe. Super.


    Johannes

    Ganz klar TS-264 :)

    Die nehme ich wohl. :) Danke für den Tipp!


    Da kommt natürlich sofort das Stichwort "Migration" über den Horizont auf mich zu gelaufen...

    Frage: Ist der Gedanke zu verwegen oder völlig absurd, das Setup der TS-251 in berüchtigter Datei zu speichern und auf die TS-264 rüber zu holen? Oder gar die HDDs einfach zu zu switchen?


    Einerseits ist es noch nicht allzu lange her, dass die TS-251 neu aufgesetzt habe, zudem mache ich damit ja überhaupt keine "Experimente", die Instabilitäten zur Folge haben könnten. Die unendlichen Anpassungen und Optimierungen aber, sowie das "Härten" gegen Internet-Angriffe (Portverschiebungen etc.) kann ich natürlich im Einzelnen nicht mehr komplett nachvollziehen. Anderseits ist mir natürlich auch klar, dass ein jungfräuliches System immer das Optimum ist.


    Grüße von Johannes

    Da nützt dir das neuste Mx Apple Teil nix, die Kiste ist das schwächste Glied der Kette und gibt die vMax vor.

    Eine aktuelle Intel 2 Bay kommt mit 2,5G locker zurecht, das ist eine Liga die für dich interessant ist.

    Ohgottohgott und dann noch "Intel Clock Bug" ...


    Dann nun die Frage an euch: Habt ihr eine Empfehlung für einen "Intel 2 Bay mit 2,5 G"...? Natürlich möglichst von QNAP, damit ich mit dem ganzen Kram nicht wieder von vorne anfangen muss. Die HDs würde ich natürlich gerne mit übernehmen, die sind erst 1 Jahr alt.


    Wie man ja am TS-251 sieht, brauche ich da nicht den Renner mit allem Furz und Feuerstil. Die Investitionssumme sollte überschaubar bleiben. Die NAS fungiert als file- bzw. Produktionsserver (dann auch für BackUp, die könnte ich auch auf eine USB C-SSD machen). Heißt, meine Photoshop-Dateien von durchaus 350 MB mache ich normalerweise direkt auf der NAS auf.


    Wir kommen off topic, aber ne Alternative sollte ich wohl suchen.


    Danke für eure Beiträge,


    Johannes

    Das Deaktivieren der Verschlüsselung, wie "crazyhorse" vorschlusg, hat das Ganze also immens vorwärts gebracht.


    Abgesehen davon, dass ich unter afp +/- auf bessere/schlechtere Werte komme, wie Du unter SMB. Gut, so habe ich eine Hausnummer. Auch das TimeMachine-Backup geht jetzt in einem Bruchteil der vorher benötigten Zeit durch (incl. des nachher erfolgenden "Aufräumens").


    Das Ganze scheint mir zwar leider immer noch nicht "der burner" zu sein, aber ich gebe mich für den Moment damit zufrieden. Da kauft man lightning fast Festplatten, hat Gigabit Ethernet, Ports und Switches – und zum Schluss kommt eine Transferrate von geschrieben 40 MB/Sek raus...


    Danke nochmal an alle,

    Johannes

    Hallo, verehrte "Mithelfende",

    ja, mittlerweile hätte ich einen Verdächtigen: Es könnte in der Tat die SMB-Verbindung selbst sein. Ich habe wie vorgeschlagen dies Helios LAN Test einmal gegen das SMB share und danach gegen das afp (Apple filing protocoll) laufen lassen. Ui, ui, ui... Obwohl ja afp immer gebashed wird, es habe einen viel zu großen overhead, sei natürlich "inkompatibel" und lahm, wurde mir vor dem Bildschirm direkt schwindelig, wie schnell sich Verzeichnisse, Listen und thumbnails aufbauten!

    Hier wie gewünscht 2 screenshots:


    LAN Test unter SMB:

    Das Erzeugen von 300 files mit 20K dauerte fast 4 Minuten! Zwischendurch dachte ich die App wär eingefroren oder ein timeout wäre erreicht.

    SMB LAN Test.jpg


    LAN test unter afp (Achtung, die "Sek" von oben sind nun ms!):

    der gleiche Vorgang ist nach knapp 3 Sek. durch ...

    afp LAN Test.jpg



    Also muss ich an das SMB setup beim Server ran. Da hab ich gar keine Ahnung von. Was ich weiß ist, dass ich als kleinste SMB-Version V.1 (höchste 3) nachträglich aktivieren musste, weil ich irgend eine App manchmal am Laufen habe, die mehr nicht unterstützt (weiß aber grad nicht, was es ist. Ich befürchte ein QNAP Anwendung für iPhone/iPad...).


    Hier wäre also ein Ansatz. Den Rat von "crazyhorse" zum SMB setup gehen ich nach, kann aber zeitlich nicht jetzt sofort.




    Danke an alle

    Johannes

    yep, das wusste ich, als ich es installierte. Hier sehe ich aber keinen Zusammenhang, da schon vor der Installation die Trägheit gegeben war. Eher hatte ich dem Beta die Chance geben, an dieser Stelle was zu bessern.

    Ist man mit einem offiziellen beta "aussätzig"?


    Wie ich gerade feststellte ist iPferf3 sogar im Darwin Kernel von MacOS X vorinstalliert. Nur hilft das in diesem Fall nichts, da der Mac nicht den Server abgeben soll. Und "man iPerf3-darwin" ergibt dann doch eine reichlich erschreckende Parameterliste.


    Warum gibt eigentlich ein billiges "ping <IP-Adresse>" nicht schon hinreichend Auskunft über die Geschwindigkeit?


    Ich schau weiter.


    Grüße von Johannes

    iPerf: Ah, ich verstehe! Ich hatte eine Version im Netz und AppStore gefunden und diese auf dem Mac installiert. (Die Version ist eigentlich für ein Apple-Tablet ("iPad"), und das kann man nur "wireless" betreiben. Wie soll es dann LAN-Performance diagnostizieren?)

    Dein Link füht zu einer Quellcode-neuen Version, die als Dämon auf der NAS ausgeführt wird (wobei meiner nicht in den Downloadversionen-Versionen auftaucht) und von einem remoten Client angepingt wird.


    Ob es an Netzwerkschwierigkeiten liegt, werde ich in den nächsten Tagen einzugrenzen versuchen. Habe aber den Verdacht, das es das nicht ist, sondern der Server mit irgend einem billsh+*+*it beschäftigt ist. Dass ich den völlig neu aufgesetzt habe, ist vielleicht 3 Jahre her.


    Danke, danke!


    Johannes

    Herzlichen Dank!
    Also die einzelnen Systemprozesse und ihre Auslastung bekomme ich nicht in einen screenshot. Bis ich den absolviert habe, hat sich das alles schon wieder völlig verschoben und "beruhigt".
    Anbei ein Versuch.


    Zu iPerf: Hab's runtergeladen. Ist eigentlich für Mac-iPad, was mich irritiert, da ich ja dann per WLAN unterwegs bin!? Die Bedieneroberfläche ist ja ganz ihr Geld wert :X . Vom Mac aus bleibt die Soft im "Client-"Modus sofort stecken:

    Code
    iperf3: error - unable to connect to server: Connection refused.

    Muss ich da irgend welche Ports aufmachen?


    Nun ja. Schauen wir mal weiter...


    Die einzelnen Prozesse sind mir erwartungsgemäß bömische Dörfer :( "manaRequest.cgi" läuft 2 mal (?) und wechselt wild zwischen "Zombie" und "Wird ausgeführt". "hal_daemon" langt zwischendurch kräftig zu.


    !?!?



    Johannes


    Bildschirmfoto 2023-07-05 um 10.05.17.jpg

    Also erstmal herzlichen Dank an alle, dass ihr euch meldet!

    Wo nun anfangen...?
    Natürlich war am Anfang (das ist ja zig Jahre her) das NAS wesentlich performanter. Über die Jahre hat der Rechner und die jeweiligen Betriebssystem auch zig mal gewechselt.
    Auf der NAS liegen nicht hunderttausende von Dateien, da ich grafisch arbeite. Der jetzige Mac-Rechner ist "nagelneu", nicht verspielt da Produktionsumgebung, neuestes Betr.System (Ventura).

    Protokoll ist smb. Netzwerk steht auf 1000base, vollduplex, MTU 1500. Netgear 5-Port GigaSwitch, Internterouter Fritzbox Mercedes. Die TS-251 zeigt beim Anmelden 5% als CPU-Last
    LANTest von Helios Ethershare nutze ich seit 100 Jahren. Meines Erachtens ein abgefahrenes Tool, das Netzwerk und Server herausfordert: Create 300 files, open/close 300 files, remove 300 files, write 300 MB to file, read 300 MB from, Lock/unlock 16.000 times, read directory with 640 files. Die Zeit in ms wird gemessen, mehrere Durchgänge.


    SMR oder CMR? Seufz. Damit hatte ich mich hier schon einmal beschäftigt und daraufhin 2 neu gekaufte HD wieder rausgeschmissen. Es handelt sich um WD4003FFBX, also 4tb CMR Platten.


    Der Ressourcen monitor des QNAP zeigt, wenn ich zB. gleichzeitig ein Verzeichnis mit vielen Bildern (und thumbnails) öffne, das Bild im Anhang. I/O Wartezeit = 0. Aber auch sonst kriegt das Teil bei jedem Furz (Anmelden als Admin per Browser) irgendwie Bluthochdruck, selbst wenn ansonsten nichts anderes abläuft.


    RAM-Speicher Bausteine (4 GB nachgerüstet) vertragen sich nicht?


    Grüße von Johannes


    Bildschirmfoto 2023-07-05 um 09.38.14.jpg

    Firmwareversion: QTS 5.1.0.2418; Speicher: 8 GB (8 GB nutzbar); 2 x WD red à 4 tb.


    Guten Tag!


    ich bin nun nicht der absolute freak, was das Betriebssystem etc. dieses Gerätes angeht, welches seit vielen jahren im Heimnetz ausschließlich als file server läuft. Das heißt, ich habe alles, wovon ich annehme, es ist entbehrlich, habe ich beendet, deaktiviert oder deinstalliert. Keine Music station, keine Video station, kein DLNA etc.; kein Indexing, kein cloud etc., kein SSH, ftp und wie sie alle heißen. Kein externe Zugriff, Zugriff über Gigabit Ethernet LAN. Mache alle 14 Tage Neustart und gieße Danziger Goldwasser auf die Festplatten.


    Die NAS dient als fileserver unter SMB (≤ 3) für einem Mac Studio M1 und als TimeMachine backup (ca. 1.5 GB) für 2 separate Nutzer. Es sind für Filestation 170 von 800 GB belegt.


    Symptome: Datentransfer sehr lahm; Odner mit 1400 Bildern öffnen mit thumnail = fast aussichtslos; morgens Mounten geht meist erst nach dem 2. Anlauf. Ich selbst bin meist der einzige Nutzer.

    Ich habe nun mal Helios LANTest gegen das share laufen lassen – da konnte man 2 mal Kaffee holen gehen. Alle angezeigte Balken ("less is better") schlagen sozusagen erst bei Unendlich auf.


    Die Performance ist absolut vernichtend. Und ich trage mich mit dem Gedanken, das Teil in Sack zu hauen (wenn ich eine file server Alternative finde).



    Kann jemand geduldig und verständlich helfen?



    Vielen Dank von Johannes!

    Wie gesagt, ich bin kein Profi bei diesem Thema. Dennoch: Also in den letzten 25 Jahren auch meiner Berufstätigkeit habe ich auch im Betrieb bestimmten Geräten (Drucker, eigener Rechner) einfach eine "beliebige" IP Adresse aus dem DHCP-Bereich (den ich letztlich gar nicht kannte) verpasst, geschaut, ob die Meldung kommt "diese IP-Adresse ist bereits im Netzwerk vergeben" - und dann das entsprechende Gerät neu gestartet. Ab da war diese feste IP auf Jahre im Netz vergeben und der DHCP-Server hat dies berücksichtigt.

    Ich habe jetzt nochmal beim DHCP der Fritzbox nachgeschaut und bin in der Hilfe auf den Satz gestoßen:

    Mod: Nicht deklariertes Zitat ohne Quellenangabe ... korrigiert! :handbuch::arrow: Forenregeln beachten und Die Zitat Funktion des Forums richtig nutzen

    Zitat von Fritzbox-Online-Hilfe: DHCP

    "Die IP-Adresse darf von keinem anderen Gerät verwendet werden und muss aus dem IP-Netzwerk der FRITZ!Box stammen (Werkseinstellung: 192.168.178.0). Die IP-Adresse darf innerhalb oder außerhalb des DHCP-Bereichs liegen (Werkseinstellung: 20 bis 200).

    Wobei diese Auskunft nicht völlig klar Deinen Einwand wiederlegt, gebe ich zu. Es gibt DHCP-Server, die vorher die IP-Adresse, die sie dynamisch vergeben wollen, anpingen und gucken, ob diese bereits vergeben ist. Und es gibt DHCP-Server, die einfach blind in ihren Heuhaufen greifen und Blödenfalls dynamisch eine IP rausgeben, die bereits fest im Netzwerk vergeben ist – und dies halt nicht merken.
    Sicherer ist also, einen IP-Nummernbereich zu reservieren, der dem DHCP-Server überlassen wird. Und einen IP-Nummernbereich für feste Adressen. – Was man auch bei der Fritzbox machen kann: Eine IP-Nummer, die die Fritzbox per DHCP vergeben hat, in der Oberfläche der Fritzbox (Menüpunkt "Heimnetz") nachträglich für *fest* deklarieren. Das scheint die beste Lösung.
    (Ein weiteres Thema wäre eine Firwall, die den Verkehr für bestimmte Geräte über deren [feste] IP regelt. Da ich betrieblich per ftp rein und raus aktiv sein musste [was ansonsten von der IT als GAU angesehen wurde] , war eine entsprechende Regel für die feste IP in der Firewall hinterlegt. Da wäre "echtes" DHCP auch etwas kontraproduktiv.)

    Dennoch: a) Ich hatte also irrtümlich eine IP-Nummer vergeben, die die Fritzbox bereits anderwertig per DHCP vergeben hatte. Beim Neustart des Ganzen hat die Fritzbox dem zweiten der Duplikate aber offenbar nicht auf die Finger gehauen, dass die Nummer, mit sich das Gerät neu anmelden will, bereits vergeben sei.
    b) Es ist aus Sicherheitsgründen also sinnvoll, den Nummernbereich des DHCP zu definieren und nur außerhalb dieses Nummernbereichs eigene feste IP zuzuweisen.



    Doch nun kommt die große Preisfrage!
    Wie sinnvoll/nötig ist es, nicht nur in der Fritzbox statische IP-Adressen zu definieren und das Ganze ansonsten als DHCP laufen zu lassen, sondern diese statische Adressen auch jeweils in den entsprechenden Geräten zu konfigurieren!? Also im Desktop-Rechner im Netzwerksetup "DHCP mit statischer Adresse" auszuwählen und auch dort die IP fest einzutragen!? Das wäre dann ein Netzwerk, welches zur Not auch mal ohne DHCP-Server mit sich selbst zurecht kommt?


    Gruß

    Johannes

    Hallo "Inventar" ;)


    Da kommen wir glaub ich jetzt vom Thema ab, was ich wenn's andere machen, auch immer blöd finde.
    Also DHCP habe ich als "Laie" auf der Fritzbox nicht manipuliert. Soweit ich erinnere, hatte ich wahrscheinlich in erster Sitzung den beiden Powerline-Komponenten eine feste IP verpasst (.31, .32) und den neuen Desktoprechner noch nicht mit fester IP versehen. Die Fritzbox hatte aber eine gleiche Nummer (.31) per DHCP an den neuen Mac vergeben und offenbar nicht "erkannt", dass eine Mesh-Komponente die gleiche Nummer hatte.


    Beim Auflisten des ganzen Heimnetzen in der Fritzbox sah ich jedenfalls nach 4 Stunden Probiererei und euren Hinweisen (!), dass .31 zwei mal vergeben war.


    Danke und Grüße!

    Johannes

    So, Leute, ich finde es nützlich und fair, auch den Ausgang der Story (für Nachfolgende ;-)) zu berichten und sich bei den Helfern zu bedanken:
    Es lag wohl an der neuen Fritz! und einem unerwarteten IP-Adressen Kuddelmuddel.


    Der Tip, sich mit den IP-Adressen näher zu befassen war der entscheidende Hinweis. Wie ich oben sagte, habe ich den "Dauerbrennern" im Hausnetz wie NAS, Drucker, Fernseher und meinem Desktop-MAC feste IP-Adresse vergeben, alle mobilen devices etc. kommen und gehen durch DHCP der FritzBox.


    In den letzten Wochen kamen nach und nach neu: Desktop-Mac, Fritz Powerline mit 2 Komponenten (1 speist Netzwerk ins Haus-Stromnetz, 1 device holt das Netz eine Etage tiefer wieder aus dem Stromnetz und stellt es als Mesh zur Verfügung), schließlich FritzBox.


    Wenn ich es nun richtig sehe bestand das Galama durch: Es war vergessen worden, dem neuen Desktop die feste IP zu verpassen; er bekam durch die FritzBox per DHCP die gleiche IP wie eine der Komponenten der Powerline (Anlieferungszustand? Sind diese IPs bei einem Mesh jedoch relevant?). Diese Misstand wurde offenbar durch die Fritzbox auch bei den zahlreichen Neustarts nicht bemerkt und beseitigt. Beim Zugriff vom Desktop Rechner befand sich also eine 2. Komponente mit gleicher IP im Netz. Der Server war die ganze Zeit "unbeteiligt" und ordnungsgemäß; deswegen auch positiver Zugriff mit Handy –> QManager auf die NAS.


    So zumindest mein momentaner Infostand.


    Der Sache läuft wieder, euch allen Vielen Dank!

    Puhhh ...

    Johannes