Beiträge von WolBac

    Im admin-Webinterface komme ich auf die Dateiliste, ja.

    Das Verzeicchnis, das ausgewählt ist wenn ich ein Bild in der vis hinzufügen möchte, gibt es nicht oder wird nicht angezeigt🤔

    Ich kann ja so ein Verzeichnis anlegen, aber wie bekomme ich dann die Dateien dort hinein?


    Ich habe eigentlich den ganzen Ordner Container als Freigabeordner.

    Hallo,


    ich habs nun endlich „gewagt“ und einen Container für ioBroker auf meiner 253A erstellt. Ich bin da also ansoluter Neuling.

    Es läuft auch alles so weit zufriedenstelend..


    Für meine Visualisierung möchte ich nun einige Bilder einfügen. Diese muss ich aber dort ins Verzeichnis kopieren..


    Ich kann zwar den erstellten Ordner für ioBroker öffnen, der ist aber leer. Ich finde die Dateien und Ordner einfach nicht.

    Selbst als admin eingeloggt heisst es höchstens mal keine Berechtigung.


    Was mach ich falsch?

    Es werden in der Qnap jede Menge Verbindungen angezeigt. Oft in wenigen Sekunden Abstand.
    Ich hab nicht nachgezählt, aber die insgesamte Zahl der täglichen Kopien, also alle Fotos zusammen, könnte hinkommen, ja.


    Die Fotos bleiben, wie sie sollen, auf dem Phone.

    Die App Qfile lädt mittlerweile zuverlässig Fotos auf die NAS hoch, legt allerdings für alle Fotos, die seit Anfang Dezember 2020 gemacht wurden, mehrere Kopien täglich!!! an.
    Ich hatte am 09.01.21 bis zu 492 Kopien von Fotos, die ich seit Anfang Dezember gemacht hatte.


    Die Dateien sind dann durchnummeriert (.....Kopierenxxx).jpg. Immer die gleichen Fotos. Fotos, die ich am 03.12.20 gemacht habe, sind nur einmal auf der NAS. Die ab 12.12.20 sind vielfach auf der NAS (253A).


    Bei dem Smartphone meiner Frau ist es ähnlich. Nur etwas weniger Kopien.


    In der App habe ich schon „Überspringen“ statt dem voreingestellten „überschreiben“ eingestellt.


    Wo kann da der Wurm drin sein?

    Hallo,


    wollte nur nochmal ein Feedback abgeben.


    Es ist nun tatsächlich so, dass die Seitenaufrufe ohne angeschlossene Platte erheblich schneller sind.


    Warum das bei dem ersten Versuch nicht so war, bleibt mir allerdings ein Rätsel.


    Danke jedenfalls für die Hilfen. :thumb:

    Ich hab nun alles bis auf den WebServer, MySQL-Server und Win/Mac/NFS deaktiviert.


    Hat keine Auswirkung auf die Geschwindigkeit.


    Hab danach nochmal die Staartseite von Mediawiki gestartet Das dauert ca. 18 Sekunden, bis die geladen ist.




    Nachtrag:


    Ich hab nun nochmals die externe abgemeldet. Dokuwiki starte nun in 1-2 Sekunden, MediaWiki in 4 Sekunden.


    Ich hatte das schon mal probiert, aber die Zeiten hatten sich nicht geändert. Wie kann denn das sein?


    Und wie wäre das dann bei ner TS-219? Da läuft ja auch QRaid. eSATA solll ja genauso schnell sein, wie intern.


    Ich werd das jetzt jedenfalls mal morgen nochmal beobachten ob sich das bestätigt.

    Die php.ini habe ich nun zurückgesetzt.
    Das hat leider nichts gebracht.


    Der Start des Wiki erfolgt über die Datei Doku.php


    Diese hat folgenden Inhalt.:

    PHP
    <?php/** * DokuWiki mainscript * * @license    GPL 2 (http://www.gnu.org/licenses/gpl.html) * @author     Andreas Gohr <andi@splitbrain.org> * * @global Input $INPUT */// update message version$updateVersion = 38;//  xdebug_start_profiling();if(!defined('DOKU_INC')) define('DOKU_INC', dirname(__FILE__).'/');if(isset($_SERVER['HTTP_X_DOKUWIKI_DO'])) {    $ACT = trim(strtolower($_SERVER['HTTP_X_DOKUWIKI_DO']));} elseif(!empty($_REQUEST['idx'])) {    $ACT = 'index';} elseif(isset($_REQUEST['do'])) {    $ACT = $_REQUEST['do'];} else {    $ACT = 'show';}// load and initialize the core systemrequire_once(DOKU_INC.'inc/init.php');//import variables$_REQUEST['id'] = str_replace("\xC2\xAD", '', $INPUT->str('id')); //soft-hyphen$QUERY          = trim($INPUT->str('id'));$ID             = getID();$REV   = $INPUT->int('rev');$IDX   = $INPUT->str('idx');$DATE  = $INPUT->int('date');$RANGE = $INPUT->str('range');$HIGH  = $INPUT->param('s');if(empty($HIGH)) $HIGH = getGoogleQuery();if($INPUT->post->has('wikitext')) {    $TEXT = cleanText($INPUT->post->str('wikitext'));}$PRE = cleanText(substr($INPUT->post->str('prefix'), 0, -1));$SUF = cleanText($INPUT->post->str('suffix'));$SUM = $INPUT->post->str('summary');//make infos about the selected page available$INFO = pageinfo();//export minimal infos to JS, plugins can add more$JSINFO['id']        = $ID;$JSINFO['namespace'] = (string) $INFO['namespace'];// handle debuggingif($conf['allowdebug'] && $ACT == 'debug') {    html_debug();    exit;}//send 404 for missing pages if configured or ID has special meaning to botsif(!$INFO['exists'] &&    ($conf['send404'] || preg_match('/^(robots\.txt|sitemap\.xml(\.gz)?|favicon\.ico|crossdomain\.xml)$/', $ID)) &&    ($ACT == 'show' || (!is_array($ACT) && substr($ACT, 0, 7) == 'export_'))) {    header('HTTP/1.0 404 Not Found');}//prepare breadcrumbs (initialize a static var)if($conf['breadcrumbs']) breadcrumbs();// check upstreamcheckUpdateMessages();$tmp = array(); // No event datatrigger_event('DOKUWIKI_STARTED', $tmp);//close sessionsession_write_close();//do the workact_dispatch($ACT);$tmp = array(); // No event datatrigger_event('DOKUWIKI_DONE', $tmp);//  xdebug_dump_function_profile(1);


    Mediawiki dauert noch länger als Dokuwiki
    Mediawiki wird über die Datei index.php gestartet
    Diese hat folgenden Inhalt:

    Hallo TobiasK


    erstmal herzlichen Dank für Deine Hilfe.


    Ich hab nun eine htm und eine php Datei mit den von Dir genannten Texten erstellt.
    Beim htm erscheint
    Test-HTML-Dokument


    Beim php erscheint
    PHP-Test


    7*5=35


    Das Aufrufen aus dem Browser dauert bei beiden unter einer Sekunde.


    Die Datei php.ini finde ich nicht auf meiner NAS.



    Die Daten liegen im Dokuwiki als einzelne *.txt für jede Unterseite vor. Da stehen aber nur der reine Text und TExtformatierungen im Textformat.
    Die Formatierung wird vom DokuWiki erledigt.



    Das MediaWiki sollte eine DAtenbank sein.
    Wo ist die bzw. wie kann ich die zurücksetzen?

    Das mit der externen abklemmen hab ich schon probiert, da ich den Eindruck habe, bevor die dran war, wars nicht so schlimm
    Die Ladezeiten waren leider unverändert.



    Ich versuchs jetzt nochmal besser zu erklären.


    In meinem Web-Verzeichnis der NAS befindet sich ein Verzeichnis Dokuwiki (und auch ein namens MediaWiki)


    Wenn ich nun mein Wiki über den Browser so
    http://192.xxx.xxx.xx/Dokuwiki/doku.php
    aufrufe bzw. starte, habe ich diese ewigen Ladezeiten. Wenn ich dann in meinem Wiki weitere Seiten aufrufe dauert es auch wieder so lange.
    MediaWiki im entsprechenden Verzeichnis verhält sich genauso nervig.


    Mir war noch eingefallen, dass ich noch meine alte HP auf dem PC liegen hab.


    Diese habe ich nun zum Testen komplett in das Verzeichnis Web der NAS kopiert und die Startseite so
    http://192.xxx.xxx.xx/2006/start.htm
    aufgerufen.
    Das dauert dann so 1-2 Sekunden, was völlig O.K. wäre. Das Aufrufen weiterer Unterseiten meiner alten HP dauert dann max. 1 Sekunde.


    Wenn meine Wikis so laufen würden wärs ganz toll. Aber irgendwo ist der Wurm drin, denn htm-Seiten funzen prima.


    An der php.ini habe ich (bewusst) nichts geändert.


    Apropos php. Warum taucht das PHP bei mir nicht in der Prozessliste auf?



    Mit dem Aufruf der Qnapoberfläche meinte ich dies:
    http://192.xxx.xxx.xx:8080/cgi-bin/login.html?xxxxxxxx
    über den Browser.
    Das dauert allerdings trotz htm auch gute 10 Sekunden

    Der Aufruf einzelner Seite meines Wikis dauert so lange, egal welches.


    Die Auslastung von apache (steht 4xdrin) liegt unter 3%. Php steht nicht drin. An oberster Stelle in der Prozessliste steht zweimal rsync. Zusammen haben die zwischen 60 und 80%.


    Html-Seiten snd nur wenige drin. Wenn ich welche aus dem Filemanger öffne, dauert das so 2 Sekunden.
    Der Aufruf der Qnapoberfläche dauert auch so 10-15Sekunden. Das ist doch auch ein statusches Dokument, oder seh ich das falsch? Mir ist nicht so ganz klar, ob ein statisches Dokument schneller öffnet. Macht eigentlich schon den Eindruck (siehe obige 2. Sek. über den Filemanager). Aber die Qnapob. dauert ja auch lang.


    Es ist übrigens egal, ob ich diese Seiten vom PC, vom Notbook oder vom iPad aufrufe. Der Aufruf dauert immer so lange



    Manchmal, allerdings selten klappt ein Seitenaufruf auch in 5-7 Sek.

    Hallo,


    ich habe ein TS-119 PII. Angeschlossen über eSATA ist eine weiter gleich grosse FP, die über QRaid "verbunden" ist.


    Das Problem, das ich habe ist, dass Seitenaufrufe ewig dauern. Egal, ob ich Seiten des Dokuwiki oder Mediawiki aufrufe.
    Das dauert pro Seite zwischen 10 (selten) und über 60 Sekunden pro Seite. Egal, ob ich eine Seite das erste mal aufrufe oder nicht.


    Mit mehreren Unterseiten dauert das oft Minuten um eine Info abzurufen.


    Die Datenübertragung dagegen läuft anstandslos. Wenn ich Daten auf die NAS kopiere oder runterlkade erhalte ich absolut akzeptable Werte.


    Nur der Aufruf von Seiten dauert und dauert.


    Hat jemand ne Idee. Bin echt schon am verzweifeln.

    Mit der Geschwindigkeit mit der die Daten übertragen werden hab ich keine Probleme.


    Wohl aber mit dem Zugriff. Um eine Seite in meinem DokuWiki zu öffnen vergehen meistens zwischen 10 und 60 Sekunden!


    Das ist wenn man sich durch mehrere Unterseiten hangeln will extrem nervig.


    Was läuft da schief?