Seitenufruf dauert ewig

  • Hallo,


    ich habe ein TS-119 PII. Angeschlossen über eSATA ist eine weiter gleich grosse FP, die über QRaid "verbunden" ist.


    Das Problem, das ich habe ist, dass Seitenaufrufe ewig dauern. Egal, ob ich Seiten des Dokuwiki oder Mediawiki aufrufe.
    Das dauert pro Seite zwischen 10 (selten) und über 60 Sekunden pro Seite. Egal, ob ich eine Seite das erste mal aufrufe oder nicht.


    Mit mehreren Unterseiten dauert das oft Minuten um eine Info abzurufen.


    Die Datenübertragung dagegen läuft anstandslos. Wenn ich Daten auf die NAS kopiere oder runterlkade erhalte ich absolut akzeptable Werte.


    Nur der Aufruf von Seiten dauert und dauert.


    Hat jemand ne Idee. Bin echt schon am verzweifeln.

  • Hallo,
    Meinst du mit Seitenaufrufe, den Aufruf von Webseiten, die auf dem NAS liegen?
    Bisher hast du ja vorallem versucht, dynamische Seiten aufzurufen. Wie sieht denn dabei die Auslaustung des NAS laut Resourcenmonitor aus? Vorallem die Prozesse php und apache koennten dafuer auch interessant sein.
    Geht es denn schneller, wenn di versuchst, ein statisches HTML-Dokument aufzurufen?

  • Der Aufruf einzelner Seite meines Wikis dauert so lange, egal welches.


    Die Auslastung von apache (steht 4xdrin) liegt unter 3%. Php steht nicht drin. An oberster Stelle in der Prozessliste steht zweimal rsync. Zusammen haben die zwischen 60 und 80%.


    Html-Seiten snd nur wenige drin. Wenn ich welche aus dem Filemanger öffne, dauert das so 2 Sekunden.
    Der Aufruf der Qnapoberfläche dauert auch so 10-15Sekunden. Das ist doch auch ein statusches Dokument, oder seh ich das falsch? Mir ist nicht so ganz klar, ob ein statisches Dokument schneller öffnet. Macht eigentlich schon den Eindruck (siehe obige 2. Sek. über den Filemanager). Aber die Qnapob. dauert ja auch lang.


    Es ist übrigens egal, ob ich diese Seiten vom PC, vom Notbook oder vom iPad aufrufe. Der Aufruf dauert immer so lange



    Manchmal, allerdings selten klappt ein Seitenaufruf auch in 5-7 Sek.

  • Irgendwie verstehe ich noch nicht ganz, was du da machst... :roll:
    Was meinst du mit dem Aufruf ueber die Qnapoberflaeche? Normalerweise oeffnet man Webseiten doch im Browser.
    Die zwei Sekunden im Filemanager sind ganz in Ordnung, nur Ladezeiten von 10-15 s sind doch etwas zu lang.
    Selbst von mir geschriebene PHP-Scripts, die eine mehrere GB grosse Datenbank durchwuehlen, werden auf meinem NAS in ein bis zwei Sekunden abgearbeitet. Daher sollte es dein zwar etwas kleineres NAS trotzdem schaffen, statische HTML-Dokumente in ein bis zwei Sekunden auszuliefern.
    Hast du evtl. an der php.ini etwas veraendert?

  • Ich denke, rsync zeigt schon den Weg. Klemm mal die externe ab.

  • Das mit der externen abklemmen hab ich schon probiert, da ich den Eindruck habe, bevor die dran war, wars nicht so schlimm
    Die Ladezeiten waren leider unverändert.



    Ich versuchs jetzt nochmal besser zu erklären.


    In meinem Web-Verzeichnis der NAS befindet sich ein Verzeichnis Dokuwiki (und auch ein namens MediaWiki)


    Wenn ich nun mein Wiki über den Browser so
    http://192.xxx.xxx.xx/Dokuwiki/doku.php
    aufrufe bzw. starte, habe ich diese ewigen Ladezeiten. Wenn ich dann in meinem Wiki weitere Seiten aufrufe dauert es auch wieder so lange.
    MediaWiki im entsprechenden Verzeichnis verhält sich genauso nervig.


    Mir war noch eingefallen, dass ich noch meine alte HP auf dem PC liegen hab.


    Diese habe ich nun zum Testen komplett in das Verzeichnis Web der NAS kopiert und die Startseite so
    http://192.xxx.xxx.xx/2006/start.htm
    aufgerufen.
    Das dauert dann so 1-2 Sekunden, was völlig O.K. wäre. Das Aufrufen weiterer Unterseiten meiner alten HP dauert dann max. 1 Sekunde.


    Wenn meine Wikis so laufen würden wärs ganz toll. Aber irgendwo ist der Wurm drin, denn htm-Seiten funzen prima.


    An der php.ini habe ich (bewusst) nichts geändert.


    Apropos php. Warum taucht das PHP bei mir nicht in der Prozessliste auf?



    Mit dem Aufruf der Qnapoberfläche meinte ich dies:
    http://192.xxx.xxx.xx:8080/cgi-bin/login.html?xxxxxxxx
    über den Browser.
    Das dauert allerdings trotz htm auch gute 10 Sekunden

  • Zitat von "WolBac"

    Das dauert dann so 1-2 Sekunden, [...] htm-Seiten funzen prima.


    Dann sollte das Problem bei dem Ausfuehren von Scripts auf den Seiten liegen.
    Welche Dateiendungen haben denn die Seiten des Wikis? Vermutlich wird es nicht .html/.htm sein, da andere HTML-Dokumente ja schnell geladen werden.
    Erstelle dir mal testweise ein HTML-Dokument (Dateiendung .html oder .htm) mit folgendem Inhalt, dass du dann ueber den Browser aufrufst:

    HTML
    <html><head><title>HTML-Dokument</title></head><body><p>Test-HTML-Dokument</p></body></html>


    Und auch ein PHP-Script (Endung .php), denn du auch einmal ueber den Browser aufrufst:

    PHP
    <html><head><title>PHP-Script</title></head><body><p>PHP-Test</p><p><?php $x = 7; $y = 5; echo $x."*".$y."=".$x*$y; ?></p></body></html>


    Wenn nun das HTML-Dokument wesentlich schneller laed, dann liegt es daran, dass der Webserver irgendwelche Probleme mit den Scripts hat. Wenn beide etwa gleich schnell sind, koennte es auch daran liegen, dass der Webserver einfach nur zu langsam ist, um die grosse Menge an Scripts wie im Wiki oder der QNAP-Adminseite auszufuehren. Da aber dies auch nicht normal ist, muesste man dann weiter nach der Ursache suchen.

    Zitat von "WolBac"

    An der php.ini habe ich (bewusst) nichts geändert.


    Dann setzte sie mal wieder auf Standartwerte zurueck, denn wenn du nichts (bewusst) veraendert hast, sollten auch keine wichtigen Einstellungen verloren gehen, aber sicher ist sicher, falls du doch (ausversehen) dran rumgebastelt haben solltest.

    Zitat von "WolBac"

    Apropos php. Warum taucht das PHP bei mir nicht in der Prozessliste auf?


    In dieser Liste tauchen immer die Prozesse mit der staerksten Auslastung auf.

    Zitat von "WolBac"

    Aufruf der Qnapoberfläche [...] dauert allerdings trotz htm auch gute 10 Sekunden


    Dabei handelt es sich auch um irgendwelche Scripts, die das HTML-Dokument generieren oder zumindest im Hintergrund mitlaufen, wenn die Seite aufgerufen wird.

  • Hallo TobiasK


    erstmal herzlichen Dank für Deine Hilfe.


    Ich hab nun eine htm und eine php Datei mit den von Dir genannten Texten erstellt.
    Beim htm erscheint
    Test-HTML-Dokument


    Beim php erscheint
    PHP-Test


    7*5=35


    Das Aufrufen aus dem Browser dauert bei beiden unter einer Sekunde.


    Die Datei php.ini finde ich nicht auf meiner NAS.



    Die Daten liegen im Dokuwiki als einzelne *.txt für jede Unterseite vor. Da stehen aber nur der reine Text und TExtformatierungen im Textformat.
    Die Formatierung wird vom DokuWiki erledigt.



    Das MediaWiki sollte eine DAtenbank sein.
    Wo ist die bzw. wie kann ich die zurücksetzen?

  • Zitat von "WolBac"

    Das Aufrufen aus dem Browser dauert bei beiden unter einer Sekunde.


    Ja, es waere auch komisch gewesen, wenn sich das NAS an der Berechnung von 7*5 tot gerechnet haette.
    Also kann man sagen, dass PHP-Scripte grundlegend schonmal nicht das Problem fuer die lange Ladedauer sein koennen.


    Zitat von "WolBac"

    Die Datei php.ini finde ich nicht auf meiner NAS. Wo ist die bzw. wie kann ich die zurücksetzen?


    Auf der Webadministrationsseite sollte dies im Menuepunkt des Webservers liegen. Dort musst du dann die Wiederherstellung der php.ini auswaehlen.


    Allerdings ist eine Frage noch offen:

    Zitat von "TobiasK"

    Welche Dateiendungen haben denn die Seiten des Wikis?


    EDIT: Hast ja deinen Beitrag editiert, also muss ich meinen auch nochmal anpassen... :roll:
    Ok, also die Inhalte liegen in txt-Dateien. Dann muesste ich wissen, welche Scripte denn diese txt-Dateien einbinden. Hinweise darauf koennte die im Webbrowser aufgerufene Datei geben bzw. ihre Dateiendung.

  • Die php.ini habe ich nun zurückgesetzt.
    Das hat leider nichts gebracht.


    Der Start des Wiki erfolgt über die Datei Doku.php


    Diese hat folgenden Inhalt.:

    PHP
    <?php/** * DokuWiki mainscript * * @license    GPL 2 (http://www.gnu.org/licenses/gpl.html) * @author     Andreas Gohr <andi@splitbrain.org> * * @global Input $INPUT */// update message version$updateVersion = 38;//  xdebug_start_profiling();if(!defined('DOKU_INC')) define('DOKU_INC', dirname(__FILE__).'/');if(isset($_SERVER['HTTP_X_DOKUWIKI_DO'])) {    $ACT = trim(strtolower($_SERVER['HTTP_X_DOKUWIKI_DO']));} elseif(!empty($_REQUEST['idx'])) {    $ACT = 'index';} elseif(isset($_REQUEST['do'])) {    $ACT = $_REQUEST['do'];} else {    $ACT = 'show';}// load and initialize the core systemrequire_once(DOKU_INC.'inc/init.php');//import variables$_REQUEST['id'] = str_replace("\xC2\xAD", '', $INPUT->str('id')); //soft-hyphen$QUERY          = trim($INPUT->str('id'));$ID             = getID();$REV   = $INPUT->int('rev');$IDX   = $INPUT->str('idx');$DATE  = $INPUT->int('date');$RANGE = $INPUT->str('range');$HIGH  = $INPUT->param('s');if(empty($HIGH)) $HIGH = getGoogleQuery();if($INPUT->post->has('wikitext')) {    $TEXT = cleanText($INPUT->post->str('wikitext'));}$PRE = cleanText(substr($INPUT->post->str('prefix'), 0, -1));$SUF = cleanText($INPUT->post->str('suffix'));$SUM = $INPUT->post->str('summary');//make infos about the selected page available$INFO = pageinfo();//export minimal infos to JS, plugins can add more$JSINFO['id']        = $ID;$JSINFO['namespace'] = (string) $INFO['namespace'];// handle debuggingif($conf['allowdebug'] && $ACT == 'debug') {    html_debug();    exit;}//send 404 for missing pages if configured or ID has special meaning to botsif(!$INFO['exists'] &&    ($conf['send404'] || preg_match('/^(robots\.txt|sitemap\.xml(\.gz)?|favicon\.ico|crossdomain\.xml)$/', $ID)) &&    ($ACT == 'show' || (!is_array($ACT) && substr($ACT, 0, 7) == 'export_'))) {    header('HTTP/1.0 404 Not Found');}//prepare breadcrumbs (initialize a static var)if($conf['breadcrumbs']) breadcrumbs();// check upstreamcheckUpdateMessages();$tmp = array(); // No event datatrigger_event('DOKUWIKI_STARTED', $tmp);//close sessionsession_write_close();//do the workact_dispatch($ACT);$tmp = array(); // No event datatrigger_event('DOKUWIKI_DONE', $tmp);//  xdebug_dump_function_profile(1);


    Mediawiki dauert noch länger als Dokuwiki
    Mediawiki wird über die Datei index.php gestartet
    Diese hat folgenden Inhalt:

    Einmal editiert, zuletzt von WolBac ()

  • Also handelt es sich auch um PHP.
    Um zu sagen, was der Script nun genau tut, muesste ich mich erstmal etwas laenger mit diesem beschaeftigen. Aber auf jeden Fall bindet der auch wieder weitere Scripts ein.
    Wenn du mir einen Link schicken koenntest, wo du dieses Wiki heruntergeladen hast, koennte ich selbst mal testen, ob die langen Ladezeiten ein grundlegendes Problem sind oder ob es an deinen NAS liegt.


    PS: Setzte den Code deines letzten Beitrags bitte in code-Bloecke, damit es etwas lesbarer wird.

  • So, habe nun mal das Mediawiki testweise bei mir installiert.
    Du hast Recht, es gibt schon lange Ladezeiten, doch bei mir sind die nicht so lang wie bei dir. Ich musste nur ein bis zwei Sekunden warten, wenn ich neue Seiten oeffnen wollte. Allerdings ist deutlich zu hoeren, dass sehr viel auf die Festplatten zugegriffen wird, wenn man eine neue Seite aufruft.
    Versuche mal alle nicht benoetigten Dienste auf deinem NAS abzuschalten, denn dann geht es moeglicherweise etwas schneller.

  • Ich hab nun alles bis auf den WebServer, MySQL-Server und Win/Mac/NFS deaktiviert.


    Hat keine Auswirkung auf die Geschwindigkeit.


    Hab danach nochmal die Staartseite von Mediawiki gestartet Das dauert ca. 18 Sekunden, bis die geladen ist.




    Nachtrag:


    Ich hab nun nochmals die externe abgemeldet. Dokuwiki starte nun in 1-2 Sekunden, MediaWiki in 4 Sekunden.


    Ich hatte das schon mal probiert, aber die Zeiten hatten sich nicht geändert. Wie kann denn das sein?


    Und wie wäre das dann bei ner TS-219? Da läuft ja auch QRaid. eSATA solll ja genauso schnell sein, wie intern.


    Ich werd das jetzt jedenfalls mal morgen nochmal beobachten ob sich das bestätigt.

  • Ich koennte mir vorstellen, dass es mit nur einer Platte schneller geht, da nun die rsync Prozesse nicht mehr laufen muessen, die ja einiges an Leistung benoetigen.
    Warum dieser Effekt beim ersten Mal allerdings nicht eintrat, kann ich dir leider nicht sagen.
    Auf einer TS-219 kannst du allerdings auch ein "normales" RAID1 verwenden. Dieses sollte etwas schneller und weniger Resourcenhungrig sein als das QRAID

    Zitat von "WolBac"

    Ich werd das jetzt jedenfalls mal morgen nochmal beobachten ob sich das bestätigt.


    Ja, das ist erstmal die beste Loesung, bevor man nun irgendwelche voreiligen Schluesse zieht...

  • Hallo,


    wollte nur nochmal ein Feedback abgeben.


    Es ist nun tatsächlich so, dass die Seitenaufrufe ohne angeschlossene Platte erheblich schneller sind.


    Warum das bei dem ersten Versuch nicht so war, bleibt mir allerdings ein Rätsel.


    Danke jedenfalls für die Hilfen. :thumb: