Beiträge von OnkelHomie

    Kurz zu den Daten:
    - TS-210
    - aktuelle Firmware (4.0.5)
    - freuer Speicher ca. 40GB (also kein Problem mit Platte zu voll)


    Jetzt zum Problem:
    Das NAS startet, wird auch im Qnap Finder angezeigt, ich komme per SSH drauf und auch in die Web-Oberfläche.
    Aber nach kurzer Zeit (ca. 3-5min) nachdem das NAS gebootet und erreichbar ist, bricht die Verbindung zusammen.


    Wirklich seltsam daran ist jedoch:
    Logge ich mich schnell genug per SSH ein, bleibe ich auch verbunden und kann machen was ich will (Dienste starten/stoppen etc.) Dennoch wird das NAS im Finder nicht mehr angezeigt, ich komme nicht mehr auf die Web-Oberfläche. Per SMB komme ich allerdings an die Daten ran.


    Logge ich mich jedoch nicht per SSH ein und versuche z.B. direkt auf die Web-Oberfläche zu kommen, schaffe ich es so gerade mich anzumelden, dann geht es nicht weiter, die Seiten wird nicht mehr gefunden und ich komme weder per SSH noch per SMB auf das NAS.


    Anpingen kann ich das NAS immer. Aber der Qnap Finder zeigt nix mehr an.


    Ich habe schon alle MediaServer Dienste abgeschaltet, weil ich die im Verdacht hatte, aber das hilft leider nicht.


    Die einziger Änderung die mir einfällt, seit der das Problem aufgetreten ist, wäre die Umstellung meines alten Routers auf eine neue Fritzbox 6360.
    IP Adressen wurden beibehalten, doppelte IP-Vergabe kann ich ausschließen. Die Firmware lief auch eine zeit lang schon fehlerfrei bevor ich das Problem bekommen habe.
    Einen Zugriff von außen kann ich an sich auch ausschließen, denn dass NAS darf aktuell nicht ins Internet, ist also nur hier lokal erreichbar.
    Mittels /etc/init.d/services.sh restart habe ich auch einfach mal alle Dienste neu gestartet, aber weiterhin ist die Web-Oberfläche nicht erreichbar und auch der Qnap Finder findet nichts.


    Hat jemand eine Idee in welchem Log-File ich vielleicht mal schauen könnte was da los ist? Oder was ich vielleicht sonst noch machen kann?
    Denn ich bin so langsam mal mit meinem Latein am Ende.

    Klar gerne :)


    Gehalten habe ich mich an diese Anleitung hier: WIki Anleitung (ist aus einem PDF kopiert was auf dem Qnap FTP zu finden ist)


    Dort sind insgesamt 4 ISOs verlinkt von denen aber nur die ersten beiden wohl für Besitzre des 210 interessant sind.
    An sich soll man ISO a nehmen (im Dateinamen steht auch 210), aber wie erwähnt hatte ich damit keinen Erfolg und hab auch im engl. Forum einen EIntrag dazu gefunden das es nicht klappt.


    Funktioniert hat es dann mit diesem hier:
    Flash_Reburn_live-cd-2009-12-09(TS-410&410U&419P&419U).iso


    Ich würde allerdings dazu raten mit einem FTP Client zu direkt auf den Server zu gehen und das ISO File zu laden, da die Verbindung teils arg schlecht ist (hab eine 32Mbit Leitung und kam selten über 100k DL hinaus, anfangs mit dem Browser hatte ich mehrfach Abbrüche).


    FTP Daten aus dem Link:
    Server: ftp.qnap.com.tw
    User&Pass: csdread
    Verzeichnis: NAS/live_cd/


    Noch zur CD weil es ggf. in der Anleitung nicht ganz klar ist:
    Beim booten gibt es zwei Optionen MemoryTest (oder Check) und Qnap Live, hier muss man natürlich Qnap Live starten. Aber vielleicht verwirrt es Einige daher erwähne ich es lieber mal. Dann einfach beim Login abwarten. Es passiert an sich nix weiter, keine Statusmeldung das etwas geflashed wird oder ein Fortschrittsbalken oder so. Einfach etwas abwarten und hoffentlich freuen.


    Bei mir ging es übrigens noch etwas weiter.
    Mein Raid blieb im Degraded Mode und slebst als alles wieder lief konnte ich dies nicht beheben. Immer Abbruch nach ca. 60 Sek. wegen eines angeblichen Schreibzugriffs der dazu geführt hat, dass eine Platte nicht dismounted wurde. Zunächst hatte ich den Twonky im Verdacht. Denn obwohl ich den Dienst abgeschlatet und deaktviert hatte (auch mit killall twonkymedia) hat er sich immer ziemlich genau 60Sek. nachdem ich die Raid Weiderherstellung angeschmissen habe, neu gestartet. Ganz seltsames Verhalten. Ich habe extra mal 10 Minuten gewartet nachdem der Twonky aus war und nix ist passiert. Kaum fing ich mit dem Raid an, war er wieder da.


    Nun ja wie auch immer, das hat also alles nix gebracht. Da ich eine Datensicherung hatte, wolle ich also das Raid 1 neu einrichten. Dummerweise bekam ich da aber immer die Meldung das keine Platten verfügbar seien. Und das obwohl ich problemlos auf alle Daten zugreifen konnte, die Platten auch fehlerfrei im Qnap WebAdmin angezeigt wurden usw.


    Somit bleib letztendlich nur der Weg die Platten komplett zu formatieren (das ging zum Glück noch), dann das Raid 1 neu einzurichten und die Daten zurückzuspielen...1TB welch Freude ;D


    Mittlerweile läuft halt alles wieder, auch mit der neusten Firmware.
    Aber ein so seltsames Verhalten ist mir echt noch nicht untergekommen. Ok ähnliche Sachen schon (hab fast 2 Jahre im PC Handel gearbeitet hehe) aber es ist schon ziemlich seltsam.


    Ich hoffe nur das ich mir um das NAS in der Firma keine Sorgen machen muss. Privat zu Hause ist es schon ärgerlich, aber an meinen Fotos und sonstigen Daten hängt nicht so viel Geld. Wenn es im Büro abraucht ziehe ich ganz schnell die bösen Blicke auf mich, weil ich Qnap empfohlen habe :P (gut ok da wird täglich ne Sicherung auf ext. Platten gemacht aber dennoch...)

    Wie es aussieht hast du wohl mich bzw. mein NAS mit dem Tip gerettet, vielen Dank nochmal.


    Man muss aber wohl wissen das man:
    1) die Live CD nicht mal eben direkt auf der Qnap Seite (zumindest habe ich sie dort nicht gefunden) sondern passende Links im Wiki zu finden sind
    2) für das TS-210 die korrekte CD wohl nicht die ist, deren Image auch 210 beinhaltet, nein man muss das ISo für die 2-Bay Systeme nehmen, welches allerdings nur die Produktbezeichnungen für die 4er und andere NAS Serien enthält. Mit der CD aus dem vermeintlich korrekten Image passiert nämlich rein gar nix


    Hier wäre es mal wirklich nützlich wenn es seitens Qnap eine bessere Informationspolitik dazu gäbe.


    Nun ja, mit dem Qnap Finder komme ich auf jeden Fall wieder druf, hab nun eine Platte drin und muss erst mal wieder alles einrichten/anpassen. Sieht aber bisher recht gut aus :)

    Zitat von "frosch2"

    Hi,


    es geht für mich nicht klar hervor, ob du es ohne Festplatten versucht hast. Also ohne Festplatten starten und dann mit dem Finder das Gerät suchen.
    Ansonsten würde ich es mal mit QNAP-Live-CD versuchen.


    Zunächst danke für deine Antwort.


    Ich quote mich dann mal selbst ;)

    Zitat


    Ganz ohne Platten oder mit nur einer Platte das gleiche Spiel.


    Mit anderen Worten:
    Ja ich hab es auch komplett ohne Platten versucht, leider kein Erfolg, sprich mit Qnap Finder nicht zu finden.
    War vielleicht etwas mißverständlich geschrieben, sorry.


    Aber die Live CD war mir bisher kein Begriff, werde ich mir mal angucken was es damit auf sich hat. Danke also für den Hinweis.

    Prinzipiell sagt der Titel schon alles aber hier noch weitere Infos:
    - Gerät: TS-210
    - Firmware: v3.3.9 0120
    - HDDs: 2xSpinpoint F1 HD103UJ Raid 1


    Wie kam es zu dem Problem?


    Vorgeschichte:
    Ich wollte eine Datei (ca. 200MB) von meinem Laptop (Windows 7 b4bit) per Wlan aufs NAS kopieren. Das ging verdächtig langsam - habe ein 802.11n Netz und bei der Dateigröße an sich vollkommen ausreichend in Sachen Geschwindigkeit. Nun ja, nach einiger Zeit brach der Vorgang ab, weil angeblich nicht mehr auf die Netzwerkressource zugegriffen werden konnte. Im Explorer konnte ich aber noch problemlos durch alle Ordner navigieren. Daher ging ich erst mal von einer kurzen Störung in meinem Netzwerk aus und wollte die Datei abermals kopieren. Da hieß es dann sie sei schon vorhanden und siehe da, plötzlich wurde sie auch im Ordner des NAS angezeigt. OK womöglich war die Datei also doch angekommen, die Größe stimmte zumindest. Jetzt wollte ich die Datei nur noch eben umbenennen da mir ein Tippfehler im Dateinamen aufgefallen war, doch leider die nächste Meldung "Datei wird bereits von einem anderen Prozess verwendet". Sehr seltsam. Ein Überprüfung der laufenden Prozesse auf dem NAS ergab das 3 Samba Prozesse das System voll auslasteten (jeder halt grob 33,3%, leicht schwankend).


    "Der Anfang vom Ende":
    Also dummer alter Windows User (mache immernoch zu wenig mit Linux...) dachte ich mir nun "ok wenns nicht tut, reboot".
    Also über das Webinterface einen Reboot eingeleitet und seit dem geht nicht mehr viel.


    Egal ob mit beiden Platten, nur je einer Platte oder ganz ohne Platten, das NAS fängt an zu booten - wenn angeschlossen fahren die Platten hoch - und dann blinkt es nur noch munter grün/rot vor sich hin. Auch ein Voller Reset - Reset Button ca. 10 Sekunden beim Anschalten des NAS gedrückt halten - bringt leider keine Abhilfe. Auch im LAN ist es nicht mehr zu finden, sprich ich habe keinen Zugriff per SSH/Telnet. Was mich beim Reset jedoch auch wundert bzw. ich schon irgendwie vermute das er gar nicht richtig durchgeführt wird:
    1. laut Anleitung muss das NAS 2 mal in gewissen Abständen piepen, bei mir kommt der übliche Start-Piepton und direkt danach ein weiteres Piepen dann nach 10 Sekunden Reset losgelassen und nach einigen weiteren Sekunden kommt noch ein Piepen.
    2. bei meinen Versuchen das Gerät doch wieder zum Leben zu erwecken bzw. Zugriff drauf zu kriegen, habe ich es 1 Mal geschafft das es, bei nur 1er angeschlossenen Platte, nur sehr schnell rot geblinkt hat, also wohl Hinweis auf degraded Mode. Da ging ich an sich davon aus das mit der zweiten Platte nur das Raid überprüft werden müsste, was natürlich einige Stunden dauern kann. Aber wenn ich die zweite Platte anschließe erfolgt nach dem hörbaren Hochfahren der Platten kein wirklicher Zugriff mehr. Ich habe es mal eine Nacht lang durchlaufen lassen und in Abständen von vielleicht 15min hörte es sich immer mal so an, als würde für 0,5-1sek auf die Platten zugegriffen. Aber prinzipiell gab es wieder nur rot/grünes Blinken und die LAN-LED flackert ab und an mal.


    Ganz ohne Platten oder mit nur einer Platte das gleiche Spiel. Das schnelle Blinken der roten LED, sprich einen möglichen Hinweis auf den degraded Mode, habe ich nicht mehr hinbekommen. Egal mit welcher Platte ich es versucht habe.


    Die Platten an sich sind aber wohl in Ordnung und das NAS sollte ja auch ohne Platten booten wie ich gelesen habe.


    Frage:
    Ich gehe schon davon aus das ich mein NAS wohl einschicken muss, wollte aber dennoch mal fragen ob vielleicht jemand noch eine Idee was ich noch machen könnte.


    Reset länger drücken? Reset erst nach dem ersten Piepton drücken? Gibts irgendwo eine Art CMOS Batterie die man abklemmen kann?
    Bin für jeden Tip dankbar der mir das läsige Einschicken ersparen würde. Zum Glück bin ich noch innerhalb der ersten 6 Monate, aber dennoch hab ich an sich keine Lust aufs Einschicken ;D

    Hallo zusammen.


    Bei mir liegt das Problem vor das die Backups einfach nicht durchlaufen. Ich versuche jetzt seit 4 Tagen mal ein Vollständiges Backup per Synchronize auf eine externe USB Festplatte zu ziehen, leider ohne Erfolg.


    Konkret geht es um ~200GB Daten die vom TS-219P auf eine externe USB WD MyBook Platte kopiert werden sollen. Was mich schon stutzig macht ist die Dauer des Vorgangs. Denn wenn ich das Backup gegen 8 Uhr starte ist es bis 17 Uhr noch immer nicht durchgelaufen. Mir ist aufgefallen das es gerade bei großen Dateien (SVN Repository Dumps die auch schon mal 5Gb groß sind) extrem lange dauert diese zu kopieren. Daher starte ich den Backup Vorgang und lasse ihn den ganzen Tag und halt auch nachts durchlaufen in der Hoffnung am nächsten Morgen endlich eine Sicherung zu haben.


    Und jedes Mal komme ich morgens wieder ins Büro, NAS und USB-Platte sind ordentlich aktiv, aber es werden (scheinbar) keine Daten mehr kopiert und es ist für mich nicht ersichtlich was da noch vor sich geht. In den Logs ist nichts zu sehen und laut Status der Adminoberfläche läuft das Backup noch, aber es kann ja nicht sein das ich um 17 Uhr bei einem Status von 49,8% das Büro verlasse und am nächsten Morgen alles immer noch bei 49,8% steht. Wobei ich wärend der Arebitszeit schon alle 15-30min mal nachgucke ob sich was getan hat und in der Zeit ist auch immer mal wieder eine Aktivität zu sehen bzw. ich kann halt auch feststellen das noch Daten auf die USB Platte geschaufelt wurden. Das backup bleibt auch nicht immer beim selben Stand stehen. Dann hätte ich aj wenisgtens einen Ansatzpunkt. beim ersten Mal waren es 0,1%, dann waren es mal über 50%, dann mal Backup failed und heute morgen eben 49,8%. Es sind nie die gleichen Daten die Probleme machen, mir fehlt da wirklich ein konkreter Ansatzpunkt und ich kann immer nur weiter vermuten.


    Sowohl die Platten im NAS sind laut Test in Ordnung als auch die neu gekaufte WD MyBook Platte scheint fehlerfrei zu sein laut HDD Tune. Von daher würde ich einen Hardwarefehler an sich ausschließen. Es könnte natürlich ein Inkompatibilität vorliegen, aber dafür sieht mir das Problem doch etwas zu seltsam aus. Die USB Platte ist allerdings als NTFS formatiert, da wir an sich nur auf einem Server Linux einsetzen und ansonsten von den anderen Systemen die im Notfall mal auf die USB Platet zugreifen könnten/müssten nur Windows einsetzen. Ich habe mich vorher etwas eingelesen und man findet etwas wiedersprüchliche Aussagen zum Einsatz von NTFS. Mal heißt es, es sei langsam und problematisch, mal heißt es es sei problemlos und auch schnell, daher habe ich doch erst mal beschlossen es zu testen. Könnte hier die Ursache des Problems liegen?


    Gibt es noch irgendwie eine Möglichkeit mal in Logs reinzugucken die nicht nur über die Web Oberfläche einsehbar sind um vielleicht mal herausfinden zu können was da vor sich geht? Ich würde nämlich einerseits gerne mal die neuste Firmware einspielen, denn zur Zeit läuft noch die 3.1.2 Build 1014T und natürlich hätte ich gerne mal eine Lösung um noch etwas mehr Sicherheit der Daten zu haben. Einen Fehler in der Firmware habe ich sonst auch schon vermutet da ja durchauch mal Memory Leaks gestopft wurdem und womöglich ein Bug die vollständige Ausführung des Backups verhindert.


    Aktuell kopiere ich die Daten einfach mal per SSH um danach wenigstens das FW Update einspielen zu können. Aber es wäre schon schön mal etws mehr Gewissheit zu haben um endlich die Daten auch nochmal zusätzlich sichern zu können.


    Wäre super wenn mir jemand noch ein paar zusätzliche Denkanstöße geben könnte oder halt nen Tip hat was man sich mal sinniger Weise angucken könnte.


    Nachtrag:
    Es könnte wirklich an NTFS gelegen haben, denn jetzt habe ich doch mal auf ext3 umgestellt und zumindest bisher scheint es wesentlich schneller zu laufen, was für mich schon mal ein gutes Zeichen ist.


    Nachtrag 2:
    Innerhalb von gut 30min wurde jetzt schon so viel kopiert wie gestern über den Zeitraum von gut 8 Stunden.
    Von daher kann ich für meinen Teil gerade auch nur von der Nutzung einer NTFS Platte abraten und denke mal das sich das Problem erledigt hat. Ich werde hier nochmal berichten bzw. den Thread auf gelöst setzen so ich denn dann wirlich ein 100% fertiges Backup habe :)


    Nachtrag 3:
    So nach nicht mal 2 Stunden ist das backup durchgelaufen. So hatte ich es mir vorgestellt.
    Klares Fazit: Finger weg von NTFS.

    Hallo zusammen,


    nach einiger Fummellei habe ich es, auch dank der Anleitungen hier im Forum, nun endlich geschafft OpenVPN auf meinem TS-219 Pro II zum laufen zu kriegen. Subversion ist schon länger eingerichtet und kann auch problemlos lokal genutzt werden.


    Nun soll folgendes realisiert werden:
    - NAS lokale IP 192.168.100.165
    - Zugriff im lokalen Netz auf svn durch svn://192.168.100.165:4000/repository (das funktioniert wie gesagt schon)
    - OpenVPN auf NAS mit Server IP: 10.8.0.1 (läuft auch, Verbindung kann hergestellt werden)
    - Zugriff auf SVN durch svn://10.8.0.1:4000/repository <-- hier scheitert es bisher


    Bisher läuft alles auf einer sehr betagten Ubuntu Kiste über http, sprich dort ist der zugriff auf das SVN sowohl über die lokale IP als auch über das VPN problemlos möglich. Nur soll der alte Rechner nun endlich mal ausgemustert werden und das SVN soll auch nicht mehr über http laufen.


    Vielleicht hat hioer ja jemand noch einen entscheidenden Tip, dafür wäre ich sehr dankbar.


    Hier naoch die server.conf (auskommentierte Zeilen und die Keys/Zertifikate hab ich mal rausgelassen)

    Code
    port 3337proto tcpdev tunserver 10.8.0.0 255.255.255.0keepalive 15 120mute 30## Logstatus /opt/etc/openvpn/log/status.loglog-append /opt/etc/openvpn/log/openvpn.logmanagement localhost 7505


    Ich habe es auch mal mit

    Code
    # Route
    push "route 192.168.100.0 255.255.255.0"


    probiert. leider auch ohne erfolg. Zumal ich dann mit dem Client nicht mehr in den Rest des Netzwerks komme udn auch nicht mehr ins Internet. So soll es ja auch sein das vom OpenVPN aus nur der Zugriff auf das NAS möglich ist.


    Oder ist der Port hier das Problem? Da läuft ja alles seitens des SVN durch http auf Port 80 und es funktioniert, auch wenn das OpenVPN an sich über einen anderen Port läuft.

    Meine Erfolge bisher sehen schon so aus:
    - 1 Linuxserver mit der diverse virtuelle Maschinen zur Verfügung stellt und auch für klinere, interne Web-Projekte verantwortlich ist (da soll schon lange mal Trac laufen...aber ich komem nicht dazu)
    - 1 Linuxserver für Projekte die auch extern bearbeitet werden müssen
    - 1 Testrechner (da bin ich fast vom Stuhl gefallen wo ich anfansg gesehen hab wie getetset wird *g*)
    - NAS


    Das alles in grob nem halben Jahr, da bin ich schon stolz auf mich hehe. Nur muss ich mich halt auch überall mühsam einarbeiten und das (hier sitzen an sich nur Leute die Linux nicht über den Weg trauen *g*) hilft da nicht weiter. Bin hier leider grob der Einzige der immer etwas am Ball bleibt. Ist für mich auch unverständlich, aber es liegt auch etwas daran das einfach keine Zeit dafür vorhanden ist, dass ein Mitarbeiter sich mal nen Tag dransetzt und sich irgendwelche neuen Sachen anguckt. Meiner Meinung nach sollte sich das ändern bzw,. sollte es, wie du schon richtig sagst, Pflicht sein das es die Möglichkeit gibt. Aber aktuell muss ich alles immer privat testen, weils mich halt auch interessiert.

    Danke für den Link.


    Und wenn du wüsstest wie lange es gedauert hat bis ich das NAS hier bekommen habe und die Projektleitung dem Ding noch immer nicht traut. Man setzt lieber auf einen Rechner der, sagen wir mal den Windows Xp Release noch sehr aktive miterlebt hat ;D Backups werden wöchentlich gemacht...immerhin.


    Aber von daher wirds schwer hier mal eben was neues ins Spiel zu bringen, zumal auch andere Firmen in Projekte mit eingebunden sind und umgestellt werden müssten ;)


    ich werde es mir privat wohl mal angucken, denn zu Hause wollte ich mir auch mal ein NAS zulegen, aber in der Firma muss es halt Subversion sein und halt am besten jetzt so auf dem neuen NAS. Damit die Leutchen der kleinen Kiste endlich trauen.

    So etwas verspätet nochmal eine (Rück-)meldung von mir:


    Die Platte wurde jetzt getauscht und verrichtet ordnungsgemäß ihren Dienst, die alte wird wohl beim Hersteller in den Müll wandern ;D


    Ansonsten ließ sich die Problematik des nicht automatisch startenden SVN leider nicht beheben. Ich muss es weiterhin manuel anstoßen damit es läuft, was hier der Projektleitung recht sauer aufstößt. An sich läuft das NAS 24/7, aber falls doch mal ein Reboot von Nöten ist, sollte der Dienst schon automatisch laufen. Und wie bereits erwähnt, kenne ich mich mit Linux bzw. den Bash-Skripten dafür dann doch zu wenig aus, finde es halt nur arg seltsam das zwar alle möglichen Testausgaben funktionieren, aber genau der Befehl, der manuell ausgeführt Subversion startet, im Skript eingebunden wohl nicht ausgeführt wird.


    Gibt es eine Möglichkeit da noch eine extra -Logging-Funktion mit einzubauen, um herauszufinden was genau den Start von Subversion verhindert?

    Zitat von "Complicated"

    Hallo OnkelHomie,


    hier hast du einige Beispiele von Festplatten Geräuschen die dir vielleicht helfen das ganze besser einzuordnen:
    http://www.derpcfuchs.de/festplatten-gerauesche.html


    Gruß Complicated


    Sehr lustige Sache :D


    Hab mal als PC-Techniker gearbeitet, von daher kenne ich mich da schon etwas aus und meine erste Vermutung ging ja eh in Richtung baldiger Platten-Tod :|


    Ich fand das Verhalten bzw. die reproduzierbarkeit des Fehlers nur so seltsam, dass ich doch mal nachfragen wollte. Denn mit den Qnap Systemen hab ich bisher noch keinerlei erfahrung.

    Ok besten Dank nochmals.


    Ich gehe auch mal davon aus das die Platte es nicht mehr lange macht. Fand es halt nur seltsam das es immer mit einer änderung der autorun.sh einhergeht. Lasse ich das Script in Frieden, dann bootet das NAS auch ganz normal und fängt mit dem Restore des Raids an. Und zudem sind die smart werte ja auch bestens. Aber nun gut, ich habs auch schon oft genug erelbt das laut Smart alles ok ist und dann sich dann doch ein Hardwaredefekt eingeschlichen hat.


    Die Platte fliegt dann wohl morgen mal raus und wird dann getauscht, sollte sich da nicht noch überraschend etwas ändern :?


    edit:
    Das mit dem Script klappt leider auch noch nicht. Muss ich morgen auch nochmal etwas fummeln. Heute komme ich nicht mehr dazu.
    Irgendwie habs ichs immer so unter Linux das ich Sachen manuell ausführen kann, aber kaum sollen sie automatisch abluafne (cronjob, autorun.sh etc.) geht nichts mehr :D

    Also die Shebang hab ich schon mal vergessen ;D
    Bin jetzt nicht so der Linux Profi, vor allem was Skripte angeht.


    Daher hätte ich auch noch eine Frage:
    In manchen Anleitungen findet man den Eintrag für die Autorun.sh so wie ich ihn oben gepostet habe, sprich in runden Klammern und mit eine sleep Befehl davor und dem & dahinter. In anderen Anleitungen wird angegeben das man einfach per echo die entsprechende zeile einfügen soll und das wird dann immer ohne Klammern, Sleep oder sonst was gemacht. Könnte da auch noch ein fehler liegen?


    Aber ich werde mich mal an deinen Tips versuchen, vielen Dank.


    edit:
    Nur noch zur Info: Hatte mich im Threadtitel vertippt, hier steht ein TS-219Pro II ;)


    edit: 2
    So ich habe die Shebang jetzt mal reingenommen und die autorun.sh mal ganz einfach gestaltet:

    Bash
    #!/bin/sh(sleep 10;/sbin/write_log "Ich bin die autorun.sh" 4 ) &


    Das ist das komplette Script.


    Und es wurde auch ausgeführt:

    Zitat

    2009-11-02
    116
    15:16:49 System 127.0.0.1 localhost Ich bin die autorun.sh


    Aber das Klackern bleibt, sobald ich das Skript mal bearbeitet habe.


    edit 3:
    Wenn ich es richtig verstanden habe müsste die autorun.sh dann also für das SVN wie folgt aussehen:

    Bash
    #!/bin/sh
    (sleep 10; /opt/bin/svnserve -d --listen-port=4000 -r /share/MD0_DATA/subversion/svnserve.conf) &

    Hallo zusammen.


    Ich habe bei meinem NAS ein etwas "seltsames" Phänomen. Zunächst habe ich Subversion eingerichtet mit all den Anleitungen die man hier im Forum findet. Dann wollte ich testen ob der automatische Start des Dienstes funktiniert, habe das Gerät also über die Energieverwaltung neustarten lassen. Beim Bootvorgang klackerte dann die 2 HDD, ganz so als würde der Lese-/Schreibkopf hängen bleiben. Ich habe also zunächst einen Hardwaredefekt vermutet. Dann habe ich jedoch einen weiteren Neustart durchgeführt und siehe da, es läuft wieder alles bestens. Das Raid 1 hat sich wieder synchronisiert und auch der intensive S.M.A.R.T Test ergab für die Platte keinen Fehler. Da der svn Dienst aber nicht automatisch gestartet wurde, habe ich abermals die SVN-Konfiguration geändert, wollte wieder neu starten und erneut fiel die zweiet Platte aus.


    Der Fehler ist jetzt reproduzierbar, sprich:
    - booten -> kein Problem -> Konfig Änderung autorun.sh
    - Neustart -> Klackern
    - Neustart -> kein Problem


    Daher wollte ich mal nachfragen ob hier vielleicht etwas dergleichen bekannt ist.


    Bei den Platten handelt es sich um das Model Seagate ST3750330NS SN06.


    Weiterhin wundert es mich auch das SVN einfach nicht per autorun.sh starten will.
    Mein eintrag in der autorun.sh sieht wie folgt aus:

    Code
    (sleep 10; /opt/bin/svnserve -d --listen-port=4000 -r /share/MD0_DATA/subversion) &


    Das sollte meiner Meinung nach gemäß den Anleitungen hier im Forum/Wiki korrekt sein. Dennoch muss ich den Dienst


    Manuell kann ich den Dienst problemlos starten:

    Code
    svnserve -d --listen-port=4000 --root /share/MD0_DATA/subversion/repos --config-file /share/MD0_DATA/subversion/svnserve.conf


    Vielleicht weiß da auch noch jemand Rat.


    Besten Dank schon mal im Voraus.


    edit:
    Jetzt ist der fehler bezüglich der klackernden HDD 2 mal hintereinander aufgetreten, was weiterhin auf einen Plattenfehler hindeutet. Aber womöglich liegt der fehelr ja doch noch woanders. Denn scheinbar tritt das Problem nur auf wenn etwas an der autorun.sh geändert wird.