Beiträge von jpr

    Ich würde sagen aus der Sicht des Initiators: Ja


    Du bindest beide Targets als einzelne Platten ein und erzeugst dann ein Volume über beide Targets.


    Ob das Sinn macht, wenn eins der beiden nicht verfügbar ist, bleibt fraglich.


    Interessant wäre die Option eines RAID 1 aus Initiator-Sicht über beide Platten...


    Jan

    Folgendes wäre aber möglich:


    - Du kopierst den Inhalt der beiden 160GB Platten auf die eSATA-Platte und baust die beiden Platten dann ins NAS ein


    - Die Platten im NAS werden neu formatiert und sind unverschlüsselt. Wenn Du möchtest, kannst Du hier einen RAID 0 erstellen


    - Du legst auf der/den Platten ein iSCSI-Target in der gewünschten Größe an und bindest das Target auf deinem PC als Festplatte ein


    - Du verschlüsselst das iSCSI-Target (Die "virtuelle" Platte in deinem PC) komplett mit TrueCrypt


    = Damit hast Du zwar unverschlüsselte Platten in deinem NAS. Die Containerdatei von iSCSI sind dann allerdings komplett verschlüsselt.


    Problematisch ist die eSATA-Platte. Da ich nur ein 219 habe, kann ich dir nicht sagen, ob du auf der eSATA-Platte ein iSCSI-Target erzeugen kannst. Eventuell über ssh. Bei USB-Platten geht das über die Web-GUI definitiv nicht.


    Ich würde mir aber bei deinen Platten überlegen, ob ich nicht gleich die eSATA-Platte ausbaue und als SATA-Platte unverschlüsselt in das NAS einbaue und dann das iSCSI-Target auf dieser Platte erstelle.


    Verschlüsselung direkt auf dem NAS wird erst ab Modell 239P unterstützt.


    Jan

    Was verstehst Du unter gemounted und eingehangen?


    Wenn ich einen ls -la in dem Verzeichnis machen, liegt dort eine Datei, nämlich das Containerfile, das ggf. 300GB groß sein kann.


    Aus NAS-Sicht: Eine große Datei


    Code
    /share/HDA_DATA/.@iscsi.img# ls -la
    drwxrwxrwx    2 admin    administ     4096 May 25 13:31 ./
    drwxrwxrwx   19 admin    administ     4096 Jul 25 10:51 ../
    -rw-------    1 admin    administ53687091200 Jun 26 19:00 iSCSI-ws1vm1-4a1a819c.000


    Aus Initiator-Sicht: Eine "Festplatte"


    Jan

    Was hat SQLite mit SVN zu tun?


    <EDIT>


    Sorry, habe gerade folgendes bei tigirs.org gefunden:

    Zitat

    New Dependency: SQLite
    We now require SQLite to build both the server and client. We recommend 3.6.13 or greater, but work with anything better than 3.4.0. Subversion will attempt to use an SQLite amalgamation if it is present in the root of the distribution tarball, otherwise, Subversion will search for SQLite in the usual places on the system. You may also pass --with-sqlite to configure to specify the location of the SQLite library or amalgamation you wish to use.


    Mir scheint, dass in dem Package, das du benutzt, eine falsche SQlite-Lib eingebunden ist. Eventuell hilft ja diese Option --with-sqlite.


    Gib mal

    Code
    svnadmin --version

    ein und poste das Ergebnis.


    Im Prinzip ist das folgende obsolet, aber ich lass es mal stehen.


    </EDIT>


    <EDIT2>
    Das hat mich jetzt nicht ruhen lassen. Daher:


    </EDIT2>


    <EDIT3>


    Vielleicht liegt das an einem veraltetem Optware-Package, da in diesem Sqlite installiert wird. Mach doch mal ein Update von dem Optware-Package. Falls das nicht klappt: Lösch mal das Optware-Package und installier es dann neu.


    Bei mir steht in der

    Code
    /share/HDA_DATA/.qpkg/Optware/lib/ipkg/info/sqlite.control


    folgendes drin:


    Wenn der Update nichts bringt, wirds schwierig...


    </EDIT3>


    Ich habe bei mir (TS-219) einen SVN-Server auf Filesystem laufen und der funktioniert wunderbar.


    Hast Du Dich mit putty angemeldet und dann folgende Dinge geprüft:


    1. Läuft der svn-Server?


    Code
    ps -ef|grep svn


    2. Lege z.B. ein Verzeichnis /share/HDA_DATA/test an (HDA_DATA ist bei mir der Plattenname) und mache dann ein


    Code
    svnadmin create /share/HDA_DATA/test


    Jetzt wechselst Du ins /share/HDA_DATA/test-Verzeichnis und kontrollierst, ob die entsprechende Repository-Files und Verzeichnisse angelegt wurden. Passe eventuell die Einträge im conf-Verzeichnis an (authz, passwd, svnserve.conf


    3. Verbinde Dich mit einem svn-Client auf den Server über das svn-Protokoll. Funktioniert das?


    Jan

    Hi,


    iSCSI läuft bei mir auf einem TS 219 seit 3 Monaten ohne Probleme. Ich habe dort VMWare-Images liegen, die von einem VMWare-Server genutzt werden. Zusätzlich macht die Timemachine von meinem Mac das Backup auf ein iSCSI-Target auf dem NAS.


    Meine Platten sind allerdings nicht gespiegelt. Ich kann also keine Auskunft über das Verhalten bei RAID 1 geben.


    Gespeichert werden die Container-Dateien auf der jeweiligen Platte x unter:


    /share/HDx_DATA/.@iscsi.img/CONTAINERNAME


    Problematisch ist momentan die Sicherung der Container, da hierfür noch kein Mechanismus vorhanden ist. QNap scheint aber an einem Snapshot-Service zu arbeiten, da diverse Scripts darauf hindeuten:


    /etc/init.d/snapshot.sh


    Insgesamt sehr positive Erfahrung mit iSCSI auf einem Qnap-NAS


    Jan

    Hi,


    folgende Fragen:


    - Hast Du eine feste IP-Adresse im Internet? Du willst ja auch gefunden werden...
    - Folgende Möglichkeiten existieren:


    1. Das von Dir angesprochene FTP -> Ist nicht sicher und von DIr nicht gewollt
    2. Samba / SMB-Sharing -> Das versteht man bei Windows unter einer Netzwerkfreigabe. Funktioniert auch mit dem Mac. Damit wäre ich aber beim Zugriff über das Internet sehr vorsichtig. Dein Router müsste die entsprechenden Ports dann auf das NAS weiterleiten (Port-Forwarding / NAT)
    3. Web-basierte Freigabe über http/https -> Kann mit SSL verschlüsselt werden. Hier kannst Du den mit gelieferten Filemanager verwenden oder den als QPKG runterladbaren AjaXplorer.
    4.iSCSI scheidet nicht nur wg. der 409 aus. Es setzt eine schnelle (am besten 1GBit) und verlässliche LAN-Anbindung voraus, die beim Internetzugriff nicht gegeben ist. Ausserdem können die Daten dort nicht von mehreren Orten gleichzeitig angesprochen werden.


    Am einfachsten wäre die Verwendung von Punkt 3. Bei Verwendung mit SSL auch einigermassen sicher. Ist aber Browserbasiert und integriert sich damit nicht besonders gut.


    Punkt 2 SMB-Sharing ist am komfortabelsten, aber über das Internet nicht sicher.


    Zu überlegend wäre die Verwendung von VPN. Damit bindest Du den über das Internet zugreifenden Rechner über eine verschlüsselte Verbindung in dein LAN ein und kannst dann so arbeiten, als wäre der Rechner lokal angeschlossen. Hier stehen OpenVPN zur Verfügung. Aber leider gilt hier: Ohne entsprechende Wissen nicht ganz so einfach konfigurierbar. Irgendwo möchten die IT-Fachleute ja auch noch was verdienen ;)


    Du musst Dir also überlegen, welche Anforderungen für Dich am wichtigsten sind und welchen Aufwand/Kosten Du bereit bist zu investieren.


    Jan

    Wieso, die 219 hat doch auch iSCSI und virtuelle Disks. Hier muss auch mal auf Aufwand und Nutzen geschaut werden:


    TS239 bringt mir, wenn ich die Lastenverteilung nutzen möchte nur was, wenn ich direkt auch einen neuen Switch und neue NICs für die Clients kaufe. Geschätzt 800+ EUR


    TS219 geschätzt 350-400 EUR


    Arbeitsaufwand jetzt mal nicht betrachtet und HDDs sind ja vorhanden.


    Bei mir macht die 219 im GBit-Lan im Schnitt 50MB/sec sowohl Lesend, als auch Schreibend. Selbst wenn ein Audio-Stream, ein HD-Stream, Timemachine-Backup und VMware VM mit Mailserver über iSCSI parallel laufen, merkt man kaum Einbußen.


    Jan

    Da stimm ich zu: Wahrscheinlich reicht eine 219 auch schon. Ich sehe nur momentan keinen Grund alles auf GBit umzustellen, weils so schön ist. Wenn alles mit dem Laptop als Ersatzserver performant mit 100MBit läuft, dann wird die CPU-Last auf dem NAS das Problem sein, da ja sonst am Netzwerk nichts geändert wurde.


    Rein Interessehalber würde mich der Last-verursachende Prozess trotzdem interessieren. Mein Tipp wäre smbd :D


    Jan

    Schau mal unter Zugriffskontrolle -> Freigabeordner


    und zeige Dir die Eigenschaften von der Freigabe an, auf der die Datenbank-Dateien liegen. Dort gibt es einen Eintrag "Dateisperre (oplocks)". Ist der aktiviert oder nicht?


    Je nach Anwendung macht es Sinn, die oplocks auszuschalten:


    Zitat

    oplocks hat geschrieben:
    Wenn Sie „Ja“ wählen, lautet der Oplock-Wert des Netzwerkfreigabes in smb.conf ja. Wenn ein Anwender mit Schreibzugriff eine Datei im Netzwerk-Freigaben über eine Microsoft-Netzwerkverbindung (samba) öffnet und diese Datei von einem weiteren Anwender auf identische Weise geöffnet wird, so wird die Datei beim letzteren Anwender schreibgeschützt geöffnet.
    Wenn Sie „Nein“ wählen, lautet der Oplock-Wert des Netzwerkfreigabes in smb.conf nein. Jeder Anwender mit Schreibzugriff kann die Dateien im Netzwerk-Freigaben per Microsoft-Netzwerkverbindung (samba) öffnen.


    Du spiegelst die Daten ja mit Raid 1. Auch das kostet entsprechend Performanz. Mit dem Aufrüsten auf Gigabit würde ich warten und vorher eher ein schnelleres NAS wählen. Hier wird vergessen, dass das ganze mit einem Laptop (!!!!) als DB-Server ja ordentlich läuft. Zu den Kosten für den Switch kommen ja, je nach Client, noch 6 1-GBit Netzwerkarten dazu. Die müssen dann auch eingebaut und konfiguriert werden. Was sind denn das für Client-Rechner? Eventuell lohnt sich GBit da gar nicht mehr...


    Jan

    Was mich irritiert, ist die hohe CPU-Last auf dem NAS beim Zugriff von 6 Clients über 100 MBit-Anbindung. Ich sehe das Problem eher beim NAS und denke, dass eine 219/239 hier deutlich was bringen würde. Wenn 6 Clients mit 100 Mbit 95% CPU erzeugen, dann bringt 1Gbit auch nicht viel mehr.


    Kann es sein, dass die Dateisperre (oplocks) was damit zu tun hat? Wie ist die bei der Freigabe für die "Datenbank"-Dateien gesetzt?


    Jan

    Bescheidene Frage:


    Wie wird die Datenbank angesprochen? Von jedem Client einzeln oder zentral über einen DB-Server? Und wenn DB-Server: Welcher? Doch nicht etwas der MySQL-Server auf dem NAS, oder?


    Wie sind die Clients angebunden? GBit-LAN oder 100MBit oder WLAN? Gib uns mal eine etwas genauere Beschreibung, damit eine qualifizierte Antwort kommt.


    Ansonsten gilt: Mit ner 219 oder 239 wirds bestimmt nicht schlechter.


    Jan

    Zitat von "christian"

    @ jpr
    Soweit ich das jetzt erlesen habe ist es kritisch Backups vom iSCSI Target zu ziehen und paralell zu schreibe. Stichwort inkonsistent!


    Das Problem wird man, solange die Backupsoftware kein Locking bzw. das OS kein Shadow-Writing unterstützt, immer haben. Wir sprechen hier ja von einem Backup vom Backup.


    Von der Mac-Seite wäre folgendes Szenario mal interessant:


    2 Festplatten: 1 * iSCSI und 1* Firewire/USB


    Anlegen eines Raid-1 zwischen der iSCSI-Platte und der lokalen Platte und das Volume dann als Ziel für die Timemachine verwenden. Wenn dann abends der Mac ausgeschaltet wird, kann die externe Disk ja mitgenommen werden...


    Qnap arbeitet aber auch dran: http://forum.qnap.com/viewtopi…hilit=iscsi+target#p69354


    Jan

    Das wird so einfach nicht funktionieren.


    Du kannst, wenn Du iSCSI verwendest nur einen 1:1-Verbindung zwischen deinem Mac und dem iSCSI-Target auf dem NAS herstellen. Aus Sicht des Mac ist das Target eine ganz "normale" Festplatte und wird so genutzt. Aus Sicht des NAS ist das iSCSI-Target eine riesige Datei, die, je nach Disk, im Verzeichnis /share/HDx_DATA/.@iscsi.img liegt. Diese musst Du dann Replizieren, was aber wg. der Größe schon einen Moment dauern könnte. Eventuell solltest Du die Timemachine während der Sicherung anhalten.


    Jan

    Hi,


    machbar auf den Modellen, auf denen eine aktuelle Java-VM läuft, also alle Modelle mit Intel-Prozessor (TS-*39, TS-509 und höher). Bei den anderen wird ws schwierig. Es gibt zwar spezielle embedded Java-VMs für die ARM-Prozessoren, aber leider momentan keine fertigen Pakete zur Installation.


    Jan