Hast du die externe Domain auch als einer der "server_name" angegeben? Was sagt das Log?
Beiträge von marisse
-
-
Hat jemand Oracle VM VirtualBox produktiv zum Virtualisieren im Einsatz?
Produktiv? Also als "Server"? Nein, ich habe lediglich mal damit gespielt. Es gab (oder gibt noch?) eine WebGUI dafür, das war aber nicht so doll, allein schon wegen den Sicherheitslücken im Code. Ich nutze VirtualBox nur zur Virtualisierung von Windows-Clients, eine auf der Arbeit für die Telefonie und OneNote, privat für meine Geld-Sachen. Naja, und zum Testen halt...
-
Nein, so ist das nicht
Ich betreibe seit 2009 oder 2010 Proxmox-Server. Habe bisher noch keine schlechten Erfahrungen gemacht... naja, außer den Lizenzänderungen von DRBD, aber da kann Proxmox nichts für. -
Ein (oder mehrere) Server mit Proxmox und Du hast keine Lizenzprobleme
-
Für Privatpersonen ist es teuer, für Firmen ehr weniger. Habe erst letztens einen DELL-Server als Alternative für eine QNAP zusammengeklickt, QNAP: 2400€ und DELL 4100€. Klar, die CPU im Dell kann mehr, aber als Datengrab gedacht brauchte der Kunde die nicht. Ist ein Vergleich von Äpfel mit Birnen, aber trotzdem preislich interessant
-
Moin,
also grundsätzlich teile ich deine Meinung bzgl QNAP und deren Support sowie Update-Politik. Ich werde auch nicht direkt jedes Updates einspielen, zumindest warte ich mindestens eine Woche ab und schaue mir die Foren an
-
Ich habe das in einer VM mit 2 vCPUs und 2 GB RAM. Da laufen aber noch ein paar andere "leichtgewichtige" Dienste drauf.
-
Ich mache das mit NginX, allerdings in einer VM. Läuft sicherlich auch in einem Container gut. NginX als RevProxy braucht kaum RAM. Certbot mit drauf und du hast alles was du willst
-
Habe eine QNAP als Domaincontroller beim Kunden laufen. Im Schnitt arbeiten 10-14 Personen parallel. Habe eine Windows-10E-VM für die RSAT-Tools installiert, eine zweite VM für Check_MK und Webserver. Performance ist super, stabil ist es auch. Ist eine TVS-871U-RP-I5-8G+8G. Hab natürlich SSD-Cache R/W und schnelle Platten eingebaut. Mail wird extern gehostet.
Bei einem anderen Kunden habe ich Mailcow als VM (Docker innerhalb der VM!) als Maillösung laufen, das läuft auch super stabil.Einige Dinge muss man bei QNAP über die Console machen, aber mit samba-tool und getcfg/setcfg kann man schon Einiges erreichen.
-
Hi,
ich habe es so gemacht, zumindest nach einem Reboot ist die Einstellung geblieben. Wie es nach einem Update aussieht kann ich noch nicht sagen. Wichtig: Bash starten, diese komische default-Shell ist Mist.
Code
Alles anzeigen[~] # bash [admin@NAS ~]# /usr/local/samba/bin/samba-tool domain passwordsettings show Password informations for domain 'DC=***,DC=intra' Password complexity: on Store plaintext passwords: off Password history length: 0 Minimum password length: 8 Minimum password age (days): 0 Maximum password age (days): 0 Account lockout duration (mins): 30 Account lockout threshold (attempts): 0 Reset account lockout after (mins): 30 [admin@NAS ~]# /usr/local/samba/bin/samba-tool domain passwordsettings set --complexity=off Password complexity deactivated! All changes applied successfully! [admin@NAS ~]# /usr/local/samba/bin/samba-tool domain passwordsettings show Password informations for domain 'DC=***,DC=intra' Password complexity: off Store plaintext passwords: off Password history length: 0 Minimum password length: 8 Minimum password age (days): 0 Maximum password age (days): 0 Account lockout duration (mins): 30 Account lockout threshold (attempts): 0 Reset account lockout after (mins): 30
-
Hallo,
ich will meine Synology und meinen HP Microserver ablösen. Folgende Rahmenbedingungen sollte das neue System erfüllen:
- 4 HDDs im RAID6
- 2 SSDs Cache (2,5", mSATA, M2... egal)
- 1 VM (Ubuntu Server für Check_MK - 4 GB RAM, 2 vCPUs)
- ein paar Docker-Container nach Bedarf
- den ganzen SchnickSchnack wie Fernbedienung, HDMI etc brauche ich nicht, DLNA reicht für mein Multimedia-Konsum (Kodi auf FireTV)
- Lautstärke nicht so wichtig, da ein kleiner Schrank vorhanden ist.
Natürlich soll es für mich bezahlbar sein, sollte also im 3-stelligen Bereich liegen - wobei die Platten bereits vorhanden sind.Bin gespannt, welche Vorschläge (am besten mit Begründung) hier gepostet werden...
Was haltet Ihr von TVS-663 oder TS-653B?
VG
Marc -
Hale auf einer QNAP Piler (mailpiler.org) für die Mailarchivierung in einer VM installiert - läuft gut und ist simpel einzurichten.
Hier meine quick&dirty-Anleitung (Gedankenstütze - bitte nicht einfach copy&paste!!)Code
Alles anzeigendpkg-reconfigure dash apt-get install software-properties-common apt-key adv --recv-keys --keyserver hkp://keyserver.ubuntu.com:80 0xF1656F24C74CD1D8 add-apt-repository 'deb [arch=amd64,i386,ppc64el] http://ftp.hosteurope.de/mirror/mariadb.org/repo/10.1/ubuntu xenial main' apt-get install mariadb-server php7.0-mcrypt php7.0-mbstring mariadb-client php7.0-mysql nginx apt-get install libtre5 libzip4 gettext sysstat build-essential catdoc poppler-utils unrtf tnef memcached libpst4 curl php-curl openssl php-memcache php-gd libwrap0-dev libtre-dev libssl-dev libltdl7 libmysqlclient20 unrtf apache2-utils apt install libmariadb-client-lgpl-dev libzip-dev pst-utils add-apt-repository ppa:builds/sphinxsearch-rel22 apt-get install sphinxsearch add-apt-repository ppa:certbot/certbot apt-get install python-certbot-nginx certbot certonly --webroot --webroot-path=/var/www/ -d archiv.XXXXXXXXXXXXXXX mkfs.xfs /dev/sdb1 mount -o inode64 /dev/sdb1 /var/piler echo "UUID=af176309-3bad-457b-a7a6-f52168707773 /var/piler xfs rw,relatime,seclabel,attr2,inode64,noquota 0 1" >> /etc/fstab groupadd piler useradd -g piler -s /bin/bash -d /var/piler piler chown -R piler:piler /var/piler wget https://bitbucket.org/jsuto/piler/downloads/piler-1.3.1.tar.gz tar xvzf piler-1.3.1.tar.gz cd piler-1.3.1/ ./configure --prefix=/usr/local --sysconfdir=/etc --localstatedir=/var --with-database=mariadb --enable-starttls --enable-tcpwrappers make -j4 make install make postinstall echo "/usr/local/lib" >> /etc/ld.so.conf.d/piler.conf NginX: server { listen 443 ssl http2 default_server; listen [::]:443 ssl http2 default_server; root /var/www/piler; index index.html index.htm index.php; server_name archiv.XXXXXXXXXXXXXX; ssl_certificate /etc/letsencrypt/live/archiv.XXXXXXXXXXXX/fullchain.pem; ssl_certificate_key /etc/letsencrypt/live/archiv.XXXXXXXXXXXX/privkey.pem; ssl_protocols TLSv1.2; ssl_prefer_server_ciphers on; ssl_ciphers "EECDH+AESGCM:EDH+AESGCM:AES256+EECDH:AES256+EDH"; ssl_ecdh_curve secp384r1; ssl_session_cache shared:SSL:10m; ssl_session_tickets off; ssl_stapling on; ssl_stapling_verify on; resolver 8.8.8.8 8.8.4.4 valid=300s; resolver_timeout 5s; # disable HSTS header for now #add_header Strict-Transport-Security "max-age=63072000; includeSubDomains; preload"; add_header X-Frame-Options DENY; add_header X-Content-Type-Options nosniff; ssl_dhparam /etc/nginx/ssl/dhparam.pem; location ~ /\.ht { deny all; } gzip on; gzip_types text/plain application/xml text/css; gzip_vary on; location / { index index.php index.html; try_files $uri $uri/ /index.php; } location ~ [^/]\.php(/|$) { fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; fastcgi_split_path_info ^(.+?\.php)(/.*)$; if (!-f $document_root$fastcgi_script_name) { return 404; } include snippets/fastcgi-php.conf; fastcgi_pass unix:/run/php/php7.0-fpm.sock; } location ~* \.(ico|css|js|gif|jpe?g|png)$ { expires 2w; } rewrite /search.php /index.php?route=search/search&type=simple; rewrite /advanced.php /index.php?route=search/search&type=advanced; rewrite /expert.php /index.php?route=search/search&type=expert; rewrite /search-helper.php /index.php?route=search/helper; rewrite /audit-helper.php /index.php?route=audit/helper; rewrite /message.php /index.php?route=message/view; rewrite /bulkrestore.php /index.php?route=message/bulkrestore; rewrite /bulkremove.php /index.php?route=message/bulkremove; rewrite /bulkpdf.php /index.php?route=message/bulkpdf; rewrite /folders.php /index.php?route=folder/list&; rewrite /settings.php /index.php?route=user/settings; rewrite /login.php /index.php?route=login/login; rewrite /logout.php /index.php?route=login/logout; rewrite /google.php /index.php?route=login/google; rewrite /domain.php /index.php?route=domain/domain; rewrite /ldap.php /index.php?route=ldap/list; rewrite /customer.php /index.php?route=customer/list; rewrite /retention.php /index.php?route=policy/retention; rewrite /archiving.php /index.php?route=policy/archiving; rewrite /view/javascript/piler.js /js.php; location ~ /.well-known { allow all; } } server { listen 80; listen [::]:80; root /var/www/; server_name _default_ archiv.XXXXXXXXXXXXXXXXXXX; return 301 https://archiv.XXXXXXXXXXXXXXXXXX; location ~ /.well-known { allow all; } }
-
Moin,
ich brauche Ideen. Eine kleine Firma mit 4 Standorten möchte die verteilten Kameras an zentraler Stelle verwalten. Derzeit ist es so, dass die Kameras (Mobotix) einzeln per HTTP angesurft werden. Auf dem iPhone des Chefs läuft die Mobotix-App, die die Kameras zusammengefasst darstellt, das Anzeigen von vergangenen Events geht darüber aber nicht. Ebenso gibt es keine App für Android - schade dass das neue Tablets des Chefs ein Android ist
So, nun zum Problem: Der Zentrale Hauptsitz hat VDSL-50, das ist okay. Zwei Standorte haben jedoch nur DSL3000. Ich habe probehalber die SS auf einer alten QNAP in der Zentrale aufgebaut und eine Kamera der Außenstelle eingebunden. Ergebnis: Leitung dicht sobald sich etwas bewegt. Habe dann an der Auflösung etc etwas herum gespielt, so dass es gerade noch erträglich ist.
Jetzt meine Frage: bringt es etwas bzw. ist es überhaupt möglich, wenn man in den Außenstellen kleine QNAPs stellt, die die Kameradaten Archivieren und in der Zentrale eine QNAP diese verteilte Umgebung nur bei Bedarf (also auf Anfrage) abfragt? Leider finde ich zum Thema "Zentrales Verwaltungssystem" nur Marketing-Text ohne wirklichen Inhalt.
Und wie ist das mit den Lizenzen? Brauche ich auf dem zentralen System auch nochmal die ganzen Kameralizenzen oder genügt es, wenn die Außenstellen ausreichend lizensiert sind?
Ich stehe gerade etwas auf dem Schlauch und hoffe auf Input von EuchDaten:
Hauptstandort: VDSL50 - 2 Kameras
Außenstelle 1: DSL3000 - 2 Kameras
Außenstelle 2: DSL3000 - 3 Kameras
Außenstelle 3: DSL16000 - 3 KamerasDanke
Marc -
der einfachste Weg ist über die autorun.sh mit mount -o remount,size= ...
-
Moin zusammen,
bisher hab ich noch nie etwas mit Kameras gemacht ausser direkt per Browser auf die Kameras zuzugreifen (Mobotix). Jetzt stehe ich vor der folgenden Aufgabe: 7 Mobotix-Cams an 3 verschiedenen Standorten irgendwie managen und die Daten für einen Monat lang zu speichern. Nun meine Fragen: brauche ich pro Standort eine Qnap oder kann ich nur eine am Hauptstandort betreiben die dann permanent die Daten der anderen Standorte bekommt? Wenn ich an jedem Standort eine Qnap haben würde, kann ich dann trortdem die Daten zusätzlich zum Hauptstandort zwecks Sicherung etc transferieren und auf diese dann mit der SS daraf zugreifen? Gibt es ein Handbuch oder Beschreibungen verschiedener Konzepte? Kann die Smartphone-App mit den einzelnen Standorten umgehen?
Und wo genau liegt der Unterschied zwischen den normalen Qnap und den NVR Geräten? welche Features fehlen jeweils bei QTS und QVR bzw. wann braucht man QVR?Sorry für die Fragerei
Danke -
Ein ganz normaler Domain-Controller, nur eben auf Basis von Samba4. GPOs und Netlogon etc. sind kein Problem, einfach die Microsoft Remote-Tools auf einen Windows-PC (ggf. VM auf QNAP) installieren und schon kann die Domäne (zentral) ganz normal gepflegt werden.
(Mein nächster Schritt ist eine zweite QNAP als BDC, aber das erst nächste Woche)
-
Wie vorher schon mal irgendwo geschrieben: wenn der DNS Forwarder noch auf die NAS selbst zeigt ( getcfg -f /etc/smb.conf global "dns forwarder" ), kann man mit setcfg -f /etc/smb.conf global "dns forwarder" [ROUTERIP] die IP des Routers eingeben. Anschließend per DHCP die NAS-IP als DNS verteilen und gut ists... habe ich jetzt produktiv im Einsatz und keine Probleme (52 Clients).
-
beide Systeme langweilen sich
-
Hey, mich hat deine Fragerei nicht geärgert, sorry wenn das so rüber gekommen ist.
Okay, ganz strange. Habe jetzt herausgefunden wie die Backups auf die zweite NAS geladen werden... per HTTP?!?!?! :O
Code/sbin/curl -k --form fileName=VTSCMK.img --form file=@/share/VMs/VTSCMK/VTSCMK.img https://192.168.1.145:443/cgi-bin/filemanager/utilRequest.cgi?overwrite=1&sid=iu2ee1dg0n&func=chunked_upload&dest_path=/Backup/VTSNAS/VM/VTSCMK_backup/7331bc30-a715-41f8-bf2d-9d0cbe014bb3-151725400&upload_root_dir=/Backup/VTSNAS/VM/VTSCMK_backup/7331bc30-a715-41f8-bf2d-9d0cbe014bb3-151725400&upload_id=tmpeeyqcF&offset=0&filesize=14507900928&upload_name=image0.img -o /share/VMs/VTSCMK/tmp_1511725401217053952_VTSCMK.img
Dass man da keine große Performance erwarten darf ist ja fast schon klar.
Ich werden dann jetzt lokal sichern und diese Sicherung per rsync auf den zweiten Storage schieben... so hab ich dann meine erwarteten 120MB/s
-
Ich hab es jetzt mit nur einem Port getestet, wobei mir der Sinn nicht ganz klar ist. Jedenfalls wieder 8MB/s. Warum sollte das auch etwas ändern? Wie schon geschrieben, ich kann Daten mit 2GBit/s zwischen den NAS übertragen. Ich suche nach einem fest eingetragenen Limit beim Sync des Snapshots. Sonst wäre die Übertragungsrate nicht über eine Stunde lang genau bei 8MB/s - das ist kein Pi-mal-Daumen-Durchschnittswert sondern konstant die gesamte Stunde lang - auch unabhängig davon ob ich parallel noch per rsync Daten hin und her schiebe...