IIS in Windows Server 2012 R2 optimieren

Die Funktion ist standardmäßig bereits aktiviert und es sind einige Dokumente hinterlegt. Über das Kontextmenü kann die Funktion deaktiviert werden, zum Beispiel, wenn Sie die Funktion Verzeichnis durchsuchen konfigurieren. Auch neue Dokumente können an dieser Stelle hinterlegt werden.

Bereits vorhandene Dokumente lassen sich über deren Kontextmenü aus der Liste entfernen. Hierüber kann auch die Reihenfolge, in welcher der Server nach einem Dokument sucht, konfiguriert werden. Standarddokumente lassen sich auf Ebene des Servers, aber auch für einzelne Webseiten und Anwendungen hinterlegen.

Das Feature Verzeichnis durchsuchen aktivieren und verwalten

Neben der Anzeige einer Webseite, können Sie auch den Inhalt eines Ordners anzeigen lassen, um zum Beispiel Dokumente zum Download zur Verfügung zu stellen.

Aktivieren Sie im Internetinformationsdienste-Manager das Feature Verzeichnis durchsuchen und konfigurieren die Funktion, sehen Anwender den kompletten Inhalt des hinterlegten Ordners wie im Explorer, wenn in der URL nicht ein spezifisches Dokument hinterlegt ist. Auch wenn kein Standarddokument hinterlegt ist oder das Feature Standarddokument deaktiviert wurde, sehen Anwender in diesem Fall den ganzen Ordners, keine spezielle Webseite.

Standardmäßig ist dieses Features deaktiviert. Durch diese Funktion können schnell verschiedene Dateien zur Verfügung gestellt werden, zum Beispiel ohne eine HTML-Seite zu konfigurieren. Klicken Sie im mittleren Bereich der IIS-Konsole doppelt auf den Menüpunkt Verzeichnis durchsuchen.

Diese Funktion können Sie auf Ebene des Servers, also der Standardwebseite, oder für einzelne Webseiten und Anwendung aktivieren. Sollen nicht alle Ordner oder Dateien angezeigt werden, können Sie auch mit NTFS-Berechtigungen arbeiten.

Microsoft Operations Management Suite

Im Zentrum steht die schnelle und einfache Einrichtung, inklusive einer hohen Flexibilität und Skalierbarkeit.

Das Produkt arbeitet zwar mit System Center zusammen, lässt sich aber auch unabhängig davon buchen. Das heißt, Unternehmen können die Überwachung von Netzwerken mit Microsoft Operations Management Suite komplett unabhängig von System Center durchführen. Die Umgebung lässt sich umfassend testen (https://www.microsoft.com/de-de/server-cloud/operations-management-suite/overview.aspx). Einzelne Server im Netzwerk werden über einen Agenten angebunden. Dieser wird auf den Servern installiert, die mit der Cloudlösung überwacht werden sollen. Dadurch lassen sich auch kleine Infrastrukturen und Testumgebungen sehr schnell anbinden.

Eigene Server sind für die Microsoft Operations Management Suite nicht notwendig, alles was für den Betrieb gebraucht wird stellt Microsoft über die Cloud zur Verfügung. Auf den angebundenen Servern muss lediglich ein Agent installiert werden, der die notwendigen Daten zur Überwachung in die Cloud überträgt. Um die Lösung zu testen, lassen sich einige Server auch vollkommen kostenlos überwachen. Natürlich ist die Umgebung skalierbar, und lässt jederzeit die Anbindung an System Center oder andere Überwachungslösungen zu.

Von wegen Digital Natives!

Natürlich kennen sie dann auch kein Periscope aus eigener Anschauung. Und wie steht es mit Snapchat? Instagram? Pinterest? Alles Fehlanzeige! 20 bis 25-jährige Studierende, die einmal berufliche Erfolge im Journalismus oder in der Kommunikation erzielen wollen, sind im privaten Umgang mit sozialen Medien offenbar sehr zurückhaltend. Kollegen an anderen Hochschulen bestätigen mir dies. Aus ihrer Erfahrung liegen die Quoten bei der Social-Media-Nutzung junger Bachelor-Studenten zum Teil noch deutlich unter den genannten 30 Prozent.

Digital Native ist keine Qualifikation

Was heißt das für die Unternehmenskommunikation? Ganz einfach: In der digitalen Welt aufgewachsen zu sein, qualifiziert junge Menschen nicht automatisch für den Umgang mit sozialen Medien. Schon gar nicht für die Besonderheiten professioneller Online-Kommunikation im Geschäftsleben. Dennoch werden viele von ihnen – vor allem im Mittelstand – an die Social-Media-Front geschickt. Ein bisschen erinnert mich das an jene Unternehmer, die vor etlichen Jahren ihre Firmenwebsite von der Nichte haben gestalten lassen, weil sie gut in Kunst war und schon mal auf Facebook ein Foto hochgeladen hatte.

Den jungen Medienprofis von morgen ist absolut kein Vorwurf zu machen. Sie sagen mir ganz ehrlich, dass sie schlicht nicht wissen, was sie eigentlich posten sollen. Dahinter steckt sicher ein gerüttelt Maß an natürlicher Zurückhaltung, die vor Fehlern schützt. Viel entscheidender dürfte aber fehlendes Wissen über die Chancen und Risiken der Online-Kommunikation sein. In der Schule haben sie es nicht gelernt, denn ihre Lehrer kannten sich entweder selbst nicht damit aus oder hatten im straffen Lehrplan nur wenig Freiraum, diese Themen zu integrieren. In vielen Fällen konnten auch die Eltern keine große Hilfe sein – ebenfalls in Ermangelung entsprechender Kompetenzen und Zeitressourcen. An den Hochschulen bekommen sie zwar Grundkenntnisse von erfahrenen Lehrkräften vermittelt. Aber bei vielen Absolventen wird der Bedarf nach Training-on-the-Job bleiben.

Digital Natives nicht überfordern

An dieser Stelle sind die Unternehmer gefordert. Denn Kommunikation ist Chefsache. Über alle Abteilungen und Führungsebenen hinweg. Wer das nicht beherzigt, wer seine Firma nicht fit für vernetzte Kommunikation 4.0 macht, setzt nicht nur den Erfolg seines Unternehmens aufs Spiel. Er überfordert auch junge Kolleginnen und Kollegen, die zwar als Digital Natives bezeichnet werden, aber in der digitalen Kommunikation – selbst nach einem entsprechenden Studium – noch viel in der Praxis und für die Praxis lernen wollen und müssen: Über Social Media Strategien, Maßnahmen, Guidelines,  über Content Marketing Tools, Digital Storytelling etc. Das ist des Pudels Kern.

Tipp: Thin- und Thick-Provisioning erklärt

Folgende Erläuterungen beziehen sich zwar speziell auf VMware vSphere, lassen sich im Prinzip aber auf andere Virtualisierer übertragen.

ESXI kennt die drei Provisionierungsarten „Thin-Provisioning“, „Thick Provisioning Eager Zeroed“ und „Thick Provisioning Lazy Zeroed“. Bei den beiden Erstgenannten ist die Sache eigentlich klar. In beide Fällen „sieht“ das Gastsystem die angegebene Speichermenge, bzw. Volume-Größe in der Datenträgerverwaltung. Thin-Provisioning reserviert allerdings beim Erstellen der virtuellen Festplatte keinen Speicherplatz im Datastore, sondern wächst dynamisch mit der im Gastsystem beanspruchten Datenmenge. Soweit so gut.

Thick Provisioning Eager Zereod hingegen (eager heißt so viel wie „fleißig“) reserviert beim Erstellen den gewünschten Speicherplatz im Datastore nicht nur komplett, sondern überschreibt auch gleich sämtliche Blöcke mit Nullen. Das dauert zwar seine Zeit, der Benutzer wird aber mit der performantesten virtuellen Disk belohnt.

Hintergründiges

Um die dritte Provisionierungsart „Thick Provisioning Lazy Zeroed“ zu verstehen, muss man wissen, dass das Feature unterschiedlicher Provisionierungsarten auf Hypervisor-Ebene von der Storage-Welt inspiriert ist. So beherrschen z. B. höherwertige SAN-Systemen Thin- und Thick-Provisioning auf Storage/LUN-Ebene. Hier wie dort geht es um eine effiziente Speicherplatznutzung.
Insbesondere in Virtualisierungsumgebungen, deren Sinn und Zweck ja in der Ressourcen-Konsolidierung liegt, welche im gewissen Umfang immer eine Überbuchungsoption vorsieht, sind Features wie Thin-provisionierbare virtuelle Disks essentiell. So können Anwendungen stets nur so viel Storage konsumieren, wie sie auch tatsächlich benötigen. Möglich ist das, weil viele Anwendungen bei der Erstinstallation eine bestimmte Größe an Plattenplatz erwarten, im laufenden Betrieb aber weniger brauchen. Noch mehr Einsparpotenzial bei der Konsolidierung ergibt sich, wenn die betreffenden VM ausgeschaltet oder eingeschaltet ist, die zugehörige Anwendung aber gerade nicht läuft.

Wann man Thin Provisioning einsetzt

Dass ein Hypervisor wie ESXi (oder Hyper-V, KVM etc.) Thin-provisionierbare virtuelle Disks erlaubt, ist daher vor allem dann nützlich, wenn das unterliegende Storage-Systemen von sich aus KEIN Thin Provisioning kann, etwa ganz normale lokale Festplatten (SAS, SATA). Windows Server unterstützt zwar ab der Version 2012R2 mit Storage Pools und auf dem VHDX-Format basierenden „Storage Spaces“ zwar neuerdings „mit-wachsende“ virtuelle Disks, einem ESXi-Server lässt sich Storage dieser Art aber nur auf Umwegen unterschieben, etwa in Form des iSCSI-Target-Features oder der Rolle „Server für NFS“ in Windows. Lokale Disks im ESXi-Hosts bieten kein Thin-Provisioning, sollten als Basis für Datastores aber ohnehin nur in Ausnahmefällen zum Einsatz kommen, weil erweiterte ESXi-Features Shared Storage benötigen.

Der Nachteil bei intensiven Gebrauch von Thin-provisionierten VMDKs ist allerdings, dass der vSphere-Admin den Ressourcenverbrauch laufend überwachen muss, um ein Overcommitment zu verhindern.

Lässiges Thick-Provisioning

Ein ausgewachsenes SAN-Array als Shared-Storage in ESXi-Umgebungen unterstützt hingegen heute von sich aus Thin-Provisioning auf Disk-/LUN-Ebene. Hier macht es wenig Sinn, auf Hypervisor-Ebene ebenfalls mit Thin-Provisioning zu arbeiten, ohne davon einen Vorteil zu haben. Für diesen Zweck nun bietet sich das Feature „Thick-Provisioning Lazy Zeroed“ an, das unter dieser Voraussetzung das Beste aus beiden Welten vereint.

Die Funktionsweise gleicht in Etwa der „Schnellformatierung“ unter Windows. Der Nutzer profitiert nach wie vor von der effizienteren Speicherplatznutzung, da sich das Storage-System mittels Thin-Provioning um die Reservierung kümmert. Zudem ist die virtuelle Disk wie eine auf ESXi-Ebene Thin-provisionierte Disk sofort verfügbar. Insofern ist Thick Provisioning Lazy Zeroed ein Thin-Provisioning-Feature. Der Nutzer muss aber keine Überbuchung fürchten, weil Thick-Provisioning Lazy Zeroed den ganzen Speicherplatz auf dem VMFS-Volumes reserviert. Gegenüber dem Storage-Array verhält sich Thick-Provisioning Lazy Zeroed (sofern dieses auf Storage-Ebene Thin-Provisioning unterstützt), wie eine Thin-provisionierte VMDK. Blöcke werden also erst beansprucht (und genullt), wenn das Gastsystem Daten speichern möchte.

Nachteile von Thick Lazy

Einen Nachteil hat das Ganze aber, obwohl es sich bei Thick Provisioning Lazy Zeroed inzwischen um die Default-Einstellung handelt. Die resultierende Performance ist schlechter, als bei Thick Provisioning Eager-Zeroed. Dass Letzteres zwar am Performantesten ist, aber beim Erstellen (theoretisch) am längsten dauert, bügeln Enterprise-SAN-Arrays mit VAAI-Support dadurch aus, dass der Storage diese Arbeit dem Hypervisor abnimmt und dieser doch sofort Vollzug melden kann.

Bis vSphere 5.0 bestand im Zusammenhang mit VAAI noch das Problem, dass vSphere das Storage-System nicht informierte, wenn der Nutzer etwa eine VMDK via Storage vMotion auf ein anderes Speichersystem verschoben hatte und der Platz eigentlich nicht mehr gebraucht wurde. Das Problem der so genannte http://blogs.vmware.com/vsphere/2012/04/vaai-thin-provisioning-block-reclaimunmap-in-action.html Dead Space Reclamation ist aber in neueren VAAI-Implementation ab vShere 5.0 behoben und der von der VMDK ehemals belegte Platz wird automatisch wieder freigeben.

Fazit

Unterstützt das Storage-System selbst kein Thin Provisioning, muss man eine effizientere Speichernutzung sofern gewünscht vom Hypervisor erledigen lassen. Bei Thick Provisioning kann sich der Nutzer zwischen schnellerer Bereitstellung (Lazy Zeroed) oder höherer Performance (Eager Zeroed) entscheiden, wobei Ersteres dem Thin-Provisioning vorzuziehen ist, wenn der Storage selbst Thin-Provisioning kann. Die scheinbare Komplexität in der Abwägung rührt daher, dass man es in Virtualisierungsumgebungen im Prinzip mit drei Ebenen zu tun hat, dem Hypervisor, dem Datastore.-Objekt auf ESXi-Ebene und dem physischen Storage-Array.

Edge-Server mit der Organisation verbinden

Die Synchronisierung findet ausschließlich von den internen Exchange-Servern zum Edge-Transport-Server statt (nicht in umgekehrter Richtung). Dabei werden nach dem Dienststart die Konfigurationsdaten der Connectoren und des Abonnements synchronisiert. Benutzerdaten werden ebenfalls synchronisiert, also zum Beispiel auch neue Empfänger und die vertrauten Absender der Empfänger. Dieser Zeitplan kann nicht angepasst werden.

Von Edge-Transport-Servern werden zwar E-Mails aus dem Internet zu den Transport-Servern mit Exchange Server 2016 gesendet, allerdings werden keinerlei sonstige Daten synchronisiert. Durch die Abonnierung eines Edge-Transport-Servers werden verschiedene Connectoren erstellt. Diese regeln die Kommunikation zwischen dem Internet und dem Edge-Transport-Server sowie zwischen Edge-Transport und den internen E-Mail-Servern. 

Die Abonnierung von Edge-Transport-Servern läuft in vier Schritten ab:

  1. Sie erstellen eine spezielle Abonnierungsdatei auf dem Edge-Transport-Server. Wir gehen darauf noch ein.
  2. Sie kopieren und importieren die Datei auf einen internen Exchange-Server.
  3. Sie überprüfen die erfolgreiche Synchronisierung durch die Überprüfung von Ereignismeldungen des Dienstes Microsoft EdgeSync auf dem Server und starten die Synchronisierung in der Exchange Management Shell.
  4. Sie löschen aus Gründen des Datenschutzes die Importdatei, da diese nach der Synchronisierung nicht mehr benötigt wird.

Starten Sie zunächst auf dem Edge-Transport-Server die Exchange Management Shell und geben Sie den folgenden Befehl ein:

new-edgesubscription -filename C:\EdgeSubscriptionInfo.XML

Als Nächstes importieren Sie die Datei auf einem internen Exchange-Server mit Exchange Server 2016. Sie müssen die XML-Datei dazu auf einen Postfachserver mit Exchange Server 2016 kopieren, im folgenden Beispiel in das Verzeichnis C:\temp. Öffnen Sie anschließend die Exchange Management Shell und geben Sie den folgenden Befehl ein: 

New-EdgeSubscription -FileData ([byte[]]$(Get-Content -Path „C:\Temp\EdgeSubscriptionInfo.xml“ -Encoding Byte -ReadCount 0)) -Site „Default-First-Site-Name“

Passen Sie die Pfade und den Namen des Active Directory-Standorts an Ihre Infrastruktur an. Den Namen des Standortes lassen Sie sich am schnellsten mit dem Befehl nltest /dsgetsite in der Exchange Management Shell oder der Befehlszeile anzeigen. Nach einiger Zeit taucht der Server im Exchange Admin Center im Bereich Server auf.

Anschließend können Sie die Synchronisierung manuell in der Exchange Management Shell starten. Öffnen Sie dazu auf dem Server mit Exchange Server 2016 die Exchange Management Shell. Geben Sie den Befehl Start-EdgeSynchronization ein.

Funktioniert der E-Mail-Verkehr vom Edge-Transport-Server zum Exchange 2016-Server nicht, stellen Sie auf dem Server mit Exchange Server 2016 für den entsprechenden Empfangsconnector die Authentifizierung auf die Exchange-Serverauthentifizierung um.

DNS-Einträge in Active Directory reparieren

Aus diesem Grund ist eine Diagnose dieser Einträge mit Nslookup durchaus sinnvoll. Jeder Domänencontroller in Active Directory hat neben seinem Host-A-Namen, zum Beispiel dc01.contoso.com, noch einen zugehörigen CNAME, der das so genannte DSA (Directory System Agent) -Objekt seiner NTDS-Settings darstellt. Dieses DSA-Objekt ist als SRV-Record im DNS unterhalb der Zone der Domäne unter dem Knoten _msdcs zu finden.

Der CNAME ist die GUID dieses DSA-Objektes. Domänencontroller versuchen Ihren Replikationspartner nicht mit dem herkömmlichen Host-A-Eintrag aufzulösen, sondern mit dem hinterlegten CNAME. Ein Domänencontroller versucht nach der erfolglosen Namensauflösung des CNAME eines Domänencontrollers, einen Host-A-Eintrag zu finden. Schlägt auch das fehl, versucht der Domänencontroller den Namen mit NetBIOS aufzulösen, entweder über Broadcast oder einen WINS-Server. Jeder Domänencontroller braucht einen eindeutigen CNAME, der wiederum auf seinen Host-A-Eintrag verweist. Überprüfen Sie bei Replikationsproblemen, ob diese Einträge vorhanden sind

Alle SRV-Records von Active Directory befinden sich parallel in der Datei \%WinDir%\System32\config\netlogon.dns. Die Datei lässt sich mit einem Editor auch anzeigen. Fehlen Einträge in den DNS-Zonen, die Active Directory benötigt, ist es meist hilfreich, wenn Sie den Befehl dcdiag /fix ausführen. Dabei versucht das Tool, auch fehlende Einträge aus der Datei netlogon.dns einzubauen. Danach sollte die Namensauflösung wieder funktionieren.

Nach der Eingabe des Befehls, sollten die Einträge recht schnell auf dem DNS aktualisiert sein. Sollte das dynamische Aktualisieren noch immer nicht funktionieren, überprüfen Sie in den Eigenschaften der Zone, ob die dynamische Aktualisierung aktiviert ist. Wenn sich an der Zone auch Arbeitsstationen und Server dynamisch registrieren sollen, die nicht Mitglied der Gesamtstruktur sind, können Sie auch die Option Nicht sichere und sichere aktivieren.

Tcconfig hilft bei der Traffic-Shaping-Konfiguration

Ich bin beim routinemäßigen Stöbern auf Github auf ein Tool des Entwicklers Tsuyoshi Hombashi mit dem vielsagenden Namen tcconfig gestoßen. Es soll beim Konfigurieren Traffic Shaping auf Linux-Rechnern helfen.
Die gängigen Linux-Distributionen haben dazu ja in der Regel das Tool/Kommando „tc“ (Traffic Control) im Gepäck, welches aber vergleichsweise umständlich zu handhaben ist. Tcconfig fungiert als komfortabler Wrapper zu tc.

Beispiele

Mit tcconfig setzt man ein Bandbreitenlimit für das angegebene Netzwerk-Device relativ einfach mit einen Aufruf der Art:

tcset –device eth0 –rate 100k

Eher zum Testen empfehlen sich folgende Aufrufszenarien mit weiteren interessanten Paramatern. So kann man etwa mit …

tcset –device eth0 –delay 100

eine Verzögerung (Latenz) von 1oo ms erzwingen oder mit

tcset –device eth0 –loss 0.1

Paketverluste in Prozent (hier 0,1) simulieren.
Selbstverständlich lassen sich auch alle o. g. Aufrufe in ein Kommando zwängen.

tcset –device eth0 –rate 100k –delay 100 –loss 0.1

Mit folgendem Aufruf lässt sich die Bandbreitenkontrolle auch an eine spezielle IP-Adresse binden:

tcset –device eth0 –delay 100 –network 192.168.0.10

oder sogar an einen spezifischen Port

tcset –device eth0 –delay 100 –network 192.168.0.0/24 –port 80

Für das Löschen von tc-Konfigurationen dient das tcdel-Kommando, etwa in Form von …

tcdel –device eth0

Softwareverteilung über Gruppenrichtlinien

Das ist zwar nicht so komfortabel wie mit System Center Configuration Manager 2012, aber für einzelne Anwendungen oder Tools durchaus sinnvoll.

Die Softwareverteilung erfolgt über die Gruppenrichtlinien. Die Konfiguration der Softwareverteilung in Gruppenrichtlinien erfolgt über den Bereich Computerkonfiguration/Richtlinien/Softwareeinstellungen beziehungsweise Benutzerkonfiguration/Richtlinien/Softwareeinstellungen. Dort findet sich jeweils der Eintrag Softwareinstallation.

Über den Befehl Paket im Untermenü Neu des Kontextmenüs dieses Eintrags führen Sie die Bereitstellung eines Programms auf Basis von .msi-Dateien durch. Dazu kopieren Sie zunächst die Installationsdateien des Programms, welches Sie installieren wollen, auf eine Netzwerkfreigabe, die Anwender auch lesen dürfen. Anschließend binden Sie die .msi-Datei ein. Installationen, die auf .exe-Dateien aufbauen, funktionieren mit diesen Möglichkeiten nicht.

Wählen Sie anschließend die .msi-Datei von der Netzwerkfreigabe aus. Als Nächstes können Sie die Bereitstellungsmethode auswählen. Stellen Sie das Paket für Computer bereit, nicht für Benutzer, steht die Option Veröffentlicht nicht zur Verfügung.

Wählen Sie die Option Veröffentlicht aus, erscheint das Paket auf dem Client zur manuellen Installation in der Systemsteuerung. Alle erforderlichen Einstellungen sind automatisch gesetzt. Durch einen Doppelklick auf das Paket können Sie die Eigenschaften bearbeiten.

Wählen Sie die Option Zugewiesen aus, erstellt Windows ebenfalls automatisch einen Eintrag. Wählen Sie besser die Option Erweitert aus. Bei dieser Auswahl können Sie Einstellungen genau setzen. Es öffnet sich ein neues Fenster mit verschiedenen Registerkarten, über die Sie die automatische Installation konfigurieren können.

Gruppenrichtlinienmodellierung

Um eine Simulation für eine bestimmte Domäne oder OU durchzuführen, klicken Sie mit der rechten Maustaste auf den Knoten und wählen im Kontextmenü den Eintrag Gruppenrichtlinienmodellierungs-Assistent aus. Es erscheint das Startfenster des Assistenten.

Zunächst wählen Sie die Domäne aus, sowie einen Domänencontroller. Danach müssen Sie den Container auswählen, in dem sich die Benutzer und Computer befinden, für die Sie die Simulation durchführen wollen. Hier trägt der Assistent standardmäßig die OU ein, über die Sie den Assistenten gestartet haben.

Im nächsten Fenster können Sie Optionen bezüglich des Standorts und der Netzwerkverbindung auswählen. Normalerweise können Sie die vorgegebenen Einstellungen übernehmen. Auf weiteren Seiten können Sie simulieren, was passieren würde, wenn die getesteten Benutzer nicht mehr in ihren entsprechenden Sicherheitsgruppen Mitglied wären, können Active Directory-Standorte und langsame Verbindungen simulieren und erstellte WMI-Filter integrieren. Danach können Sie die gleichen Einstellungen für die Computerkonten auswählen. In den meisten Fällen reichen für Tests die Standardeinstellungen aus und müssen nicht verändert werden. Nachdem Sie die Zusammenfassung bestätigt haben, beginnt bereits die Simulation. Abhängig von der Anzahl Ihrer Benutzer und Computer kann die Simulation bei mehreren Gruppenrichtlinien durchaus eine Weile dauern. Im Anschluss daran erhalten Sie einen detaillierten Bericht im .html-Format über die Auswirkungen der simulierten Gruppenrichtlinien für den konfigurierten Container angezeigt.

Auf die gleiche Weise lassen sich auch für den Knoten Gruppenrichtlinienergebnisse Abfragen generieren, die exakt aufzeigen, welche Operationen der einzelnen Gruppenrichtlinien angewendet werden und was diese verursachen. Diese Diagnose lässt sich zum Beispiel auch für die Fehlersuche nutzen.

 

Synologys NAS-Betriebssystem mit Virtualisierungsfunktionen

Besitzer eines Synology-NAS/SAN-Gerätes können ab sofort auf Version 6 des Disk Station Manager (DSM=) upgraden, sofern sie nicht ohnehin bereits automatische Upgrades aktiviert haben.
Die neue Version steht alternativ zum Herunterladen für ein manuelles Upgrade zur Verfügung.

Virtualisierungs-Support

Zu den interessantesten Neuerungen von Synology DSM 6 gehören die erweiterten Virtualisierungsfunktionen. Mit virtuelle Instanzen können Nutzer Storage effizient virtualisieren und z. B. zwischen mehreren Synology-Geräten migrieren.

Zu dem Virtualisierungsfunktionen gehört aber auch der mit Version 5 eingeführte Docker-Support. Nutzer können ihr Synology-Gerät so auf einfache Weise als Docker-Host betreiben.

Mailserver

Neu im Package-Center ist auch die App  MailStation 2. Sie erlaubt das Betreiben eines eigenen Mailservers, der Anwender mit einem webbasierten Mailclient (Roundcube) beliefert. Ferner erlaubt ein neues Spreadsheet-Paket das gemeinsame Arbeiten mehrerer Nutzer an Tabellen.

Enterprise Storage

Außerdem kommt Synology im Kontext „Enterprise-Storage“ jetzt alternativ auch mit dem Linux-Dateisystem Btrfs zurecht. Es speichert Meta-Daten z. B. zwecks Erhöhung der Datensicherheit doppelt, ist performanter und kommt mit größeren Dateien zurecht. Ferner nutzt Btrfs zur Erhöhung der Datensicherheit Prüfsummen für Metadaten und Dateiinhalte.

RAID & Co

Nach wie vor können unerfahrene Synology-Nutzer zwecks Erhöhung der Redundanz Synologys Hybrid RAID (SHR) einsetzen, das schneller und einfacher einzurichten ist, als klassiche RAID-Level, die DSM selbstverständlich auch unterstützt.

Zwecks Erhöhung der Performance lassen sich mit den Synologys NAS-Systemen zudem SSDs als Cache verwenden und es ist außerdem möglich, mittels Link Aggregation und mit Hilfe des grafischen Hight Availability Managers aus zwei Synology-Geräten ein hochverfügbares Setup aufbauen.

Ferner lassen sich mit DSM nun auch TLS-Zertifikate von Let’s Encrypt verwenden.