Archiv der Kategorie: DCI – Toms Admin Blog

System Center 2012 Configuration Manager Support Center

Mit dem kostenlosen Microsoft-Tool Support Center Viewer erstellen Sie ein Zip-Archiv, das alle wichtigen Logdateien und Einstellungen Ihrer SCCM-Infrastruktur enthält. Dieses Tool benötigen Sie zum Beispiel für das Öffnen eines Microsoft Support-Calls, oder wenn Sie zu anderen Spezialisten wichtigen Informationen versenden wollen. Auch für die eigene Analyse macht das Tool Sinn. Laden Sie sich das Support Center für SCCM bei Microsoft und installieren es auf einem Ihrer SCCM-Server (http://www.microsoft.com/en-us/download/details.aspx?id=42645). Das Tool benötigt das .NET Framework 4.5.2.

Nach der Installation starten Sie das Tool über die Startseite von Windows Server 2012 R2. Nach dem Start wählen Sie über Collect Select Data aus welche Daten Sie sammeln wollen. Nachdem alle Daten ausgelesen wurden, wird automatisch eine ZIP-Datei erstellt. Sie können über die verschiedenen Registerkarten im Tool in Echtzeit wichtige Daten aus SCCM auslesen um Probleme zu beheben. Auch die aktuellen Clienteinstellungen zeigt das Tool an. Das Programm zeigt wichtige Informationen zum aktuellen Zustand aller SCCM-Server an.

Sie können sich mit dem Support Center auch mit einem anderen SCCM-Server im Netzwerk verbinden und Daten auslesen. Dazu öffnen Sie eine Remoteverbindung und geben die Daten des Servers ein.

Neben dem Sammeln von Daten und Anzeigen von Informationen im Support Center, können Sie mit dem integrierten Support Center Viewer auch die erstellen ZIP-Dateien auslesen und die Daten auswerten. Dazu müssen Sie den Support Center Viewer nur starten und die ZIP-Datei öffnen.

VMware-Umgebungen mobil und mit Tablets überwachen

VMware vCenter Mobile Access (VMware vCMA) (https://labs.vmware.com/flings/vcma) ist eine virtuelle Appliance, die Sie verwenden können um ein VMware-Rechenzentrum von einem mobilen Gerät, wie einem Smartphone oder Tablet zu steuern und auch zu überwachen. Die Verbindung vom Tablet nehmen Sie über den Webbrowser und die Adresse https://<IP-Adresse des vCMA>/vim vor. vCMA ist das notwendige Backend des vSphere-Clients für iPads (https://itunes.apple.com/de/app/vmware-vsphere-client-for/id417323354?mt=8). Die Lösung ist als Open Virtualization Format (OVF)-Datei verfügbar. In diesem Bereich spielt auch vSphere Management Assistant (vMA) (https://www.vmware.com/support/developer/vima) eine wichtige Rolle. Auch hierbei handelt es sich um eine kostenlose virtuelle Appliance. Diese enthält die Befehlszeile für VMware, sowie Perl und das vSPhere SDK. Sie können die Appliance dazu verwenden um Skripte und Agenten in vCenter auszuführen. Nachdem Sie die Appliance gestartet hat, melden Sie sich an vMA an und geben den folgenden Befehl ein:

sudo vifp addserver <IP-Adresse des Servers den Sie verwalten wollen>

Danach wird der Server angebunden und kann über die Befehlszeile des vMA verwaltet werden. Verwenden Sie dazu das Root-Kennwort des Servers. Über den gleichen Weg binden Sie weitere Server an vMA an. Alle angebundenen Server zeigt das Tool mit vifp listservers an.

Dell Foglight for Virtualization, Free Edition

Dell bietet mit der Freeware Dell Foglight for Virtualization (http://software.dell.com/products/foglight-for-virtualization-free-edition) die Möglichkeit virtuelle Umgebungen auf Basis von Freeware zu überwachen. Für das Tool steht auch eine Version für Hyper-V zur Verfügung. Sie müssen sich für den Download registrieren, allerdings ist es nicht notwendig echte Daten einzugeben.

Sie können mit dem Tool recht umfassend Informationen zum Zustand der virtuellen Server und Hosts abrufen.  Auch Probleme mit dem Speicher, sowie den Zustand und freien Speicherplatz können Sie mit dem Tool überwachen lassen und anzeigen.

Neue Videotrainings zu SCOM, SCCM und mehr verfügbar

Bei Video2brain, einem Tochterunternehmen von LinkedIn, habe ich wieder ein paar Videotrainings veröffentlicht:

System Center 2012 R2 Operations Manager – Grundlagen

System Center 2012 R2 Configuration Manager – Grundlagen

Wie immer sind die Videos einzeln erhältlich und im Abonnement.

In nächster Zeit erscheinen weitere Videotrainings von mir. In diesen behandle ich die Themen Hochverfügbarkeit, IIS, Big Data und Hadoop sowie einige mehr.

Auch bei den beiden neuen Trainings gibt es wieder ein paar kostenlose Filme .

sccmsystem-center-2012-r2-operations-manager-grundlagen_gross

Reparieren der Active Directory-Datenbank

Unter manchen Umständen kann es vorkommen, dass die Active Directory-Datenbank nicht mehr funktioniert. Gehen Sie bei einem solchen Problem folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie files ein, um zu file maintenance zu gelangen.
  5. Geben Sie integrity ein, um einen Integritätstest der Datenbank durchzuführen. Wenn dieser Test einen Fehlermeldung anzeigt, können Sie versuchen, die Datenbank in Ntdsutil zu retten.
  6. Verlassen Sie mit quit die file maintenance, aber bleiben Sie in der Oberfläche von Ntdsutil.
  7. Geben Sie den Befehl semantic database analysis
  8. Geben Sie zunächst den Befehl verbose on ein, damit Sie detaillierte Informationen erhalten.
  9. Geben Sie als nächstes den Befehl go fixup
  10. Das Tool beginnt daraufhin mit der kompletten Diagnose der Active Directory-Datenbank und versucht eine Reparatur durchzuführen.
  11. Verlassen Sie im Anschluss Ntdsutil und starten Sie den Domänencontroller neu. Überprüfen Sie, ob die Active Directory-Datenbank wieder funktioniert. Sollten noch immer Schwierigkeiten auftreten, stellen Sie die Datenbank aus einer Datensicherung wieder her und überprüfen Sie im Anschluss, ob Active Directory bei diesem Stand noch konsistent war. Sie sollten so lange Backups zurückspielen, bis sichergestellt ist, dass die Datenbank wieder konsistent ist.

Offlinedefragmentation der Active Directory-Datenbank

Bei der Active Directory-Datenbank handelt es sich, wie bei der Datenbank von Exchange, um eine Jet-basierte ESE-Datenbank. Das Active Directory wächst zwar nicht so stark an, wie die Datenbank eines Exchange-Servers, aber dennoch kann es sinnvoll sein die Active Directory-Datenbank zu defragmentieren. Vor allem in größeren Organisationen, bei denen das Active Directory durchaus mehrere Gigabyte groß werden kann, sollte zumindest jährlich eine Offlinedefragmentation durchgeführt werden.

Bevor Sie eine Offlinedefragmentation durchführen, sollten Sie eine Sicherung des Systemstatus Ihres Active Directory durchführen. Wie bei der Offlinedefragmentation von Exchange wird zunächst die Datenbank kopiert, dann offline defragmentiert und anschließend zurückkopiert. Stellen Sie daher sicher, dass sich auf dem Datenträger, auf dem Sie die Offlinedefragmentation durchführen, genügend Speicherplatz frei ist. Um eine Offlinedefragmentation durchzuführen, gehen Sie folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie den Befehl files ein, um zur file maintenance zu gelangen.
  5. Geben Sie den Befehl compact to <Laufwerk:\Ordner> Wählen Sie als Verzeichnis einen beliebigen Ordner auf der Festplatte aus. Ntdsutil kopiert die Datenbankdatei in diesen Ordner und defragmentiert sie.
  6. Wenn keine Fehlermeldungen während der Offlinedefragmentation auftreten, können Sie die Datei dit aus dem Ordner, in welchen sie defragmentiert wurde, zurück in den Datenbankpfad der produktiven Datenbank kopieren. Diesen Vorgang führt Ntdsutil nicht automatisch aus, Sie müssen die Datei manuell kopieren. Sichern Sie die alte Version der ntds.dit aus dem produktiven Datenbankordner. Verschieben Sie die defragmentierte Datei in den produktiven Ordner der Datenbank und überschreiben Sie die alte Version.
  7. Geben Sie in der file maintenance von Ntdsutil den Befehl integrity ein, um die Integrität der Datenbank festzustellen.
  8. Wenn die Integrität der neuen Datenbank sichergestellt ist, können Sie den Domänencontroller ganz normal neu starten. Sollten Fehler auftreten, kopieren Sie die zuvor gesicherte Originalversion zurück und führen Sie einen erneuten Integritätstest durch. Ist der Test diesmal erfolgreich abgeschlossen, versuchen Sie erneut eine Offlinedefragmentation und starten Sie den Test erneut. Sie sollten den Domänencontroller erst in den normalen Modus starten, wenn sichergestellt ist, dass die Datenbank auch konsistent ist.

Da Active Directory als Systemdienst läuft, kann dieser für die Defragmentation auch beendet werden. In diesem Fall muss der Server nicht im Verzeichnisdienst-Wiederherstellungsmodus gestartet werden, sodass andere Dienste auf dem Server weiter von den Anwendern verwendet werden können.

Cloud- und Serververwaltung

Verwaltungswerkzeug für Linux-Server optimal nutzen

Um Linux-Server optimal zu betreiben und zentral zu verwalten, sind effiziente Verwaltungswerkzeuge unerlässlich. Die Werkzeuge müssen einheitlich funktionieren, unabhängig davon, ob der Server herkömmlich installiert, virtualisiert oder in der Cloud betrieben wird.

Geht es um die effiziente Verwaltung und die Verteilung von Patches mehrerer Linux-Server, spielen Verwaltungswerkzeuge für die gemeinsame Konfiguration und Verwaltung eine besonders wichtige Rolle. Das gilt auch dann, wenn die Linux-Server virtualisiert oder in der Cloud betrieben werden. Suse bietet hier mit Suse Manager und Suse Studio Anwendungen, mit denen Administratoren alle eingesetzten Server im Unternehmen zentral verwalten können. Dabei spielt es keine Rolle, ob die Server im lokalen Netzwerk betrieben oder in der Cloud im Einsatz sind. Auch die Verwaltung virtueller Linux-Server in Microsoft Azure, Google Compute Engine und Amazon Web Services wird uneingeschränkt unterstützt.

Verwaltung, Patch-Verteilung und Überwachung von Linux-Servern mit Suse Manager

Mit Suse Manager überwachen Administratoren den Zustand ihrer Linux-Server über eine zentrale Konsole. Leistungsprobleme von Servern werden auf diesem Weg natürlich auch frühzeitig erkannt. Suse Manager unterstützt Linux-Server in klassischen Client-Server-, virtuellen und Cloud-Umgebungen umfassend.  Auch die Automatisierung der Softwareverwaltung, System-Provisioning und Überwachung lässt sich mit dem Werkzeug darstellen.

Durch die Standardisierung und Automatisierung von Server-Patching und -verwaltung für Suse Linux steht mit Suse Manager eine einheitliche Linux-Management-Infrastruktur zur Verfügung. Da sich Verwaltungs- und Provisioning-Aufgaben schneller und mit weniger Fehlern durchführen lassen, reduziert sich die Häufigkeit von Serverausfällen. Neben der Verwaltung von Suse Linux Enterprise und Red Hat Enterprise Linux, lassen sich auch unterschiedliche Hardwareplattformen und andere Linuxbasierte-Infrastrukturen anbinden. IT-Unternehmen können wiederum Systemkonfigurationen erstellen und aktivieren, indem sie Änderungen am Server verfolgen und für Konsistenz im Data Center sorgen. Suse Manager bestätigt automatisch, wenn Server immer über die neuesten Sicherheitsupdates verfügen.

Linuxbasierte-Anwendung mit Suse Studio bereitstellen

Während Suse Manager vor allem für die Verwaltung von Linux-Servern ideal ist, können Entwickler mit Suse Studio optimal Anwendungen erstellen und zertifiziert zur Verfügung stellen. Auch Images für Bootmedien und Server lassen sich auf diesem Weg zentralisiert zur Verfügung stellen. Unternehmen, die auf Amazon Web Services, Google Compute Engine oder Microsoft Azure setzen, können mit Suse Studio eigene Images in die Cloud laden und als Vorlage für zukünftige Server nutzen. Suse Studio ist eine Abwendung und bietet daher ideale Voraussetzungen für die Anbindung an die Cloud. Die Anwendung lässt sich komplett online betreiben, aber auch als lokal installierte Version. Suse Studio erlaubt auch die Entwicklung und Erstellung eigener Appliances auf Basis von Suse Linux Enterprise Server.

Die auf Basis dieser Umgebung erstellten Anwendungen lassen sich in herkömmlichen Linux-Infrastrukturen einbinden, aber auch in virtuellen Umgebungen und auf Linux-Servern in der Cloud. Hier arbeiten auch Microsoft Azure, Google Compute Engine und Amazon Web Services optimal mit Suse Studio zusammen. Mit entsprechender Konfiguration lassen sich Images über einen einzigen Klick auf Amazon EC2 bereitstellen. Wollen Administratoren einen neuen Server mit Amazon Web Services hosten, profitieren sie davon, dass Suse Studio auch Amazon EC2-Images unterstützt. Dazu werden die AWS-Anmeldedaten mit dem Suse Studio-Konto verknüpft. Das ermöglicht das Hochladen und Starten von Amazon EC2-Instanzen direkt aus Suse Studio. Die neue Version 1.3 von Suse Studio bietet dazu auch eine überarbeitete Benutzeroberfläche für Amazon EC2-Bereitstellungen für alle aktuellen Amazon EC2-Regionen.

Mit Suse Studio lassen sich Images für die meisten Cloud- und Virtualisierungsumgebungen erstellen. Auch die Migration zwischen verschiedenen Infrastrukturen ist über Suse Studio möglich. Unterstützt werden VMware, Virtual Box, Xen, KVM, Hyper-V sowie das Open Virtualisation Format OVF. Auch Open Stack, Suse Cloud, Amazon EC2 und Microsoft Azure werden unterstützt und stehen als Migrationsziele zur Verfügung. Natürlich wird auch optiomal Suse OpenStack Cloud und OpenStack unterstützt. Das heißt, es ist nicht nur möglich Images für öffentliche Clouds zu erstellen, sondern auch Vorlagen für private Cloudumgebungen. Ab Suse Studio 1.3 können Unternehmen Suse OpenStack Cloud/OpenStack/KVM als eines der vordefinierten Formate für ihr Anwendungsimage verwenden. Durch die Funktion Suse Studio WebHooks werden alle in Suse Studio erstellten Suse OpenStack Cloud-Images automatisch direkt in die eingesetzte Suse OpenStack Cloud-Instanz importiert.

Suse Linux Enterprise Server

In vielen Unternehmen sind Linux-Server nicht nur lokal auf Servern oder virtuellen Maschinen im Einsatz, sondern müssen auch in der Cloud funktionieren. Vor allem in den Diensten Amazon Web Services, Microsoft Azure und Google Compute Enigine ist der Betrieb von Linux-Servern wichtig, auch in Zusammenarbeit mit anderen Servern, auch von anderen Herstellern.

Linux stabil und sicher in Amazon EC2 betreiben

Der Vorteil dieser Zusammenarbeit sind die bereits vorgefertigten Basis-Images, die Administratoren in Amazon EC2 verwenden können um schnell und einfach neue Server zu erstellen. Die Images werden direkt von Suse gepflegt.

In diesem Zusammenhang ist auch wichtig zu wissen, dass Updates der Server sofort zur Verfügung stehen und dadurch die installierte Linux-Version schnell, einfach und sicher betrieben und jederzeit aktualisiert werden kann. SUSE pflegt die Basis-AMIs von SLES für Amazon EC2. Virtuelle SLES-Server in Amazon EC2 erhalten Updates, sobald diese von SUSE zur Verfügung gestellt werden. Die Updates lassen sich natürlich über die standardmäßigen Systemverwaltungs-Tools für SLES installieren. Sobald ein SLES-Image ausgeführt wird, können Administratoren alle SUSE-Standard-Tools wie YaST und Zypper nutzen um Pakete zu installieren und das System zu konfigurieren.

Die Cloud-Installationen von SLES unterstützen natürlich alle SLES-zertifizierten Anwendungen, genauso wie lokal betriebene Server. SLES steht in Amazon EC2 sowohl für Amazon EC2-Spot-Instances als auch als Amazon EC2 Dedicated Instances zur Verfügung. Wie andere Ressourcen auch, werden die SLES-Server in der Amazon-Cloud über eine nutzungsabhängige Zahlung abgerechnet. Die Server-Ressourcen werden also auf Anforderung bereitgestellt, ohne langfristige Verpflichtungen oder Vorauszahlungen.

SUSE Studio erleichtert Anwendern von SLES in Amazon EC2 den Einstieg in die Entwicklung. Auch die Bereitstellung von virtuellen Anwendungen und kundenspezifischen SLES-Anwendungen sind mit Suse Studio optimal möglich. SLES-zertifizierte Anwendungen lassen sich auf diesem Weg auch in der Cloud bereitstellen und testen. Suse stellt dazu auch ein Whitepaper zur Verfügung (http://www.novell.com/docrep/2014/09/using_suse_studio_to_build_and_deploy_apps_on_amazon_ec2.pdf) , dass Entwickler bei der Einarbeitung unterstützt.

Um in AWS eine SLES-Instanz zu starten, melden sich Administratoren an der AWS Management Console an, wählen das Amazon EC2-Dashboard aus und klicken auf die Schaltfläche „Launch Instance“. Hier steht über „Instance Wizard“ die Option „SLES“ zur Verfügung. Administratoren können eine Instanz auch im AWS Marketplace über 1-Click starten.

Linux auf Azure – unterstützte Verteilungen und Zusammenarbeit mit Windows

Wie in Amazon EC2, arbeitet Suse auch eng mit Microsoft zusammen um virtuelle Server in Microsoft Azure effizient und performant zur Verfügung zu stellen. SLES lässt sich in Azure-Cloud-Dienste integrieren um eine einfach zu verwaltende Cloudumgebung bereitzustellen. Die Umgebung arbeitet mit anderen Servern und Dienste in Microsoft Azure zusammen. Insgesamt stehen weit über 9.000 zertifizierte Anwendungen von fast 2.000 unabhängigen Softwareanbietern für SUSE Linux Enterprise Server zur Verfügung. Alle diese Anwendungen lassen sich auch in SLES unter Microsoft Azure in Betrieb nehmen.

Dank Samba-Technologie lässt sich SUSE Linux Enterprise auch in Microsoft Azzure nahtlos in alle bestehenden Microsoft Windows Datei- und Drucksysteme integrieren und unterstützt diese. Zusätzlich lässt sich die Lösung mit bereits vorhandenen Verzeichnis- und Domain-Infrastrukturen wie Microsoft Active Directory, NetIQ eDirectory und OpenLDAP verbinden.

SUSE Linux Enterprise Server kann auch in Verbindung mit traditionellen UNIX-Umgebungen eingesetzt werden, auch in Microsoft Azure oder den anderen erwähnten Clouddiensten. Microsoft empfiehlt SUSE Linux Enterprise Server vor allem Kunden, die Windows und Linux in ihrem Data Center einsetzen.

Meta-Clouddienste und Tools

Im Internet gibt es von Google, Apple, Dropbox, Microsoft und anderen große Mengen kostenloser Cloudspeicher. Mit kleinen Tools können Anwender den Speicher zusammenfassen, zentral verwalten und Daten verschlüsselt speichern. Das alles kostet nichts oder wenig, außer etwas Zeit und wenig Konfigurationsarbeit.

Viele Anwender nutzen mehrere Cloudspeicher bei verschiedenen Anbietern, um Daten sicher zu speichern, überall verfügbar zu haben, oder mit anderen Benutzern zu teilen. Um Cloudspeicher zu nutzen, macht es zunächst Sinn sich bei den großen Anbieter ein Konto anzulegen. Wer es ganz sicher will, kann für die Anmeldung jeweils spezifische E-Mail-Konten anlegen. Sobald der Cloudspeicher gebucht ist, lässt sich er sich mit Tools nutzen und Daten speichern.

Was sind Meta-Dienste und -Tools und warum soll ich verschlüsseln?

Im Internet gibt es einige kostenlose oder günstige Tools, die keinen eigenen Cloudspeicher bieten, sondern den Speicher verschiedener Anbieter zusammenfassen und eine gemeinsame Verwaltung ermöglichen. Das hat den Vorteil, dass sich mehr Daten speichern lassen und die Verwendung des Speichers auch einfacher ist. Leider bietet so gut wie kein Cloudspeicher-Anbieter die Möglichkeit Daten sicher und verschlüsselt in der Cloud zu speichern. Es gibt aber auch hier kostenlose Tools, welche die Daten auf Ihrem Rechner verschlüsseln und dann erst in die Cloud laden. Das hat den Vorteil, dass die Daten für andere nicht auslesbar sind, Sie aber weiterhin problemlos auf die Daten zugreifen können. Verschlüsselung und Metadienste lassen sich häufig parallel nutzen, was den Nutzen von Cloudspeichern deutlich erhöht, bei steigender Sicherheit.

Darum machen Meta-Dienste und -Tools sinn

Sobald mehr als ein Dienst im Einsatz ist, kann sich schon ein Meta-Tool lohnen, welches den Speicher zusammenfasst und eine gemeinsame Verwaltung oder Speicherung erlaubt. Für alle bekannten Cloud-Speicher gibt es auch kostenlose Apps für Smartphones und Tablets. Das heißt, der Dienst steht auch mobile zur Verfügung. Auch für die so genannten Meta-Dienste, also Tools und Webseiten, die Cloudspeicher anderer Anbieter zusammenfassen, gibt es solche Apps. Natürlich können Sie auch weiterhin mit den Hersteller-Apps auf den Cloudspeicher zugreifen. Mit den Meta-Tools erleichtern Sie sich aber die Arbeit, speichern Daten sicherer und erhalten kostenlos mehr Speicherplatz.

Meta-Clouddienst

  • Odrive – Meta-Tool für gemeinsame Verwendung mehrerer Cloudspeicher. Meta Tool steht kostenlos zur Verfügung.
  • MultCloud – Meta-Tool für gemeinsame Verwendung mehrerer Cloudspeicher, Meta Tool steht kostenlos zur Verfügung.
  • Jolidrive – Meta-Dienst für die gemeinsame Verwendung von Cloudspeicher. Kosten: 5€/Monat oder 50€/Jahr.
  • Otixo – Metadienst für die Verwaltung verschiedener Clouddienste. Kostenlos bis 20 $/Monat oder 200 $/Jahr.

Linux-Server in Active Directory

Kerberos ist sehr zeitabhängig. Sobald ein Client und ein Server mehr als 2-5 Minuten voneinander abweichen, funktioniert die Authentifizierung nicht. Grundsätzlich sollten Sie auf Dauer darauf achten, dass sich die Domänencontroller, vor allem der PDC-Master und die Linux-Server die Zeit von einem Internetserver oder einer Funkuhr holen. Alle anderen Windows-Domänencontroller synchronisieren sich Ihre Zeit automatisch mit dem PDC-Master der eigenen Domäne, die PDC-Master der einzelnen Domänen in einer Active Directory-Gesamtstruktur synchronisieren ihre Zeit mit dem PDC-Master der Stammdomäne in Active Directory. Bevor Sie sich also an die Einrichtung machen, die wir nachfolgend vorstellen, achten Sie darauf, dass die Uhrzeiten stimmen.

Damit die Zeitsynchronisierung ideal funktioniert, verwendet Sie im Falle von Windows am besten den Zeitserver der physikalisch-technischen Bundesanstalt in Braunschweig. Dieser hat den Namen ptbtime1.ptb.de. Als Alternativen können Sie noch die Server ptbtime2.ptb.de und ptbtime3.ptb.de verwenden. Auf den Linux-Servern verwenden Sie die gleichen Server.

Haben Sie die grafische Oberfläche Gnome für den Ubuntu-Server installiert, finden Sie die Zeiteinstellungen über Systemeinstellungen\Zeit und Datum. Aktivieren Sie die Option Netzwerkzeit, und stellen Sie zunächst manuell sicher, dass die Zeit des Servers mit der Zeit der Domänencontroller übereinstimmt.