vSphere Performance-Monitoring

Bei der Virtualisierung ist das Monitoring Pflicht, weil die Möglichkeit des „Überbuchens“ von Ressourcen vorgesehen und in gewissen Grenzen gewollt ist, denn Sinn und Zweck der Virtualisierung besteht ja vorrangig in der Konsolidierung von physikalischen Servern.

VMware empfiehlt je nach Workload der einzelnen VMs eine Konsolidierungsrate von 4 bis 8, d. h. auf 4 physische CPU-Kerne lassen sich bis zu 32 vCPUs abbilden. VMware empfiehlt zudem, auch bei gegebenem Hyperthreading-Support pro VM nicht mehr vCPUs zu vergeben als zwingend nötig und keinesfalls die maximale Anzahl logischer CPUs am Host auszureizen.

Arbeitsspeicher hingegen lässt sich über die physisch vorhandene Menge hinaus vergeben, denn genau wie das Gast-System mit Virtual Memory beherrscht auch der Hypervisor bei Bedarf das Auslagern von Speicherseiten auf Festplatte. Bevor jedoch bei VMware das Swappen des Hypervisors als letzte aller Speichersparmaßnahmen einsetzt, kommen eine Reihe anderer Technologien zum Einsatz. Hier ist es wichtig durch den Einsatz von Monitoring rechtzeitig die Sättigung zu erkennen.

Esxtop

Beim Überwachen von Virtualisierungsumgebungen hat es der Admin stets mit zwei „Sicht-Ebenen“ zu tun, dem Host-System und der virtuellen Maschine. Für beide müssen jeweils eigene Tools zum Einsatz kommen, bei einem Windows-Gastsystem z. B. der Taskmanager, Resmon oder Perfmon. Auf der Host-Seite stehen neben den in vSphere „eingebauten“ Tools „esxtop“ (dem VMware-Analogon zu Linux-top) auf der Kommandozeile und den Performance-Charts im Web-Client, bzw. vSphere-Client eine Reihe externer Lösungen zur Verfügung. Für einen schnellen Überblick leistet esxtop aber gute Dienste.

Loggt man sich als root via SSH, mit Hilfe der vMA oder direkt an der ESXi-Shell am ESXi-Host ein, liefert esxtop auf Knopfdruck die wichtigsten Momentanwerte. Das Tool kennt verschiedene Ansichten, zwischen denen man mit „c“ (CPU), „m“ (Memory), „n“ (Network) oder „v“ (Disk VM) wechselt. Weitere Modi verrät das Drücken der Taste „h“ (Help). Zudem gibt es einen Batchmodus.

Visual Esxtop

Wer es komfortabler mag, kann sich von den VMware Labs eine grafische Version VisualEsxtop herunterladen. Hierbei handelt es sich um ein Java-Programm, das sich an einem beliebigen Arbeitsplatz ohne weitere Installation wahlweise unter Windows oder Linux aufrufen lässt. Es genügt, das heruntergeladene ZIP-File zu entpacken und dann unter Linux „vtop.sh“ oder unter Windows „vtop.bat“ zu starten. Einzige Voraussetzung ist, das Java 1.6 installiert und im Standardpfad ist.
Hat man VisualEsxtop gestartet, verbindet man sich im Menü „File / Connect to Live Server“ mit dem zu überwachenden ESXI-Host. Die einzelnen Ansichten für CPU, Memory, Network usw. stehen dann unmittelbar in einzelnen Tabs zur Verfügung. Zudem gibt es einen umfangreichen Online-Guide der auch Bedeutung und Einheiten der zahlreichen Metriken erklärt.

Überbuchung erkennen

In Virtualisierungsumgebungen geht es beim Monitoring vor allem darum, Überbuchungen bei CPU und RAM im Auge zu behalten und rechtzeitig eine sich anbahnende Sättigung zu erkennen. Insofern ist z. B. eine konstant relativ hohe CPU-Usage auf Host-Seite unkritisch, solange sie nicht dauerhaft 75% überschreitet, denn der Host soll bei der Server-Konsolidierung möglichst gut ausgelastet sein.

Hinweise auf eine Sättigung bei der CPU-Überbuchung dagegen liefert das Überwachen der „CPU-Ready-Time“ auf VM-Ebene. Das ist die Zeit, welche die vCPU im Durchschnitt wartet, bis sie vom CPU-Scheduler des Hypervisors erneut bedient wird. Diese soll nach Empfehlung von VMware nicht dauerhaft über 5 % liegen. Bei esxtop ist der Wert in der CPU-Ansicht („c“) oder im Tab „CPU“ von VisualEsxtop in der Spalte „%RDY“ zu erkennen.

Clients und Server anbinden

Sie finden die notwendigen Einstellungen zum Anbinden von Geräten an SCCM 2012 R2 über Verwaltung\Hierarchiekonfiguration\Ermittlungsmethoden. Damit die Geräte und Computer optimal angebunden werden können, aktivieren Sie alle zur Verfügung stehenden Active Directory-Ermittlungsmethoden. Vor allem Active Directory Gesamtstrukturermittlung ist ein wichtiger Bereich. Aktivieren Sie hier alle drei zur Verfügung stehenden Optionen, damit SCCM auch die Standorte in Active Directory erkennen kann.

Active Directory-Systemermittlung sollte ebenfalls aktiviert werden, und auch hier wählen Sie in den Einstellungen mit Durchsuchen wieder die Domäne aus, die durchsucht werden soll. Hierüber werden die Computerkonten in Active Directory erfasst. Active Directory-Benutzerermittlung liest die Benutzerkonten aus Active Directory aus. Mit der Netzwerkermittlung binden Sie Netzwerkgeräte wie Drucker, Switches oder Firewalls an. Sie können hier auch mit SNMP arbeiten.

Bei der Verwaltung spielen auch die Begrenzungsgruppen im Bereich Hierarchiekonfiguration eine wichtige Rolle. In Active Directory werden als Grenzen die Active Directory-Standorte verwendet. Wollen Sie für bestimmte Bereiche der Verwaltung, zum Beispiel die Softwareverteilung, mehrere Active Directory-Standorte zusammenfassen, erstellen Sie Begrenzungsgruppen, welche verschiedene Active Directory-Standorte enthalten. In den meisten Umgebungen reicht es aus, wenn Sie sicherstellen, dass bei Grenzen die Active Directory-Standorte erfasst wurden.

Im Bereich Verwaltung\Clienteinstellungen, finden Sie im rechten Bereich Standardeinstellungen die für alle Clients gelten. Klicken Sie doppelt auf Clientstandardeinstellungen und passen Sie Einstellungen an, die für alle angebundenen Clients gelten. Über das Kontextmenü von Clienteinstellungen können Sie auch eine eigene Sammlung von Einstellungen erstellen.

Netzwerk-Automation und Docker-Support

Ansible arbeitet im Gegensatz zu Puppet agentenlos und ist daher deutlich schlanker und schneller, als die Schwergewichte der Szene. Red Hat preist Ansible, das aus der Akquisition des gleichnamigen Unternehmens im Oktober letzten Jahres seines Weg ins Portfolio der Rothüte gefunden hatte, als einfach einsetzbares und leistungsfähiges IT-Automation-Framework.

IT-Umgebungen schneller implementieren

Entwickler oder Administratoren können mit Ansible ganze IT-Umgebungen schnell und einfach implementieren. Da durch die Automation Routine-Tätigkeiten, wie die Netzwerkkonfiguration oder das Bereitstellen von Funktionalitäten in der Cloud sowie das Einrichten von Entwicklungsumgebungen weitgehend obsolet werden, hilft die Software nach den Vorstellungen von Red Hat dabei, Hindernisse zwischen IT-Teams auszuräumen.

Die Ansible-Plattform erlaubt sowohl das Verwalten aktueller Infrastrukturen, als auch deren Anpassung an neue IT-Anforderungen und DevOps-Workflows.

Netzwert-Automation

Eine der wichtigsten Neuerungen von Ansible 2.1 besteht darin, dass die schon im Februar angekündigte Netzwerk-Automation jetzt offiziell in Ansible enthalten ist. Diese trägt nach Ansicht von Red Hat maßgeblich zur weiteren Verbreitung von Ansible als „Programmiersprache“ in der unternehmensweiten IT bei.

So lassen sich jetzt auch Netzwerkinfrastrukturen genauso einfach, agentenlos verwalten, wie bisher schon Systeme und Applikationen.
Damit profitieren auch Netzwerkteams vom Einsatz von Ansible etwa im Rahmen der automatischen Konfiguration einer testgesteuerten Netzwerk-Implementierung oder der kontinuierlichen Überwachung von Compliance-Anforderungen.

So bringt Ansible 2.1 über 40 neue Core-Module mit, die eine Netzwerkautomation auf einer Vielzahl von Plattformen unterstützen, darunter Arista EOS, Cisco IOS, Cisco IOS-XR, Cisco NXOS, Cumulus Networks, Juniper Networks Junos OS und OpenSwitch.

Ab sofort verfügbar

Ansible 2.1 steht ab sofort via GitHub zum Herunterladen zur Verfügung, sollte aber zeitnah auch in den Paketverwaltungen der gängigen Linux-Distributionen auftauchen. Nutzer die sich mehr Kontrolle wünschen und vor allem Unterstützung bei der Implementierung benötigen, können Subskription von Ansible Tower erwerben.

Ansible und Microsoft

Mit der Unterstützung von Microsoft Windows und Microsoft Azure lässt sich Ansible 2.1 jetzt auch in Microsoft-Windows-Umgebungen einsetzen.

Dazu unterstützt Ansbile 2.1 Microsoft Azure jetzt noch umfassender und eignet sich damit auch für Hybrid-Cloud-Implementierungen, einschließlich der Möglichkeit, den Azure Resource Manager nutzen zu können. Darüber hinaus bringt Ansible 2.1 neue Windows-Module mit, die den Einsatz von Windows File Sharing und der Windows Firewall erlauben. Auch dies vergrößert das Einsatzspektrum automatisierbare Windows-Funktionalitäten.

Ferner erlaubt Ansible 2.1 ein einfacheres Verwalten von Domain-Joined Machines via NT LAN Manager (NTLM). Dieser ermöglicht eine sichere Authentifizierung von Domain-Usern ausschließlich mit Benutzernamen und Passwort, sodass Nutzer in Ansible kein Kerberos mehr konfigurieren und verwalten müssen.

In diesem Zusammenhang sorgt auch die erweiterte Kerberos-Delegierung in Multi-Hop-Szenarien für eine verbesserten Berechtigungsnachweis für vorhandene Skripte oder Installationen, die einen transparenten Zugriff, beispielsweise auf Domain File

Shares und Microsoft SQL Server erlauben.
Ebenfalls neu ist „win_reboot“ das automatisierte Softwareinstallationen bei Windows, die als Teil des Workflows auch einen Restart vorsehen, ermöglicht.

Verbesserter Docker-Support

Darüber hinaus haben die Entwickler docker_service weitere Docker-Service-Module hinzugefügt, bzw. die Vorhandenen verbessert.

So erlaubt beispielsweise das Modul docker_container das Verwalten eines grundlegenden Container-Lebenszyklus, während Nutzer mit docker_service Docker Compose einsetzen und Multi-Container-Applikationen verwalten oder skalieren können. Mit docker_image lassen sich Docker-Images erstellen, ausliefern, anfordern oder kennzeichnen. Zudem erlaubt docker_login das Verwalten der Zugriffe auf Docker Registries. Schließlich ermöglicht docker_image Facts das Überprüfen der Metadaten von Images.

In Summe ermöglichen die Docker-Service-Module von Ansible 2.1 ein Einbinden von Docker Compose in umfangreiche Ansible-Projekte. So lassen sich Netzwerk, Betriebssystem und Implementierungs-Infrastrukturen konfigurieren, die außerhalb der Container-Umgebung existieren.

Zuverlässige und einfache Cloud-Verschlüsselung aus Deutschland

Damit das zukünftig erschwert wird, haben das Fraunhofer-Institut und das Unternehmen Sirrix eine kostenlose Software auf OpenSource-Basis entwickelt, die auch Laien ermöglichen soll Daten sicher in der Cloud abzulegen. Das Bundesministerium der Justiz und für Verbraucherschutz hat die Software gefördert.

Da die Software Opensource ist, der Quell-Code also allgemein zugänglich, können tausende Entwickler die Software weiter entwickeln und vor allem sicherstellen, dass keine Hintertür für wen auch immer eingebaut wird. Die Programm-Quellen sind auf der Seite https://github.com/Sirrix-AG/PanBox zu finden.

Neben Dropbox unterstützt die Anwendung so gut wie alle Cloudspeicher-Anbieter, die auf dem lokalen Rechner ein Synchronisierungs-Verzeichnis einrichten.  Panbox läuft auf Windows-Rechnern mit Windows 7/8/8.1, aber auch auf Linux. Auch für Android-Smartphones ist eine App verfügbar, der Client für Mac OS X und iOS ist derzeit in der Entwicklung. 

Einfach ausgedrückt verschlüsselt Panbox alle Daten auf dem lokalen Rechner und lädt sie anschließend erst in Ihren Cloudspeicher. Laden Sie die Daten wieder auf Ihren Rechner herunter, erkennt Panbox die Verschlüsselung, und entschlüsselt die Daten wieder. Das läuft alles im Hintergrund, Sie müssen dazu keine Aufgaben vornehmen. Alle notwendigen Komponenten zur Ver- und Entschlüsselung bleiben bei Ihnen, es findet keinerlei Datenaustausch mit irgendwelchen Zusatzdiensten statt, und Sie brauchen, neben dem Cloudspeicher, kein weiteres Konto bei anderen Anbietern.

Die Double-Feier der Bayern und die Frage nach der Wahrheit

Die Antwort darauf ist schlicht: Immer mehr Marken generieren News bzw. journalistische Inhalte und werden auf diese Weise selbst zu Medien. Die Kommunikations-Abteilungen von Unternehmen sind immer häufiger vergleichbar mit multimedialen Medienhäusern: Unter dem Stichwort Content Marketing produzieren sie Sendungen fürs Fernsehen (und stellen das TV-Signal „echten“ Medien zur Verfügung) und fürs Radio, sie bestücken Online-Plattformen mit journalistisch aufbereiteten Texten, mit professionellen Fotos, Audios, Videos, und sie geben Print-Produkte wie Hochglanz-Magazine heraus. In Sachen Content Marketing können Marken viel von Medien lernen.

Vereine, Firmen, Kirchen – Alle produzieren News

Diesbezüglich sind internationale Fußball-Clubs wie der FC Barcelona (Barca TV), Manchester United (MUTV) oder eben der FC Bayern als Marken in bester Gesellschaft: Sie produzieren exklusive Nachrichten, die aufgrund ihrer Relevanz von klassischen Medien übernommen werden müssen. Aufsichtsratssitzungen großer DAX-Unternehmen sind ein weiteres Beispiel für diese Praxis – wobei Qualitätsmedien wie die Tagesschau in solchen Fällen in der Regel darauf hinweisen, dass sie gerade externes Filmmaterial verwenden. Bei der Double-Feier am Sonntag war das allerdings ebensowenig der Fall wie im Jahre 2010, als deutsche Qualitätsmedien zum offiziellen Baustart der Nord-Stream-Pipeline im russischen Wyborg auf Footage einer PR-Agentur zurückgriffen. Übrigens produzieren auch Kirchen weltweit regelmäßig journalistischen Content, der über klassische Medien verbreitet wird.

Was ist eigentlich noch wahr?

Wir Führungs- und Fachkräfte aus Marketing, Kommunikation, Produktmanagement und Vertrieb in Unternehmen und Agenturen sollten diese Entwicklung sorgfältig beobachten. Denn einerseits profitieren wir von Content Marketing. Immerhin stärkt es unsere Marken im Wettbewerb um die Aufmerksamkeit unserer Zielgruppen Anspruchsgruppen. Andererseits tragen wir mit Content Marketing dazu bei, dass die Herkunft von Informationen immer schwieriger nachzuvollziehen, Nachrichten immer schwerer zu überprüfen sind. Das wiederum hat Auswirkungen auf das, was eine Gesellschaft als „die Wahrheit“ wahrnimmt.

Mitverantwortlich für die Meinungsbildung

Dass immer mehr Marken zu Medien werden und Content bzw. News produzieren, lässt sich nicht aufhalten. Die Double-Feier der Stadt München für den FC Bayern war nicht das letzte Event, das von einem vereins- bzw. unternehmenseigenen Sender aufgezeichnet wurde. Wir Experten in Marketing und Kommunikation werden durch unsere Arbeit sogar aktiv an der Ausweitung dieses Trends mitwirken. Wir werden noch mehr Content produzieren, weiter Prozesse und Strukturen anpassen, unsere Marken fit für die Kommunikation 4.0 machen. Allerdings sollten wir uns dabei stets unserer Mitverantwortung für die Wahrheit und für die öffentliche Meinungsbildung bewusst sein. Das ist des Pudels Kern. 

 

Server Based Personal Desktop – Private Server für Anwender

Dadurch können also Unternehmen auf Basis von Windows Server 2016 einen virtuellen Rechner für Anwender zur Verfügung stellen, der den Funktionen und Möglichkeiten von Windows 10 entspricht. Die Bereitstellung dieses Servers erfolgt als VM, in der welcher der Anwender auf Wunsch auch administrative Reche erhält.

Die neuen Server Based Personal Desktops ergänzen die Möglichkeiten von herkömmlich bereitgestellten Desktops um die Möglichkeit neue Sammlungen zu erstellen, in denen Anwender echte virtuelle Computer mit administrativen Rechten erhalten. In der TP5 lassen sich diese Funktionen nur über die PowerShell steuern, in einer der nächsten Technical Previews soll diese Technik auch in der grafischen Oberfläche steuerbar sein. Die Verwaltung erfolgt über das CMDlet New-RDSessionCollection mit den drei neuen Optionen:

-PersonalUnmanaged – Legt den neuen Typ der Sammlung fest und erlaubt, dass Anwender direkt zu einem speziellen Sitzungs-Host weitergeleitet werden.

-GrantAdministrativePrivilege – Erteilt dem Anwender Administrator-Rechte auf dem Sitzungs-Host, in dem er in die lokale Administrator-Gruppe aufgenommen wird.

-AutoAssignUser – Legt fest, dass Anwender automatisch zu einem noch freien Sitzungs-Host verbunden werden, den noch kein anderer Anwender nutzt.

Die Zuweisung kann aber auch manuell erfolgen. Dadurch können Sie einem Benutzer einen fest definierten Sitzungs-Host zuweisen. Sie verwenden dazu das CMDlet Set-RDPersonalSessionDesktopAssignment mit den folgenden Optionen, um die Zuweisung vorzunehmen:

-CollectionName <Name der Sammlung>

-ConnectionBroker<Name des Verbindungsbrokers>

-User <Benutzer>

-Name <Name des Sitzungshosts>

Anzeigen können Sie die Zuordnungen mit Get-RDPersonalSessionDesktopAssignment, gelöscht werden diese mit Remove-RDPersonalSessionDesktopAssignment.

 

Bessere Remotedesktop-Dienste

Diese VMs nutzen auch virtuelle SCSI-Festplatten für den Boot, arbeiten also sofort im Virtualisierungsmodus und müssen nicht erst eine Emulation für den Systemstart durchführen.

Virtuelle Computer auf Basis von Generation 2 nutzen keinerlei emulierte Hardware mehr. Außerdem können diese Computer über das Netzwerk booten. PS/2-Tastaturen und –Mäuse können Sie mit Generation 2-VMs nicht mehr nutzen. Als Generation 2-VMs können Sie nur Windows Server 2012/2012 R2, Windows Server 2016, Windows 8 x64/8.1 x64 und Windows 10 verwenden.

Generation 2-VMs können Sie ab Windows Server 2016 auch in Linux-VMs nutzen. Das bietet Linux-VMs auch die Möglichkeit über UEFI zu booten und auch die Secure Boot-Funktion von UEFI zu nutzen. Dazu müssen Sie Ubuntu ab Version 14.04 oder SUSE Linux Enterprise Server ab Version 12 einsetzen. Diese Systeme sind automatisch für Secure Boot aktiviert. Bevor Sie eine solche VM starten, sollten Sie aber erst konfigurieren, dass die VM auch die Microsoft UEFI Certificate Authority nutzt.  Dazu müssen Sie den folgenden Befehl auf dem Host eingeben:

Set-VMFirmware vmname -SecureBootTemplate MicrosoftUEFICertificateAuthority

Im laufenden Betrieb lassen sich Festplatten hinzufügen und entfernen, das gilt auch für virtuelle Netzwerkkarten. Auch der Arbeitsspeicher lässt sich im laufenden Betrieb anpassen, selbst wenn nicht der dynamische Arbeitsspeicher verwendet wird.

Virtuelle GPUs unterstützen in Windows Server 2016 OpenGL/OpenCL. Zusammen mit den Verbesserungen in RemoteFX, auf die wir noch eingehen, ermöglicht das den Betrieb grafikintensiver Anwendungen wie Adobe PhotoShop auf Remotedesktop-Servern.

Red Hat Enterprise Linux 6.8 veröffentlicht

Red Hat pflegt als Enterprise-Hersteller traditionell drei Produkt-Zweige seines Unternehmens-Linux, was Kunden in Summe bis zu 10 Jahre Produktpflege garantiert.

Am aktuellsten ist derzeit Version 7.2. Vor wenigen Tagen hat Red Hat ein umfangreiches Update für den 6´er Zweig veröffentlicht. Red Hat Enterprise Linux 6.8 ist damit ab sofort verfügbar. Mit diesem Release 6.8 wechselt Red Hat Enterprise Linux 6 in die sogenannte „Production Phase 2“, in der sich der Hersteller auf Sicherheit und Stabilität bei der Weiterentwickung konzentriert und keine neuen Features mehr implementiert. Diese währt bei Red Hat ein Jahr. Danach beginnt „Phase 3“,  in der die Rothüte nur noch Security-Updates und Bugfixes nachliefern.

Mehr Sicherheit

Rund 1o Monate nach dem letzten Update verwendet die finale Version 6.8 zwar immer noch einen Kernel Linux 2.6.32, bringt aber gegenüber der Vorgängerversion zahlreiche Erweiterungen und Neuerungen. So soll etwa die Libreswan-Bibliothek, welche das VPN-Protokoll IPSec implementiert die Sicherheit in Virtual Private Networks (VPN) verbessern und ersetzt die bisherige VPN-Lösung openswan.

Ferner sollen Erweiterungen beim Client-Code für das Identity-Management (SSSD) zu einer Erhöhung der Performance beitragen und erlauben ein einfacheres Management.  

Schließlich reduziert der Cached Authentication Lookup auf der Client-Seite einen überflüssigen Austausch von User Credentials mit Active-Directory-Servern. In diesem Zusammenhang vereinfacht die Integration von adcli das Verwalten von RHEL-6.8-Systemen in einer Active Directory Domäne. Darüber hinaus unterstützt SSSD nun die Benutzer-Authentifizierung mit Smart Cards. Das gilt sowohl für das Login, wie auch für die sudo-Funktion.

Verbesserte Verwaltung

Red Hat hat bei RHEL 6.8 außerdem sein Paket-Management-Tool yum erweitert, mit dem sich Pakete nun noch einfacher hinzufügen oder abhängige Pakete nun auch in abgeschalteten Repositories lokalisieren lassen.

Darüber hinaus soll das Systemarchivierungs-Tool Relax-and-Recover (ReaR) für einen noch zuverlässigeren Systembetrieb sorgen, da Administratoren damit einfach lokale Backups im ISO-Format erstellen, zentral archivieren und bei Bedarf remote ein vereinfachtes Disaster Recovery anstoßen können.

Ferner hat Red Hat Enterprise Linux 6.8 jetzt das Tool dmstats an Bord, das umfassende Einblicke in die Speicherauslastung und Performance ermöglicht und zum Beispiel das Anzeigen und Verwalten von I/O-Statistiken für benutzerdefinierte Bereiche von Devices, die einen Device-Mapper-Treiber verwenden, erlaubt.

Außerdem unterstützt Red Hat Enterprise Linux 6.8 mit dem Scalable File System Add-on jetzt XFS-Dateisystemgrößen von bis zu 300 TByte.

Und Container …

Neu ist auch, dass Unternehmen mit der Verfügbarkeit der RHEL-6.8-Base-Images traditionelle Workloads in Applikations-Container konvertieren können, die sich dann problemlos auch als Container in Red Hat Enterprise Linux 7 und Red Hat Enterprise Linux Atomic Host nutzen lassen.

Eine umfangreiche Auflistung der Neuerungen von Red Hat Enterprise Linux 6.8 stellt Red Hat in der zugehörigen Dokumentation sowie in den  Release Notes zur Verfügung.

KVM-Unterbau geht in die nächste Runde

Die neue Version 2.6 lässt sich ab sofort im Sourcecode von der http://wiki.qemu.org/Download Projektseite herunterladen; Binärpakete sollte aber zeitnah auch in den Paketquellen der gängigen Linux-Distributionen auftauchen.

Massiv überarbeitet und erweitert

Die jetzt veröffentliche Version 2.6 wurde massiv überarbeitet und mit neuen Funktionen ausgestattet. Zu den wichtigsten Neuerungen gehört zweifelsohne der noch nicht ganz fertiggestellte, aber ansatzweise vorhandene Support für den Rapsberry PI 2. So sei der „Maschinentyp“ „raspi2“ nach Auskunft der Entwickler zwar noch nicht vollständig, könne aber bereits ältere Windows- und Raspbian-Versionen starten.
Ebenfalls neu im Bereich der unterstützten Architekturen ist auch der MIPS-R6-Virtual- Prozessor-Support. Ferner soll der TCG-Code-Generator jetzt mehr x86-Instruktionen unterstützen.

Schneller und sicherer

Zudem haben die Entwickler Qemu 2.6 eine Reihe von Geschwindigkeitsverbesserungen im Zusammenhang mit der VirtIO-Komponente angedeihen lassen. Ebenfalls neu ist, dass der VFIO-Code von Qemu nun AMD XGBE-Pass-Through unterstützt. Neu ist auch ein Mechanismus, mit dessen Hilfe sicherheitsrelevanten Informationen an das System übergeben werden können. Schließlich haben die Entwickler auch die GUI erweitert, die dank SDL2 und SPICE nun OpenGL und VirGL unterstützt.

Sämtliche Neuerungen sind wie bei Qemu üblich im Änderungsprotokoll dokumentiert.

Über Qemu

Die Open-Source-Software Qemu lässt sich sowohl als Emulator, als auch als Virtualisierer einsetzen. Prinzipiell erlaubt Qemu das Ausführen eines virtuellen Gastsystems auf einem Computer. In seiner Eigenschaft als Emulator ist Qemu in der Lage, Betriebssysteme und damit auch Applikationen, die für eine bestimmte Prozessor und Hardware-Architektur entwickelt wurde, auf einer völlig anderen Architektur ausführen, wozu ein Just-in-Time-Compiler für eine trotzdem recht hohe Ausführungsgeschwindigkeit sorgt.

Qemu lässt sich aber auch als Virtualisierungslösung einsetzen. In dieser Eigenschaft fungiert die Software als Frontend für diverse Open-Source-Virtualisierer wie KVM oder Xen. Virtuelle Maschinen laufen dann mit nahezu nativer Ausführungsgeschwindigkeit.

Verwaltung und Verteilung der Betriebsmaster

Standardmäßig besitzt der erste installierte Domänencontroller einer Gesamtstruktur alle fünf FSMO-Rollen seiner Domäne und der Gesamtstruktur. Jeder erste Domänencontroller weiterer Domänen verwaltet die drei Betriebsmasterrollen seiner Domäne (PDC-Emulator, RID-Master, Infrastrukturmaster). Vor allem in größeren Active Directorys empfiehlt Microsoft jedoch die Verteilung der Rollen auf verschiedene Domänencontroller.

Empfehlungen zur Verteilung von Betriebsmastern

Zur optimalen Verteilung der FSMO-Rollen gibt es folgende Empfehlungen:

  • Der Infrastrukturmaster sollte nicht auf einem globalen Katalog liegen, da ansonsten Probleme bei der Auflösung von Gruppen, die Mitglieder aus verschiedenen Domänen haben, auftreten können.
  • Domänennamenmaster und Schemamaster sollten auf einem gemeinsamen Domänencontroller liegen, der auch globaler Katalog ist.
  • PDC-Emulator und RID-Master kommunizieren viel miteinander und sollten daher auf einem gemeinsamen Domänencontroller liegen, der auch globaler Katalog ist.

Um sich einen Überblick über alle Betriebsmaster einer Gesamtstruktur zu verschaffen, können Administratoren den Befehl netdom query fsmo in der Eingabeaufforderung aufrufen.