Erste Schritte mit Kubernetes nach der Installation

Wenn ein Kubernetes-Cluster installiert wurde, zum Beispiel auf einem Linux-Server oder auch einer Windows 10-Arbeitsstation zusammen mit Docker, kann in der Befehlszeile und der PowerShell getestet werden, ob der Cluster funktioniert. Dazu dient vor allem das Befehszeilentool „Kubectl“. Dieses wird zusammen mit Kubernetes installiert und steht nach der Installation sofort zur Verfügung.  Alle Optionen von „Kubectl“ sind in der Kubernetes-Dokumentation auf der Seite „Overview of kubectl“ zu finden.

In diesem Beitrag gehen wir von der Installation von Docker auf einer Arbeitsstation mit Windows 10 aus, zusammen mit Docker. Um nach der Installation zu prüfen, ob die Clusterknoten funktionieren wird zunächst der folgende Befehl eingegeben:

kubectl get nodes

Hier werden alle Knoten des Clusters angezeigt.  Wichtig ist, dass die Knoten bei „Status“ auch „Ready“ anzeigen.

Kubernetes erstellt automatisch Namespaces. Dabei handelt es sich um die einzelnen Ressourcen-Gruppen in Kubernetes, mit der die Containerverwaltung bereitgestellt wird.  Diese werden mit dem folgenden Befehl angezeigt:

kubetctl get namespaces

Die Ressourcen in den einzelnen Namensräumen sind voneinander getrennt. Informationen, wie die Cluster-IP-Adresse und andere Daten werden mit dem folgenden Befehl angezeigt:

kubectl get services

Um sich weitere Daten des Kubernetes-Clusters anzuzeigen, wird der folgende Befehl verwendet:

kubectl cluster-info

Goffin verschafft Start-ups den Marktzugang

Die Köpfe des Erfolges sind die Kölner Ex-Ford/Visteon/tedrive-Manager Reiner Greiss und Thomas Brüse. Die beiden Ingenieure lernten sich 1988 kennen und wechselten 2000 von Ford gemeinsam zu Visteon, einem Tochterunternehmen, das der Automobilhersteller gründet hatte, um darin seine Zulieferer-Aktivitäten zu bündeln. Greiss und Brüse durchliefen in diesen Jahren sämtliche Stationen bis zu Top-Management-Positionen mit globaler Verantwortung, von der Fertigungsplanung und Produktion über die Produktentwicklung, sowie von Projektmanagement bis zur Strategieentwicklung und ergänzten sich dabei in ihren Fähigkeiten.

„Die Insolvenz von Visteon abzuwickeln war eine meiner schwierigsten aber auch interessantesten Aufgaben in meinem Berufsleben, die ich unter Berücksichtigung der Interessen aller Beteiligten, und im Rahmen der mir zur Verfügung stehenden Möglichkeiten, sehr gut lösen konnte“, sagt Brüse. Nach der Restrukturierung fokussierte das Führungsduo das Unternehmen auf Lenksysteme für Pkw, Transporter und schwere Nutzfahrzeuge. Innerhalb von fünf Jahren haben die beiden das mittelständische Unternehmen aus dem Bergischen Land zu einem global agierenden Unternehmen ausgebaut mit Standorten in der Türkei, Russland, USA und China.

Danach plante Greiss die Struktur einer neuen Firmengruppe und Brüse begleitete parallel die Integration von tedrive in den Knorr-Konzern. Als logische Folge gründeten Brüse und Greiss im selben Jahr in Köln die Goffin Holding GmbH, in der beide als geschäftsführende Gesellschafter agieren.

Hier bringen die Gesellschafter mit einem Team alter Weggefährten ihre gesamte Managementexpertise ein, um Start-ups breit im Markt zu platzieren. 2015 erwarb das Duo das „Quick Move“-Patent für die Intralogistik und gründete die Quick Move GmbH. Bei dem Patent handelt es sich um ein dreidimensional frei gestaltbares Fördersystem, das zum Beispiel das Hochregallager einer Apotheke vollautomatisch mit der Kundentheke vernetzt, aber auch ein breites Anwendungsfeld in der Produktion sowie der Intralogistik bietet. „Quick Move eignet sich am besten für Unternehmen mit vielen Materialbewegungen und wo Platzmangel herrscht,“ sagt Brüse.

Seit Ende 2017 gehört die saarländische DeVeTec GmbH zur Goffin Gruppe. Mit ihr erweitert die Gruppe ihr Portfolio um das hocheffiziente Abwärmekraftwerk, das Abwärme aus Industrieprozessen in bedarfsorientierte Energie wie etwa Strom, aber auch Druckluft oder Kälte umwandeln kann (Heat-to-X).

Herzstück eines DeVeTec- Abwärmekraftwerks ist der Kolbenexpansionsmotor, der eigens für die effektive Energieumwandlung von Abwärme aus Abgasen oder Abluft mit Temperaturen oberhalb von 250°C entwickelt wurde. Die Abwärmekraftwerke in Containerbauweise haben bereits über mehrere Jahre eine hohe Zuverlässigkeit nachgewiesen.

Synergien zwischen DeVeTec und der Goffin Energy GmbH, einem 2016 mit der Snow Leopard Projects GmbH gegründeten Joint Venture für hocheffiziente Klein-Biogasanlagen, sieht der geschäftsführende Gesellschafter auch. Aktuell geht eine Anlage mit 100 kW elektrischer Leistung in Niederbayern bei einem Biobäcker und Biolandwirt in Betrieb.

Über die Goffin Consult GmbH schließlich werden verschiedene Beratungsmandate von Greiss und Brüse geführt. Darüber bildet das Unternehmen einen Pool an kaufmännischem und technischem Wissen und personeller Ressourcen, um Unternehmensprozesse zu optimieren, zu bewerten und Investitionsentscheidungen und Strategieplanungen zu begleiten.

„Die Weitergabe unseres breit gefächerten Wissens und unserer gemachten Erfahrungen an andere, bereitet uns großen Spass“, so Greiss. Die Problemlöser kommen aus dem Netzwerk der beiden Unternehmer, die restrukturierungserprobt, prozess- und marktorientiert sind. Auch aktuelle und potentielle Kunden kommen unter anderem aus diesem Umfeld von Herstellern, Zulieferern, Ingenieurbüros sowie von Entwicklern und Dienstleistern.

Aufbauend auf diesem Verbund und auf Basis der genannten Ressourcen möchte Goffin auch die eigenen technischen Lösungen entwickeln und platzieren. Das Unternehmen ist dafür aufgestellt, sich neue Märkte erfolgreich zu erschließen und ist gegenüber Zukäufen aufgeschlossen.

Edge-Rechenzentren vor dem Durchbruch

Im nächsten Jahrzehnt werden insbesondere mit dem Ausbau der 5G-Netze, dem Aufbau von Systemen zum autonomen Fahren und Industrie4.0-Technologien immer mehr Klein- und Kleinstrechenzentren aufgebaut. Dabei reicht die Spannweite von Mikrorechenzentren mit wenigen Servern bis hin zu leistungsstarken Kompakt-Rechenzentren, in denen mehrere hundert bis tausend Serversysteme arbeiten. Die Edge-Rechenzentren verarbeiten Daten nahe am Entstehungsort. Entscheidend ist dabei meist, dass Datenmengen zu groß oder die Latenzzeit zu lang ist, um weiter entfernte zentrale Rechenzentren zu nutzen.

Der Aufbau dieser Rechenzentren wird allerdings nicht dazu führen, dass klassische zentrale Rechenzentren ersetzt werden. Im Gegenteil, je mehr Edge-Rechenzentren es gibt, desto größer wird auch der Bedarf an zentralen Rechenzentren. Edge Computing wird die Digitalisierung weiter voran treiben, ähnlich wie die Einführung von Personal Computern den Bedarf an zentraler IT erst richtig hat ansteigen lassen.

Aus Sicht der Umwelt stellt sich die Herausforderung, wie die neuen Edge-Rechenzentren möglichst energieeffizient betrieben werden. Die Gefahr ist groß, dass bei solch relativ kleinen Systemen das Thema Energieeffizienz vernachlässigt wird. Dabei gibt es kostengünstige, zuverlässige und energieeffiziente Systeme, die sich gerade für Edge-Rechenzentren anbieten. Eine solche Lösung, die auf flüssiggekühlten Servern beruht und mit Adsorptionskältemaschinen arbeitet wird im Projekt HotFlAd erprobt und praktisch umgesetzt.

 

Docker in Windows 10 betreiben und für Kubernetes aktivieren

Um ein lokales Kubernetes/Docker-System zu betreiben wird zunächst ein Windows 10-Rechner mit Windows 10 Pro oder Enterprise benötigt. Der Rechner muss die Hardware-Virtualisierung unterstützen. Diese muss also aktiviert sein. Zusätzlich wird auf dem Client Hyper-V und die aktuelle Docker-Version benötigt.  Im ersten Schritt muss auf einem Rechner Hyper-V und die Container-Technologie installiert sein. Das kann zum Beispiel in der PowerShell erfolgen:

Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Hyper-V -All

Enable-WindowsOptionalFeature -Online -FeatureName Containers -All

Nach der Installation von Docker auf einer Arbeitsstation müssen die Einstellungen aufgerufen werden. Hier sollte bei „Network“ sichergestellt sein, dass der hinterlegte DNS-Server dazu in der Lage DNS-Adressen im Internet aufzulösen.

Um Kubernetes auf einem Rechner mit Windows 10 zu betreiben, muss daher zunächst Docker installiert sein.  Der Download dazu wird auf der Docker-Webseite zur Verfügung gestellt

Die Installation sollte über das Kontextmenü mit Administratorrechten gestartet werden.  Nach der Installation kann Docker über das Menü im Traybereich der Taskleiste verwaltet werden. Steht Docker zur Verfügung, kann auch Kubernetes installiert und genutzt werden. 

Über das Icon von Docker im Traybereich der Taskleiste können die Einstellungen aufgerufen werden. Über den Menüpunkt „Kubernetes“ kann die Unterstützung von Kubernetes aktiviert werden.  Hier sollten die beiden Optionen „Enable Kubernetes“ und „Show system containers (advanced)“ aktiviert werden.  Nach der Bestätigung wird Kubernetes für Windows auf dem Rechner installiert und eingerichtet. 

Kubernetes und Docker – Was ist das eigentlich?

Bei der Bereitstellung von Containern wird sehr häufig auf Docker gesetzt. Die Container-Lösung Docker war maßgeblich dafür verantwortlich, dass  Container bekannt wurden, und als Lösung in Unternehmen eingesetzt wird.

Wer viele Container einsetzt, braucht allerdings eine Lösung, die diese zentral verwaltet. Dafür wurde Kubernetes entwickelt. Wenn es also um Container in Netzwerken geht, wird häufig auf Docker als Container-Bereitstellungs-Software gesetzt und auf Kubernetes, um Container zentral zu verwalten.

Auch Microsoft setzt in Windows Server 2016/2019 auf diese Technologie. Auf Windows-Servern wird Docker für die Bereitstellung von Containern genutzt. Seit Windows Server 2019 können Docker-Container auf Windows-Servern auch mit Kubernetes verwaltet werden. In Windows Server 2016/2019 ist mit der Lizenz des Servers auch eine Lizenz von Docker Enterprise Edition enthalten. 

Docker erlaubt es Container zu erstellen, in denen Anwendungen paketiert und bereitgestellt werden können. Sollen Container auf mehrere Knoten verteilt und hochverfügbar betrieben werden, ist der Einsatz von Kubernetes sinnvoll. Denn hier erhalten Unternehmen eine zentrale Verwaltungsstelle, um Container auf mehreren Container-Hosts bereitzustellen und zentral zu verwalten. 

Konfiguration der Routingtopologie in Active Directory

Routingtopologie fallen hauptsächlich folgende Aufgaben an, die auf den nächsten Seiten ausführlicher behandelt werden:

· Erstellen von Standorten in Active Directory.

· Erstellen von IP-Subnetzen und zuweisen an die Standorte.

· Erstellen von Standortverknüpfungen für die Active Directory-Replikation.

· Konfiguration von Zeitplänen und Kosten für die optimale Standortreplikation.

Damit Sie die standortübergreifende Replikation von Active Directory verwenden können, sollten Sie in jedem Standort, an dem später ein Domänencontroller angeschlossen ist, ein unabhängiges IP-Subnetz verwenden. Dieses IP-Subnetz wird in der Active Directory-Verwaltung hinterlegt und dient fortan zur Unterscheidung der Standorte in Active Directory.

Das wichtigste Verwaltungswerkzeug, um Standorte in Active Directory zu verwalten, ist das Snap-In Active Directory-Standorte und -Dienste. Um neue Standorte zu erstellen, müssen Sie Mitglied der Gruppe Organisations-Administratoren sein. Administratoren, die nicht Mitglieder dieser Gruppe sind, dürfen keine Standorte in Active Directory erstellen.

Es ist nicht unbedingt notwendig, dass jeder Standort mit der Zentrale durch eine Sterntopologie angebunden ist. Die Replikation in Active Directory ermöglicht auch die Anbindung von Standorten, die zwar mit anderen Standorten verbunden sind, aber nicht mit der Zentrale. In jedem Standort sollte darüber hinaus ein oder mehrere unabhängige IP-Subnetze verwendet werden.

Active Directory unterscheidet auf Basis dieser IP-Subnetze, ob Domänencontroller zum gleichen oder zu unterschiedlichen Standorten gehören, und steuert entsprechend die Replikation.

vCenter Server Appliance an Active Directory anbinden

Zur Konfiguration melden Sie sich am Web-Client zunächst mit einem Administratorkonto aus der SSO-Domäne an, die Sie in vSphere konfiguriert haben.

Anschließend klicken Sie auf die Home-Ansicht im Web-Client im oberen Bereich des Fensters.

In der Home-Ansicht klicken Sie auf  „Verwaltung“ und bei „Single Sign On“auf  „Konfiguration“. Bei Identitätsquellen können Sie entweder „Active Directory (Integrierte Windows-Authentifizierung)“ oder „Active Directory als LDAP-Server“ auswählen. Nutzen Sie Active Directory nur als LDAP-Server, müssen die beteiligten Hosts kein Mitglied der Active Directory-Domäne werden.

Die Anbindung erfolgt über einen Assistenten, in dem Sie die Daten der Domäne ausfüllen. Anschließend wird die Domäne im Fenster angezeigt.

Verwenden der Domänencontroller-Diagnose

 Eine ausführliche Diagnose erhalten Sie durch „dcdiag /v“. Möchten Sie eine ausführlichere Diagnose durchführen, sollten Sie die Ausgabe jedoch in eine Datei umleiten, da Sie dadurch das Ergebnis besser durchlesen und eventuell auch an einen Spezialisten weitergeben können. Die Eingabeaufforderung könnte dann zum Beispiel „dcdiag/v >c:\dcdiag.txt“ lauten.

Für die erste Überprüfung reicht die normale Diagnose mit „Dcdiag“ jedoch vollkommen aus. Fehler sollten Sie in einer Suchmaschine recherchieren und beheben. Im idealen Fall sollte „Dcdiag“ keine Fehler zeigen.

Mit „dcdiag /a“ überprüfen Sie alle Domänencontroller am gleichen Active Directory-Standort, über „dcdiag /e“ werden alle Server in der Gesamtstruktur getestet.

Um sich nur die Fehler und keine Informationen anzeigen zu lassen, wird „dcdiag /q“ verwendet. Die Option „dcdiag /s:<Domänencontroller>“ ermöglicht den Test eines Servers über das Netzwerk.

Um sich nur die Fehler und keine Informationen anzeigen zu lassen, verwenden Sie „dcdiag /q“. Die Option „dcdiag /s:<Domänencontroller>“  ermöglicht den Test eines Servers über das Netzwerk.

Es wird während des Tests auch geprüft, ob das Computerkonto in Active Directory in Ordnung ist und ob das Computerkonto sich richtig registriert hat. Sie können über die Option „dcdiag /RecreateMachineAccount“ eine Fehlerbehebung versuchen, wenn der Test fehlschlägt. Über „dcdiag /FixMachineAccount“ können Sie ebenfalls eine Fehlerbehebung versuchen. Eine weitere Option, die Fehler behebt, ist „dcdiag /fix“.

 

Ausschließen der häufigsten Fehlerursachen bei der Replikation in Active Directory

Zunächst sollten Sie die Replikationswege von Active Directory aufzeichnen und genau feststellen, welche Domänencontroller sich nicht mehr mit anderen Domänencontrollern replizieren. An dieser Stelle können Sie als nächstes mit den Diagnosetools wie Dcdiag die problematischen Domänencontroller genauer untersuchen.

Ausschließen der häufigsten Fehlerursachen

Bevor Sie mit Tools die Replikation genauer untersuchen, sollten Sie zunächst die gravierendsten und häufigsten Fehlerursachen ausschließen:

  • Liegt auf dem Domänencontroller, der sich nicht mehr replizieren kann ein generelles Problem vor, welches sich mit Dcdiag herausfinden lässt. Liegen also die Probleme überhaupt nicht in der Replikation, sondern hat der Domänencontroller eine Funktionsstörung?
  • Wurde auf dem Domänencontroller eine Software installiert, welche die Replikation stören kann, wie Sicherheitssoftware, Virenscanner, Firewall oder sonstiges?
  • Ist auf dem Domänencontroller, mit dem die Replikation nicht mehr stattfinden kann, die Hardware ausgefallen?
  • Liegt unter Umständen nur ein Leitungs-, Router- oder Firewallproblem vor?
  • Lässt sich der entsprechende Domänencontroller noch anpingen und lässt sich der DNS-Name des Servers auflösen?
  • Gibt es generelle Probleme mit der Authentifizierung zwischen den Domänencontrollern, die durch Zugriff verweigert-Meldungen gemeldet werden?
  • Sind die Replikationsintervalle zwischen Standorten so kurz eingestellt, dass die vorherige Replikation noch nicht abgeschlossen ist, und die nächste bereits beginnt?
  • Wurden Änderungen an der Routingtopologie vorgenommen, die eine Replikation verhindern können?

In fünf Tagen rund um die Personal-Welt

Top-Speaker wie Stefan Frädrich, Frank M. Scheelen, Boris Grundl, Martin Limbeck und weitere 16 Referenten bieten über vielfältige Personal-Themen ihr Wissen an: Von Mitarbeitermotivation und digitalem Bewerbermanagement, über Führung in der digitalen Arbeitswelt und Kompetenzen von Führungskräften bis zur Vertriebsführung und dem Employer Branding. Letztlich geht es darum, dass die Teilnehmer ihre Mitarbeiterauswahl nachhaltig verbessern sowie ihre Mitarbeiter besser führen und fördern. Denn nur so kann sich ein Unternehmen erfolgreich entwickeln.

In der kommenden Woche erhalten die Teilnehmer von Montag bis Freitag zwischen 18 und 21 Uhr jeweils von vier unterschiedlichen Rednern einen 45-minütigen Input. Zur Anmeldung.

BAM – CMS Blog