Whitepaper von NeRZ und eco zum Thema Abwärmenutzung

Der Stromverbrauch der Rechenzentren steigt. Und damit auch die Menge der Abwärme, die ungenutzt an die Umgebung abgegeben wird. Allein in Deutschland sind das über 13 Mrd. kWh. Damit könnte eine Großstadt wie Frankfurt mit Wärme versorgt werden.

Wie eine NeRZ-Studie zeigt, haben Rechenzentrumsbetreiber in Deutschland ein hohes Interesse am Thema Abwärmenutzung. Bislang wird allerdings kaum Abwärme aus Rechenzentren genutzt. Als Gründe hierfür werden insbesondere die mangelnde Wirtschaftlichkeit und fehlende Abnehmer für die Abwärme angegeben.

Das neue Whitepaper zum Thema Abwärmenutzung aus Rechenzentren soll dazu beitragen, dass dem Thema Abwärme aus Rechenzentren mehr Aufmerksamkeit gewidmet wird. Insbesondere in Deutschland sind die gesetzlichen und wirtschaftlichen Rahmenbedingungen für Abwärmenutzung aus Rechenzentren noch sehr schlecht. Hier sind Rechenzentrumsbetreiber, Behörden, Politik und potenzielle Abwärmenutzer gefragt. Das Whitepaper zeigt anhand von vielen Beispielen auf, welche Möglichkeiten bereits heute bestehen und wie sich die Abwärmenutzung aus Rechenzentren in Zukunft entwickeln kann. Insbesondere deutsche Technologieunternehmen bieten Lösungen an, wie Abwärme aus Rechenzentren selbst unter schwierigen Rahmenbedingungen genutzt werden kann.

Weitere Informationen: www.ne-rz.de

Wie und wo wird Kubernetes betrieben?

Kubernetes lässt sich als Platform as a Service-Lösung (PaaS) betreiben. Hier stehen zum Beispiel Lösungen in der Google Cloud, AWS und Microsoft Azure zur Verfügung.

Microsoft bietet für Kubernetes über seinen Azure Kubernetes Service (AKS)  einen verwalteten Dienst für Kubernetes zur Verfügung. 

Bei Amazon trägt die verwaltete Lösung die Bezeichnung Amazon Elastic Kubernetes Service  (EKS).

Google hat Kubernetes maßgeblich mit entwickelt. Google Kubernetes Engine stellt den den Dienst in seiner Google Cloud ebenfalls in der public Cloud zur Verfügung.

Einsatz als Paas – Dasist zu beachten

Wird Kubernetes als Dienst in einer Cloud gebucht, kümmert sich der Anbieter um den Cluster und dessen Konfiguration, sowie dessen Bereitstellung. Auch die Aktualisierung von Kubernetes erfolgt durch den Anbieter. 

Eigene Installationen ermöglichen die Kontrolle über den ganzen Cluster, bedeutet aber auch, dass die dazu gehörigen Server und die Kubernetes-Installation selbst betrieben werden muss. Der Aufwand durch die Bereitstellung ist höher. Auch die Infrastruktur für den Cluster muss selbst betrieben werden. 

Kubernetes in Windows 10 betreiben

Entwickler oder Administratoren, die eine Testumgebung bereitstellen wollen, können Kubernetes auch auf Windows 10 oder Windows Server 2016 über die Docker-Installation bereitstellen.  Das ermöglicht Test von Kubernetes und die Bereitstellung von Containern. Die Container können dann wiederum auch auf eigene Server übertragen werden. 

Beim Betrieb von Kubernetes auf Docker, kann Kubernetes in Docker integriert werden. Eine solche Installation ist vor allem für Entwickler und Administratoren sinnvoll.

Mit Minicube, kann man einen eigenen Cluster erstellen und dessen Konfiguration festlegen. Die Bereitstellung ist flexibler, aber auch komplizierter.

Mit Play with Kubernetes, können Entwickler oder Tester einige Stunden mit Kubernetes arbeiten und die Umgebung testen. 

 

Pods und Deployments in Kubernetes verstehen

Pods sind eine wichtige Grundlage in Kubernetes. Sie stellen einen Rahmen dar, über den die einzelnen Container über Kubernetes zur Verfügung gestellt werden. Pods sind also die Basis, um Container in Kubernetes bereitzustellen und umschließen Container und die darin enthaltenen Applikationen und Microservices.

Pods enthalten wiederum Container, die über Kubernetes bereitgestellt werden. Pods selbst werden nicht direkt bereitgestellt, sondern über Deployments verteilt. Pods werden über eine YAML-Datei definiert. 

Deployments sind eine Hülle um Pods.  Mit Deployments wird festgelegt wie viele Instanzen eines Pods bereitgestellt werden sollen.  Auch das Updateverhalten der Container und Pods wird hier gesteuert.

Über DaemonSets kann wiederum festgelegt werden, wo Pods auf einem Cluster positioniert werden sollen. So lassen sich zum Beispiel Pods über DaemonSets auf allen Knoten (Nodes) eines Containers bereitstellen. Beim Neustart eines Pods und dessen Container wird in Kubernetes auch eine neue ID bereitgestellt. Das kann über Daemonsets aber entsprechend konfigurieren.

 

Sichere Blockchain durch „blinden“ Vertrauensbeweis

Felder wie die industrielle Fertigung und Produktion rücken immer weiter in das Einsatzspektrum der Blockchain-Technologie. Das entscheidende Argument: Mit Blockchain kann der Austausch von Prozess-Informationen zwischen den unterschiedlichen Parteien einer Produktionsumgebung ohne Umwege direkt, nachvollziehbar und integer erfolgen. Allerdings ist es gerade die Stärke der Distributed Ledger Technologie, ihre ausgeprägte Transparenz, die Datenschützer und Compliance-Beauftragte nervös macht. Denn sensible Personen-, Produktions- oder auch Vertragsdaten, die wie ein offenes Buch durch das Netzwerk reisen, dürfen auf keinen Fall in die falschen Hände geraten und sichtbar für alle sein. Der Schutz von personenbezogenen Daten und die Umsetzung der DSGVO sind im Fertigungsumfeld ebenso präsent, wie die Sorge der Unternehmen, ihre Daten an unberechtigte Dritte zu verlieren. Dritte, die aus der Einsicht in Betriebsinterna Wettbewerbsvorteile gewinnen oder sogar geschäftsschädigende Strategien ableiten könnten.

Technologie-Kombi für flexible Sicherheit

Verbietet das Sicherheitsrisiko von Blockchain also den industriellen Einsatz der Technologie? ExpertInnen sagen nein – solange mit klugen Verschlüsselungsmethoden gearbeitet wird. Ein vielversprechender Ansatz für einen belastbaren, kryptografischen Mechanismus besteht darin, die Blockchain mit sogenannten Zero Knowledge Proofs (auch Zero Knowledge Protocol) auszustatten. Dadurch sollen Vorteile wie Transparenz und Dezentralität auf der einen Seite erhalten und auf der anderen Seite Sicherheits- und Datenschutzanforderungen erfüllt werden. Stark vereinfacht lassen sich die Abläufe wie folgt erklären: Mit ZKP kann ein Datenempfänger belegen, dass er berechtigt ist die Inhalte der Blockchain zu lesen, ohne dass er seine Identität und damit sensible Daten offenlegen muss. Der Datensender hingegen bekommt – ebenfalls ohne zu viele Informationen preisgeben zu müssen – einen „blinden“ Beweis dafür, dass der Empfänger ein autorisiertes Mitglied der betreffenden Produktions-Community ist. Was schon in der einfachen Darstellung wie die Entflechtung des Gordischen Knoten klingt, ist algorithmisch in der Tat recht anspruchsvoll. Um die Funktionsweise dieses Verschlüsselungsprinzips zu verstehen, lohnt es sich deshalb, sowohl die Blockchain als auch das ZKP-Prinzip etwas genauer zu betrachten.

Wie Blockchain funktioniert

Das zugrundeliegende Prinzip der Blockchain-Technologie ist ebenso komplex wie genial. Es handelt sich um eine dezentrale Datenbank, deren Kettenglieder aus einzelnen, unveränderlichen Transaktionsdatensätzen bestehen. Die Liste dieser Datensatzblöcke wächst kontinuierlich – Blockchains werden ähnlich einer Perlenschnur chronologisch und linear erweitert. Die Art und Weise, wie die einzelnen Glieder dieser Kette miteinander verlinkt sind, belegt automatisch ihre Echtheit: Die Daten eines aktuellen Blocks beziehen sich immer auf den vorherigen, theoretisch bis hin zum „Genesis Block“, dem Anfang einer Datenkette. Die Kennung, die jedes einzelne Kettenglied einer Blockchain unverwechselbar macht, nennt sich Hash. Ein Hash ist eine Prüfsumme aus den Daten des Blocks, die nicht rückwärts gerechnet oder mit einer Gegenprobe gelöst werden kann. Dieser kryptografische Winkelzug sorgt dafür, dass in der Blockchain hinterlegte Informationen im Nachhinein nicht mehr manipuliert werden können. An dieser Stelle kommt das Phänomen zum Tragen, das vielerorts gemeint ist, wenn von der Datensicherheit der Blockchain die Rede ist. Eine missverständliche Beschreibung, da hier nicht die Zugriffssicherheit, sondern die Integrität der Daten im Fokus steht. Um die Informationen in einer Blockchain gegen unberechtigte Dritte zu schützen, bedarf es einer weiteren Verschlüsselungsebene. Der Zero Knowledge Proof ist ein probates Mittel, um dieses Ziel zu erreichen

Wie Zero Knowledge Proof funktioniert

Die Technik des Zero Knowledge Proof ist bereits Ende der 80er-Jahre im Einsatz; ihr Prinzip beruht darauf, dass eine Person A – auch der Prover– einer Person B – dem Verifier– beweisen kann, über eine bestimmte Information zu verfügen, ohne diese preisgeben zu müssen. Die belgischen Kryptografieforscher Louis Guillou und Jean-Jacques Quisquater lieferten ein anschauliches Beispiel für die generelle Funktionsweise von ZKP: In Zentrum des Gleichnisses steht eine Höhle, die sich nach dem Eingang in zwei Wege verzweigt. Beide Richtungen führen in Sackgassen, die allerdings aufeinanderstoßen und nur durch eine Tür mit einem geheimen Passwort voneinander getrennt sind. Person A kennt dieses Passwort und will Person B davon überzeugen, ohne die geheime Lösung an sich zu verraten. Um dies zu tun, weist Person A Person B an, vor dem Höhleneingang zu warten, während sie selbst über einen der beiden Wege hineingeht. Person B geht ebenfalls bis zur Abzweigung hinein und lässt dort das Los darüber entscheiden, aus welchem Gang Person A herauskommen soll. Da Person A das Passwort für die Verbindungstür zwischen beiden Gänge kennt, kann sie dem jeweiligen Losentscheid ohne Probleme folgen und von der gewünschten Seite aus bei Person B erscheinen. Um sicher zu gehen, dass es sich hierbei nicht um einen Glückstreffer handelt, wiederholen beide Personen dieses Spiel so lange, bis Person B davon überzeugt ist. Handelt es sich bei Person A um einen Betrüger, so fliegt er schon beim ersten Fehlversuch auf – nach den Prinzipien der Wahrscheinlichkeitsrechnung sinken seine Chancen also mit jedem weiteren Durchlauf.

Finanzindustrie liefert Best Practice

Schon beinahe einer Tradition folgend kommt einer der ersten, erfolgreichen Anwendungsfälle für die Kombination von Blockchain und ZKP ebenfalls aus der Finanzindustrie. Die anonyme Kryptowährung ZCash basiert auf dieser Methode – und erhöht damit den Identitätsschutz seiner Kundinnen und Kunden. ZCash zeigt, dass Zero-Knowledge-Proofs hervorragend geeignet sind, um eine Transaktion vertraulich abzuwickeln. ExpertInnen sind davon überzeugt, dass diese Form der Beweisführung in den kommenden Jahren über Anwendungen in der Geldwirtschaft hinaus eine Vorreiterrolle in der angewandten Kryptografie einnehmen wird. Auch für die fertigende Industrie stellen sie eine vielversprechende Methode dar, um Herausforderungen wie Datenschutz und Skalierbarkeit in Blockchain-Netzwerken anzugehen.

Nodes in Kubernetes verstehen

Nodes sind dafür verantwortlich die Workloads eines Kubernetes-Clusters bereitzustellen. Generell gibt es in Kubernetes zwei Arten von Nodes, die Master-Nodes und die Worker-Nodes. 

Master-Nodes verstehen

Master-Nodes steuern den Kubernetes-Cluster. Diese Nodes sind vor allem für das System verantwortlich, nicht für den Betrieb der Workloads. Ein Cluster kann aus mehreren Master-Nodes bestehen. Das erhöht die Ausfallsicherheit.  Der API-Server hat die Aufgabe eine Schnittstelle zur Administration zur Verfügung zu stellen. Idealerweise sollte eine ungerade Anzahl von Nodes betrieben werden, damit es immer eine Mehrheit an Clusterstimmen gibt.

Der API-Server ermöglicht das Steuern des kompletten Clusters. Der Controller-Manager hat die Aufgabe den Cluster zu überprüfen und sicherzustellen, dass der Cluster funktioniert. Der Scheduler startet die Dienste und interagiert mit den Worker-Nodes.

Control-Panels stellen eine grafische Oberfläche dar, die wiederum mit dem API-Server verbunden ist. Die Datenbank eines Clusters wird in einer etcd-Datenbank gespeichert. Alle Master verfügen über eine eigene Instanz der Datenbank. Diese Datenbank müssen synchronisiert sein.

Die Verwaltung von Clustern wird oft mit „kubectl“ verwaltet. 

Worker-Nodes in Kubernetes

Worker-Nodes führen die einzelnen Workloads aus, also im Grunde genommen die Container im Cluster. Die Worker-Nodes sind einfacher aufgebaut und kommunizieren mit den Master-Nodes.

Das Kubelet in einem Worker-Node stellt die Instanz dar, um einen Worker-Node im Cluster zu integrieren. Die Workloads werden über Container Runtimes Interface (CRI) auf Worker-Nodes bereitgestellt, zum Beispiel mit Docker. Ein Kubernetes Cluster kann auch mehrere CRIs bereitstellen. 

Kube Proxy stellt den Zugriff auf das Netzwerk sicher und verwaltet die IP-Adressen des Nodes.

 

Darum ist der Einsatz von Kubernetes sinnvoll

Anwendungen bestanden früher häufig aus einer monolitischen Struktur. Dabei gab es zwischen den verschiedenen Komponenten einer Anwendung eine feste Beziehung und Verkoppelung. Der Vorteil dabei besteht darin, dass sich solche Anwendungen schneller und einfacher bereitstellen lassen, vor allem in großen Rechenzentren. 

Der Nachteil beim Einsatz von monolitischen Anwendungen ist allerdings, dass immer die ganze Applikation überarbeitet, aktualisiert und neu bereitgestellt werden muss, wenn einzelne Komponenten aktualisiert werden. 

Die monolitischen Programme wurden mit der Zeit durch „Verticals“ ersetzt. Dabei handelt es sich um Applikationen, die durch vertikale Schichten voneinander entkoppelt wurden. Das ermöglicht das einfachere Aktualisierung und ersetzen von einzelnen Komponenten.  Die Wartung von Programmen, aber auch die Aktualisierung ist wesentlich einfacher, da nur notwendige Komponenten aktualisiert werden müssen. 

Der nächste Schritt in dieser Entwicklung sind die Microservices. Diese teilen Anwendungen in verschiedene Dienste auf, die auch getrennt voneinander betrieben werden können. Micro Services sind klein, unabhängig und lassen sich getrennt voneinander warten und aktualisieren. 

Microservices lassen sich wiederum optimal mit Container bereitstellen. Diese sind versionierbar und lassen sich mehrfach einsetzen. Container trennen die Microservices von ihrer Umgebung und stellen gleichzeitig eine Verbindung zum Rest der Umgebung dar. Ein Microservice muss sich nicht mit dem Betriebssystem und der Konfiguration der Umgebung auseinandersetzen, sondern erhält alles was er benötigt über seinen Container. Der Container ist wiederum multiziplierbar, sodass auch andere Microservices ihren eigenen Container erhalten können.

Darum ist der Einsatz von Kubernetes notwendig

Container sind ein kleines und leichtes Virtualisierungsobjekt, das auch in privaten, hybriden und öffentlichen Cloud-Infrastrukturen zum Einsatz kommt. Durch die steigende Anzahl an Microservices und der damit verbundenen Container, kann es im Rechenzentrum schnell dazu kommen, dass hunderte und tausende Container zum Einsatz kommen. Diese müssen natürlich zentral verwaltet werden können. Genau das ist die Aufgabe von Kubernetes. Die Container-Verwaltungs-Lösung kann die Bereitstellung und den Betrieb von Containern automatisieren. Die Lösung hält also cloudbasierte Anwendungen im Betrieb. Die Open Source-Lösung verfügt über eine enorm große Community und ist der de-fakto-Standard für die Verwaltung von Containern. 

Die Drohne hat alles im Blick

Insbesondere in den Bereichen Automobil und Frachtlogistik beziehungsweise Cargo sind große Außenlager keine Seltenheit. Die offenen Lagerflächen sind häufig mehrere Hektar groß und durch die Größe und die Anzahl der gelagerten Teile extrem unübersichtlich. Für eine Inventur, aber auch um bestimmte Güter direkt finden zu können, ist es sehr wichtig, dass alle Teile ordnungsgemäß registriert und inklusive Lagerplatz erfasst sind. Bisher mussten Mitarbeiter die einzelnen Stücke händisch eintragen, die Nummer überprüfen und mit dem Backend abgleichen. Auch wenn etwas verloren ging oder gesucht wurde, erfolgte dies manuell. Da die Güter nicht immer dort liegen, wo sie sollen, kostet das zum einen viel Zeit. Zum anderen birgt die händische Registrierung auch ein großes Risiko für Fehler. Ein einfacher Zahlendreher bei der Erfassung oder beim Abgleich mit dem Backend – und der Fehler ist im System. Oder der Mitarbeiter muss den ganzen Prozess nochmal von vorne beginnen, das Gut lokalisieren und die Zahl erneut überprüfen. Alles in allem also eine mühselige Arbeit, die viel Zeit frisst.

Schnelle Hilfe mittels Drohne und Videoerkennung

Der Einsatz von Drohnentechnik zeigt, wie Unternehmen diesen Job in Zukunft automatisieren und damit das Fehlerrisiko deutlich minimieren und den Prozess beschleunigen können. Für die Außenlagerinventur fliegt eine Drohne mit Video-Erkennung automatisiert über das Feld. Sie wird mithilfe von künstlicher Intelligenz (KI) gesteuert und erkennt und zählt die Objekte aus der Luft. In Kombination mit einer dahinter geschalteten OCR-Software werden die Produkt- oder Seriennummern vollautomatisch ausgelesen und mit den Beständen in den Warenwirtschaftssystemen abgeglichen. Die künstliche Intelligenz hilft außerdem dabei, die Lufterfassung zu optimieren: Wenn beispielsweise eine Bezeichnung schlecht lesbar ist, ermittelt die KI die Wahrscheinlichkeit, dass es sich um eine bestimmte, gesuchte ID handelt. Falls die Erfassung mal nicht eindeutig ist und auch die KI die Kennnummer nicht korrekt erfassen kann, löst die Technik einen Fehleralarm aus und benachrichtigt einen Sachbearbeiter, um die ID manuell zu prüfen. Diese Technik wurde bereits von mehreren Industriegüterkonzernen erfolgreich getestet.

Generell können Drohnen für fast alle Arten der automatischen Erfassung, Identifizierung, Analyse und Dokumentation von Teilen und Objekten sowie sensorischen Informationen eingesetzt werden. Im Rahmen der Entwicklung zur Industrie 4.0 beispielsweise müssen Unternehmen ihre Produktionsprozesse zunehmend automatisiert und flexibel gestalten. Diese Flexibilisierung erfordert auch eine entsprechende Logistik. So setzten vereinzelte Unternehmen beispielsweise Drohnen ein, um Kleinstobjekte innerhalb von Unternehmensstandorten zu transportieren, um Staus auf der Straße zu vermeiden und Zeit zu sparen. Hier gibt es allerdings noch rechtliche Herausforderung zu lösen.

Neben logistischen Aufgaben können Drohnen für die unterschiedlichsten Anwendungsfälle genutzt werden, wie etwa die Personensuche, Erkennen von Gefahrenstoffe in der Luft, Rissbildung in Gebäuden und Brücken oder die Analyse von Wasserständen in flutgefährdeten Gebieten sowie Früherkennung von Waldbränden. Auch in der Landwirtschaft findet die Anwendung von Drohnen bereits seit vielen Jahren erfolgreich statt. Durch die Bewirtschaftung großer Areale ist eine Überwachung beziehungsweise Versorgung der Felder aus der Luft sinnvoll.  Auch in der Wildtierrettung werden Drohnen seit einigen Jahren bereits erfolgreich eingesetzt. Im Frühsommer werden Rehkitze mit Hilfe von Drohnen und Wärmebildkameras im Feld aufgespürt und können so vor dem Mähtod gerettet werden. Die Steuerung der Drohnen funktioniert dabei schon heute meist autonom beziehungsweise mithilfe einer Software. So werden der Einsatz, die Flugrouten und die Aktivitäten der Drohnen zentral koordiniert.

Ich sehe was, was die Drohne sieht

Um die Technik noch weiter zu optimieren, können Unternehmen sie um Augmented Reality ergänzen. Hierfür setzen Mitarbeiter eine Datenbrille auf und sehen nun das durch die Brille, was die Drohne sieht. Über die Brille können Mitarbeiter die Drohne dann ansteuern, um beispielsweise zu zoomen oder einen Richtungswechsel vorzunehmen. Außerdem können sie sich mithilfe der Augmentierung zusätzliche Informationen anzeigen lassen, wie beispielsweise Größe oder Zustand des Frachtguts.

In der Zukunft werden nicht nur zentrale Systeme Drohnen steuern, sondern Drohnen werden sich dezentral autonom untereinander abstimmen und selbständig koordinieren. Damit werden Drohnen untereinander kommunizieren sowie eigenständig Aufträge verteilen können, um die verschiedenen Aufgaben effizient zu erfüllen.

 

Kubernetes Dashboard installieren

Die Verwaltung von Kubernetes und die Anbindung von Containern wird am besten mit einer Weboberfläche vorgenommen. Diese Weboberfläche kann über die Befehlszeile installiert werden:

kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-beta1/aio/deploy/recommended.yaml

Manchmal ändert sich der Pfad, sodass Sie eine 404-Fehlermeldung erhalten. In diesem Fall müssen Sie den neuen Pfad suchen. Hier hilft etwas Recherche im Internet. In der Yaml-Datei sind alle notwendigen Daten für das Dashboard verfügbar. Die Deinstallation erfolgt mit dem Befehl:

kubectl delete -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-beta1/aio/deploy/recommended.yaml

Nach der Installation kann mit dem folgenden Befehl die Weboberfläche gestartet werden:

kubectl proxy

Danach kann über den lokalen Rechner, auf dem Kubernetes betrieben wird mit einem Browser Sie Weboberfläche aufgerufen werden. Die URL ist etwas komplizierter und sollte daher als Favorit oder als Startseite im Browser abgelegt werden:

http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/

Für die Anmeldung ist ein Token notwendig. Wie das angelegt wird, steht auf der Seite „Creating sample user

 

Erste Schritte mit Kubernetes nach der Installation

Wenn ein Kubernetes-Cluster installiert wurde, zum Beispiel auf einem Linux-Server oder auch einer Windows 10-Arbeitsstation zusammen mit Docker, kann in der Befehlszeile und der PowerShell getestet werden, ob der Cluster funktioniert. Dazu dient vor allem das Befehszeilentool „Kubectl“. Dieses wird zusammen mit Kubernetes installiert und steht nach der Installation sofort zur Verfügung.  Alle Optionen von „Kubectl“ sind in der Kubernetes-Dokumentation auf der Seite „Overview of kubectl“ zu finden.

In diesem Beitrag gehen wir von der Installation von Docker auf einer Arbeitsstation mit Windows 10 aus, zusammen mit Docker. Um nach der Installation zu prüfen, ob die Clusterknoten funktionieren wird zunächst der folgende Befehl eingegeben:

kubectl get nodes

Hier werden alle Knoten des Clusters angezeigt.  Wichtig ist, dass die Knoten bei „Status“ auch „Ready“ anzeigen.

Kubernetes erstellt automatisch Namespaces. Dabei handelt es sich um die einzelnen Ressourcen-Gruppen in Kubernetes, mit der die Containerverwaltung bereitgestellt wird.  Diese werden mit dem folgenden Befehl angezeigt:

kubetctl get namespaces

Die Ressourcen in den einzelnen Namensräumen sind voneinander getrennt. Informationen, wie die Cluster-IP-Adresse und andere Daten werden mit dem folgenden Befehl angezeigt:

kubectl get services

Um sich weitere Daten des Kubernetes-Clusters anzuzeigen, wird der folgende Befehl verwendet:

kubectl cluster-info

Goffin verschafft Start-ups den Marktzugang

Die Köpfe des Erfolges sind die Kölner Ex-Ford/Visteon/tedrive-Manager Reiner Greiss und Thomas Brüse. Die beiden Ingenieure lernten sich 1988 kennen und wechselten 2000 von Ford gemeinsam zu Visteon, einem Tochterunternehmen, das der Automobilhersteller gründet hatte, um darin seine Zulieferer-Aktivitäten zu bündeln. Greiss und Brüse durchliefen in diesen Jahren sämtliche Stationen bis zu Top-Management-Positionen mit globaler Verantwortung, von der Fertigungsplanung und Produktion über die Produktentwicklung, sowie von Projektmanagement bis zur Strategieentwicklung und ergänzten sich dabei in ihren Fähigkeiten.

„Die Insolvenz von Visteon abzuwickeln war eine meiner schwierigsten aber auch interessantesten Aufgaben in meinem Berufsleben, die ich unter Berücksichtigung der Interessen aller Beteiligten, und im Rahmen der mir zur Verfügung stehenden Möglichkeiten, sehr gut lösen konnte“, sagt Brüse. Nach der Restrukturierung fokussierte das Führungsduo das Unternehmen auf Lenksysteme für Pkw, Transporter und schwere Nutzfahrzeuge. Innerhalb von fünf Jahren haben die beiden das mittelständische Unternehmen aus dem Bergischen Land zu einem global agierenden Unternehmen ausgebaut mit Standorten in der Türkei, Russland, USA und China.

Danach plante Greiss die Struktur einer neuen Firmengruppe und Brüse begleitete parallel die Integration von tedrive in den Knorr-Konzern. Als logische Folge gründeten Brüse und Greiss im selben Jahr in Köln die Goffin Holding GmbH, in der beide als geschäftsführende Gesellschafter agieren.

Hier bringen die Gesellschafter mit einem Team alter Weggefährten ihre gesamte Managementexpertise ein, um Start-ups breit im Markt zu platzieren. 2015 erwarb das Duo das „Quick Move“-Patent für die Intralogistik und gründete die Quick Move GmbH. Bei dem Patent handelt es sich um ein dreidimensional frei gestaltbares Fördersystem, das zum Beispiel das Hochregallager einer Apotheke vollautomatisch mit der Kundentheke vernetzt, aber auch ein breites Anwendungsfeld in der Produktion sowie der Intralogistik bietet. „Quick Move eignet sich am besten für Unternehmen mit vielen Materialbewegungen und wo Platzmangel herrscht,“ sagt Brüse.

Seit Ende 2017 gehört die saarländische DeVeTec GmbH zur Goffin Gruppe. Mit ihr erweitert die Gruppe ihr Portfolio um das hocheffiziente Abwärmekraftwerk, das Abwärme aus Industrieprozessen in bedarfsorientierte Energie wie etwa Strom, aber auch Druckluft oder Kälte umwandeln kann (Heat-to-X).

Herzstück eines DeVeTec- Abwärmekraftwerks ist der Kolbenexpansionsmotor, der eigens für die effektive Energieumwandlung von Abwärme aus Abgasen oder Abluft mit Temperaturen oberhalb von 250°C entwickelt wurde. Die Abwärmekraftwerke in Containerbauweise haben bereits über mehrere Jahre eine hohe Zuverlässigkeit nachgewiesen.

Synergien zwischen DeVeTec und der Goffin Energy GmbH, einem 2016 mit der Snow Leopard Projects GmbH gegründeten Joint Venture für hocheffiziente Klein-Biogasanlagen, sieht der geschäftsführende Gesellschafter auch. Aktuell geht eine Anlage mit 100 kW elektrischer Leistung in Niederbayern bei einem Biobäcker und Biolandwirt in Betrieb.

Über die Goffin Consult GmbH schließlich werden verschiedene Beratungsmandate von Greiss und Brüse geführt. Darüber bildet das Unternehmen einen Pool an kaufmännischem und technischem Wissen und personeller Ressourcen, um Unternehmensprozesse zu optimieren, zu bewerten und Investitionsentscheidungen und Strategieplanungen zu begleiten.

„Die Weitergabe unseres breit gefächerten Wissens und unserer gemachten Erfahrungen an andere, bereitet uns großen Spass“, so Greiss. Die Problemlöser kommen aus dem Netzwerk der beiden Unternehmer, die restrukturierungserprobt, prozess- und marktorientiert sind. Auch aktuelle und potentielle Kunden kommen unter anderem aus diesem Umfeld von Herstellern, Zulieferern, Ingenieurbüros sowie von Entwicklern und Dienstleistern.

Aufbauend auf diesem Verbund und auf Basis der genannten Ressourcen möchte Goffin auch die eigenen technischen Lösungen entwickeln und platzieren. Das Unternehmen ist dafür aufgestellt, sich neue Märkte erfolgreich zu erschließen und ist gegenüber Zukäufen aufgeschlossen.