Azure Kubernetes Services lokal verwalten

Kubectl kann genutzt werden, sobald es in Azure CLI installiert wurde.

Wenn die Anmeldung an Azure in der Azure CLI erfolgreich mit az login erfolgt ist, kann kubectl mit az aks install-cli installiert werden. Anschließend sollte der Pfad von kubectl noch in die Befehlspfade des Windows-Rechners eingebunden werden:

set PATH=%PATH%;C:\Users\thomas\.azure-kubectl

Danach kann der Cluster in Azure mit der lokalen kubectl verbunden werden:

aks get-credentials –resource-group kubernetes-joos –name kubernetes-joos-cluster

Jetzt lässt sich der Kubernetes-Cluster in Microsoft Azure genauso verwalten, wie eine lokale Kubernetes-Installation. Um zum Beispiel die Deployments im Namensraum kube-system anzuzeigen wird der folgende Befehl eingegeben:

kubectl get deployments -n kube-system

Der Cluster kann auch im Webportal von Microsoft Azure angepasst werden. Hier kann er zum Beispiel erweitert werden.  Soll ein Cluster gelöscht werden, lässt sich das mit dem folgenden Befehl durchführen, ebenfalls wieder am Beispiel des in diesem Beitrags behandelten Beispiel-Clusters:

az aks delete –resource-group kubernetes-joos –name kubernetes-joos-cluster

Alle Einstellungen eines Kubernetes-Clusters lassen sich in der Weboberfläche des Clusters im Azure-Webportal problemlos anpassen. Hier kann ein Cluster auch skaliert werden, und dadurch schnell und einfach mehr Leistung erhalten. Dazu wird lediglich die Anzahl der Worker-Nodes erhöht. 

Kubernetes in Microsoft Azure ausführen

Um Kubernetes in Azure zu nutzen, wird auf Basis der Kubernetes-Dienste in Azure ein neuer Cluster erstellt. Das können Sie entweder im Webportal durchführen, mit der Azure Cloud Shell, oder der Azure CLI.

Die Azure Cloud Shell und Azure CLI nutzen Sie aktuell am einfachsten im neuen Windows Terminal, das Microsoft auf Github und im Microsoft Store für Windows 10 zur Verfügung stellt.  Die Installation kann aber auch manuell erfolgen. Den Download dazu stellt Microsoft kostenlos zur Verfügung:

Azure CLI

Die Installation kann auch über die PowerShell erfolgen, inklusive Download:

Invoke-WebRequest -Uri https://aka.ms/installazurecliwindows -OutFile .\AzureCLI.msi; Start-Process msiexec.exe -Wait -ArgumentList ‚/I AzureCLI.msi /quiet‘

Die Anmeldung am entsprechenden Azure-Konto erfolgt danach mit

az login

Kubernetes-Dienste können Sie auch in einer eigenen Ressourcengruppe zusammenfassen. Die Gruppe können Sie beim Erstellen des Kubernetes-Clusters in der grafischen Oberfläche erstellen, oder mit „az“ in der Azure CLI. Ein Beispiel in der Azure CLI sieht folgendermaßen aus:

az group create –name kubernetes-joos –location westeurope

In der Ressourcengruppe können Sie anschließend einen Kubernetes-Cluster erstellen. Auch hier können Sie wieder das Azure-Webportal verwenden, oder Azure CLI. Die Syntax dazu ist:

az aks create –resource-group <Name der Ressourcengruppe> –name <Name des Clusters> –node-count <Anzahl Worker Nodes> –enable-addons monitoring –generate-ssh-keys

Beispiel:

az aks create –resource-group kubernetes-joos –name kubernetes-joos-cluster –node-count 1 –enable-addons monitoring –generate-ssh-keys

Die Erstellung im Webportal ist aber einfacher und schneller.

Zur Verwaltung eines Kubernetes-Clusters wird meistens „kubectl“ verwendet. Sie können Kubectl auch über die Azure CLI installieren lassen, zum Beispiel mit:

az aks install-cli

Anschließend muss Kubectl noch mit dem Cluster verknüpft werden:

az aks get-credentials –resource-group kubernetes-joos –name kubernetes-joos-cluster

Um das Kubernetes-Dashboard aufzurufen, verwenden Sie den folgenden Befehl:

az aks browse –resource-group  kubernetes-joos –name kubernetes-joos-cluster

Danach kann Kubernetes in Microsoft Azure

Chef Automation Server auf Ubuntu installieren

Um Chef auf einem Ubuntu-Server zu installieren, sollten zunächst die System-Pakete aktualisiert werden:

sudo apt update
sudo apt install curl wget

Danach sollte der Status von AppArmor überprüft werden. Chef hat kein Profil für AppArmor, sodass der Modus von AppArmor auf „complain“ oder „disabled“ gesetzt werden sollte:

sudo apparmor_status

Die Installation kann über das Terminal erfolgen. Dazu sollte die Version von Chef angegeben werden, die über das Terminal installiert wird.  Der Download kann dann entweder mit „Wget“ erfolgen oder manuell. Danach kann die Installation erfolgen:

Dazu wird die Version als Variable gespeichert:

VERSION=“13.0.17″

sudo dpkg -i chef-server-core_${VERSION}-1_amd64.deb

wget https://packages.chef.io/files/stable/chef-server/${VERSION}/ubuntu/18.04/chef-server-core_${VERSION}-1_amd64.deb

sudo dpkg -i chef-server-core_${VERSION}-1_amd64.deb

sudo chef-server-ctl reconfigure

Danach muss Chef noch konfiguriert werden. Die Entwickler zeigen die Vorgehensweise umfassend auf Ihrer Webseite

 

Mit Konfigurationsmanagement das Rechenzentrum im Griff behalten

Die einheitliche Konfiguration von Servern, Serverdiensten, Containern und anderen Objekten in Active Directory stellt eine wichtige Herausforderung für moderne Rechenzentren dar. In vielen Fällen wird für die Automatisierung auf die Tools Ansible, Chef oder Puppet gesetzt.

Ein zentraler Fokus von Ansible, Chef und Puppet liegt auch darin sicherzustellen, dass eine vorgegebene Konfiguration auch ständig eingehalten wird. Ändern Administratoren bestimmte Einstellungen ab, die durch Ansible, Chef oder Puppet vorgegeben wurden, können diese Systeme die Konfiguration wieder so abändern, dass sie den Vorgaben entspricht. 

Auch Sicherheitlücken oder Fehlkonfigurationen auf mehreren Servern und Anwendungen sind einfacher zu beheben, wenn die entsprechende Konfiguration auf einmal verteilt werden kann, am besten durch das einfache Ändern einer einzelnen Konfigurationsdatei.

Während Chef auf Ruby aufbaut, um Konfigurationen zu erstellen, nutzt Ansible einfache YAML-Dateien. 

Die E-Mail ist nicht das einzige Einfallstor für Viren, Trojaner und Malware

Spam und Phishing-Mails sind von jeher ein Katz-und-Maus-Spiel. Während Betrüger versuchen, mit immer elaborierten Methoden Malware zu platzieren oder Daten abzugreifen, rüsten die IT-Sicherheitslösungen immer weiter auf. Lücken finden sich dennoch immer wieder – im E-Mail-System ebenso wie durch menschliche Schwächen. Es gilt daher im Rahmen der digitalen Zuverlässigkeit von Wirtschaftsunternehmen nicht nur Lücken in der IT zu schließen, sondern auch Mitarbeiterinnen und Mitarbeiter auf eine immer ausgefeiltere und größer werdende Bedrohung in Zeiten von Datendiebstählen und Industriespionage aufzuschlauen!

Wenn es was zu gewinnen gibt, setzt der Verstand aus

Die spanische Weihnachtslotterie „El Gordo“ ist die höchstdotierte Lotterie der Welt. Und auch wenn die Gewinnchancen mit 1:100.000 im Vergleich zu unserem LOTTO 6aus49 sogar relativ hoch sind, so wird sicher kaum einer der abertausenden Empfänger von E-Mail-Gewinnbenachrichtigungen diese Lotterie tatsächlich gewonnen haben (mal abgesehen davon, dass dies nicht per E-Mail bekanntgegeben wird). Und trotzdem funktioniert das System. Der Verstand setzt aus und wir klicken auf den Link in der E-Mail. Es könnte ja doch vielleicht sein… Nein, kann es nicht.

Unternehmens-Inboxen erreichen solche E-Mails heute kaum noch, dafür sorgt der professionelle Spam-Filter. Was aber, wenn es dennoch eine E-Mail in das Postfach schafft? Unsere Kunden wenden sich immer häufiger mit der Bitte an uns, zu testen, wie Angestellte auf Phishing-Mails reagieren. Dafür schicken wir im Auftrag des Kunden Test-E-Mails von einem zentralen Server an ausgewählte Empfängergruppen. Kommt eine E-Mail generisch, unpersönlich und ohne Kontext daher, wird sie schnell als „gefährlich“ eingestuft. Wird der Mitarbeiter aber persönlich angesprochen, ein individueller Kontext hergestellt und zum Abrufen eines Mitarbeiter-Benefits auf vermeintlich internen Seiten aufgefordert, so schwindet die Skepsis schnell und die eigenen Anmeldedaten werden eingegeben. Wenn jetzt noch die Absenderadresse auf den ersten Blick stimmt, etwa INF0@Betrieb.de statt INFO@Betrieb.de, dann gibt es kein Halten mehr. Je detaillierter die Angaben in der vermeintlichen Phishing-Mail, desto höher sind die Klickzahlen. Nach unseren Erfahrungen können mit solchen Versuchsaufbauten in fast jedem Unternehmen Rückläuferzahlen von 80-90 Prozent erreicht werden. Und was im Testaufbau funktioniert, ist bereits gelebte, betrügerische Realität im tagtäglichen Wirtschaftsgefüge.

Dabei geht es hier nicht um simples Phishing sondern vielmehr um dedizierte Angriffe auf geistiges Eigentum oder gezielte Sabotage und Erpressung. Das Einfallstor wird gezielt ausgewählt. Der Aufwand ist hoch, doch bei Erfolg die Mühen wert.

Wie raffiniert Betrüger mittlerweile vorgehen, erlebte kürzlich der IT-Verlag Heise am eigenen Leib (und arbeitete das Erlebte hier auf). Am 13. Mai öffnete ein Mitarbeiter eine E-Mail, die sich auf einen zitierten, echten Geschäftsvorgang bezog. Die E-Mail stammte scheinbar von einem Geschäftspartner und forderte dazu auf, die Daten im angehängten Word-Dokument zu kontrollieren und bei Bedarf zu ändern. Beim Öffnen des Dokuments erschien eine (gefälschte) Fehlermeldung, die dazu aufforderte, „Enable Editing“ anzuklicken. Dieser Aufforderung kam der Mitarbeiter nach – und im Hintergrund infizierte die Schadsoftware Emotetsein System und begann sofort, sein Unwesen im Heise-Netz zu treiben.

Neugier schützt vor Schaden nicht

Das Dokument im Anhang oder der Link in der E-Mail sind jedoch bei weitem nicht mehr die einzigen – wenngleich mittlerweile am weitesten entwickelten – Einfallstore. Die Neugier des Menschen und ein gewisses Urvertrauen bieten weitere Sicherheitslücken. Lücken, die das IT-Management meist gar nicht auf dem Zettel hat.

Was würden Sie machen, wenn Sie in der Tiefgarage Ihres Unternehmens einen USB-Stick finden, der wie zufällig verloren zwischen den Autos liegt? Geben Sie ihn am Empfang ab? Übergeben Sie ihn sogar der IT-Abteilung? In den meisten Fällen, in denen so ein Vorfall simuliert wird, siegt die Neugier des Menschen. Bei unseren Tests wird von 20 „verlorenen“ USB-Sticks mindestens die Hälfte „aktiviert“. Der USB-Stick wird am Rechner angeschlossen – meist der firmeneigene auf Grund der räumlichen Nähe – um zu sehen, was drauf ist oder wer der rechtmäßige Eigentümer ist. Was simpel klingt, ist eine reale Bedrohung. Kaum ist der Stick angeschlossen, können Schadprogramme den Rechner und das Netzwerk infizieren.

Ein weiterer standardmäßiger Testaufbau lotet aus, wie weit eine Person physisch ins Unternehmen vordringen kann. Natürlich braucht es hier ein wenig Raffinesse, denn oftmals wird schon am Einlass ein Ausweis benötigt. Aber allzu häufig kommt ein vermeintlicher Techniker oder Lieferant an dieser Hürde schnell vorbei. Nicht aufgrund einer technischen, sondern einer menschlichen Fehleinschätzung. Eine gute Story und vielleicht der Name eines realen Kollegen, der den Techniker angefordert haben soll, und schon wird die Person durchgewunken. Wir glauben an das Gute im Menschen, müssen aber leider mehr und mehr erkennen, dass eben dieses Urvertrauen auch Kriminellen die Tür öffnen kann.

Es beginnt am Anfang

Mitarbeiterinnen und Mitarbeiter müssen sensibilisiert werden, wie sie mit Spam und verdächtigen E-Mails umgehen. Ebenso muss das Bewusstsein vermittelt werden, wem die Tür geöffnet wird und das unbekannte Personen, ohne sichtbaren Firmenausweis direkt angesprochen werden müssen. Wenn es um das Thema digitale Sicherheit geht, sehen IT-Abteilungen oft nur die E-Mail als primäres Einfallstor. Schon beim ersten Termin vor Ort, dem Parken des Autos oder dem Betreten des Geländes fallen jedoch oftmals schon weitere potenzielle Schwachstellen auf. Diese sind nicht so offensichtlich, aber nicht minder risikobehaftet.

Von Schulungen und Trainings, über Feldversuche und deren Auswertung bis hin zu Verhaltensregeln mit ungesicherten WLAN-Verbindungen, Druckern oder der Entsorgung sensibler Daten: Die Belegschaft muss umfassend in das Thema IT-Sicherheit eingebunden werden. Gamification hat sich hier als nachhaltiges Mittel zum Wissenstransfer bewährt, vor allem um Aspekte der IT-Sicherheit in den privaten Alltag zu integrieren. Denn nur so nehmen Mitarbeiterinnen und Mitarbeiter die Informationen aus der Sensibilisierung auch mit in den Arbeitsalltag. Was passiert, wenn ich eine Spam-E-Mail bekomme, eine komische Direktnachricht oder einen seltsamen Anruf erhalte? An wen kann und muss ich mich wenden? Wie muss ich mein Passwort zusammensetzen? Wie gehe ich mit einem gefundenen USB-Stick um? Und wie sollte ich mein privates Smartphone verwenden? Das Thema IT-Sicherheit muss über den Spamfilter hinaus in das Bewusstsein der Führungsetage gebracht werden – angefangen beim ganz Grundsätzlichen. Was wir privat nicht machen würden, das sollte auch im Unternehmen tabu sein, egal ob es darum geht, fremde Menschen ins eigene Haus zu lassen oder den Post-it mit dem Geheimzahl auf die EC-Karte zu kleben.

Die Cloud ist wesentlicher Treiber der digitalen Transformation

Viele Manager und Unternehmer winken genervt ab, wenn sie mit Buzzwords wie „Digitale Transformation“, „Digitalisierung“ oder auch „digitaler Wandel“ konfrontiert werden. Ihre ablehnende Haltung ist durchaus verständlich: Während es manchen Unternehmen bereits gelungen ist, ihr Geschäftsmodell, ihre Prozesse, ja sogar das Mindset ihrer Mitarbeiter zu „digitalisieren“, sieht die Realität im Gros der Unternehmen anders aus: Sie wissen eher schlecht als recht, an welchen Stellschrauben sie zuerst drehen sollen, um das Ruder in Richtung digital herumzureißen.

Digitalisierung ist in vollem Gange

Die Lünendonk-Studie „Fit für die digitale Transformation. Status quo und Ziele bei Legacy-Modernisierung und Cloud-Migration“, die in Zusammenarbeit mit Arvato Systems entstanden ist, gibt einen sehr detaillierten Einblick in die IT-Modernisierungsstrategien großer mittelständischer Unternehmen und Konzerne. Die Datenerhebung erfolgte im Herbst 2018 auf Basis von Telefoninterviews mit IT-Führungskräften von 122 Unternehmen aus dem gehobenen Mittelstand, Großunternehmen und Konzernen. Viele Unternehmen befinden sich inmitten eines weiteichenden Digitalisierungsprozesses, es gibt viel zu tun – und zwar gleich auf mehreren Ebenen. Neben der Strategie sind auch die Produktentwicklung, die Aufbau- und Ablauforganisation sowie die IT-Landschaft zu transformieren.

Start-ups haben strategische Vorteile

Wie zielführend und schnell das gelingt, hängt maßgeblich davon ab, wie lange ein Unternehmen bereits am Markt ist. Start-ups können ihre Business- und Operating-Modelle, ihre Prozesse und ihre IT-Landschaft von Beginn an agil, kundenzentriert und datenbasiert gestalten. Darin liegt im Übrigen auch der Erfolg der großen Internetkonzerne wie Google und Amazon begründet. Hier sind die Geschäftsprozesse eng miteinander verzahnt, über Microservices und APIs ist es möglich, Plattform-Geschäftsmodelle aufzubauen und Drittsysteme nahtlos an die eigene IT-Landschaft anzubinden. Zudem können sie auf einen großen Datenbestand zugreifen und gewinnbringend auswerten.

Etablierte Unternehmen müssen radikal umdenken

Demgegenüber stehen etablierte Firmen und Konzerne vor der Herausforderung, zunächst komplexe Legacy-Prozesse zu digitalisieren und inhomogene IT-Strukturen, basierend auf historisch gewachsenen Altsystemen, aufzulösen. Auch etablierte Unternehmen brauchen eine schnittstellenoffene, flexible, hochskalierbare und agile IT.

Dementsprechend kommt die Studie zu folgenden Ergebnissen:

  • Treiber der IT-Modernisierung gibt es viele: Legacy-Systeme sind üblicherweise nicht in der Lage, neue Technologien wie KI oder Big-Data-Analytics zu unterstützen, was eine Modernisierung dringend erforderlich macht. Erschwerend kommt hinzu, dass viele Altsysteme keine offenen Schnittstellen (APIs) haben und darum nicht mit neuen digitalen Lösungen integrierbar sind.
  • Die Mehrheit der befragten Unternehmen modernisiert aktuell ihre IT-Infrastruktur. Altanwendungen in die Cloud zu migrieren und sie anschließend zu modernisieren, ist dabei die präferierte Vorgehensweise.
  • Ein Fünftel der befragten Unternehmen setzt bereits auf eine Cloud-First-Strategie, gut ein Viertel plant dies. Auch wenn die meisten Unternehmen derzeit eine Private-Cloud nutzen, sind viele gegenüber der Public Cloud zunehmend aufgeschlossener. 67 Prozent der Befragten planen, ihre Investitionen in die Public-Cloud stark bis sehr stark zu erhöhen.
  • Die Gründe, aus denen Unternehmen ihre IT-Systeme in die Cloud migrieren, sind vielfältig. Sie wollen Lastspitzen abfangen, Daten schneller verfügbar machen und flexibler agieren können. Bedenken bestehen allerdings hinsichtlich Sicherheit. Für bestimmte, geschäftskritische Anwendungen mit sensiblen Daten ist und bleibt die Legacy-Modernisierung im On-premise-Modell eine realistische Alternative.
  • Für Dreiviertel der befragten Unternehmen ist es eine Herausforderung, Cloud-Lösungen an die bestehende IT-Systemlandschaft anzubinden. Dass Daten häufig nicht interoperabel und Security- sowie Compliance-Anforderungen nur mangelhaft umgesetzt sind, ist ein weiteres Problem. Bei der Modernisierung von Legacy-Systemen haben Unternehmen vornehmlich Schwierigkeiten, Sicherheitsanforderungen zu erfüllen. Zudem betrachten sie den möglicherweise hohen Zeitaufwand als kritischen Faktor.
  • Um ihre Unternehmensorganisation an die veränderte IT-Infrastruktur anzupassen, setzen 90 Prozent der Unternehmen auf eine stärkere Vernetzung von Bereichen, Prozessen und Systemen. Daneben bilden sie ihre Mitarbeiter fort und arbeiten verstärkt mit IT-Partnern zusammen. Zweidrittel der Befragten greifen auf DevOps zurück.

Investitionen in die Cloud erhöhen

Da es viele Unternehmen in der Vergangenheit versäumt haben, ihre Legacy-Systeme radikal zu modernisieren, ist der Handlungsdruck nun sehr hoch. Vor allem die Fachbereiche erwarten automatisierte Prozesse und vollintegrierte digitale Lösungen. Ein wichtiger Baustein der Modernisierung besteht darin, Altsysteme sukzessive cloudfähig zu machen beziehungsweise durch APIs und Microservice so zu verändern, dass sie hybride Modelle abbilden können. Dementsprechend investieren Unternehmen immer stärker in die Cloud.

Ohne externe Partner geht es nicht

Die meisten deutschen Unternehmen sind zwar auf einem guten Weg, benötigen bei der digitalen Transformation jedoch externe Unterstützung. Neue strategische Partnerschaften sind für die meisten der befragten Unternehmen eine wichtige Voraussetzung, um ihre IT digital aufstellen zu können. Der Mangel an IT-Fachkräften und der Zeitdruck sind jedoch zu groß, als dass Unternehmen dies alleine bewältigen könnten.

Die Ergebnisse der Studie sind unter https://www.arvato-systems.de/arvato-systems/beratung-innovation/innovation verfügbar.

Industriemeister Metall (IHK) in 49 Tagen

Fachwirte, Meister oder IHK Betriebswirte müssen sich nicht hinter ihren Kollegen mit Studium verstecken. Laut einer DIHK Studie sind 47 Prozent der Befragten mit Personalverantwortung Fortbildungs-Absolventen, 39 Prozent Akademiker. Neben Aufgaben und Verantwortungsbereich entwickelt sich in der Regel auch das Gehalt mit einer Fortbildung positiv. Mehr als 70 Prozent der Weiterbildungs-Absolventen konnten noch im Jahr des Abschlusses ihr Gehalt verbessern.

In einem von fünf Unternehmen erzielen Absolventen einer Fortbildung sogar ein höheres Gehalt, als Absolventen einer Hochschule. In mehr als der Hälfte ist es gleich hoch. Zwei Drittel aller Arbeitgeber bewerten Karrierechancen von Mitarbeitern, die sich auf dem zweiten Bildungsweg qualifizierten, im Vergleich zu Studierten als mindestens gleichwertig.

Ein traditionell hoch angesehener Fortbildungsabschluss ist der Meister. Vor allem in Industriebetrieben nehmen Meister oft eine Stellung im mittleren Management ein. Der bundeseinheitliche Abschluss mit öffentlich-rechtlicher IHK Prüfung ist nun besonders schnell zu erreichen: Die private Akademie carriere & more, seit 2005 als erfolgreicher Anbieter in der Region Stuttgart für anerkannte IHK Abschlüsse wie Fachwirt und Betriebswirt bekannt, bereitet nun auch angehende Industriemeister Metall in nur 49 Tagen auf die IHK-Prüfung vor.

„Der entscheidende Vorteil unserer Lehrgänge ist der starke Bezug zur Praxis und die hohe Orientierung unserer Lehrgangsinhalte an betriebliche Anforderungen“, sagt Geschäftsführerin Simone Stargardt. Innovative, lernbiologische Lehrmethoden ermöglichten eine konzentrierte Wissensaufnahme, so die Trainerin. „Den Erfolg unseres Systems belegen mehrfache Auszeichnungen“, betont Stargadt. Ihre Akademie erhielt zum Beispiel den Ludwig-Erhard-Preis in Silber und erreichte dieses Jahr bereits zum fünften Mal in Folge die Jurystufe des Großen Preis des Mittelstandes.

Interessenten können sich auf den regelmäßig stattfindenden Info-Abenden kostenlos zur Lernmethode und den Lehrgängen informieren.

www.schneller-schlau.de

Windows-Subsystem für Linux installieren

Um in Windows 10 das Windows-Subsystem für Linux zu installieren wird die PowerShell mit administrativen Rechten gestartet. Danach erfolgt die Installation mit folgendem Befehl:

Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Windows-Subsystem-Linux

Danach muss eine Linux-Distribution installiert werden. Das kann in Windows 10 über den Store erfolgen, oder wie in Windows Server 2019 über die PowerShell. Anschließend steht in der Befehlszeile der Befehl „bash“ zur Verfügung, mit dem sich innerhalb der PowerShell und der Eingabaufforderung Linux-Befehle nutzen lassen. Zusätzlich bietet Microsoft die neue Shell Windows-Terminal für Windows 10. Diese wird auch für Windows Server 2019 verfügbar gemacht.  Parallel dazu hat Microsoft in Windows 10 und Windows Server 2019 auch die beiden Linux-Befehle „curl“ und „tar“ integriert.

Windows-Subsystem für Linux auf Windows Server 2019 nutzen

In Windows Server 2019 kann zur Installation von WSL der folgende Befehl in der PowerShell verwendet werden:

Install-WindowsFeature -Name Microsoft-Windows-Subsystem-Linux

Das Windows Subsystem for Linux hat selbst keine Linux-Befehle mit an Bord, sondern kann Linux-Distributionen anbinden, die nach der Installation der WSL erst über den Microsoft-Store in Windows 10, oder als direkter Link installiert werden müssen. Aktuell stehen folgende Distributionen mit ihren Befehlen zur Verfügung:

Ubuntu (https://www.microsoft.com/store/p/ubuntu/9nblggh4msv6)
OpenSUSE (https://www.microsoft.com/store/apps/9njvjts82tjx)
SLES (https://www.microsoft.com/store/apps/9p32mwbh6cns)
Kali Linux (https://www.microsoft.com/store/apps/9PKR34TNCV07)
Debian GNU/Linux (https://www.microsoft.com/store/apps/9MSVKQC78PK6)

Der Download kann auch direkt erfolgen, zum Beispiel für Windows Server 2019. Nach der Installation muss die Distribution eingerichtet werden. Dazu muss in den meisten Fällen die ausführbare Datei der Distribution gestartet werden. Im Rahmen der Einrichtung wird ein neuer Benutzername für die Linux-Distribution angelegt sowie ein dazu gehöriges Kennwort.

Download der Installationsdateien:

Ubuntu 18.04: https://aka.ms/wsl-ubuntu-1804

Ubuntu 18.04 ARM: https://aka.ms/wsl-ubuntu-1804-arm

Ubuntu 16.04: https://aka.ms/wsl-ubuntu-1604

Debian GNU/Linux: https://aka.ms/wsl-debian-gnulinux

Kali Linux: https://aka.ms/wsl-kali-linux

OpenSUSE: https://aka.ms/wsl-opensuse-42

SLES: https://aka.ms/wsl-sles-12

Ansible installieren

Ansible kann in der Linux-Shell installiert werden:

apt-get update && sudo apt-get -y upgrade
apt-get -y install python-pip python-dev libffi-dev libssl-dev
pip install ansible

 

Ansible in Windows-Netzwerken einsetzen

Ansible gehört zu den bekanntesten Lösungen, wenn es darum geht Linux-Server und Linux-Netzwerke zu automatisieren, und Einstellungen zentral vorzugeben. Aber auch für Microsoft-Netzwerke und Windows-Server ist Ansible geeignet. Die Installation der Server-Lösung erfolgt zwar auf einem Linux-Server, es lassen sich aber auch Windows-Server einbinden, um automatisiert zu werden.

Um Windows-Server mit Ansible zu automatisieren, sind generell keine Linux-Kenntnisse notwendig. Wer sich mit Ansible und den Ansible-Skripten auskennt, kann auch ganz gut mit rudimentären Linux-Kenntnissen ein Ansible-System aufbauen, was auch durchaus Sinn ergibt. 

Aktuelle Windows-Versionen verwalten – auch Windows Server 2019

Ansible ist in der Lage auch zahlreiche Windows-Server identisch und automatisiert zu konfigurieren. Die Entwickler stellen dazu einen eigenen Windows Guides-Bereich zur Verfügung, mit dem sich Windows-Server anbinden, bereitstellen und automatisieren lassen.

Ansible arbeitet auch mit dem Linux-Subsystem für Linux zusammen. Bei dieser Software lassen sich Linux-Befehle auf Windows-Servern nutzen. Dazu wird eine Linux-Distributiuon im Hintergrund auf dem Windows-Server installiert. Die PowerShell und Eingabeaufforderung bieten darauf hin die Möglichkeit auch mit Linux-Befehlen zu arbeiten und ermöglichen sogar die Installation von Linux-Programmen auf Windows-Servern. Auf diesem Weg kann zum Beispiel auch ein nativer Ansible-Client installiert werden.

Es schadet also nicht, sich mit dem Windows-Subsystem für Linux in Windows 10 Pro/Enterprise und Windows Server 2019 auseinanderzusetzen. Diese Windows-Versionen lassen sich besonders einfach an Ansible anbinden.

Generell muss auf den Servern und Arbeitsstationen, die mit Ansible automatisiert werden WinRM und SSH installiert und aktiviert werden. Die Vorgehensweise dazu zeigen die Entwickler auf ihrer Webseite.

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.