Einstieg in das Inventory von Ansible

Im Inventory  wird festgelegt, welche Computer im Netzwerk durch Ansible verwaltet werden sollen. Die Computer können im Inventory auch gruppiert werden.  Die Daten werden entweder im YAML-Format oder als INI-Datei gespeichert . Im folgenden gehen wir auf die Konfiguration mit YAML ein:


all:
hosts:
fileserver1:
ansible_host: 192.168.178.12

In dieser Datei wird zum Beispiel festgelegt, dass der Server „fileserver1“ mit der IP-Adresse 192.168.178.12 erreichbar ist.  Die Datei kann entsprechend erweitert werden, wenn mehr Server angebunden werden sollen. Auch hier werden wieder der Name des Servers in Ansible und die IP-Adresse angegeben:


all:
hosts:
fileserver1:
ansible_host: 192.168.178.12
fileserver2:
ansible_host: 192.168.178.13
fileserver3:
ansible_host: 192.168.178.14
Exchange01:
ansible_host: 192.168.178.23

Auf Basis dieser Daten lassen sich die Server auch gruppieren. Dazu wird die Option „children“ genutzt:


all:
hosts:
fileserver1:
ansible_host: 192.168.178.12
fileserver2:
ansible_host: 192.168.178.13
fileserver3:
ansible_host: 192.168.178.14
Exchange1:
ansible_host: 192.168.178.23
children:
fileserver:
hosts:
fileserver1:
fiileserevr2:
webserver3:
Exchange:
Exhange01:

Bevor mit Ansible weiter gearbeitet wird, sollte zunächst überprüft werden, ob die Server im Inventory auch erreicht werden können:

ansible -i inventory.yaml all -m ping

Anstatt die Option „all“  können auch die einzelnen Gruppennamen verwendet werden. 

Für das Erstellen von Inventories können auch INI-Dateien verwendet:

mail.example.com

[webservers]
foo.example.com
bar.example.com

[dbservers]
one.example.com
two.example.com
three.example.com

Office 365 mit der PowerShell gemeinsam verwalten

Um Office 365 und Microsoft Azure zu verwalten, müssen Sie zusätzliche Module herunterladen und auf dem Server installieren:

„Install-Module -Name AzureAD“

Danach müssen Sie noch den Microsoft Online Services-Anmelde-Assistenten (http://www.microsoft.com/de-de/download/details.aspx?id=41950) installieren. Anschließend muss auch das Modul für die Verwaltung von Office 365 installiert werden:

„Install-Module MSOnline“

Nachdem Sie die Erweiterungen installiert haben, können Sie sich in der PowerShell zunächst mit Ihrem Office 365-Konto verbinden. Dazu verwenden Sie das CMDlet „Connect-MsolService“. Findet die Powershell das Modul nicht, lassen Sie es mit Import-Module MSOnline laden. Im Fenster authentifizieren Sie sich mit einem Administrator-Benutzer an Office 365.  Mit dem CMDlet get-command *msol* lassen Sie sich die einzelnen CMDlets anzeigen.

Visual Studio Code mit der PowerShell nutzen und Exchange Online verwalten

Visual Studio Code (https://code.visualstudio.com) (VSCode) steht als Open Source kostenlos zur Verfügung. Mit Windows, Linux und macOS  werden die wichtigsten Plattformen unterstützt. Der Quelltext-Editor dient vor allem für die Entwicklung von Webanwendungen, kann aber auch für herkömmliche Anwendungen verwendet werden, wie zum Beispiel der Verwaltung. Microsoft stellt Visual Studio Code (VSCode) (https://code.visualstudio.com/download) kostenlos als Opensource zur Verfügung. VSCode kann auch als grafische Oberfläche/Entwicklungsumgebung für die PowerShell genutzt werden.

In Kombination sind VSCode und PowerShell Core ein mächtiges Verwaltungswerkzeug, über verschiedene Betriebssysteme hinweg, vor allem auch, wenn zusätzlich noch mit Cloudlösungen wie Exchange Online gearbeitet wird. Auch Skripte lassen sich schreiben, und mit anderen Programmiersprachen kombinieren.

Ansible unter Windows konfigurieren

Nachdem Ansible installiert wurde, müssen Sie sich zur Verwaltung mit Benutzername und Kennwort anmelden. Ist das nicht gewünscht, können Sie sich über „ssh-keygen“  einen SSH-Schlüssel für WSL und die Ansbile-Verwaltung erstellen. 

Ansible iist generell im WSL nach der Installation einsatzbereit, verfügt aber noch über keine Config-Dateien. Diese lassen sich im WSL aber herunterladen und in Ansible integrieren.

Die Integration kann über die PowerShell erfolgen, oder die Befehlszeile.  Ansible und Linux werden über die Linux-Bash verwaltet. Diese wird über „bash“ gestartet. 

Die Linux-Dateien von Debian und Ansible befinden sich im Verzeichnis 

C:\Users\<Benutzername>\AppData\Local\Packages\TheDebianProject.DebianGNULinux_<Versionsnummer>\LocalState\rootfs

In dieses Verzeichnis muss gewechselt werden, bevor die Konfigurationsdateien heruntergeladen werden:

wget https://raw.githubusercontent.com/ansible/ansible/devel/examples/ansible.cfg -O „/etc/ansible/ansible.cfg“

In der Linux-Bash steht Ansible zur Verfügung. Die Konfiguration kann mit „ansible“ vorgenommen und überprüft werden.  Mit der Umgebung lassen sich auch Ansible-Aufgaben vornehmen.

Ansible-Playbooks werden mit „ansible-playbook“ verwaltet.  Das funktioniert auch bei der Installation unter Windows. 

 

Automatisierung von Rechenzentren

Um Ansible auf einem Windows-Rechner zu installieren, wird Windows 10 oder Windows Server 2019 benötigt. In Windows 10 wird dazu die PowerShell mit Administrator-Rechten gestartet. Das ist bei Windows Server 2019 nicht notwendig. Die Installation des Windows-Subsystem für Linux wird mit folgendem Befehl vorgenommen:

Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Windows-Subsystem-Linux

Nach der Installation muss der Rechner neu gestartet werden. Durch die Installation von WSL befindet sich noch kein Linux-System in Windows, sondern es wurde lediglich die Funktion installiert, dass ein solches Linux-System integriert werden kann.

Beim Einsatz von Windows 10 sind die verschiedenen Linux-System im Windows-Store zu finden. Dazu muss lediglich nach „linux“ gesucht werden. Für die Installation von Ansible kann Debian sinnvoll sein. Sobald Debian installiert und gestartet ist, kann die Ansible-Installation mit folgenden Befehlen durchgeführt werden:

apt-get update && sudo apt-get -y upgrade
apt-get -y install python-pip python-dev libffi-dev libssl-dev
pip install ansible

Oft wird noch „Sudo“ für die Installation benötigt. Danach steht Ansible zur Verfügung und kann für Test- und Entwicklungssysteme genutzt werden. 

Verbindungsaufbau zu Exchange Online mit der PowerShell

Im ersten Schritt sollten Sie die Anmeldedaten eines Administrators, der das Recht hat eine Verbindung zu Exchange Online aufzubauen, in einer Variablen speichern:

„$user = Get-Credential“

Die Speicherung in der Variablen hat den Vorteil, dass Sie so schnell Authentifizierungen durchführen können, da Sie an der entsprechenden Stelle nur die Variable einfügen müssen. Danach bauen Sie eine Sitzung zu Exchange Online auf. Die Sitzung speichern Sie in einer Variablen, da Sie dadurch die Möglichkeit haben die Sitzung ein einem geöffneten PowerShell-Fenster zu importieren:

$session = New-PSSession -ConfigurationName Microsoft.Exchange -ConnectionUri https://outlook.office365.com/powershell-liveid/ -Credential $user -Authentication Basic -AllowRedirection

Erscheint keine Fehlermeldung, können Sie die gespeicherte Sitzung in der PowerShell oder PowerShell Core importieren und mit Exchange Online arbeiten. Dazu verwenden Sie den Befehl:

Import-PSSession $session

PowerShell Core für die Verwaltung nutzen

Ab Version 7.0 steht die Powershell in Windows, macOS und Linux zur Verfügung. Die neue Version unterstützt nahezu alle Module, die auch die PowerShell 5 in Windows unterstützt.

Die Installation von PowerShell Core 6.x ist neben Windows-Clients auch auf Servern ab Windows Server 2008 R2 und neuer möglich. Um PowerShell Core 6.x auf Linux-Rechnern zu installieren, ist Ubuntu (14.04 und 16.04), Debian 8, CentOS, Red Hat Enterprise Linux 7, OpenSUSE 42,1 oder Arch Linux notwendig. Für andere Distributionen bietet Microsoft auf GitHub ein eigenes Paket zur Installation an.

Sobald die PowerShell Core auf einem Linux-Rechner installiert wurde, zum Beispiel mit

“sudo apt-get update”

“Sudo apt-get install -y powershell”

Danach kann die PowerShell auch über den Befehl „powershell“ in SSH-Sitzungen gestartet werden, zum Beispiel über Putty.

Energiebedarf der Rechenzentren in Deutschland steigt weiter an

Mit 14 Mrd. kWh im Jahr 2018 benötigen die Rechenzentren 6% mehr Energie als im Vorjahr (Abbildung). Dieser deutliche Anstieg ist insbesondere auf den Aufbau von Cloud-Computing-Kapazitäten zurückzuführen. Der Energiebedarf traditioneller Rechenzentren ist dagegen rückläufig. Gemäß Analysen im Projekt TEMPRO sind  Cloud Rechenzentren in Deutschland im Jahr 2018 für 23% des Energiebedarfs aller Rechenzentren verantwortlich. In Summe werden die (Energie-)Effizienzvorteile von Cloud Computing durch das starke Wachstum der Branche also mehr als ausgeglichen.

Die TEMPRO-Kurzstudie zur Entwicklung des Energiebedarfs der Rechenzentren wird in Kürze veröffentlicht. Sie befasst sich auch mit der zukünftigen Bedeutung von Edge Computing für den Energiebedarf der Rechenzentren.

Boom bei Kompaktrechenzentren?

Das Projekt HotFlAd – Abwärmenutzung aus Kompakt-Rechenzentren mit Hot-Fluid-Adsorptionskälte-System hat zum Ziel, eine wirtschaftlich attraktive Nutzung von Abwärme in Rechenzentren zu ermöglichen. Die NeRZ-Mitglieder dc-ce, InvenSor, Tobol, Thomas Krenn und Borderstep entwickeln und demonstrieren gemeinsam mit der TU Berlin und Noris Network eine Lösung zur Abwärmenutzung in Kompakt-Rechenzentren.

Zu dem Workshop in Berlin wurden Experten von Rechenzentrumsbetreibern und Forschungsinstituten eingeladen, um über die künftigen Marktpotenziale solcher Lösungen zu diskutieren. Die Experten sahen insbesondere beim Einsatz in Kombination mit 5G-Netzen und im Bereich von dezentralen Cloud-Lösungen große Chancen für energieeffiziente Kompaktrechenzentren. Bis zum Jahr 2025 werden mehrere tausende neue solcher Rechenzentren in Deutschland erwartet. Dabei reicht die Spannweite von Kleinstrechenzentren (bis 5 kW) im Bereich der öffentlichen 5G-Netze über Campus-Rechenzentren (bis 20 kW) bis zu dezentralen Edge-Cloud-Rechenzentren mit mehreren hundert Kilowatt elektrischer Anschlussleistung.

Die Ergebnisse des Workshops fließen in eine im Rahmen des Projekts HotFlAd durchgeführte Marktuntersuchung zu Edge-Rechenzentren ein, über die im Rahmen dieses Blogs weiter berichtet wird.

Weitere Informationen zum Thema Energieeffizienz in Rechenzentren: www.ne-rz.de

Sharing Economy für Daten? Raus aus den Silos – Free your Data!

„Sharing Economy“, „Platform Economy“ und natürlich die nicht totzukriegende Phrase von den Daten als dem „neuen Gold“, respektive dem „Öl des 21. Jahrhunderts“ prägen schon seit langem die Diskussion um die digitale Transformation. Dabei zeigt sich jedoch, dass es – gerade hierzulande – offensichtlich schwierig ist, diese Themen von einer rein theoretischen Betrachtung auf eine praktische Ebene zu hieven. In der Theorie mag das alles nachvollziehbar und vernünftig klingen, aber warum hapert es dann sooft an der Umsetzung in der Unternehmensrealität?

Daten als Kern der Plattformökonomie


In der Plattformökonomie geht es um die Etablierung von Standards, um die Schaffung von Netzwerkeffekten durch die Errichtung einer zentralen Plattform, die die Zugänge auf einem bestimmten Markt herstellt und damit kontrolliert – wir alle kennen die vielzitierten einschlägigen Beispiele von Uber („das weltgrößte Taxisunternehmen besitzt selbst kein einziges Taxi…“), Booking.com, Facebook, Amazon oder Google. Daten spielen hierbei eine ganz entscheidende Rolle. Nur durch deren Auswertung und durch den zielgerichteten Einsatz der daraus gewonnenen Erkenntnisse lassen sich die Kundenbeziehungen organisieren und das System insgesamt mit Leben füllen. Daten sind damit gleichzeitig DNA und zentrales Nervensystem der Plattformen.

Plattformökonomie: Gatekeeper mittels Daten

Der Plattformökonomie wird attestiert, dass sie tradierte Märkte aushebelt: Erfolgreiche Plattformen zwängen sich als Gatekeeper zwischen Endkunde und ursprünglichem Anbieter. Letztere verfügen zwar eigentlich über die notwendigen „Hard Assets“ – die Taxis, Hotels oder Content – werden somit aber gewissermaßen zum bloßen Zulieferer „degradiert“, mit entsprechenden Folgen für Autonomie und Ertragskraft. Wer diesem Schicksal enteilen will, hat nur die Chance, entweder eigene Plattformen zu gründen oder sich selbst mit entsprechenden Netzeffekten und datenökonomischen Instrumenten zu wappnen.

Skaleneffekte in der Datenökonomie

Die zentrale Frage lautet dabei stets: Wie lässt sich das eigene Leistungsversprechen durch die Verknüpfung mit Daten aufwerten? Entscheidend in diesem Kontext ist, dass nur der Zugang zu massenhaften Daten echte Wertschöpfung ermöglicht. Ein einzelner Datensatz ist stets wertlos. Werte entstehen in der Datenökonomie erst, wenn Verknüpfungen hergestellt und Muster identifiziert werden, wenn es gelingt, daraus die „Soft Assets“ zu schaffen, die das ursprüngliche Leistungsversprechen auf diese Weise entscheidend anreichern.
Schiere Größe ist in der Plattformökonomie wie überhaupt in der Digitalen Wirtschaft meist ein entscheidender Vorteil. Alle Technologieunternehmen, die heute die digitalen Märkte dominieren, haben ab einem bestimmten Zeitpunkt auf die Generierung von Skaleneffekten gesetzt. Für den hiesigen Mittelständler, selbst auch für die großen, global tätigen Unternehmen hierzulande, etwa aus dem Automobil- und Maschinenbau, stellt sich dann natürlich die Frage, wie es möglich ist, da mitzuhalten – auf den ersten Blick ein unmöglich erscheinendes Unterfangen. Im eigenen Verfügungsbereich sind meistens nur beschränkte Datenressourcen vorhanden. Wertzuwächse hängen gleichwohl aber sehr wesentlich von der Menge der verarbeitbaren Daten ab.

Synergieeffekte entstehen nur, wenn Daten aus ihren Silos befreit werden

Die Antwort darauf kann nur in der Erzeugung von Synergieeffekten liegen. Diese entstehen jedoch nur, wenn es gelingt, Daten aus ihren Silos zu befreien und für die Vernetzung freizugeben. In vielen Unternehmen werden Daten streng getrennt von einander vorgehalten. Das hat einerseits natürlich technische Gründe – die Hürden bei der Zusammenführung – Systeminkompatibilitäten, unterschiedliche Datenstrukturen und Dopplungen – erscheinen nicht selten beträchtlich. Andererseits stehen allzu oft auch Revierstreitigkeiten und Befindlichkeiten von „Provinzfürsten“ im Unternehmen einer Zusammenführung im Weg.

Jenseits des eigenen Horizonts

Natürlich muss es gelingen, diese Hindernisse aus dem Weg zu räumen, entweder durch gute Führungsleistung oder technisch, mittels ausgefeilteren technologischen Ansätzen zur Datenstrukturierung, etwa auch aus dem Bereich des maschinellen Lernens. Allein das wird in den meisten Fällen nicht reichen. Selbst wenn es gelingt, diese internen Erschwernisse zu beseitigen, ist der Bedarf an Daten und die Anforderungen an die Anzahl und Detaillierung von Datensätzen kaum von einem Unternehmen allein zu bewerkstelligen. Zukunftstechnologien wie Künstliche Intelligenz und Virtual Reality sind in großem Maße Daten getrieben. Wenn die einzige Quelle zu deren Erzeugung und Sammlung das eigene Unternehmen ist, dürfte das kaum ausreichen, um hier Erfolge zu erzielen.

Hoher Datenbedarf: Künstliche Intelligenz, Blockchain & Co

Insbesondere das Training von KI, im Wege von Deep Learning und mittels Künstlicher Neuronaler Netzwerke, erfordert riesige Mengen von Datensätzen. Nur wenn diese Vielfalt gewährleistet ist, kann es dem System gelingen, Muster zu identifizieren und „Erlerntes“ eigenständig auf neue oder wenigstens „verwandte“ Sachverhalte zu projizieren.

Sharing Economy für Daten

Daher gilt es, den Blick auch über den Tellerrand hinaus kreisen zu lassen und die notwendigen Synergien auch außerhalb des eigenen exklusiven Zugriffsbereich zu suchen. Vielleicht ist es notwendig, hier neue Formen der Kooperationen zwischen einzelnen, unter Umständen sogar konkurrierende Marktteilnehmern zu etablieren: eine Art „Sharing Economy“ für den Datenaustausch und den Betrieb gemeinsamer Datenplattformen. Denkbar wären beispielsweise Cloud basierte Lösungen, die Skalierungen und die Einbindung von Drittdaten sowie auch den Rückgriff auf externe Rechnerkapazitäten ermöglichen. Das Zusammentreffen von Machine- und Deep-Learning und nahezu unlimitierter, kostengünstiger Rechenleistung aus der Cloud könnte vielen Unternehmen einen “barrierefreien” Einstieg in die Arbeit mit Künstlicher Intelligenz ermöglichen.

Kooperationen in der Cloud?

Tatsächlich gibt es bereits erste derartige Kooperationen und Plattformen, die den gegenseitigen Austausch von Daten sowie auch kompletter Lern- und Trainingsmodelle für KI ermöglichen. NVIDIA, als Hersteller von Grafikkarten ursprünglich bekannt und groß geworden, betreibt etwa eine eigene Cloud basierte Plattform zum Simulieren und Testen des Fahrbetriebs autonomer Fahrzeuge. Zu den teilnehmenden Unternehmen gehören die großen Automobilhersteller, wie Daimler, Toyota, Audi und VW oder Tesla. Die „offene“ Plattform ermöglicht es, so NVIDIA, „selbstfahrende Autos, Lkws und Shuttles zu entwickeln und einzusetzen, die funktionssicher sind und nach internationalen Sicherheitsnormen zertifiziert werden können.“

Blockchain & KI

Auch aus der Kombination von Blockchain und KI ergeben sich Anwendungsszenarien. Das Berliner Start-Up XAIN arbeitet unter anderem mit Infineon zusammen, um Zugriffsrechte auf Fahrzeugfunktionen durch KI-Algorithmen zu regeln, ohne dass dabei private Daten der Automobilnutzer zentral gespeichert werden müssen. Über das so geschaffene Netzwerk können lokale KI-Algorithmen voneinander lernen, ohne Datenhoheit und die Privatsphäre der beteiligten Anwender zu tangieren.

Blockchain für Datentransaktionen

Das finnisch-schweizerische Unternehmen Streamr bietet den Blockchain basierten Zugang zu einer „Open-Source-Plattform für den freien und fairen Austausch der Echtzeitdaten weltweit“ an und will Datenströme auf diese Weise dezentral zwischen vielen möglichen Beteiligten handelbar machen. Auf diese Weise wäre ein breiter Austausch und der Zugriff auf eine Vielzahl von Daten insbesondere auch für Trainingszwecke möglich, der zudem auch einen finanziellen Anreiz für die Teilnehmer bereithält, ihre Daten zur Verfügung zu stellen. Ähnliche Ansätze existieren zu Hauf im Silicon Valley. Der dezentrale, „distribuierte“ Handel mit Daten ist von einer Reihe von Unternehmen bereits zum Geschäftsmodell erkoren worden. SingularityNET etwa bietet eine Plattform, auf der Entwickler ihre Leistungen im Austausch für andere KI-Dienste oder auch Krypto-Entgelte anbieten können.

Neues Denken erforderlich

Der Rückgriff auf solche Angebote und Verfahren setzt jedoch ein Umdenken, ein grundsätzlich anderes „Mindset“ voraus als vermutlich in den meisten Unternehmen derzeit vorherrscht. Natürlich auch bedingt durch gesetzliche Vorgaben wie DSGVO und ePrivacy-Verordnung, aber eben auch durch eine grundsätzlich restriktive Denkweise, tendieren viele Entscheider dazu, Daten als „exklusiv“ zu betrachten. Das freie und freigiebige Teilen des „Datengoldes“ erscheint vielen schlichtweg abwegig.

“Nur zusammen sind wir stark”

Doch wenn gleichwohl Daten immer ein exklusiver Vorteil innewohnt: in der digitalen Ökonomie lässt sich echter Wert nur durch Größe und vielfältige Anreicherung erzielen. Wenn – was die Regel ist – ein Einzelner dazu nicht in der Lage ist, bleibt nur, das Heil in der Kooperation und im intensiven gegenseitigen Austausch, auch gerade mit vermeintlichen Konkurrenten, zu suchen. Nur so könnte langfristig die Chance gewahrt wären, gegen die Technologie-Riesen aus USA und zunehmend auch aus China zu bestehen.

Daher gilt: Free Your Data – Gebt den Daten ihre Freiheit zurück!

BAM – CMS Blog