Mit Variablen in Ansible arbeiten

Eine Liste aller ansible_ Variablen lassen sich durch die von Ansible gesammelten Daten der angebundenen Computer abfragen. Die angebundenen Computer lassen sich wiederum in Playbooks und Vorlagen nutzen. Um eine Liste aller Möglichkeiten zu sehen, die für eine Maschine verfügbar sind, kann das Modul „Setup“ als Ad-hoc-Aktion ausgeführt werden:

ansible -m setup <hostname>

Der Befehl zeigt alle Informationen an, die für diesen Host verfügbar sind. Die Daten lassen sich auch weiterverwenden. So kann die Ausgabe des Befehls über ein Pipeline an einen Pager übergeben werden. 

Sollen alle für einen Host definierten Inventarisierungsvariablen angezeigt werden, kann das mit dem folgenden Befehl erfolgen:

ansible-inventory –list –yaml

Um alle hostspezifischen Variablen anzuzeigen, die Fakten und andere Quellen beinhalten können steht folgender Befehl zur Verfügung:

 

ansible -m debug -a „var=hostvars[‚hostname‘]“ localhost

Ein weiteres Beispiel für Variablen ist:

{{ hostvars[inventory_hostname][‚ansible_‘ + welche_Schnittstelle][‚ipv4‘][‚address‘] }}}}}

„inventory_hostname“ verwendet den aktuellen Host. In diesem Beispiel wird die IPv4-Adresse ausgegeben. Mehr dazu ist 

Cloud-Automatisierung mit Ansible

Ansible kann nicht nur dazu genutzt werden, um lokale Rechenzentren zu automatisieren und die Verwaltung von Rechnern, Berechtigungen und Diensten zu automatisieren. Auch die Verwaltung von Cloud-Ressourcen ist möglich. Hier besteht die Möglichkeit neben Office 365 auch Microsoft Azure, Amazon Web Services (AWS) und OpenStack zu automatisieren.

Damit Cloud-Lösungen mit Ansible automatisiert werden können, stellen die Entwickler und deren Community neben den Core-Modulen, die in jeder Ansible-Installation dabei sind, auch Module für Cloud-Lösungen bereit. Über diese lassen sich zum Beispiel Dienste in Microsoft Azure, AWS und OpenStack über Ansible automatisieren.

Microsoft Azure mit Ansible verwalten

Sollen Cloud-Lösungen wie Microsoft Azure mit Ansible verwaltet werden, muss natürlich zunächst eine Schnittstelle zwischen Ansible und der Cloud-Lösung hergestellt werden. Am Beispiel von Microsoft Azure arbeitet Ansible mit dem Azure Resource Manager zusammen.

Damit das funktioniert, müssen am Beispiel von Microsoft Azure, auf dem Host mit Ansible, Module aus dem Azure SDK installiert werden:

pip install ‚ansible[azure]‘

$ pip install .[azure]

Wer mit der Azure Cloud Shell arbeitet, kann Ansible direkt ansprechen, denn hier sind die Befehle für die Verwendung von Ansible automatisch installiert. Nach der Authentifizierung an Azure lassen sich jetzt Ansible-Aktionen entweder in der lokalen Befehlszeile, der PowerShell, im Terminal, oder der Azure Cloud Shell durchführen.

CentOS 8 einsetzen

Die Neuerungen in RHEL 8 wurden weitgehend auch in CentOS 8 übernommen.  Eine ausführliche Liste der Neuerungen ist in den Release Notes verfügbar (https://wiki.centos.org/Manuals/ReleaseNotes/CentOS8.1905)

Auch die neue Version 8.x ist kostenlos verfügbar. Das gilt auch für den kommerziellen Einsatz. Natürlich gibt es keinen Support durch Red Hat. Wer auf CentOS setzt profitiert zwar kostenlos von den Möglichkeiten, die auch RHEL 8 bietet, erhält aber nicht den entsprechenden Support. 

Die neue Version kann wieder als ISO-Datei heruntergeladen werden. Diese ist allerdings 6.6 GB groß.  Wer auf die externe Paketquelle EPEL setzt, kann diese in CentOS mit dem folgenden Befehl aktivieren:

yum install epel-release

CentOS aktualisieren

Soll ein einzelner Server zu einer aktuelleren Version von CentOS aktualisiert werden, sollte zunächst überprüft werden, welche Version auf dem Server installiert ist.  Die installierte Version wird mit dem folgenden Befehl überprüft:

cat /etc/redhat-release

Wer will, kann auch LSB (Linux Standard Base) installieren und danach die Version abrufen:

sudo yum install redhat-lsb-core
lsb_release -d

Ab CentOS 7.0 ist der Befehl „hostnamectl“ verfügbar. Mit dem Befehl lassen sich Informationen zur installierten CentOS-Version abrufen und auch die exakte Version des installierten Linux-Kernels.

Vor der Aktualisierung sollte der Server natürlich gesichert werden, um Probleme zu vermeiden, die durch Sicherheits-Updates verursacht werden. Das Überprüfen auf eine neue Version wird mit dem folgenden Befehl durchgeführt:

sudo yum check-update

Dadurch werden neue Versionen der verfügbaren Updates angezeigt. Das gilt auch für installierte Anwendungen wie Nagios oder Icinga. Die Aktualisierung wird anschließend mit dem folgenden Befehl durchgeführt:

sudo yum update

Die Installation der Updates muss noch bestätigt werden. 

 

 

Serverswitchover und Rechenzentrumswitchover

Die Replikation der Datenbanken zwischen den beteiligten Servern erfolgt über Transaktionsprotokolle.

Im Exchange Admin Center finden Sie die Einstellungen über Server/Database Availabilty Groups. Bei einer DAG handelt es sich zunächst um ein leeres Objekt in Active Directory.Fügen Sie der DAG den ersten Server hinzu, erstellt Exchange für die Datenbankverfügbarkeitsgruppe automatisch einen Failovercluster.

Bei einem Serverswitchover können Sie alle aktiven Postfachdatenbanken vom aktuellen Postfachserver auf einen oder mehrere Postfachserver mit entsprechenden Postfachdatenbankkopien umschalten. Die Server, auf denen Sie die Postfachdatenbankkopien aktivieren, also zu den produktiven Datenbanken machen, müssen Mitglied in derselben Datenbankverfügbarkeitsgruppe sein.

Serverswitchover durchführen

Um einen Serverswitchover durchzuführen, können Sie die Exchange Admin Center einsetzen. Navigieren Sie zu Server. Wählen Sie den gewünschten Postfachserver aus, auf dem aktuell die produktiven Datenbanken gespeichert sind, und klicken auf den Server. Wählen Sie Serverswitchover aus.

Anschließend können Sie Exchange die Wahl überlassen, welche Postfachdatenbankkopien auf den verschiedenen Servern mit den Kopien aktiv geschaltet werden, oder Sie können manuell einen Zielserver auswählen, auf dem Exchange die Postfachdatenbankkopien zukünftig als produktive Datenbanken einsetzt.

Oracle Datenbanken per PowerShell ansprechen

Für den Zugriff auf Oracle-Datenbanken mit der PowerShell, sind die Oracle Developer Tools für Visual Studio sinnvoll, genauer gesagt „ODP.Net“ aus diesen Tools. Dabei handelt es sich um den Oracle Data Provider (ODP). Mit dieser Variante benötigen Sie keinen Oracle-Client und können problemlos mit der PowerShell auf Oracle-Server und Oracle-Datenbanken zugreifen.

Oracle stellt ODP.NET kostenlos zum Download bereit. Auf Basis dieser Erweiterung können Oracle-Datenbanken auch von Dritthersteller-Tools angesprochen werden, auch von der PowerShell.

Bestandteil von ODP.Net ist die DLL „Oracle.ManagementDataAccess.dll“. Diese befindet sich im Installationsverzeichnis der Developer Tools. Die DLL-Datei wird auf den Rechnern benötigt, mit denen Sie per PowerShell auf Oracle-Datenbanken zugreifen wollen. Zuerst muss also die Installation von ODP.NET erfolgen. Danach kann in der PowerShell eine Verbindung aufgebaut werden. Dazu wird die DLL zunächst in der PowerShell geladen:

Add-Type -Path „C:\ODP\Oracle.ManagedDataAccess.dll“

Sie können ein PowerShell-Skript schreiben, die Befehle einzeln angeben und auch die Anmeldedaten auf verschiedenen Wegen nutzen. Ein Beispiel für die Anbindung ist:

$Str = „Data Source=dbs1:1521;User Id=admin;Password=geheim“

$Cn = [Oracle.ManagedDataAccess.Client.OracleConnection]::new()

$Cn.ConnectionString = $Str

$Cn.Open()

Künstliche Intelligenz – Fluch oder Segen für die Umwelt?

Auf europäischer Ebene sollen ab 2020 jährlich 20 Mrd. € investiert werden; die deutsche Bundesregierung hat bis zum Jahr 2025 insgesamt 3 Mrd. € für Investitionen in KI lockergemacht. Das sind allein in Deutschland immerhin eine halbe Milliarde Euro pro Jahr. Dagegen scheinen die 27 Mio. €, die das Bundesumweltministerium für die Förderinitiative „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“ bereitstellt, fast mickrig.

Dabei sind gerade die Potenziale für mehr Umweltschutz durch künstliche Intelligenz enorm und müssen im Angesicht der globalen Umweltprobleme möglichst schnell gehoben werden. Mit Hilfe von KI können komplexe Systeme wie das Klima besser verstanden werden. KI-Anwendungen bieten insbesondere im Bereich der Mobilität, der Energie und der Landwirtschaft viele Möglichkeiten, die Umweltbelastungen zu senken. Und auch für Rechenzentren gibt es „rosige“ Aussichten. Google konnte mit Hilfe des gekauften KI-Startups Deepmind den Energiebedarf der Rechenzentrumskühlung um 40% reduzieren. KI kann helfen, Nah- und Fernwärmenetze so zu konzipieren und zu betreiben, dass die Abwärme aus Rechenzentren besser genutzt werden kann.

Führt künstliche Intelligenz zu mehr Umweltschutz?

Dennoch ist es keineswegs ein Automatismus, dass KI zu mehr Umweltschutz führt. Schon seit Jahrzehnten ist festzustellen, dass sich die Hoffnungen zur Reduktion des Energie- und Ressourcenbedarfs durch digitale Technologien oft nicht erfüllen. Digitale Lösungen haben zwar eine enormes Umweltschutzpotenzial, unterstützen aber meist auch gleichzeitig das Wachstum des Energie- und Ressourcenbedarfs. Ein paar Beispiele:

  • Das papierlose Büro fast immer noch eine Illusion. Jeder Deutsche benötigt aktuell jährlich 242 kg Paper pro Kopf, das ist weltspitze. Im Jahr 1980 lag der Pro-Kopf-Papierbedarf in Deutschland noch bei 150 kg.
  • Telefon- und Videokonferenz werden zwar mehr und mehr durchgeführt, die Zahl der Dienstreisen nimmt aber dennoch zu. Sie ist zwischen 2004 und 2017 um fast 30% angestiegen
  • Digitale Logistiklösungen führen dazu, dass Lkw-Leerfahrten vermieden werden und Routen optimal geplant werden können. Das führt aber nicht zu weniger Verkehr. Im Gegenteil: Der Straßengüterverkehr hat zwischen 2010 und 2017 um mehr als 25% zugenommen.

Auch für KI-Anwendungen ist die Gefahr gegeben, dass sie nicht zu einer Umweltentlastung führen. Autonom fahrende Autos könnten zwar genutzt werden, um den Verkehr zu reduzieren. Das wäre der Fall, wenn wir uns künftig die Fahrzeuge teilen würden. Es ist aber auch möglich, dass die Zahl der Autos deutlich ansteigt, weil auch Kinder oder andere Personen ohne Führerschein ein eigenes Auto fahren können. Für den Güterverkehr ist es eine Illusion, dass autonom fahrende LKW zu weniger Verkehr führen. Wenn keine Ruhezeiten für die Fahrer mehr notwendig sind, können die LKWs praktisch rund um die Uhr genutzt werden.

Ein weiterer wichtiger Aspekt: Wie viel Energie und Ressourcen benötigen die KI-Anwendungen selbst? Gemäß Cisco haben Anwendungen aus dem Bereich „Database/Analytics/IOT” bereits heute einen Anteil von etwa 15% an den Workloads der Rechenzentren weltweit, Tendenz deutlich steigend. KI-Anwendungen in den Bereichen Deep-Learning, Simulationen und Prognosen benötigen teilweise enorme Rechenleistungen und verursachen so hohe Energie- und Ressourcenbedarfe. Forscher der University of Massachusetts haben ermittelt, dass das Training einer KI-Anwendung zur Spracherkennung fünfmal so viel CO2 erzeugt wie ein Auto während seiner gesamten Lebensdauer. Der Ressourcenbedarf der KI-Anwendungen ist ganz entscheidend von der verwendeten Hardware abhängig. Konventionelle CPUs sind für die meisten Anwendungen eher ungeeignet. Viel mehr Leistung – und damit auch weniger Energie – kann durch die Nutzung von Graphikprozessoren (GPUs), FPGAs (Field Programmable Gate Arrays) oder speziellen ASICs wie Googles TPU (Tensor Processing Units) erreicht werden. Auch neuromorphore Microchips bieten enorme Energieeffizienzpotenziale bei KI-Anwendungen. Die Frage, wie KI möglichst energie- und ressourceneffizient betrieben werden kann, wird bisher allerdings noch kaum gestellt. Neben der der Hardware sind hier auch die verwendeten Orchestrierungswerkzeuge, die KI-Frameworks und die KI-Modelle entscheidend.

Es besteht Handlungsbedarf für Politik und Unternehmen

Was ist also zu tun? Eines scheint klar: KI führt nicht von selbst zu mehr Umweltschutz. Politik und Unternehmen müssen in ihren Handlungen und konkreten KI-Projekten die Nachhaltigkeit der Lösungen immer mitdenken. Politische Maßnahmen müssen so gestaltet sein, dass die enormen Umweltschutzpotenziale der KI auch genutzt werden. KI darf nicht dazu führen, dass der Energie- und Ressourcenbedarf sogar weiter ansteigt. Unternehmen sollten – auch aus Kostengründen – ihre KI-Lösungen so entwickeln und einsetzen, dass sie möglichst effizient betrieben werden kann.

Letztendlich benötigen wir für KI-Anwendungen spezielle, optimierte, energie- und ressourceneffiziente Cloud-Architekturen und Cloud-Infrastrukturen. Diese können von den bekannten Global Playern angeboten werden. Aber auch der Aufbau von europäischen oder nationalen Lösungen scheint aus vielen Gründen eine überlegenswerte Alternative. Fördermittel in Milliardenhöhe ständen ja zur Verfügung.

Altaro Office 365 Backup – Datensicherung in der Cloud

Altaro Office 365 Backup wird pro Postfach lizenziert. Wenn ein Postfach von mehreren Benutzern genutzt wird, ist nur eine Lizenz notwendig. Im Preis enthalten sind die Lizenzen für die Sicherung eines Postfachs, der dazu notwendige Speicherplatz in Microsoft Azure, Zugriff auf die Verwaltungskonsole und der technische Support. Derzeit gibt Altaro keine Obergrenze für den Speicherplatz an. Derzeit lassen sich Postfächer maximal viermal pro Tag sichern.

Altaro Office 365 Backup steht 30 Tage kostenlos als Test bereit. Allerdings lassen sich hier nur maximal 10 Postfächer testen. Nach der Anmeldung an der Cloud-Konsole wird über einen Assistenten zunächst die Office 365-Organisation angebunden. Im Rahmen der Anbindung wird der Sicherungslösung auch der Zugriff auf die Organisation gewährt. Hier sollten natürlich die Berechtigungen entsprechend überprüft werden.

Eine weitere Sicherungslösung für Office 365 ist CodeTwo Backup for Office 365 (https://www.codetwo.de/backup-for-office-365). Diese Software ist wiederum lokal zu installieren, wie Veeam Backup für Office 365. Mit der Sicherungslösung von CodeTwo können auch SharePoint-Bibliotheken und OneDrive für Business gesichert werden.

Postfächer und Daten in Office 365 mit Freeware von Veeam sichern

Die Lizenzierung von Veeam Backup für Microsoft Office 365 wird pro Benutzer abgewickelt. Es sind mindestens 10 Benutzerlizenzen notwendig, die über den Zeitraum von einem bis fünf Jahren gebucht werden. Unter 10 Benutzern kann die Community Edition kostenlos gebucht werden. Alle aktuellen Preise sind auf der Produktseite zu sehen (https://www.veeam.com/de/backup-microsoft-office-365-pricing.html). Die Lizenzen umfassen Exchange Online, lokale Exchange-Server, SharePoint Online und lokal sowie OneDrive für Business. Zusätzliche Benutzer lassen sich jederzeit hinzufügen.

Mit der Community Edition lassen sich bis zu 10 Benutzer kostenlos sichern. Außerdem können bis zu 1 TB Daten in SharePoint Online und damit OneDrive für Business. Wer mehr Daten sichern muss, kann also nicht auf die Community Edition setzen. Die Installation ist in wenigen Schritten abgeschlossen. Wer auf die Community Edition setzt, kann jederzeit auf die kostenpflichtige Version wechseln. Dazu muss lediglich eine Lizenz installiert werden.