PowerShell Core für die Verwaltung nutzen

Ab Version 7.0 steht die Powershell in Windows, macOS und Linux zur Verfügung. Die neue Version unterstützt nahezu alle Module, die auch die PowerShell 5 in Windows unterstützt.

Die Installation von PowerShell Core 6.x ist neben Windows-Clients auch auf Servern ab Windows Server 2008 R2 und neuer möglich. Um PowerShell Core 6.x auf Linux-Rechnern zu installieren, ist Ubuntu (14.04 und 16.04), Debian 8, CentOS, Red Hat Enterprise Linux 7, OpenSUSE 42,1 oder Arch Linux notwendig. Für andere Distributionen bietet Microsoft auf GitHub ein eigenes Paket zur Installation an.

Sobald die PowerShell Core auf einem Linux-Rechner installiert wurde, zum Beispiel mit

“sudo apt-get update”

“Sudo apt-get install -y powershell”

Danach kann die PowerShell auch über den Befehl „powershell“ in SSH-Sitzungen gestartet werden, zum Beispiel über Putty.

Energiebedarf der Rechenzentren in Deutschland steigt weiter an

Mit 14 Mrd. kWh im Jahr 2018 benötigen die Rechenzentren 6% mehr Energie als im Vorjahr (Abbildung). Dieser deutliche Anstieg ist insbesondere auf den Aufbau von Cloud-Computing-Kapazitäten zurückzuführen. Der Energiebedarf traditioneller Rechenzentren ist dagegen rückläufig. Gemäß Analysen im Projekt TEMPRO sind  Cloud Rechenzentren in Deutschland im Jahr 2018 für 23% des Energiebedarfs aller Rechenzentren verantwortlich. In Summe werden die (Energie-)Effizienzvorteile von Cloud Computing durch das starke Wachstum der Branche also mehr als ausgeglichen.

Die TEMPRO-Kurzstudie zur Entwicklung des Energiebedarfs der Rechenzentren wird in Kürze veröffentlicht. Sie befasst sich auch mit der zukünftigen Bedeutung von Edge Computing für den Energiebedarf der Rechenzentren.

Boom bei Kompaktrechenzentren?

Das Projekt HotFlAd – Abwärmenutzung aus Kompakt-Rechenzentren mit Hot-Fluid-Adsorptionskälte-System hat zum Ziel, eine wirtschaftlich attraktive Nutzung von Abwärme in Rechenzentren zu ermöglichen. Die NeRZ-Mitglieder dc-ce, InvenSor, Tobol, Thomas Krenn und Borderstep entwickeln und demonstrieren gemeinsam mit der TU Berlin und Noris Network eine Lösung zur Abwärmenutzung in Kompakt-Rechenzentren.

Zu dem Workshop in Berlin wurden Experten von Rechenzentrumsbetreibern und Forschungsinstituten eingeladen, um über die künftigen Marktpotenziale solcher Lösungen zu diskutieren. Die Experten sahen insbesondere beim Einsatz in Kombination mit 5G-Netzen und im Bereich von dezentralen Cloud-Lösungen große Chancen für energieeffiziente Kompaktrechenzentren. Bis zum Jahr 2025 werden mehrere tausende neue solcher Rechenzentren in Deutschland erwartet. Dabei reicht die Spannweite von Kleinstrechenzentren (bis 5 kW) im Bereich der öffentlichen 5G-Netze über Campus-Rechenzentren (bis 20 kW) bis zu dezentralen Edge-Cloud-Rechenzentren mit mehreren hundert Kilowatt elektrischer Anschlussleistung.

Die Ergebnisse des Workshops fließen in eine im Rahmen des Projekts HotFlAd durchgeführte Marktuntersuchung zu Edge-Rechenzentren ein, über die im Rahmen dieses Blogs weiter berichtet wird.

Weitere Informationen zum Thema Energieeffizienz in Rechenzentren: www.ne-rz.de

Sharing Economy für Daten? Raus aus den Silos – Free your Data!

„Sharing Economy“, „Platform Economy“ und natürlich die nicht totzukriegende Phrase von den Daten als dem „neuen Gold“, respektive dem „Öl des 21. Jahrhunderts“ prägen schon seit langem die Diskussion um die digitale Transformation. Dabei zeigt sich jedoch, dass es – gerade hierzulande – offensichtlich schwierig ist, diese Themen von einer rein theoretischen Betrachtung auf eine praktische Ebene zu hieven. In der Theorie mag das alles nachvollziehbar und vernünftig klingen, aber warum hapert es dann sooft an der Umsetzung in der Unternehmensrealität?

Daten als Kern der Plattformökonomie


In der Plattformökonomie geht es um die Etablierung von Standards, um die Schaffung von Netzwerkeffekten durch die Errichtung einer zentralen Plattform, die die Zugänge auf einem bestimmten Markt herstellt und damit kontrolliert – wir alle kennen die vielzitierten einschlägigen Beispiele von Uber („das weltgrößte Taxisunternehmen besitzt selbst kein einziges Taxi…“), Booking.com, Facebook, Amazon oder Google. Daten spielen hierbei eine ganz entscheidende Rolle. Nur durch deren Auswertung und durch den zielgerichteten Einsatz der daraus gewonnenen Erkenntnisse lassen sich die Kundenbeziehungen organisieren und das System insgesamt mit Leben füllen. Daten sind damit gleichzeitig DNA und zentrales Nervensystem der Plattformen.

Plattformökonomie: Gatekeeper mittels Daten

Der Plattformökonomie wird attestiert, dass sie tradierte Märkte aushebelt: Erfolgreiche Plattformen zwängen sich als Gatekeeper zwischen Endkunde und ursprünglichem Anbieter. Letztere verfügen zwar eigentlich über die notwendigen „Hard Assets“ – die Taxis, Hotels oder Content – werden somit aber gewissermaßen zum bloßen Zulieferer „degradiert“, mit entsprechenden Folgen für Autonomie und Ertragskraft. Wer diesem Schicksal enteilen will, hat nur die Chance, entweder eigene Plattformen zu gründen oder sich selbst mit entsprechenden Netzeffekten und datenökonomischen Instrumenten zu wappnen.

Skaleneffekte in der Datenökonomie

Die zentrale Frage lautet dabei stets: Wie lässt sich das eigene Leistungsversprechen durch die Verknüpfung mit Daten aufwerten? Entscheidend in diesem Kontext ist, dass nur der Zugang zu massenhaften Daten echte Wertschöpfung ermöglicht. Ein einzelner Datensatz ist stets wertlos. Werte entstehen in der Datenökonomie erst, wenn Verknüpfungen hergestellt und Muster identifiziert werden, wenn es gelingt, daraus die „Soft Assets“ zu schaffen, die das ursprüngliche Leistungsversprechen auf diese Weise entscheidend anreichern.
Schiere Größe ist in der Plattformökonomie wie überhaupt in der Digitalen Wirtschaft meist ein entscheidender Vorteil. Alle Technologieunternehmen, die heute die digitalen Märkte dominieren, haben ab einem bestimmten Zeitpunkt auf die Generierung von Skaleneffekten gesetzt. Für den hiesigen Mittelständler, selbst auch für die großen, global tätigen Unternehmen hierzulande, etwa aus dem Automobil- und Maschinenbau, stellt sich dann natürlich die Frage, wie es möglich ist, da mitzuhalten – auf den ersten Blick ein unmöglich erscheinendes Unterfangen. Im eigenen Verfügungsbereich sind meistens nur beschränkte Datenressourcen vorhanden. Wertzuwächse hängen gleichwohl aber sehr wesentlich von der Menge der verarbeitbaren Daten ab.

Synergieeffekte entstehen nur, wenn Daten aus ihren Silos befreit werden

Die Antwort darauf kann nur in der Erzeugung von Synergieeffekten liegen. Diese entstehen jedoch nur, wenn es gelingt, Daten aus ihren Silos zu befreien und für die Vernetzung freizugeben. In vielen Unternehmen werden Daten streng getrennt von einander vorgehalten. Das hat einerseits natürlich technische Gründe – die Hürden bei der Zusammenführung – Systeminkompatibilitäten, unterschiedliche Datenstrukturen und Dopplungen – erscheinen nicht selten beträchtlich. Andererseits stehen allzu oft auch Revierstreitigkeiten und Befindlichkeiten von „Provinzfürsten“ im Unternehmen einer Zusammenführung im Weg.

Jenseits des eigenen Horizonts

Natürlich muss es gelingen, diese Hindernisse aus dem Weg zu räumen, entweder durch gute Führungsleistung oder technisch, mittels ausgefeilteren technologischen Ansätzen zur Datenstrukturierung, etwa auch aus dem Bereich des maschinellen Lernens. Allein das wird in den meisten Fällen nicht reichen. Selbst wenn es gelingt, diese internen Erschwernisse zu beseitigen, ist der Bedarf an Daten und die Anforderungen an die Anzahl und Detaillierung von Datensätzen kaum von einem Unternehmen allein zu bewerkstelligen. Zukunftstechnologien wie Künstliche Intelligenz und Virtual Reality sind in großem Maße Daten getrieben. Wenn die einzige Quelle zu deren Erzeugung und Sammlung das eigene Unternehmen ist, dürfte das kaum ausreichen, um hier Erfolge zu erzielen.

Hoher Datenbedarf: Künstliche Intelligenz, Blockchain & Co

Insbesondere das Training von KI, im Wege von Deep Learning und mittels Künstlicher Neuronaler Netzwerke, erfordert riesige Mengen von Datensätzen. Nur wenn diese Vielfalt gewährleistet ist, kann es dem System gelingen, Muster zu identifizieren und „Erlerntes“ eigenständig auf neue oder wenigstens „verwandte“ Sachverhalte zu projizieren.

Sharing Economy für Daten

Daher gilt es, den Blick auch über den Tellerrand hinaus kreisen zu lassen und die notwendigen Synergien auch außerhalb des eigenen exklusiven Zugriffsbereich zu suchen. Vielleicht ist es notwendig, hier neue Formen der Kooperationen zwischen einzelnen, unter Umständen sogar konkurrierende Marktteilnehmern zu etablieren: eine Art „Sharing Economy“ für den Datenaustausch und den Betrieb gemeinsamer Datenplattformen. Denkbar wären beispielsweise Cloud basierte Lösungen, die Skalierungen und die Einbindung von Drittdaten sowie auch den Rückgriff auf externe Rechnerkapazitäten ermöglichen. Das Zusammentreffen von Machine- und Deep-Learning und nahezu unlimitierter, kostengünstiger Rechenleistung aus der Cloud könnte vielen Unternehmen einen “barrierefreien” Einstieg in die Arbeit mit Künstlicher Intelligenz ermöglichen.

Kooperationen in der Cloud?

Tatsächlich gibt es bereits erste derartige Kooperationen und Plattformen, die den gegenseitigen Austausch von Daten sowie auch kompletter Lern- und Trainingsmodelle für KI ermöglichen. NVIDIA, als Hersteller von Grafikkarten ursprünglich bekannt und groß geworden, betreibt etwa eine eigene Cloud basierte Plattform zum Simulieren und Testen des Fahrbetriebs autonomer Fahrzeuge. Zu den teilnehmenden Unternehmen gehören die großen Automobilhersteller, wie Daimler, Toyota, Audi und VW oder Tesla. Die „offene“ Plattform ermöglicht es, so NVIDIA, „selbstfahrende Autos, Lkws und Shuttles zu entwickeln und einzusetzen, die funktionssicher sind und nach internationalen Sicherheitsnormen zertifiziert werden können.“

Blockchain & KI

Auch aus der Kombination von Blockchain und KI ergeben sich Anwendungsszenarien. Das Berliner Start-Up XAIN arbeitet unter anderem mit Infineon zusammen, um Zugriffsrechte auf Fahrzeugfunktionen durch KI-Algorithmen zu regeln, ohne dass dabei private Daten der Automobilnutzer zentral gespeichert werden müssen. Über das so geschaffene Netzwerk können lokale KI-Algorithmen voneinander lernen, ohne Datenhoheit und die Privatsphäre der beteiligten Anwender zu tangieren.

Blockchain für Datentransaktionen

Das finnisch-schweizerische Unternehmen Streamr bietet den Blockchain basierten Zugang zu einer „Open-Source-Plattform für den freien und fairen Austausch der Echtzeitdaten weltweit“ an und will Datenströme auf diese Weise dezentral zwischen vielen möglichen Beteiligten handelbar machen. Auf diese Weise wäre ein breiter Austausch und der Zugriff auf eine Vielzahl von Daten insbesondere auch für Trainingszwecke möglich, der zudem auch einen finanziellen Anreiz für die Teilnehmer bereithält, ihre Daten zur Verfügung zu stellen. Ähnliche Ansätze existieren zu Hauf im Silicon Valley. Der dezentrale, „distribuierte“ Handel mit Daten ist von einer Reihe von Unternehmen bereits zum Geschäftsmodell erkoren worden. SingularityNET etwa bietet eine Plattform, auf der Entwickler ihre Leistungen im Austausch für andere KI-Dienste oder auch Krypto-Entgelte anbieten können.

Neues Denken erforderlich

Der Rückgriff auf solche Angebote und Verfahren setzt jedoch ein Umdenken, ein grundsätzlich anderes „Mindset“ voraus als vermutlich in den meisten Unternehmen derzeit vorherrscht. Natürlich auch bedingt durch gesetzliche Vorgaben wie DSGVO und ePrivacy-Verordnung, aber eben auch durch eine grundsätzlich restriktive Denkweise, tendieren viele Entscheider dazu, Daten als „exklusiv“ zu betrachten. Das freie und freigiebige Teilen des „Datengoldes“ erscheint vielen schlichtweg abwegig.

“Nur zusammen sind wir stark”

Doch wenn gleichwohl Daten immer ein exklusiver Vorteil innewohnt: in der digitalen Ökonomie lässt sich echter Wert nur durch Größe und vielfältige Anreicherung erzielen. Wenn – was die Regel ist – ein Einzelner dazu nicht in der Lage ist, bleibt nur, das Heil in der Kooperation und im intensiven gegenseitigen Austausch, auch gerade mit vermeintlichen Konkurrenten, zu suchen. Nur so könnte langfristig die Chance gewahrt wären, gegen die Technologie-Riesen aus USA und zunehmend auch aus China zu bestehen.

Daher gilt: Free Your Data – Gebt den Daten ihre Freiheit zurück!

Mitglieder zu einer DAG hinzufügen, entfernen und reparieren

Bricht das Hinzufügen von Mitgliedern ab, sollten Sie die beteiligten Server neu starten. Nehmen Sie danach die Server nacheinander auf, um festzustellen, warum sich einzelne Server nicht hinzufügen lassen.

Oft liegt das Problem an fehlerhaften Berechtigungen, Netzwerkverbindungsproblemen oder einer falsch konfigurierten Namensauflösung. Überprüfen Sie nach dem Neustart im Server-Manager oder dem Windows Admin Center ob das Windows-Feature für Failover-Cluster installiert ist.

Teilweise hat der Assistent zum Hinzufügen von neuen Servern zu DAGs ein Problem, wenn eine Neuinstallation des Servers aussteht, oder die Failovercluster-Verwaltung nicht installiert ist. Ist das Feature installiert und wurde der Server neu gestartet, sollten sich die Server nacheinander problemlos hinzufügen lassen.

Kommt es beim Aufnehmen einzelner Mitglieder immer noch zu Problemen, sollten Sie das Exchange Admin Center auf dem jeweiligen Server starten, sich direkt mit dem Server verbinden und den Server der DAG hinzufügen.

Alle notwendigen Schritte zur Verwaltung einer DAG nehmen Sie am besten im Exchange Admin Center vor, Sie müssen den Cluster nicht mit der Failovercluster-Verwaltung konfigurieren. Jeder Postfachserver kann nur in einer Datenbankverfügbarkeitsgruppe Mitglied sein. Nur Datenbanken auf Postfachservern mit Exchange 2019, die Mitglied einer DAG sind, lassen sich durch die DAG auch absichern.

Sie können über das gleiche Menü auch Server wieder aus der DAG entfernen. Zuvor müssen Sie aber auf dem Server alle Replikate der Datenbanken entfernen. Neben dem Exchange Admin Center, können Sie auch Server in der Exchange Management Shell zu einer DAG hinzufügen. Dazu verwenden Sie folgendes Cmdlet:

Add-DatabaseAvailabilityGroupServer -Identity <DAG-Name> -MailboxServer <Servername>

Um einen Server au seiner DAG mit der Exchange Management Shell zu entfernen, verwenden Sie den folgenden Befehl:

Remove-DatabaseAvailabilityGroupServer -Identity <DAG-Name> -MailboxServer <Servername>

Tritt ein Fehlerfall ein, und ein Server in einer DAG ist nicht mehr verfügbar, können Sie diesen über das Exchange-Setupprogramm wieder reparieren. Gehen Sie dazu genauso vor wie bei der Wiederherstellung eines normalen Servers .

Überprüfen Sie nach der Wiederherstellung, ob die Replikation noch funktioniert. Unter Umständen müssen Sie diese auf den anderen Servern anhalten und den Server neu in die DAG und die Postfachkopien aufnehmen.

Verwalten von Postfachdatenbankkopien

Sie sehen die Länge der Warteschlange von Daten, die noch übertragen werden müssen, und Sie sehen welche Datenbank aktiv ist. Über die Links „Details anzeigen“ lassen sich Einstellungen ändern.

In den Eigenschaften sehen Sie den aktuellen Zustand der Datenbank und können die Aktivierungseinstellungsnummer anpassen.

Das Feld „Länge der Kopiewarteschlange“ zeigt die Anzahl der zu kopierenden Transaktionsprotokolle an, die Exchange noch in die Datenbank schreiben muss. Der Wert sollte möglichst gering sein, damit sichergestellt ist, dass die Daten in der Postfachdatenbankkopie aktuell sind.

„Länge der Wiedergabewarteschlange“ zeigt die Anzahl der Transaktionsprotokolle an, die auf dem Server kopiert sind, aber noch nicht in die Datenbank geschrieben wurden. Weiter unten sehen Sie die Daten der letzten Protokolle und die Zeiten des Imports.

Beim Aktivieren einer passiven Postfachdatenbankkopie legen Sie fest, dass eine der erstellten Postfachdatenbankkopien zur produktiven Datenbank wird und Anwender zukünftig mit dieser Datenbank arbeiten. Die bisherige Datenbank wird dann zur passiven Kopie.

Microsoft bezeichnet diesen Vorgang auch als Switchover, hierbei hebt Exchange die Bereitstellung der produktiven Datenbank auf und verwendet die passive Datenbankkopie als neue aktive, produktive Datenbank.

Navigieren Sie dazu im Exchange Admin Center zu „Server/Datenbanken“. Klicken Sie auf die passive Postfachdatenbank, die Sie zukünftig als produktive Datenbank verwenden wollen. Klicken Sie auf „Aktivieren“.

Kubernetes-Manager WKSctl steht als Open Source kostenlos zur Verfügung

WKSctl hilft dabei Kubernetes-Cluster zu betreiben und zu verwalten. Auch die Überwachung der Cluster auf Funktion und die Anpassung von Einstellungen sind mit WKSctl möglich.  Der Vorteil von WKSctl besteht darin, dass das Projekt mit verschiedenen Betriebssystemen funktioniert und auch mit virtuellen Umgebungen genutzt werden kann.

Auf der Projektseite wird mit einer Quick Start-Anleitung beschrieben, wie Kubernetes-Cluster mit WKSctl installiert und betrieben werden können. Die Entwickler stellen auch eine Dokumentation für den Betrieb zur Verfügung.

WKSctl kennt zwei verschiedene Varianten. Das Tool kann im alleinstehenden Modus (Standalone) betrieben werden, oder über GitOps

Wird WKSctl im alleinstehenden Modus betrieben, erstellt WKSctl einen statische Cluster auf Basis von „cluster.yaml“ und „machines.yaml“ über die CLI.

Zusammen mit GitOps kann WKSCtl Anpassungen an den beiden Dateien“cluster.yaml“ und „machines.yaml“ in Git speichern. Nach der Aktualisierung der Dateien, werden die angebundenen Cluste r anschließend aktualisiert.  Die Vorgehensweise ist auf der Seite „Get started with wksctl“ beschrieben. 

Open Application Model und Distributed Application Runtime verfügbar

Kubernetes und Microservices spielen auch für Microsoft eine große Rolle. Das zeigt die Integration von Containern in Windows Server 2016/2019 und Windows, inklusive der Implementierung von Kubernetes-Clustern, zum Beispiel zur Entwicklung und für Testumgebungen. 

Microsoft stellt jetzt mit Open Application Model (OAM) und ein Distributed Application Runtime (Dapr) zwei neue Projekte bereit, mit denen sich Container schneller und einfacher entwickeln lassen. 

Im Fokus von OAM steht das Entwickeln von Anwendungen für die Cloud, vor allem auf Basis von Microservices. Im Fokus des Open Source steht das Entwickeln von Containern, die mit Kubernetes verwaltet werden sollen. 

Bei Dapr handelt es sich um eine Laufzeitumgebung, die ebenfalls Microservices im Fokus har. Dapr kann mit verschiedenen Programmiersprachen genutzt werden.

Beide Projekte und deren Code sind über Github verfügbar:

Open Application Mode auf Github

Distributed Application Runtime auf Github