Sichern von Active Directory-Zertifikatdiensten

Wählen Sie im Kontextmenü der Zertifizierungsstelle in der Verwaltungskonsole die Option „Alle Aufgaben/Zertifizierungsstelle sichern“. Anschließend startet der Assistent, über den die Zertifizierungsstelle und deren Daten gesichert werden können.

Auf der nächsten Seite des Assistenten wählen Sie aus, welche Dateien gesichert werden sollen und in welcher Datei die Sicherung abgelegt wird. Anschließend vergeben Sie ein Kennwort für die Sicherung, damit niemand Zugriff auf die Daten erhält. Im Anschluss wird die Zertifizierungsstelle gesichert. Auf dem gleichen Weg lassen sich auch Daten wiederherstellen.

Die Sicherung und Wiederherstellung können Sie auch in der PowerShell durchführen. Dazu verwenden Sie die beiden CMDlets:

  • Backup-CARoleService

  • Restore-CARoleService

Ein Beispiel sieht folgendermaßen aus:

Backup-CARoleService c:\adcsbackup -Password (Read-Host -prompt „Password:“ -AsSecureString)

KI wird zum Muss für die Überwachung von IoT-Apps

„Alexa, wie lange dauert es noch, bis die erste Palette der Spezialwerkzeuge versandfertig ist?“ „Das dauert noch 7 Stunden, weil ein Bauteil erst jetzt angeliefert wurde.“ Was vielen noch als Science Fiction erscheinen mag, ist dank intelligenter Sprachassistenten wie Alexa, Cortana, Siri und Co. und zu Grunde liegender KI-basierter IoT-Lösungen bereits in vielen Produktionsumgebungen Realität.

Mit Hilfe von KI und einem Echtzeit-Datenabgleich wird die Produktion schneller und kontrollierbarer. Mitarbeiter in Disposition, Vertrieb und Fertigung erhalten wertvolle Daten und Real-Time-Unterstützung. Doch für die Unternehmen bedeutet dies auch sehr große technische Herausforderungen: Denn aufgrund der zunehmenden Vernetzung, Integration neuer Technologien und der damit verbundenen Datenexplosion geht zunehmend der Überblick verloren, was eigentlich genau in den Unternehmensnetzwerken und auf den – teilweise mobilen – Endgeräten geschieht und wo welche Daten verfügbar sind. Welche Informationen werden wohin geschickt? Berichten alle Produktionssysteme oder sind einige offline? Warum bekommt man gerade keine Daten aus dem Lager A? Sind die Netzkapazitäten zu gering oder Scanner und Sensoren defekt? Funktionieren die ERP- und BI-Systeme nahtlos mit den CAD- und Logistikanwendungen? Läuft eine Software fehlerfrei oder ging beim letzten Update etwas schief? Haben sich eventuell Schadprogramme in die Firmenkommunikation eingeschlichen?

Übersicht trotz vieler IoT-Anwendungen

Zuerst ist ein Blick auf die eigentliche Herausforderung nötig: Das Internet der Dinge basiert nicht auf einer einheitlichen Technologie, sondern stellt ein Gesamtsystem dar, das sehr viele unterschiedliche Technologien und Services nutzt. Dadurch entsteht ein ausgesprochen dynamisches und komplexes Umfeld. Der traditionelle Monitoring-Ansatz, der sich seit Jahren für Client-Server, 3-Tier oder verteilte Anwendungen bewährt hat, bedient sich meist fest installierter Messpunkte in Servern, Datenbanken oder an wichtigen Netzwerkkomponenten. Diese Messpunkte werden über festgelegte Funktionen in Dashboards manuell beobachtet. Ein Ansatz, der dieser dynamischen Welt des IoT nicht mehr gerecht wird. Auch die menschliche Analyse und Reaktion auf Warnungen funktioniert angesichts der heutigen Dynamik und Datenexplosion nicht mehr oder viel zu spät und damit so zeitversetzt, dass die Produktion oder ein Service bereits ausgefallen sind. Denn die Fehlererkennung würde zu lange dauern und unnötige Ausfallzeiten verursachen.

Die gute Nachricht lautet: Das IoT ist kein komplett neuartiges System, sondern eine Erweiterung bestehender Lösungen. Beispielsweise durch viele zusätzliche Schnittstellen und Sensoren an Geräten, die bislang noch kein Bestandteil des IT-Netzwerks waren. Diese Schnittstellen sind außerdem immer häufiger sprachbasiert oder übertragen Bilder, etwa zur Qualitätskontrolle, Produkterkennung oder Identifikation von Personen. Zusätzlich findet die Datenverarbeitung immer weniger in zentralen Rechenzentren, sondern im Zuge von Serverless Infrastructure in der Cloud oder bei Edge Computing direkt auf den Geräten oder in deren unmittelbarer Umgebung statt.

Oftmals wird ein Teil der Produktionsdaten auf Inhouse-Servern verarbeitet, wo beispielsweise das ERP-System oder Kunden- und Buchhaltungsdaten laufen, andere Anwendungen sind in die Cloud ausgelagert.

Routine-Überwachung durch KI ergänzt die Expertise der Mitarbeiter

Entsprechend dieser vielfältigen Systeme müssen auch die Monitoring-Systeme durch neue Funktionen ergänzt werden. Während sie bislang zum Beispiel die Performance der eigenen IT-Anwendungen und Netzwerke überwacht haben, sind es nun zusätzlich die Sensoren, Aktoren, Bilderkennungs- und Logistiksysteme, die ständig verfügbar sein müssen, damit das Gesamtsystem reibungslos funktioniert. Ebenso natürlich auch Rückmeldungen zu den ausgelieferten Produkten, beispielsweise dem Funktionsstatus einer Carsharing-Lösung oder eines Autopark-Liftes.

Bei zehntausenden Servern – Inhouse oder in der Cloud – plus Datenbanken und Anwendungen ist die Erkennung von Abhängigkeiten und Problemursachen eine äußerst komplexe Aufgabe. Diese lässt sich nur mit Hilfe von Mesh-Netzwerken und künstlicher Intelligenz erfüllen. Die zunehmende Dynamik dieser Systeme führt dazu, dass sie ständigen Veränderungen und Neuerungen unterworfen sind und sich die Abhängigkeiten permanent ändern. Eine Monitoring-Lösung erkennt diese in Echtzeit und reagiert unmittelbar darauf.

Eine Software erkennt automatisch alle Abhängigkeiten zwischen den vorhandenen Servern, Diensten, Prozessen und angeschlossenen Geräten. (Quelle: Dynatrace)

Selbstlernende KI-Systeme

Damit zuverlässig Antworten auf alle Fragen wie „Welche Probleme gibt es aktuell in der Produktion oder im Service und welche Lösungsvorschläge?“ „Werden alle Sensoren und Aktoren erfasst? Wie zuverlässig ist das Ergebnis der Big-Data-Analyse?“ gegeben werden können, installieren moderne IT-Monitoring-Lösungen ihre Agenten nicht nur im Netzwerk und auf Servern, sondern auch auf Endgeräten und Serverless-Komponenten, die eine gewisse Leistungsfähigkeit aufweisen. Anschließend werden sie automatisch von der IoT-Monitoring-Plattform erkannt, konfiguriert und im Dashboard dargestellt. Die Erkennung der Geräte basiert dabei nicht nur auf dem Vorhandensein von Betriebssystemen, auch Hardware-Komponenten mit Embedded Code werden unterstützt.

Neben den Agenten für Server und Geräte spielen hier auch Schnittstellen für Devices mit geringer Leistungsfähigkeit eine wichtige Rolle. Einerseits durch Software-Bibliotheken für die Einbindung in eigenem Code, aber auch durch APIs zur Unterstützung von Geräten, auf denen keine eigenen Programme laufen können. So dauert es wenige Tage, bis das Monitoring-System die Nutzungsmuster und Abhängigkeiten im Normalbetrieb mit Hilfe von KI automatisch gelernt hat. Dann lassen sich die Daten auf dem Dashboard visualisieren sowie Abweichungen vom Normalbetrieb in Echtzeit feststellen. Entsprechende Warnmeldungen werden innerhalb der Anwendung angezeigt, per Mail verschickt oder über Schnittstellen an Service Management Systeme weitergeleitet.

Mithilfe der gelernten Abhängigkeiten wird allerdings nicht nur das Problem selbst, sondern auch dessen Ursache erkannt. Mit einem solchen weitgehend automatisierten System lassen sich sehr früh Kosten einsparen, zum Beispiel schon im Entwicklungsstadium der Anwendungen. Zudem sparen IT-Teams sehr viel Zeit bei Fehlersuche und Performance-Tests vor der Live-Stellung. Auch im produktiven Betrieb können sie frühzeitig Trends erkennen und voraussagen, beispielsweise dass in fünf Stunden ein Problem mit dem Speicher oder ein Engpass bei der mobilen Anbindung eines Systems entsteht. Ausfallzeiten können damit auf ein Minimum reduziert oder sogar komplett vermieden werden.

Full Stack bedeutet komplettes IoT-Monitoring

Da nicht nur einzelne Services, IoT-Geräte oder eine Cloud-Lösung überwacht werden, sondern komplette Infrastrukturen – der „Full Stack“ – ist damit ein ganzheitliches Monitoring mit einer zentralen Lösung möglich. Dabei werden auf Basis der gegenseitigen Abhängigkeiten auch Auswirkungen von Problemen auf andere Anwendungen erfasst und vorhergesagt. So haben Unternehmen durch eine Erweiterung bestehender, bewährter Lösungen auch moderne IoT-Umgebungen immer im Griff. IT-Experten und Produktionsspezialisten werden dagegen durch KI keineswegs überflüssig. Sie haben nur mehr Zeit für Verbesserungen, neue Planungen und echte Innovationen.

Geräte-CALs und Benutzer-CALs

Wenn Sie PCs betreiben, zum Beispiel im Schichtbetrieb, an denen zu unterschiedlichen Zeiten unterschiedliche Benutzer arbeiten, benötigen Sie für diese PCs nur jeweils eine Geräte-CAL. Im umgekehrten Fall, wenn also ein Benutzer mit mehreren PCs, Notebook oder Smartphones auf den Server zugreift, benötigen Sie für diesen Benutzer mehrere Geräte-CALs, da dieser Benutzer mit mehreren PCs auf den Server zugreift. Alternativ können Sie auch eine Benutzer-CAL kaufen.

Jeder Benutzer mit einer Benutzer-CAL kann an beliebig vielen PCs eine Verbindung mit einem Server aufbauen. Die CALs müssen eindeutig zugewiesen sein. Sie können daher nicht nur so viele CALs kaufen, wie gleichzeitig Benutzer arbeiten, sondern müssen die Gesamtzahl Ihrer Arbeitsstationen, Smartphones und sonstiger Geräte lizenzieren, wenn Sie Geräte-Lizenzen kaufen.

Bei Benutzer-Lizenzen müssen diese genau der Anzahl der Benutzer zugewiesen werden, die insgesamt mit dem Server arbeiten. Es ist nicht erlaubt auf einem Server Lizenzen von Standard und Datacenter zu mischen. Sie dürfen eine Lizenz auch nicht auf mehrere Server aufsplitten.

Die Top 4 Digitalisierungstrends in der Intralogistik für 2018

In vielen Betrieben geht es logistisch sehr ineffizient zu. Damit das Material für die Produktion immer im Fluss bleibt, müssen bei der Steuerung und Organisation innerbetrieblicher Transporte und Prozesse viele Bedingungen wie insbesondere Auftragsprioritäten oder Ladekapazitäten gleichzeitig berücksichtigt werden. Die Planung und Steuerung dieser Prozesse wird häufig noch mit Hilfe von Excel, dem Telefonhörer oder einfachen Add-Ons von Lagerverwaltungssystemen, mit denen lediglich Transporte an die Fahrer kommuniziert werden, umgesetzt. Folglich sind die logistischen Prozesse sehr ineffizient organisiert, es herrscht viel Hektik und Stress und im schlimmsten Fall kommt Material zu spät in die Produktion.

Höchste Zeit für eine Intralogistik 4.0

Diese veralteten Werkzeuge in der Intralogistik sind das Überbleibsel jahrelanger Routine. Sie sollten mit dem erhöhten Kosten- und Wettbewerbsdruck aber abgelöst werden. Die Digitalisierung ist schon lange nicht mehr nur „Trend“, sondern eine notwendige Handlungsstrategie – auch wenn sie in der Realität in vielen Unternehmen noch immer nicht angekommen ist.

Wichtig bei der Umsetzung einer Digitalisierungsstrategie ist immer, dass die individuellen Unternehmensanforderungen berücksichtigt werden. Diese belaufen sich nicht nur auf Managemententscheidungen und variierende Produktionsabläufe, sondern auch auf das Tempo, in welchem sich ein Unternehmen der Digitalisierung nähern will und kann.

Offenheit für Innovation – eine Voraussetzung für den Mittelstand

Nichtsdestotrotz gibt es bereits Bewegung in der Intralogistik. Ob in Form von neuen, intelligenten fahrerlosen Transportleitsystemen oder Drohnen – neue Technologien zur Effizienzsteigerung sind in der Testphase oder bewähren sich bereits im operativen Einsatz. Beispielsweise testet der Automobilhersteller Audi Drohnen für die Intralogistik, da der Luftweg für Eil-Transporte hier eine schnellere Alternative bietet. Der Online-Gigant Amazon setzt als Digitalisierungspionier heute weltweit bereits etwa 80.000 Lager-Roboter ein. Die Wertschätzung digitaler Prozesse und derer Vorteile nimmt zu und fördert damit auch vermehrt den Einzug in die Fabriken und Lager.

Der Fortschritt in der Intralogistik ist jedoch branchenabhängig. Während sich beispielsweise die Automobilindustrie als digitaler Vorreiter an neuen Technologien meist früh ausprobiert und Projekte umsetzt, zögern viele mittelständische Unternehmen. Dabei lassen sich die notwendigen Aufwände und Risiken durch agile Arbeitsmethoden deutlich reduzieren. Nach nur wenigen wochenlangen Sprints können die Ergebnisse der Tests überprüft und die Ziele und nächsten Schritte immer wieder neu ausgerichtet werden. Sollte sich eine Technologie, ein Projekt oder eine bestimmte Arbeitsweise als ineffizient herausstellen, wird sie einfach eingestellt, ohne viel Budget aufgefressen zu haben. Mittelständische Unternehmen haben dabei gegenüber großen Konzerne oft sogar Vorteile, da sie meist keine schwergewichtigen IT-Policies und vertraglichen Regelwerke haben.

Durch den Einsatz von Cloud-Technologie können Software-Projekte enorm beschleunigt und gleichzeitig Kosten eingespart werden. Dabei können oft ohne aufwändige eigene IT-Maßnahmen bereits erste Effekte erzielt werden. In der Intralogistik sind es häufig Cloud-basierte Transportleitsysteme oder LKW-Steuerungssysteme, aber auch Behältermanagementsysteme, die eingesetzt werden und sich bereits bewährt haben.

Wenn sich Unternehmen für solche Lösungen entscheiden, ist es gerade bei der Integration der Mitarbeiter wichtig, in einen offenen Dialog zu treten. Meiner Erfahrung nach sind Argumente, wie „das haben wir doch schon immer so gemacht“ tatsächlich noch nicht ausgeräumt und diese Einstellungen gilt es ernst zu nehmen. Dafür sollten allen Beteiligten die Vorteile und Notwendigkeit der Digitalisierung nahegebracht werden.

Denn letztendlich sorgt die Digitalisierung der innerbetrieblichen Logistikprozesse für eine Erleichterung in der täglichen Arbeit in den Werken und bringt viele Vorteile hinsichtlich Effizienz und Kosten.

Intralogistik-Trends 2018

In 2018 zeichnen sich für die Intralogistik folgende Trends ab:

  • Cloud-Software: Die Akzeptanz, Software als Service zu beziehen und Daten in der Cloud zu speichern, nimmt zu. Häufige Gründe dafür sind reduzierte Kosten und Aufwände, Schnelligkeit bei der Einführung, aber auch höhere Ausfall- und Datensicherheit. Cloud-Software wird somit zu einer wichtigen Säule im Bereich Intralogistik 4.0.
  • Fahrerlose Transportleitsysteme (FTS) und Transportroboter: Der Einsatz intelligenter Transportroboter wird zunächst in den Massenmarkt-ähnlichen Anwendungen, wie Distributionszentren im E-Commerce weiter voranschreiten. Erst nach und nach werden individuellere Transporte von Robotern entsprechend kosteneffizient erledigt. Die Herausforderung dabei ist, eine möglichst offene Infrastruktur zu schaffen, so dass die Transportroboter von unterschiedlichen Herstellern übergreifend und möglichst effizient zum Beispiel über ein Transportleitsystem gesteuert werden können. An dieser Stelle ist noch einiges an Überzeugungsarbeit zu leisten.
  • Artificial Intelligence: Auch in der Intralogistik fallen gigantische Datenmengen an. Diese können mit Hilfe Künstlicher Intelligenz unter anderem zur Optimierung von Transporten (prescriptive analytics), zur Vorhersage von Ausfällen (predictive maintenance), zur Bilderkennung im Rahmen der Steuerung von fahrerlosen Transportsystemen sowie der vollautomatischen Erkennung von Barcodes eingesetzt werden.
  • Internet der Dinge und Blockchain-Technologie: Analog zum Smart Home wird die smarte Fabrik zunehmend alle Komponenten miteinander vernetzen. Dabei beauftragt dann beispielsweise ein intelligenter Behälter seinen Transport im Transportleitsystem automatisch. Dieses organisiert wiederrum automatisch den bestgeeigneten Stapler oder FTS für den Transport. Um die verschiedenen Komponenten in Zukunft effizient miteinander zu vernetzen, werden standardisierte Schnittstellen benötigt. Diese könnten durch Blockchains gesichert sein, die nicht nur sicher Informationen austauschen können, sondern auch Smart Contracts wie beispielsweise die Abrechnung eines Transports vollautomatisch ablaufen lassen können.

Fazit

Die Intralogistik ist auf einem guten Weg, sich von alten Routinen zu lösen und sich als Teil der Industrie 4.0 weiter zu modernisieren. Deutliche Trends für 2018 sehe ich in Technologien wie Künstlicher Intelligenz, dem Internet der Dinge sowie dem Einsatz fahrerloser Transportroboter. Diese bieten ganz neue Möglichkeiten für die Digitalisierung der Intralogistikprozesse auch in mittelständischen Betrieben und helfen, die Effizienz in diesem Unternehmensbereich weiter zu steigern. Ich bin gespannt, was sich darüber hinaus im Jahr 2018 im Bereich Intralogistik 4.0 verändern wird und welche Technologien sich in der innerbetrieblichen Logistik bewähren werden.

Wie sehen Sie die Zukunft der Intralogistik? Welche Technologien werden sich Ihrer Meinung nach im nächsten Jahr etablieren?

Das vernetzte Auto: Datenverarbeitung in Echtzeit

Moderne Autoknacker brauchen keine Brechstangen, sie brauchen Computer. So gelang es 2016 Hackern, Nissan Leafs von überall auf der Welt aus zu manipulieren. Dazu benötigen sie allein die Fahrzeugidentifikationsnummer. Grund dafür war eine ungesicherte API in der Innenraumklimatisierung, die von einem OEM geliefert wurde. Ein Jahr zuvor konnten Hacker einen Jeep fernsteuern.

Experten hat dies nicht überrascht, ist doch ein Connected Car ein Ökosystem aus hunderten vernetzten IoT-Geräten verschiedener Hersteller, die sich über Schnittstellen miteinander verbinden. Das bedeutet, dass nicht nur die Sicherheit auf Geräteebene angesprochen werden muss, sondern auch die der zwischen den Geräten übertragenen und gespeicherten Daten. Und diese Datenmenge ist enorm!

Forscher sagen voraus, dass das durchschnittliche vernetzte Auto in naher Zukunft 1 TB Daten pro Tag erzeugen wird. Dabei müssen fast alle Informationen aus den Sensordaten in Echtzeit gemessen und überwacht werden und im Notfall das System sofort alarmieren. Das Sammeln von Sensordaten und Diagnoseberichten erfordert Datenbewegungen, die im Ökosystem Connect Car an entfernten Standorten (in der Regel mit langsamer Netzwerkverbindung) und mit eingeschränkten Verarbeitungsressourcen ausgeführt werden. Um dennoch die Anforderungen von enorm hohen Datenmengen zu erfüllen, muss die Datenerfassung auf einer Plattform stattfinden, die eine horizontale Skalierung unterstützt. Dabei sind das Speichern der Daten und die Konnektivität der Komponenten das geringere Problem. Die wichtigste Frage, die es zu klären gilt: Wie stemmt man die Verarbeitung einer so großen Menge an Streaming-Daten in Echtzeit?

Daten sind Basis, Ergebnis und Antrieb zugleich

Um Streaming-Daten in Echtzeit erfassen, auswerten und umsetzen zu können, benötigen Connected-Car-Hersteller eine entsprechende integrierte Datenplattform. Erfassung und Auswertung der Daten müssen mit einem sicheren und skalierbaren Verfahren erfolgen, das sich an dynamische Schwankungen anpasst. Die Analyse von Echtzeit-Streaming-Daten muss so einfach wie möglich vonstattengehen, um die Vorteile schnelllebiger Erkenntnisse nutzen zu können.

Einige autonome Autos haben sehr fortschrittliche Infotainment-Systeme, andere nutzen Kameras zur Straßenüberwachung. Hersteller können nicht für jedes Modell eine eigene Plattform zur Datenerfassung entwickeln. Um dem Skalierungsproblem unterschiedlicher Signale diverser Komponenten entgegenzuwirken, bieten sich Standardplattformen wie etwa Apache NiFi und Apache MiNiFi als Basis als einer solchen Datenerfassungsplattform an, da diese unabhängig von der Art der Datenquellen funktionieren. Einige der Plattformen können mit Modulen erweitert werden, die ihre Streaming-Analyse-Kapazitäten erweitern. In diesen Referenzarchitekturen werden Sensordaten angereichert und formatiert gesammelt und für weitere Analyse bereitgestellt. Eine komplexe Ereignis-Pipeline liest sodann die Maschinentelemetrie aus aktualisiert das Dashboard der Plattform kontinuierlich. Kombiniert können Hersteller Echtzeit-Streaming-Daten in einer einzigen Plattform für Datenerfassung und Analyse integrieren.

Erst kommt der Trend, dann die Realität

Das vernetzte Auto hat zahlreiche Vorteile für den Fahrer. Beispielsweise liefern die im Connected Car enthalten Funktionen die optimale Route angepasst an die aktuelle Verkehrslage und verbessern den Kraftstoffverbrauch. Auch die Verkehrssicherheit steigt mit der Vernetzung. Anomalien werden in Echtzeit vom System erkannt, um so Fehler vorherzusagen, bevor sie auftreten (Unfälle, ungewöhnlicher Batterieverbrauch, hohe Motortemperatur).

Doch noch sind die potentiellen Nutzer zurückhaltend: Im Hinblick auf das vernetzte Auto gaben 55 Prozent der Befragten in einer kürzlich von Gartner Consumer Trends in Automotive durchgeführten Umfrage an, dass sie nicht in einem völlig autonomen Auto fahren würden. Die Hersteller sind schon weiter: Googles Testflotte autonomer Fahrzeuge beispielweise hat im vergangenen Jahr die Drei-Millionen-Meilen-Marke überschritten. Das Unternehmen sammelt dabei eine beträchtliche Menge an Daten, um seine Technologie zu verfeinern. Neben den Fahrzeugherstellern interessieren sich aber auch andere für die Daten: der Kundendienst für die Wartungs- und Verschleißkennzahlen der einzelnen Teile, Infotainment-Händler für das Nutzungsmuster des Fahrers, Stadt- und Verkehrsmonitore für die Geschwindigkeitsmesswerte, Versicherungsanbieter für die Fahrweise des Fahrers und so weiter.

Je mehr Fahrdaten verfügbar sind, desto intelligenter und sicherer werden die Fahrzeuge und desto interessanter wird das Konzept des autonomen Fahrens für die gesamte Industrie. Dabei wird das vernetzte Auto aber immer eines bleiben: Ein Vorzeigeprojekt für Big Data in der Praxis.

Smart-Grid: Sicherheit für das weltgrößte IoT-Einsatzgebiet

Lässt man den beinahe unumgänglichen Hype um das Internet der Dinge ein Mal beiseite, sind große Implementierungen von intelligenten, vernetzten Dingen in der Realität noch eher selten. Üblicherweise werden auch die beiden Begriffe IoT und elektrische Netze nicht zwangsläufig miteinander in Verbindung gebracht. Allerdings ist das Smart Electric Grid mit geschätzten 500 Millionen installierten Zählern eine der größten IoT-Installationen überhaupt. Experten gehen sogar davon aus, dass bis 2020 die Zahl der Geräte auf 1 Milliarde ansteigen wird.

Die Infrastruktur des intelligenten Stromnetzes

Ein Smart Grid ist nichts anderes als ein Netz von Stromversorgern, verwaltet über ein System digital gesteuerter Schnittstellen. Darüber werden Stromfluss und Stromversorgung dynamisch angepasst und reagieren so auf Veränderungen bei der Nachfrage im Mikro- und Makrobereich.

Eine Möglichkeit, über dieses komplexe Geflecht von Systemen nachzudenken, geht von einem Schichtenmodell aus:

  • Die physikalische Schicht besteht aus den Strom erzeugenden Systemen, Transmittern/Sendern, Umspannwerken, Verteilern und Energieverbrauchern.
  • Die Netzwerkschicht liegt auf der physikalischen Schicht und besteht aus Kommunikations- und Netzwerkplattform sowie einem Netzwerk-Gateway, Head-Units und Smart Metern.
  • Die Anwendungsschicht wird über der Netzwerkschicht aufgebaut und automatisiert Kernfunktionen wie die Übertragung, Verteilung und Netzstabilität als solche durch verschiedene Energiemanagementsysteme.
  • Eine Analyseschicht dient der anschließenden Wertschöpfung und nutzt dazu die Daten, die auf der Anwendungsebene generiert werden.

Mit dem Anstieg der netzgekoppelten Installationen von Solarmodulen ist das Netzmanagement nochmals eine Stufe komplexer geworden. Am Ende der Leitung befinden sich die eigentlichen Strom- und Energieerzeugungsunternehmen. Traditionell kommt hier proprietäre und vertikal spezifische Software von Spezialanbietern zum Einsatz. In Zukunft wird man aber davon ausgehen können, das für das MDM und die Analyse Mehrzwecksoftware verwendet werden wird, die sich auch anderweitig einsetzen lässt. Neue Technologien wie das maschinelle Lernen wird man für diese Felder verstärkt nutzbar machen. Energieversorgungsunternehmen verwenden dann beispielsweise eine energiespezifische Version von IBMs Watson IoT oder SAPs Hana IoT, um Daten von unterschiedlichen Standorten zu sammeln, genauso wie öffentliche Cloud-Plattformen wie AWS IoT und Microsoft Azure für den Asset Lifecycle.

Bedrohung durch Cyberangriffe

Neben der klassischen IT entwickelt sich inzwischen ein neues Gebiet, die Operational Technology, kurz OT. Gartner definiert Operational Technology als Hardware oder Software, die Änderungen feststellt oder herbeiführt in Reaktion auf die direkte Überwachung von Geräten, Prozessen oder Ereignissen. Implementiert man vernetzte Softwarelösungen innerhalb der OT vergrößern diese fast automatisch die Angriffsfläche und die Zahl der sich gegen AMI richtende Bedrohungsvektoren. Die Versorgung mit Energie und Strom ist ein unverzichtbares Gut. Man kann sich leicht die katastrophalen Folgen vorstellen, sollten diese Netze nicht verfügbar sein. Ein Virus oder Wurm kann vergleichsweise problemlos diese Systeme verlassen und beispielsweise intelligente Zähler angreifen um sie dauerhaft zu deaktivieren. Oder Hacker attackieren ein Utility Control-System und sind so in der Lage den Strom für ganze Stadtteile abzuschalten. Das konnten wir vor nicht allzu langer Zeit schon beobachten als die russische Hackergruppe Sandworm das ukrainische Stromnetz attackierte und rund 220.000 Menschen von der Stromversorgung abgeschnitten waren.

Sichere Zählerkommunikation über Wi-SUN

Eine umfassende Analyse von AMI und Smart Metern würde den Rahmen dieses Artikels sprengen. Aber wir sollten uns ansehen wie sich die Smart Meter-Kommunikation besser absichern lässt. Wireless Smart Ubiquitous Networks (kurz Wi-SUN) ist eine auf offenen Standards basierende Technologie nach IEEE 802.15.4g. Ihre Field Area Network (FAN)-Spezifikation wurde entwickelt, um den Bedarf an Low-Power-, Long-Range- und Peer-to-Peer-Konnektivität gemäß Gartner’s 2017 Hype Cycle for IoT Standards and Protocols Report abzudecken. Die Wi-SUN hat sich zudem über die IEEE und IETF hinaus zur Wi-SUN Alliance zusammengeschlossen und sie umfasst über 200 Mitglieder.

Bestandteil dieser Allianz ist ein Zertifizierungsprogramm, bei dem die Hersteller den Testprozess eines unabhängigen Testlabors durchlaufen müssen, um die Einhaltung der Wi-SUN-Standards und -Spezifikationen sicherzustellen. Anders als konkurrierende Standards ist Wi-SUN ein Mesh-Netzwerk. In einem vermaschten Netz (englisch Mesh) ist jeder Netzwerkknoten mit einem oder mehreren anderen verbunden. Die Informationen werden von Knoten zu Knoten weitergereicht, bis sie das Ziel erreichen. Wenn jeder Teilnehmer mit jedem anderen Teilnehmer verbunden ist, spricht man von einem vollständig vermaschten Netz. In diesem Fall ermöglicht das die Kommunikation von Zähler zu Zähler. Dies reduziert die Anzahl der sogenannten „Black Spots“ im Vergleich zu Sternnetzwerken. Es existieren somit verschiedene Kommunikationswege, so dass es möglich ist flexibler auf Ausfälle zu reagieren. Anders als in Sternnetzen benötigt man weniger Türme. Dieses Netz ist also auch kostengünstiger. Ein weiterer Vorteil: es handelt es sich um einen offenen Standard, so dass es keine proprietäre Bindung an bestimmte Hersteller gibt.

In unserem Zusammenhang aber am wichtigsten: Wi-SUN verfügt über die folgenden Sicherheitsmerkmale:

  • Device Identity lehnt sich an die Spezifikationen der IEEE 802.1AR an
  • Zertifikatsbasierte Authentifizierung, einschließlich sicherer, langlebiger IDevID (Geburtsurkunden) sowie kurzlebiger LDevID (operationale Zertifikate/Zertifikate zur Betriebssicherheit)
  • Geräte-härtende, nicht exportierbare Schlüssel mit Sicherheits-Chip oder PUF (Physically Unclonable Functions)
  • Rollenbasierte Zugriffskontrolle
  • Gruppenbasierte Schlüsselgenerierung und -verwaltung
  • Verschlüsselung auf Netzwerkebene für WAN mit IPSec (Internet Protocol Security)
  • Over-the-Air-Upgrades für Geräte

Ganz offensichtlich hat es in den letzten Jahrzehnten einige Fortschritte gegeben was die Infrastruktur eines Stromnetzes anbelangt. Jetzt haben wir den Zeitpunkt erreicht zu dem das Internet der Dinge auf ein weiteres Industriesegment trifft. Natürlich wirft das Fragen hinsichtlich der Cybersicherheit auf. Trotz aller Bedenken ist es aber ermutigend zu wissen, dass Branchenexperten aktiv an strengen Sicherheitsmaßnahmen für intelligente Stromnetze arbeiten. Smart Meter werden in nicht allzu ferner Zukunft allgegenwärtig und in Millionen von Haushalten installiert sein.

Clientzugriffslizenzen beachten

Clientzugrifflizenzen (CALs) und Remotedesktop-Clientzugrifflizenzen (RDCALs) sowie Lizenzen für die Active Directory-Rechteverwaltung (ADRMS) sind auch in Windows Server 2016 weiterhin notwendig, aber nur in den Editionen Standard und Datacenter. Auch hier gibt es Gerätelizenzen oder Benutzerlizenzen für den Zugriff. Sie müssen bereits bei der Bestellung Ihrer Lizenzen im Voraus planen, welchen Lizenztyp Sie einsetzen wollen.

Sie können die verschiedenen Lizenzen miteinander mischen. Es ist jedoch nicht erlaubt die einzeln erhältlichen Lizenzpakete in Geräte- und Benutzerlizenzen aufzusplitten. Sie dürfen also ein 5er-Paket Gerätelizenzen und ein 5er-Paket Benutzerlizenzen für einen Server kaufen und lizenzieren. Es ist aber nicht erlaubt, diese Pakete aufzusplitten und zum Beispiel als 2er-Gerätelizenz und 8er-Benutzerlizenz zu verwenden. Auch ist nicht zulässig, mit CALs von Vorgängerversionen auf Server mit Windows Server 2016 zuzugreifen.

“Recht auf Vergessen”: Studie zum Thema Verbraucherschutz

Um ihre Privatsphäre im Bereich Internet of Things (IoT) zu schützen, fordern Konsumenten bessere Transparenz und mehr Kontrolle, aber auch die Handlungsbereitschaft von Regierung und der Industrie. Für die Studie wurden 1.629 Verbraucher aus acht Ländern (Deutschland, Frankreich, Großbritannien, USA, Australien, China, Japan und Südkorea) befragt.

Kontrolle über persönliche Daten behalten

Ein Großteil der befragten Konsumenten hat Bedenken, dass persönliche Daten ohne die Einwilligung gespeichert und weitergegeben werden könnten. Deshalb möchten die Verbraucher die Kontrolle darüber haben, welche Informationen gesammelt werden (92 Prozent der Befragten). Sie geben an, dass sie direkt am Point of Sale wissen wollen, ob und welche Daten auf dem Device gespeichert worden sind. Dieselbe Anzahl der Verbraucher fordert zudem härter Strafen für Firmen, die die eigene Privatsphäre verletzten. Knapp 90 Prozent fühlen sich außerdem nicht wohl bei dem Gedanken, dass unbekannte Dritte Zugang zu ihren Daten haben. Ihre Sorge reicht von Identitätsdiebstahl bis hin zu unwissentlich angelegten Profilen über das eigene Verbraucherverhalten. Außerdem sind 74 Prozent besorgt, dass kleine Eingriffe in die Privatsphäre eventuell zu einer Einschränkung der Grundrechte führen können. Deshalb fordern 57 Prozent das Recht ein, ihre Daten endgültig löschen lassen zu können („Recht auf Vergessen“), das inzwischen das wichtigste Verbraucher-Recht, hinsichtlich der Nutzung privater Daten durch Dritte, darstellt.

Obwohl Unternehmen weltweit das Thema Datenschutz gelegentlich ignorieren, wollen Verbraucher ihre Rechte auf Privatsphäre in der Datenschutz-Grundverordnung (DSGVO) verankert sehen, die im Mai 2018 in Kraft treten wird.

Bewusstsein um Datenschutz wächst

Auch aufgrund der brandaktuellen Diskussion um das Datenhandling von Facebook, ist das Thema zum Schutz der persönlichen Daten aktueller denn je. Aus gutem Grund. Der EIU Report zeigt, dass die Verbraucher sich der Risiken von Weitergabe persönlicher Daten bewusst sind und mehr Kontrolle darüber haben möchten, was gespeichert, verwaltet und geteilt wird. Jeder, der im IoT oder in einem Industriebereich arbeitet, in dem Verbraucherdaten genutzt werden, sollte besser über die Möglichkeiten des Datenschutzes der Verbraucher informiert sein.

Wie denken die Verbraucher über das Thema Datenschutz? (Quelle: Forge Rock)

Der Report basiert auf der Studie “Was das Internet der Dinge für die Privatsphäre bedeutet” (im Original: “What the Internet of Things means for consumer privacy“) im Auftrag von Forge Rock.

Editionen und Lizenzen im Vergleich

In der Standard-Edition gibt es weder Storage Spaces Direct, noch Storage Replica. Auch Shielded Virtual Machines fehlen in der Standard-Edition. Die meisten Funktionen hat Microsoft auch in der Standard-Edition integriert. Diese verfügt zum Beispiel ebenfalls über die Container-Technologie und die Nano-Installation.

Allerdings muss hier beim Einsatz der Hyper-V-Container darauf geachtet werden, dass eine Lizenz der Standard-Edition auch nur zwei Container erlaubt, da nur 2 VMs erlaubt sind. Nano-Server sind an Software Assurance gebunden. Hier gelten die gleichen lizenzrechtlichtlichen Punkte, wie bei herkömmlich installierten Servern mit Windows Server 2016.

Die Lizenzierung erfolgt nicht  auf Basis der CPUs, sondern auf Basis der CPU-Kerne. In Hyper-V werden die logischen Prozessoren lizenziert, da diese das Pendant zu den physischen Prozessorkernen darstellen.

Beide Editionen decken immer nur zwei Prozessorkerne des Hosts oder zwei logische CPUs ab. Die erforderliche Mindestanzahl von Betriebssystemlizenzen für jeden Server wird durch die Anzahl der physischen Prozessorkerne des Hosts sowie die Anzahl an virtuellen Servern bestimmt, die Sie auf dem Hyper-V-Host installieren. Setzen Unternehmen also Server mit mehreren Prozessoren ein, ist pro Kern-Paar eine Lizenz notwendig, egal welche Edition im Einsatz ist.

Sie müssen für jeden Server mindestens vier Lizenzen erwerben, also für 8 Kerne. Setzen Sie einen Dual-Prozessor mit je acht Kernen ein, müssen Sie also 8 Lizenzen für diese 16 Kerne erwerben. Für jeden Kern mehr müssen Sie ein Core-Pack kaufen, damit alle Kerne lizenziert sind. In Windows Server 2016 Standard dürfen Sie pro Lizenz 2 VMs installieren, Windows Server 2016 Datacenter kennt kein Limit. Hier müssen Sie lediglich alle Prozessorkerne des Servers lizenzieren.

Lizenzen von Windows Server 2016 sind direkt auf die physische Hardware gebunden. Jede Lizenz deckt zwei physische Prozessorkerne ab. Sie dürfen mit der Standard Edition außerdem bis zu zwei virtuelle Server auf dem lizenzierten Host betreiben. Beim Einsatz der Datacenter Edition dürfen Sie so viele virtuelle Server auf dem Host betreiben, wie die Hardware hergibt.

Weiterhin gibt es in Windows Server 2012 R2 die Editionen Essentials und Foundation. Die Foundation-Edition wurde mit Windows Server 2016 allerdings gestrichen. Windows Server 2016 Essentials erlaubt die Anbindung von bis zu 25 Benutzer, dafür sind keine CALs notwendig. Setzen Sie Windows Server 2012 R2 Foundation ein, dürfen bis zu 15 Benutzer an den Server angebunden sein, hier sind keine CALs notwendig. Foundation ist direkt an die Hardware gebunden, da diese Edition nur als OEM-Version verfügbar ist. Setzen Sie auf Windows Server 2012 R2 Foundation, müssen Sie entweder zur Standard-Edition oder zur Essentials-Edition von Windows Server 2016 wechseln.

IoT wird langsam aber sicher Realität in deutschen Unternehmen

Die IDG-Studie „Internet of Things 2018“ wirft nicht nur einen Blick auf die Gegenwart des Internet of Things, sondern auch auf dessen Zukunft. Und so lässt sich erkennen, wie schnell sich das IoT in den nächsten Jahren entwickeln könnte. Führt man sich einige der Untersuchungsergebnisse vor Augen, ist das auch dringend notwendig. Denn bis dato gibt gerade einmal jedes fünfte Unternehmen an, bereits IoT-Plattformen zu nutzen – und das, obwohl die Ergebnisse in den meisten Fällen positiv bewertet wurden. Ein Großteil der aktiven IoT-Nutzer konnte beispielsweise bereits innerhalb des ersten Jahres klare Mehrwerte wie eine Produktivitätssteigerung oder eine höhere Maschinenauslastung verzeichnen.

Womöglich sind diese und ähnliche Vorteile, die das Internet of Things mit sich bringt, letztlich sogar mehr Entscheidern bewusst, als es zunächst scheinen mag. Halten derzeit weniger als die Hälfte der Unternehmen das Thema IoT für sehr wichtig oder zumindest wichtig, wird dieser Anteil in den nächsten zwei bis drei Jahren auf rund 78 Prozent steigen. Vor allem bei der vernetzten Produktion, in der Qualitätskontrolle und im Rahmen von Smart Connected Products wird die Anzahl an IoT-Projekten stark zunehmen.

Schrittweises Vorgehen könnte die Wende bringen

Dass das Internet of Things trotz aller Komplexität immer häufiger Realität wird in den Unternehmen, liegt unter anderem daran, dass sich die Herangehensweise zu ändern scheint. Nahezu jedes vierte der befragten Unternehmen gab an, mit Pilot-Projekten zu starten und sich so schrittweise der Realisierung im Unternehmen zu nähern, anstatt gleich eine flächendeckende Transformation erzwingen zu wollen. Auch Workshops mit Vertretern von Fachbereichen und Partnern vor dem Beginn der Projekte werden bereits in knapp einem Fünftel der Unternehmen dazu genutzt, um gemeinsam einzelne Use Cases zu finden und schließlich umzusetzen. „Gemeinsame Workshops und die Umsetzung einzelner Use Cases sind ein ebenso einfaches wie effektives Mittel, um erste IoT-Projekte und -Lösungen zu erarbeiten und umzusetzen“, sagt Oliver Hüttig, CEO des Software- und Beratungsunternehmens Cocus. „So lassen sich die konkreten Vorteile für das jeweilige Unternehmen schnell erkennen und nachweisen. Das wiederum führt unter anderem auch dazu, dass die eigenen Mitarbeiter die positiven Effekte von IoT-Lösungen sehen und erleben, wodurch sich mögliche Skepsis gegenüber neuen Lösungen im Unternehmen schnell abbauen lassen“, erklärt Oliver Hüttig.  

Oliver Hüttig – Cocus AG (Quelle: Cocus AG)

Die Unternehmen wollen der IDG-Studie zufolge unter anderem in neue Sensoren, Maschinen und einheitliche Schnittstellen investieren, um die Produktivität zu steigern, Rüstzeiten zu verkürzen, Energiekosten zu senken, mittels Predictive Maintenance die Maschinenlaufzeiten zu erhöhen und günstiger zu produzieren. Über die Hälfte der Befragten gibt an, dass die jeweiligen Investitionen ins Internet der Dinge stark oder sogar sehr stark steigen werden. Treibende Kraft sind dabei in den meisten Fällen der CEO (40 Prozent) oder der CIO bzw. IT-Leiter (38,1 Prozent). Damit ist das IoT also klar zur Chefsache geworden. Das war nicht immer so.

IoT-Sicherheit als wichtiges Thema

Zu den konkreten Problemen, die die Einführung von IoT-Lösungen  be- und teils sogar verhindern, gehört, dass es an entsprechenden Analyse-Lösungen und Sicherheitstechnologien mangelt. Die Sorge vor mangelnder Informationssicherheit, der Betriebssicherheit intelligenter Produktionsanlagen und unzureichendem Datenschutz personenbezogener Daten ist besonders hoch. Unter anderem werden Hackerangriffe (43,9 Prozent) und Industriespionage (31,6 Prozent) befürchtet. Und so verwundert es nicht, dass die geplanten Investitionen zu einem großen Teil in die Sicherheit fließen sollen. Auch hier könnte die schrittweise Einführung neuer Lösungen und Systeme dazu führen, dass die derzeitigen Sorgen und Hürden langsam verschwinden.