Quizfrage für Hardwarehersteller: Sind wir schon Softwaremanager?

Je smarter die Produkte und Services, desto höher der Anteil von Software. Allein in der Industrieautomatisierung beschäftigen viele Hersteller mittlerweile drei- bis viermal mehr Software- als Hardware-Entwickler. Nur so können sie Cloud- und SaaS-Angebote  (Software as a Service-Angebote) an den Markt bringen und ihre Produkte durch vielfältige Embedded Software-Funktionen von  preisgünstigeren Mitanbietern abheben. Dazu zählt beispielsweise Remote-Diagnose oder das Freischalten von Zusatz-Features über Upgrades. Doch trotz der Omnipräsenz von Software fehlt es häufig an einer Standardisierung, die durchgehende Lizenzierungsprozesse und Softwareupdates für alle Produktlinien umsetzt und damit auch eine flexible und effektive Monetarisierung erlaubt.

Bevor also Smart Factory und Co. in neue Sphären aufbrechen, sollten Hersteller zunächst die Konsolidierung des Softwaremanagements in ihren Produkten vornehmen. Ein zentrales Berechtigungsmanagement hilft dabei, operative Prozesse des Softwaregeschäfts zu zentralisieren, damit die Produkte über ihren gesamten Lebenszyklus hinweg zu verwalten, Sicherheit zu gewährleisten und Software und Updates bereitzustellen.

Wissen was läuft

In einer Fertigungsumgebung ist es wichtig, zu wissen, welche Software wo läuft. Welche Kunden verwenden welche Software-Version? Was wurde erworben, was wurde aktiviert und was wird genutzt? Und wie lässt sich sicherstellen, dass wirklich nur berechtigte Kunden die Software nutzen? Nur wer diese Fragen schnell und einfach beantworten kann, wird sich langfristig auch als Anbieter von IIoT-Geräten durchsetzen können. Dabei ist „die Software“ schon oft der erste Trugschluss. Die meisten Hersteller bringen unzählige Softwareprodukte zum Einsatz, doch leider werden diese oft uneinheitlich gemanagt. Oft hat die Konzernleitung keinen Überblick, wie sich das digitale Geschäft als Ganzes entwickelt, da nur fragmentarische Informationen aus Einzelbereichen vorliegen. Kunden leiden so unter uneinheitlichen Lizenzierungs-, Aktivierungs- und Updateprozessen bei verschiedenen Produkten vom gleichen Hersteller.

Für den Einstieg sollten sich Hersteller drei spezifische Fragen hinsichtlich ihrer Softwareprodukte stellen:

  • Sind wir in der Lage, neue Softwareprodukte schnell zu integrieren?

 Die Herausforderung für Anbieter von Industrieautomatisierungslösungen besteht darin, Geräte schnell auf den Markt zu bringen und gleichzeitig die Fertigungskosten niedrig zu halten. Mit entsprechenden Lizenzierungstechnologien lassen sich innovative Produkte leichter, schneller und vor allem kostengünstiger entwickeln. Die Software macht den Unterschied. Sie kann beispielsweise über das Freischalten von Funktionen entscheiden und damit Produkte und Geräte differenzieren. Dabei wird prinzipiell die gleiche Hardware genutzt, so dass keine zusätzlichen Produktionslinien nötig sind. Die Flexibilität beim Aufspielen neuer Software kann auch den Eintritt in ein neues Marktsegment vereinfachen. Ist eine IIoT-Monetarisierungsplattform einmal implementiert, lassen sich neue Produkte schnell ins Portfolio einfügen, die die gleichen Lizenzierungs- und Updateprozesse wie bestehende Angebote verwenden.

  • Besitzen wir eine zentrale und transparente Plattform, um Softwarelizenzen, -berechtigungen, -aktivierung und -nutzung zu überprüfen?

 Ein Energiekonzern muss den Stromverbrauch jedes einzelnen Kunden regelmäßig überprüfen und messen, um die tatsächlichen Kosten in Rechnung stellen zu können. Für einen Anbieter von softwarebasierten Geräten und Anlagen gilt das ganz genauso. Sie müssen wissen, welcher Kunde welche Lösungen mit welcher Lizenz und in welcher Version nutzt, um ein klares Bild hinsichtlich der Nutzung und nötiger Updates zu erhalten. Tun sie das nicht, können erhebliche Umsatzeinbußen entstehen. So berichten Softwareanbieter von entgangenen Einnahmen von mehr als 30 Prozent durch automatisch durchgeführte Upgrades bei Kunden, die gar nicht für die entsprechenden Services eingeschrieben waren. Auch bei Verträgen, die nach Nutzung abgerechnet werden, ist eine hohe Transparenz erforderlich. Zum Beispiel können Hersteller durch die genaue Messung der Nutzung sicherstellen, dass beim Produktionsoutsourcing nicht mehr Produkte vom Vertragshersteller produziert werden als vereinbart. Die Transparenz ist schlichtweg auch eine Frage der Sicherheit: Schwachstellen in älteren Softwareversionen müssen regelmäßig gepatcht werden, damit sie nicht als Einfallstor für Hacker dienen und so möglicherweise ganze Anlagen lahmlegen.

Nutzungsdaten und im Produkt integrierte Analysen bieten den entscheidenden Einblick und geben an, auf welchen Plattformen welche Version einer Software läuft und wann diese zuletzt aktualisiert wurde. Die Daten können zudem für die geplante Produktentwicklungsstrategie aufschlussreich sein, neue Möglichkeiten zur Monetarisierung offenlegen und sich auf die zukünftige Preisgestaltung auswirken.

  • Können wir Updates rechtzeitig und zuverlässig zur Verfügung stellen?

Generell sind Software- und Firmware-Aktualisierungen entscheidend für die Sicherheit, aber auch für die Compliance und effiziente Support-Prozesse. Manuelle und isolierte Update-Prozesse liefern nicht die notwendige Automatisierung, um vernetzte IIoT-Geräte regelmäßig und kontinuierlich zu überprüfen. Zudem fehlt ihnen die Möglichkeit einer Skalierung, zum Beispiel bei Kundenwachstum, bei neuen Softwareprodukten oder häufigeren Aktualisierungen.

Updates, Upgrades und Security-Patches sind jedoch nicht nur Sache der Hersteller. Mehr und mehr gewinnen auch Self-Service-Portale an Beliebtheit, die Endnutzern, Wiederverkäufern und Servicepartnern direkten Zugriff auf die von ihnen genutzte Software ermöglichen. Das kann in vielen Fällen sinnvoll sein: Kunden können direkt auf alle Produkte zugreifen, die sie erworben haben, und Servicepartner können Softwareprodukte und Lizenzen direkt für ihre Endkunden managen.

Auf dem Weg zum erfolgreichen, softwarebasierten IIoT-Geschäftsmodell stellen sich sicherlich noch eine Vielzahl von anderen Fragen – angefangen beim passenden Monetarisierungsmodell für jede Software bis hin zu Risiken von Open Source Komponenten. Grundsätzlich lohnt es sich jedoch ein Perspektivenwechsel, der letztendlich Hardwarehersteller auch zu Softwareanbietern und -managern macht.

Exploit Guard-Richtlinien in SCCM

Über Gruppenrichtlinien kann diese Einstellung bei Computerkonfiguration\Richtlinien\Administrative Vorlagen\Windows-Komponenten\Windows Defender Exploit Guard\Exploit-Schutz“ gefunden werden. Die Konfiguration kann mit einer XML-Datei erfolgen. Diese wird im Netzwerk gespeichert und durch die Richtlinie auf den Rechnern verteilt. Sie können in SCCM Richtlinien konfigurieren, die alle Komponenten von Windows Defender Exploit Guard unterstützen. Zu diesen Komponenten gehören:

die Verringerung der Angriffsfläche

der überwachte Ordnerzugriff

der Exploit-Schutz

der Netzwerkschutz

Allerdings muss für den Einsatz auf den Rechnern mindestens Windows 10 Version 1709 auf den Rechnern installiert sein.

Wechseln Sie in der Configuration Manager-Konsole zu Assets und Konformität\Endpoint Protection, und klicken Sie auf Windows Defender Exploit Guard. Klicken Sie auf „Windows Defender Application Guard-Richtlinie erstellen“. Wählen Sie Komponenten aus, die Sie mit dieser Richtlinie verwalten.

Materialverfolgung auf Basis eines BIM-Modells

Zudem wird BIM ein wesentlicher Erfolgsfaktor in der operativen Abwicklung werden. „Schneller-weiter-höher“ gilt schließlich nicht nur für Bauwerke, sondern auch für die Abwicklungs- und Kosteneffizienz.

Aktueller Materialstatus, offene und benötigte Mengen, Fehler und Mängel – und all das übersichtlich im 3D-Modell dargestellt? – Nur Zukunftsmusik? – Auf keinen Fall.

Im Anlagenbau gibt es bereits mehrere erfolgreiche Beispiele für eine praxistaugliche Integrationen der Bauabwicklung in die Planung (Engineering) sowie spätere Visualisierung im 3D-Modell. Das setzt jedoch saubere und klare Prozesse voraus.

So sieht ein klarer, sauberer Prozess aus

Aus dem Modell werden Materiallisten erstellt und mit eindeutigen Nummern versehen. Über die Einkaufsplattformen werden diese bei Lieferanten geordert und später geliefert. Die Lieferungen werden registriert und sodann per App auf der Baustelle gescannt, positioniert, kontrolliert und zusammengebaut. Nach der Montage erfolgen verschiedene Abnahmeschritte, je nach Gewerk. Eine benutzerfreundliche Software, die Prozesse vom „Modell bis zur Montage“ unterstützt ist dabei unumgänglich.

Prozess im Anlagenbau

Unabhängig von der Software sind klare Prozesse die wohl wichtigste Voraussetzung für eine Qualitätsverbesserung auf allen Ebenen (Kosten, Termine, Ausführungsqualität, usw.).

Sicherheitststrategien in Zeiten von Multi-Clouds und DSGVO

Der aktuelle Cloud-Monitor 2018 des IT-Branchenverbandes Bitkom hat es erneut bestätigt: Die Cloud ist in den Unternehmen angekommen und hat sich als effektiver Vorteilsbringer fest etabliert. Ganze 87 Prozent der deutschen Unternehmen nutzen die Cloud bereits oder planen ihren Einsatz. Die Industrie nutzt die Cloud vor allem, um den Kosten- und Effizienzdruck im IT-Betrieb zu begegnen sowie um neue Kundengruppen, Märkte und Regionen zu erschließen. Darüber hinaus setzen Industrieunternehmen die Cloud ein, um ihre Produkt- und Serviceportfolios zu erweitern und neue Geschäftspartnerschaften zu erschließen. Das ermittelte der IT-Marktbeobachter PAC. 

Durch ihre Schlüsselrolle erfordert die Cloud in Sachen Sicherheit ein besonders kritisches Auge. In der aktuellen Studie „The State of Industrial Cybersecurity 2018“ des Security-Spezialisten Kaspersky gaben 31 Prozent der weltweit befragten Industrieunternehmen an, bereits von Sicherheitsvorfällen betroffen gewesen zu sein. Der zunehmende Cloud-Einsatz sei ein wichtiger Grund, IT-Sicherheit in den Fokus zu stellen und damit verbundene Herausforderungen anzugehen. 54 Prozent gaben an, hier im nächsten Jahr entsprechende Maßnahmen umsetzen zu wollen. Um zu wissen, welche konkreten Risiken mit dem Cloud-Einsatz für das Unternehmen einhergehen, braucht es eine genaue Analyse der Strukturen und Risiken. Laut Cloud-Monitor haben immerhin 71 Prozent der Cloud-Nutzer genau dies durchgeführt und Sicherheitsanforderungen sowie -maßnahmen für Cloud-Anwendungsszenarien in spezifischen Sicherheitskonzepten definiert.

Ganzheitliche Sicherheit wird wichtiger

Ein wesentliches Merkmal des IIoT ist die Vernetzung innerhalb der Fertigungsbetriebe sowie nach außen zu Kunden, Partnern und Zulieferern. Über die Cloud stehen IT-Ressourcen, Daten, Plattformen und Anwendungen jederzeit standortunabhängig zur Verfügung. Schnittstellen und Kanäle nach außen erweisen sich allerdings oft als offene Flanken in der Sicherheit. Diese lassen sich hier nur mit einem sichereren API-Design, Verschlüsselung und auf Infrastrukturseite mittels verschiedener Sicherheitsbausteine durchgängig Ende-zu-Ende herstellen. Dazu gehören grundlegend Firewall, Web Application Firewall (WAF) und Loadbalancer. Zudem sollten kontinuierlich technische Sicherheitsüberprüfungen stattfinden wie etwa Schwachstellen-Scans und Penetration Tests. Darauf aufbauend ist ein Vulnerability Management erforderlich. Zusätzliche Komponenten wie eine Intrusion Prevention und Intrusion Detection zum Abwehren und Aufspüren von Eindringlingen im Netzwerk sind wichtig, um im Ernstfall gewappnet zu sein. Dazu ergänzend ist ein SIEM (Security Information and Event Management) sinnvoll, um Auffälligkeiten zu entdecken, die auf Sicherheitsvorfälle oder Störungen in diesen Bereichen hindeuten. Für Unternehmen ist es empfehlenswert, Anforderungen an die Sicherheit grundlegend zentral zu fixieren und intern zu kommunizieren. Dafür bietet sich ein Information Security Management System (ISMS) an. Ein solches Framework schafft transparente Prozesse, klare Richtlinien und eine zentrale Steuerungsplattform. Ganzheitliche Sicherheitskonzepte werden im IIoT wichtiger. Das zeigt sich auch an der steigenden Bedeutung und Nachfrage nach „Security by Design“. Ursprünglich auf die Software-Entwicklung bezogen, hat sich der Terminus zunehmend für ganzheitlich abgesicherte Systemlandschaften und -architekturen etabliert.

Herausforderung Multi-Cloud

Unternehmen nutzen heute allerdings nicht nur einen einzigen Cloud Service von einem Cloud Provider. Um Abhängigkeiten zu vermeiden, setzen sie oft auf eine Multi-Sourcing-Strategie. Daher existieren oft verschiedene Lösungen parallel, die miteinander zusammenspielen. Der Aufbau und Betrieb von Multi-Cloud-Szenarien sorgt für zusätzliche Komplexität. Um diese zu stemmen, arbeiten Unternehmen daher zunehmend mit Managed-Service-Providern zusammen. Laut PAC-Studie nutzen 45 Prozent der Unternehmen bereits externe Dienstleister, 37 Prozent planen dies und immerhin 18 Prozent diskutieren darüber. In der Zusammenarbeit mit diesen spielen vor allem Datenschutzbedenken eine große Rolle – insbesondere im Hinblick auf die seit Mai geltende EU-Datenschutzgrundverordnung (DSGVO). Deren Einhaltung ist laut dem aktuellen Cloud-Monitor ein „Must-have“. Entschließen sich Industriebetriebe für die Zusammenarbeit mit einem externen Cloud Service Provider, sollten sie aktiv anfragen, wie Sicherheitskonzepte aussehen und die Umsetzung der EU-DSGVO konkret geregelt ist. Ein eigenständiges Zertifikat dafür gibt es derzeit noch nicht. Ende 2017 startete ein Konsortium von Unternehmen und Verbänden, unter anderem das Karlsruher Institut für Technologie und der DIN-Normenausschuss, mit Partnern wie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und Trusted Cloud eine „AUDITOR“ genannte Initiative. Ziel ist es, bis Ende 2019 eine EU-weite Datenschutzzertifizierung von Cloud-Diensten zu entwickeln. Im Juni 2018 hat sie erstmals einen Kriterienkatalog dafür vorgelegt. Bis eine solche europaweite Zertifizierung vollständig auf den Weg gebracht ist, geben andere eine Orientierung für sichere Cloud-Lösungen. Grundlegend ist hier die ISO 27001 für Informationssicherheit zu nennen, die auch den Einsatz eines ISMS vorsieht. Der Cloud Computing Compliance Controls Catalogue, kurz C5, des BSI ist ebenfalls ein wichtiges Indiz.

Fazit

Die Cloud baut ihre Position als Schlüsselrolle im Industrial Internet of Things weiter aus. Mit ihr steigen die Anforderungen an die Sicherheit in den Industriebetrieben. Durch die steigende Vernetzung und Komplexität werden ganzheitliche, durchgängige Sicherheitskonzepte wie Security by Design und Ende-zu-Ende immer wichtiger. In der Zusammenarbeit mit Managed-Service-Providern spielt der Einsatz solcher Sicherheitsstrategien eine große Rolle und ist zunehmend ein entscheidendes Auswahlkriterium.

Industrie 4.0 ist nicht nur eine Frage der Technik

Wer versucht, mit Automation und ERP (Enterprise-Resource-Planning) aus einer schlechten Organisation eine gute zu machen, bekommt meiner Ansicht nach eine schlechte Organisation zu höheren Kosten. Zusätzlich zum technischen Unterbau muss ein erfolgreiches Smart-Factory-Projekt auch eine Reihe von internen Voraussetzungen erfüllen. Wir haben aus den Erfahrungen unserer Industrie 4.0-Projekte vier organisatorische Schlüsselfaktoren identifiziert:

1. Eine effiziente, prozessorientierte Unternehmensorganisation

Silo- und Abteilungsdenken führen regelmäßig zu Schranken und Blockaden. Nur in einer durchlässigen Unternehmensorganisation können wichtige Informationen frei fließen. Und reibungs- und nahtlose Abläufe wiederum stellen die Grundvoraussetzung für die Automatisierung dar. Flache Hierarchien sorgen zudem für kurze Entscheidungswege und ermöglichen schnelles Handeln. Dabei dürfen die Prozesse aber nicht nur die eigene Effizienz im Fokus haben. Erfolgsentscheidend ist vielmehr, dass sich im Unternehmen ein kundenzentriertes Denken etabliert und Abläufe auf den Kunden ausgerichtet werden.

2. Ein funktionierendes Stammdatenmanagement

Daten sind das Gold des Digitalen Zeitalters. Wie das Edelmetall entfalten auch sie ihren besonderen Wert erst mit fachgerechter Verarbeitung. Wer erwartet, nur mit dem Anhäufen von Datenbergen Mehrwert zu generieren, landet zwangsläufig in einer Sackgasse. Die Abläufe in der Smarten Fabrik sind nur so werthaltig wie die Informationen, die sie transportieren. Sind Daten und daraus abgeleitete Informationen unvollständig oder gar fehlerhaft, kommen selbst reibungslos designte Prozesse ins Stocken.

3. Modularisierte, standardisierte Produkte

Kundenspezifische Produkte bis Losgröße 1 auf der einen, hochautomatisierte Fertigung auf der anderen Seite: Industrie 4.0 kann hier alte Gegensätze überwinden und neue Brücken bauen. Denn der Weg zum zufriedenen Kunden führt heute über kosteneffizient gefertigte Produkte in vielen Varianten. Dies gelingt nur, wenn diese Variationsvielfalt klar definiert ist. Für die effiziente Orderabwicklung und Fertigungsvorbereitung sorgen dann in ein ERP-System integrierte Produktkonfiguratoren. Sie prüfen eine gewählte Kombination auf technische Machbarkeit. Zudem erstellen sie auf Knopfdruck Angebote inklusive zuverlässiger Lieferterminzusage, die nötigen Stücklisten sowie alle Arbeitsaufträge.

4. Gut ausgebildete Mitarbeiter auf allen Ebenen

Je enger die Taktung der Aufträge ist, umso schneller geraten Liefertermintreue und Kundenbeziehungen bei einer Störung in Gefahr. Deshalb müssen Mitarbeiter in der Lage sein, Probleme frühzeitig zu erkennen. Die Mitarbeiter von morgen sind weniger „Macher“ und mehr „Entscheider“: Sie überwachen automatisierte Abläufe und greifen nur dort ein, wo es nötig ist. Dies wiederum erfordert nicht nur eine umfassende, fachliche Expertise. Genauso wichtig ist ein profundes Verständnis aller relevanten Prozesse.
Gut ausgebildete Mitarbeiter sind damit ein wesentliches Standbein für die Digitalisierung. Zusammen mit gepflegten Daten, nahtlosen Prozessen und modularen Produkten – und im Zusammenspiel mit vernetzten Systemen – tragen sie wesentlich zum Erfolg eines jeden Transformationsprojekts bei.

Endpoint Protection mit SCCM

In Windows 10 und Windows Server 2016 ist Windows Defender standardmäßig installiert. Daher wird hier bei der Installation des Configuration Manager-Clients ein Verwaltungsclient für Windows Defender installiert. Neben dem Virenschutz, nutzen Sie Endpoint Protection zum Verwalten von Windows-Firewalleinstellungen über die Configuration Manager-Konsole.

In Windows 10 und Windows Server 2016 ist Windows Defender standardmäßig installiert. Daher wird hier bei der Installation des Configuration Manager-Clients ein Verwaltungsclient für Windows Defender installiert. Neben dem Virenschutz, nutzen Sie Endpoint Protection zum Verwalten von Windows-Firewalleinstellungen über die Configuration Manager-Konsole.

Sie müssen die Standortsystemrolle für den Endpoint Protection-Punkt installieren. Die Rolle muss auf einem einzelnen Standortsystemserver auf der obersten Hierarchieebene eines zentralen Verwaltungsstandorts oder eines eigenständigen primären Standorts installiert sein.

Sie finden Sie Einstellungen dazu in der SCCM-Konsole über Verwaltung\Standortkonfiguration\Server und Standortsystemrollen. Klicken Sie auf den Server, auf dem Sie die Rolle installieren wollen mit der rechten Maustaste und wählen Sie Standortsystemrollen hinzufügen.

Konfigurieren Sie nach der Installation die Standardrichtlinie für Antischadsoftware, oder erstellen Sie benutzerdefinierte Richtlinien für Antischadsoftware. Sie finden die Richtlinie über Assets und Konformität\Endpoint Protection\Richtlinien für Antischadsoftware.

Big Data: Paradigmenwechsel im Energiesektor

Während früher die Stromaufkommen einigermaßen stabilen Tages-, Wochen-, und Monatszyklen unterlagen, fluktuieren heute die Verbräuche stärker. Dies führt dazu, dass immer mehr Einflussgrößen in die Berechnung für die Stromproduktion oder den Zukauf ins Spiel kommen.

Regenerative Energiequellen stehen außerdem nur zeitweise zur Verfügung. Die Basisversorgung kommt noch klassisch über kalorische Kraftwerke oder über den Zukauf auf der Leipziger Strombörse. Außerdem spielt mittlerweile die dezentrale Stromgewinnung auf den Dächern von Betrieben und Privathäusern eine Rolle – Photovoltaik wurde staatlicherseits lange finanziell üppig gefördert, auch wenn die Förderung mittlerweile etwas zurückgegangen ist.

Wechselndes Stromaufkommen

Nun steht nicht zu jeder Uhrzeit dieselbe Strommenge zur Verfügung – auch wird im Tagesablauf Strom nicht gleichmäßig verbraucht. Mittags und abends erreicht beispielsweise der private Konsum seinen Höhepunkt. Der Energiebedarf im betrieblichen Umfeld lässt sich etwas stabiler voraussagen.

Deswegen bauen Energieversorger in zunehmendem Maße auf intelligente Systeme. Smart Metering, also die Verwendung intelligenter Stromzähler, setzt sich nach und nach in Privathäusern durch. Diese werden nicht – wie früher – ein- oder mehrere Male im Jahr abgelesen, sondern mehrmals in der Stunde abgerufen. Mit ihrer Hilfe könnten die Energieversorger besondere Tarife anbieten, die Endverbraucher dazu motivieren, energieintensive Aufgaben wie etwa Waschen und Trocknen von Wäsche in eine Zeit zu verlegen, in der Energie in hohem Maße bereitsteht.

Moderne IT-Infrastruktur notwendig

Um dies zu gewährleisten, ist aber eine besonders leistungsfähige IT-Infrastruktur notwendig. So müssen die Daten eines jeden Smart Meters erfasst werden. Daher muss die Plattform, die die Daten speichert und analysiert, flexibel und wirtschaftlich sein, um dem ständig wachsenden Volumen gerecht zu werden. Diese Daten werden zusammengefasst, denn ein Einzelwert ist bei der Erfassung eines Verbrauchstrends nicht relevant. Es ist wichtig, dass die Plattform Datensilos eliminieren kann, damit die Organisation ein vollständiges Bild von ihren Betriebs- und Kundendaten erhält. Schließlich wird auf Basis der gewonnenen Informationen ein Prognosemodell erstellt, aufgrund dessen die Kraftwerksplanung beziehungsweise die Planung der Stromaufkäufe besser durchgeführt werden kann.

Big Data verbessert Netzstabilität

Doch nicht nur die Berechnung der anfallenden Verbräuche und Stromlasten ist datenintensiv. Auch die Optimierung des Netzes erfordert eine leistungsfähige Big-Data-Architektur. Hier ist es von Bedeutung, dass sie sich den verändernden Maßstäben anpasst. Denn dass ein Netz sowohl bei Überlastung als auch bei zu wenig Stromaufkommen instabil wird, stellt die Betreiber vor einem schon seit Jahrzehnten bekannten Dilemma. Früher haben auch hier Prognosemodelle ausgeholfen. Großverbraucher, in den Alpen beispielsweise Skiliftbetreiber, mussten ihren Betrieb rechtzeitig vorher anmelden. Dies geschah teilweise manuell. Mit der Anbindung an eine Datenarchitektur können die Stabilität des Netzes und die Verfügbarkeit der erforderlichen Energie schneller und präziser dargestellt werden.

Zusammenspiel der Daten

Neben den operativen Daten arbeiten Energiekonzerne mit Abrechnungsdaten. Früher waren diese Datenkreise getrennt. Das erschwerte die unternehmensübergreifende Verarbeitung von Informationen und führte zu redundanten Strukturen. Sind diese Datenpools vereinigt, ergibt sich automatisch auch ein kostensparender Effekt, da nicht nur die Datenverarbeitung budgetschonender vonstattengehen kann, auch der mit dem Informationsmanagement betrauter Personenkreis kann effizienter zusammenarbeiten – auch hier wird überflüssige Mehrarbeit eingespart, was sich wiederum positiv auf das Betriebsergebnis auswirkt.

Der Einsatz von Connected-Data-Plattformen erleichtert den Versorgern und Netzbetreibern ihre Planung, die effiziente und nachhaltige Stromerzeugung sowie die Abrechnung erheblich. Mit dem Einsatz von IoT und Big Data findet besonders im Energiesektor derzeit ein Paradigmenwechsel statt.

WMI-Abfragen nutzen

Ausführliche Informationen zu Festplatten lassen sich zum Beispiel mit WMI-Befehlen abrufen. Dazu gibt es das CMDlet Get-WmiObject.  Verwenden Sie die Option Win32_LogicalDisk lassen sich sehr ausführliche Informationen zu Festplatten anzeigen.

Wenn Sie das installierte Betriebssystem und das Datum der Installation anzeigen wollen, können ebenfalls WMI und die PowerShell verwenden. Mit dem Befehl get-wmiobject win32_operatingsystem | select @{Name=“Installed“; Expression={$_.ConvertToDateTime($_.InstallDate)}}, Caption zeigen Sie die die entsprechenden Informationen an.

Auch die Bit-Variante des Betriebssystems (Get-WmiObject -Class Win32_ComputerSystem -ComputerName . | Select-Object -Property SystemType), Domäne, Hersteller, Modell und mehr (Get-WmiObject -Class Win32_ComputerSystem) lassen sich anzeigen.

Nicht ohne mein M-Bus: Smartes Energiemanagement dank Retrofit

Ein intelligentes Energiemanagementsystem braucht vor allem eines: (Verbrauchs-) Daten. Hierfür wiederum sind IoT-fähige Geräte und deren Vernetzung vonnöten. In der Gebäudewirtschaft haben sich für die Übertragung von Zählerdaten vor allem M-Bus-Systeme vielfach bewährt. Denn sie überzeugen nicht nur durch eine leichte Installation, sondern auch durch einen robusten Betrieb. Kein Wunder, dass viele Unternehmen auch beim Aufbau moderner Energiemanagementsysteme an ihnen festhalten wollen und die Transformation ihres M-Bus zum IoT-System wünschen. Der Markt hat längst darauf reagiert und bietet nachrüstbare IoT-Module und Softwaresysteme, mit denen genau das möglich ist.

Transformation leicht gemacht

Zuvor muss jedoch die fehleranfällige Konfiguration der M-Bus-Systeme deutlich vereinfacht und die Erzeugung und Verwaltung der digitalen Zwillinge angeschlossener Geräte – zum Beispiel Energiezähler – ermöglicht werden. Genau an dieser Stelle setzen Hardware- bzw. Softwaresysteme an, etwa der M-Bus-Orchestrator von der Q-loud GmbH. Angeschlossen an einen M-Bus-Master lassen sich Merkmale wie beispielsweise die Datenübertragungsrate einstellen, wodurch die Ansprache aller angeschlossenen Geräte möglich ist. Diese werden in eine Referenztabelle übertragen, die wiederum die Basis bildet für die Zuordnung der Geräte und ihrer digitalen Zwillinge via Klicklisten.

Der Vorteil: Eine Installation in weniger als 30 Minuten ist selbst für umfangreichere M-Bus-Installationen mit über 250 Zählern möglich. Nach einem erfolgreich durchgeführten Test wird das Hardware-Modul via Ethernet, LTE oder W-Lan über eine Internetverbindung mit der zentralen Plattform verbunden, wo dann alle Geräte mit Typbezeichnungen und Zählerständen sichtbar sind. Mit jeder weiteren Messung erfolgt eine Speicherung als Zeitreihe, welche als Basis für die folgenden Analysen dient.

Effizienzgewinne und mehr

Auch im Falle eines noch nicht erfolgten oder möglichen Austauschs von analogen Zählern, bietet sich ein Aufrüsten – bzw. ein Retrofit an. Denkbar ist beispielsweise der Einsatz von speziellen Kameras, die am mechanischen Hauptzähler installiert werden und die analogen Messwerte automatisch erkennen (OCR – optische Texterkennung), digitalisieren und über eine Kommunikationsschnittstelle drahtlos oder auch per M-Bus an ein Gateway weitergegeben. Dieses wiederum übernimmt das Sammeln sowie die Datenkonsolidierung und schickt sie schließlich in eine gesicherte und zertifizierte Cloud-Umgebung, von wo aus weitere Analysen und Auswertungen möglich sind.

Durch Lösungen wie diese, ist nicht nur eine automatisierte Fernablese, sondern auch die gezielte Identifizierung von Störungen ermöglicht. Zu Buche schlagen vor allem deutliche Effizienzgewinne, da das aufwändige Ablesen vor Ort entfällt. Langfristig lassen sich auf diese Weise alle Verbrauchsarten wie Gas, Wasser, Strom oder Wärme in einem System erfassen, zusammenführen und auswerten.

Retrofit für Altbewährtes

Ein intelligentes Energiemanagement ist in der Wohnungs- und Gebäudewirtschaft zu einem zentralen Wettbewerbsfaktor gereift. Wer hier nicht schnell genug handelt, droht schon bald ins Hintertreffen zu geraten. Mithilfe von Retrofit-Projekten gelingt die Transformation hin zu IoT-Systemen als Voraussetzung schnell und einfach und ohne den Austausch der vorhandenen Infrastruktur. Ob analoge Zähler oder bewährte M-Bus-Systeme – sie alle haben längst nicht ausgedient. Sie bedürfen nur eines technischen Liftings.

*Christian J. Pereira arbeitet als Senior Advisor bei Q-loud GmbH.

Warum neue Geschäftsmodelle und Technologien unzertrennlich sind

In jeder Vortragsreihe zu „Digitalisierung“ oder „Industrie 4.0“ werden fast schon gebetsmühlenartig erfolgreiche Plattformunternehmen wie Amazon, Google, Airbnb, Uber etc. als schillernde Beispiele für die Veränderungen der klassischen Consumer-Märkte aufgeführt.

Die Frage, inwiefern und vor allem wann diese Entwicklung auch für die Industrie relevant wird, lässt sich nicht eindeutig beantworten. In jedem Fall hat es in den letzten zwei Jahren zu vielschichtigem Aktionismus innerhalb vieler mittelständischer Unternehmen geführt und neue „Plattform Anbieter“ zum Beispiel wie Axoom , Tapio oder Adamos streben an, die eher traditionell agierende Maschinen- und Anlagenbaubranche zu revolutionieren.

Plattform Dimensionen

Wenn man sich intensiv mit dem Phänomen „Plattform“ auseinandersetzt, stellt man schnell fest, dass häufig immer noch zwei Dimensionen getrennt betrachtet werden: Die betriebswirtschaftliche Sicht auf mögliche, neue Erlöse aus Plattformen und auf der anderen Seite die Evaluierung der technischen Möglichkeiten und deren Implementierung in die Produkt-Entwicklung bzw. die Integration in die vorhandene Systemlandschaft.

Die Matrix in der folgenden Abbildung stellt dar, wie die Dimensionen Geschäftsmodelle und Technologie voneinander abhängig sind und welche Möglichkeiten sich in Abhängigkeit von der Unternehmens- bzw. Digitalisierungsstrategie dadurch eröffnen.

4 Dimensionen

Abbildung 1: Geschäftsmodell-Technologieportfolio (Quelle:  Braincourt)

In Ableitung aus dem „Geschäftsmodell-Technologieportfolio“ von Prof. Dr.-Ing. Jürgen Gausemeier lassen sich zwei Achsen und vier Felder wie folgt definieren: 

Die horizontale Achse „Geschäftsmodelle“ geht von den klassischen produktbezogenen Geschäftsmodellen aus. Die Basis bilden hier die sogenannten „Assets“ – also physische Produkte oder kundenspezifische Lösungen. Gerne wird dies auch als Kernkompetenz bezeichnet. Im weiteren Verlauf der Achse werden die Geschäftsmodelle durch Services und Dienste abgebildet, die durch Netzwerke auch völlig losgelöst von den „Assets“ am Markt platziert werden können.

In der vertikalen Achse „Technologien“ werden folgende Stufen dargestellt: In der klassischen Umgebung sind die Welten zwischen der „Business IT“ (zum Beispiel Administrations- und Geschäftsprozesse) und der „technischen IT“ (zum Beispiel Steuerungsentwicklung und Produktionssysteme) klar getrennt und nicht selten technologisch wie auch organisatorisch voneinander isoliert. Durch Industrie 4.0-Ansätze wachsen diese Systeme nach und nach zusammen und sollen die Unternehmensebenen miteinander vernetzen. Die höchste Entwicklungsstufe sind die Plattformtechnologien, in der alle System-, Geräte- und Umgebungsdaten komplett vernetzt und in Echtzeit vorgehalten werden können. Diese Technologien können auch als „Platform, Infrastructure und Software as a Service“ (PaaS/IaaS/SaaS) angeboten oder bezogen werden, sodass keine eigene Infrastruktur bereitgestellt werden muss.

Zwischen diesen beiden Achsen bilden sich nun folgende vier Felder:

1. Das Feld „klassisches Geschäft“ orientiert sich hinsichtlich IT, Organisation und Strategie an der Automatisierungspyramide. Das bekannte und etablierte Geschäftsmodell ist klar produkt- oder auch lösungsorientiert und wird durch Serviceleistungen flankiert. Zum Einsatz kommen die herkömmlichen Technologien – nicht selten auch in kaum mehr beherrschbaren Ausprägungen. Initiativen unter den Stichworten „Digitalisierung/Automatisierung“ beziehen sich in der Regel auf die Wertschöpfungsketten, Prozesse und Produkte.

2. Dem Feld „Dienstleistungsunternehmen“ können Unternehmen zugeordnet werden, deren Geschäftsmodelle schon über einen längeren Zeitraum hinweg mit bestehenden Technologien auf datengetriebene Dienstleistungen aufgebaut sind. Dementsprechend sind dort auch Kompetenzen im Umgang mit Daten vorhanden. Beispielhaft können hier Banken, Versicherungen oder auch IT-Dienstanbieter wie Datev genannt werden. Jedoch gehen manche Industriedienstleister wie zum Beispiel Bilfinger bereits in diese Richtung, um aus den Prozess- oder Instandhaltungsdaten Services zur Optimierung zu entwickeln und anzubieten.

3. „Plattformtechnologieprodukte“ sind Anbieter von Infrastruktur und Applikationen. Als Beispiele seien hier Microsoft Azure oder Amazon Webservices oder auch spezialisierte Rechenzentren genannt. Sie bieten in der Regel keine eigenen Services an, sondern die Funktionalitäten, um diese zu entwickeln und gegebenenfalls bereitzustellen. Meistens sind hier diverse Security-Lösungen mit integriert, um die Daten und Übertragungswege gegen Dritte abzusichern. Hier steht aktuell die Blockchain-Technologie jenseits von Bitcoins in der Evaluierung.

4. Als „Plattformunternehmen“ bezeichnen wir Unternehmen, deren Geschäftsmodelle auf daten- und kundengetriebenen Services unter Zuhilfenahme von IoT-Technologien basieren. Hier sind auch die eingangs erwähnten Beispiele wie Amazon & Co. zu verorten. Trends sind in der Automobilindustrie mit car2go und Moovel von Daimler erkennbar. Der Maschinen- und Anlagenbau möchte sich hier durch neu gegründete Unternehmen wie Tapio oder Adamos positionieren. Die Entwicklung geht eindeutig weg von der Wertschöpfung durch physische Assets hin zu Erlösen durch datenbasierte Dienste. In der Endausprägung entsteht hier ein Ökosystem aus Anbietern und Nachfragern. Der Plattformbetreiber wird dabei zum „Generalunternehmer“ zur Vermittlung von Diensten auch von Drittanbietern. Ein Beispiel hier ist das 365FarmNet, ursprünglich gegründet vom Landmaschinenhersteller Claas als Serviceplattform für Fahrzeuge – wo zwischenzeitlich unter anderem auch Düngemittel bestellt oder Versicherungsleistungen gebucht und abgewickelt werden können.

Welche strategischen Ansätze und Vorgehen können nun daraus abgeleitet werden?

Die zwei strategischen Ansätze

  1. Durch Wissen und Serviceorientierung zum Plattform-Unternehmen

Ein Ansatz ist, vom „klassischen Geschäft“ über das „Dienstleistungsunternehmen“ zum „Plattformunternehmen“ zu werden. Die Voraussetzungen sind zum Beispiel bei einem klassischen Maschinenbauer oder in der Fertigungsindustrie vorhanden. Hier dominiert ein service- und wissensorientiertes Vorgehen. Man hat über Jahre hinweg ein Spezialwissen aufgebaut welches für den Marktvorsprung essenziell ist. Wird dieses Wissen beispielsweise durch Data Analytics, Machine Learning und künstliche Intelligenz genutzt und angewandt, können enorme Potenziale gehoben werden.

Über Dienstleistungsunternehmen zum Plattformunternehmen

Abbildung 2: Über „Dienstleistungsunternehmen“ zum Plattformunternehmen (Quelle: Braincourt)

Hierbei steht ein methodisches Vorgehen im Vordergrund, das von der Problemstellung her und aus kundenzentrischer Sicht geprägt wird. Durch moderne Kreativitätstechniken aus dem sogenannten Lean-Startup Methodenkoffer wird das vorhandene Wissen gezielt in Ideen und Innovation transferiert. Man verfolgt einen stark prototypischen Ansatz, der die Ideen zunächst in minimal sichtbaren Dienstleistungs-Produktansätzen an den Kunden erprobt.  

 

Prototypen-Reifegrade zur Evaluierung und Weiterentwicklung von Ideen

Abbildung 3: Prototypen-Reifegrade zur Evaluierung und Weiterentwicklung von Ideen (Quelle: Braincourt)

2. Durch Technologie und Plattform-Produkte zum Plattform-Unternehmen

Einen anderen Weg beschreibt das technologieorientierte Vorgehen. Hierbei stehen klar die Technologien und Werkzeuge innerhalb vorhandener Plattform-Produkte im Vordergrund. Hierzu müssen „klassische Unternehmen“ primär Kompetenzen zur Beherrschung aktueller IoT-Technologien aufbauen. Dadurch wird die Grundlage geschaffen mit Datenströmen aus verschiedenen Quellen (Systemen, Sensorik, Steuerungen etc.) operieren zu können, sichere Übertragungswege und eine vertrauenswürdige Speicherung zu gewährleisten.

Über Plattform-Technologie Produkte zum Plattformunternehmen

Abbildung 4: Über „Plattform-Technologie Produkte“ zum Plattformunternehmen (Quelle: Braincourt)

Mit diesen Daten kann dann unter Zuhilfenahme unterschiedlicher Tools gearbeitet werden, um Muster und Zusammenhänge zu erkennen, Verhalten zu simulieren oder Analysen zu erstellen, die schlussendlich in Algorithmen automatisiert werden. Produkte wie beispielsweise das „Machine Learning Studio“ von Microsoft Azure unterstützen ohne dezidierte Programmierkenntnisse den Aufbau einer künstlichen Intelligenz. Mit dem Produkt „IoT Central“ lassen sich Daten rasch visualisieren oder Performance-Dashboards aufbauen, um mittelfristig aus diesen Informationen lernen zu können. Erste Schritte in der Daten-Visualisierung und Analyse können also durch vorkonfigurierte Werkzeuge von Plattformtechnologie-Anbietern ohne große Spezialisierung umgesetzt werden (siehe Abbildung 2). Hieraus können auch für Kunden Produkte wie Cockpits oder Analysetools entstehen, die zur Generierung von Wissen für den Kunden wie auch für den Hersteller genutzt werden können.

Bei dieser Herangehensweise folgen die Ideen den Erkenntnissen aus den Daten, um daraus neue Dienste oder Services zu generieren.

Web-basierte Analyse und Visualisierung von Sensordaten mit Microsoft Azure IoT Central

Abbildung 5: Web-basierte Analyse und Visualisierung von Sensordaten mit Microsoft Azure IoT Central (Quelle: Braincourt)

Dienstleistung oder Technologie – das ist hier die Frage?

Wie im wahren Leben gibt es für die Liebe kein Erfolgsrezept – auch nicht, wenn die Beziehung anstatt zwischen zwei Menschen, hier zwischen Technologie und Geschäftsmodell eingegangen wird. Unternehmen müssen den für sich geeignetsten Weg gehen, um sich als Plattformunternehmen zu etablieren.

Wie so oft ist es meist ratsam alle Möglichkeiten in Betracht zu ziehen, denn die Königsklasse in der digitalen Transformation bilden die Unternehmen, welche sowohl den technologiebasierten Ansatz als auch die Herangehensweise über Wissen und Ideen beherrschen. Diese Unternehmen werden am schnellsten in der Lage sein, erfolgreiche Geschäftsmodelle als Plattformunternehmen umzusetzen und können dadurch eine marktbeherrschende Stellung einnehmen.

Zudem werden diese Unternehmen in der Lage sein, Geschäftsmodelle anderer oder die Erfolgsserie einer bereits bestehenden Technologie, eines bestehenden Produkts oder einer bestehenden Dienstleistung zu ersetzen oder diese vollständig vom Markt zu verdrängen. Das wird ihnen gelingen, in dem sie durch den Technologievorsprung Netzwerkeffekte mit Partnern schnell nutzen und in das Plattform-Geschäftsmodell integrieren.  

Für beide Herangehensweisen gilt jedoch, dass es kaum möglich sein wird auf direktem Weg vom klassischen Geschäft zum Plattformunternehmen zu gelangen. Der Zwischenschritt über Technologieprodukte oder über Dienstleistungs-Unternehmen ist in dem Evolutionspfad unabdingbar.