Die kaufmännische Perspektive der Digitalisierung

Nach nun mehreren Jahren von vielfältigen Informationen und Veröffentlichungen zum Thema Industrie 4.0/ Digitalisierung rückt ein weiterer Aspekt in den Fokus. In den Anfängen waren die Publikationen im Wesentlichen technologisch basiert und motiviert. So konnten die interessierten Leser oder Zuhörer bei Vorträgen lernen, dass durchaus ein Bauteil in der Fertigung zum bestimmenden Element werden kann, wenn man ihm Verarbeitungsinformationen mitgibt. In den Folgejahren wurden viele Beispiele von Industrie 4.0- Elementen gezeigt, die ein tieferes Verständnis ermöglichten. Auf den Hannover Messen der letzten Jahre konnte man diese Entwicklung sehr schön nachvollziehen. Inzwischen gelangen wir aber an den nächsten und sehr entscheidenden Punkt: Es ist die Frage zu beantworten, wo Industrie 4.0/ Digitalisierung in unserem Unternehmen betriebswirtschaftlich einkoppelt. Wir – spätestens aber der CFO eines Unternehmens- müssen verstehen, welche betriebswirtschaftlichen Effekte sich daraus nachweisen lassen.

Abbildung 1: Wirtschaftlichkeitseffekte (Quelle: THM).

Smart Electronic Factory stellt Frage nach Wirtschaftlichkeit

In der Smart Electronic Factory (SEF) e.V., einem Zusammenschluss von verschiedenen bekannten Unternehmen und Hochschulen zur Förderung von Industrie 4.0/ Digitalisierung im Mittelstand, werden seit Beginn Industrie 4.0- Elemente als Proof-of-Concept (PoC) bei Partnerunternehmen umgesetzt. Man könnte es als Operation am offenen Herzen bezeichnen, da es sich um Umsetzungen in realen Unternehmen handelt, die Gewinn- und Verlust- Betrachtung gesteuert werden. Und daher hat sich hier besonders die Frage nach der Wirtschaftlichkeit gestellt. An der Technischen Hochschule Mittelhessen (THM), einem der Gründungsmitglieder der SEF, ist eine Systematik zur Bewertung solcher Proof-of-Concepts entwickelt worden. Diese Systematik kam dann bei 6 technisch erfolgreich umgesetzten PoC´s zum Einsatz. Es sollte die Antwort gefunden werden, ob sie auch betriebswirtschaftlich erfolgreich waren. In Abbildung 1 sind die Ergebnisse zusammengefasst. Insgesamt lässt sich feststellen, dass die Amortisationszeiten bei ca. 1 Jahr liegen und damit deutlich besser sind, als erwartet.

Exemplarisch soll hier ein PoC aus Abbildung 1 näher beschrieben werden: „Kommunikation Bauteil mit Maschine“. Im Detail geht es darum, dass eine Leiterplatte in der Elektronikfertigung am Beginn des Produktionsprozesses mit einem Data Matrix Code gekennzeichnet wird. Damit erhält die Leiterplatte ihre eindeutige Bestimmung. Über das Auslesen das Data Matrix Codes beim Eingang in den Bestückungsautomaten wird dieser vom Bestücker gelesen und mit dem geladenen Bestückungsprogramm verglichen. Sollte ein unzutreffendes Bestückungsprogramm geladen sein, dann wird der Prozess gestoppt, so dass keine Fehlbestückung vorkommen kann. Damit konnte erreicht werden, dass die Overall Efficiency Effectiveness (OEE) für diese Baugruppe von 85% auf 90% an der Bestückungsline gesteigert werden konnte. Außerdem konnte durch Reduzierung von Dokumentationsaufwendungen 1 Operator eingespart werden. Die Lohnkosten senkten sich um 40%, was in einer Herstellkostensenkung von 2% je Baugruppe resultierte. Die Profitabilität der Baugruppe konnte um 38% gesteigert werden. Der Return on Invest lag bei 225%, die Amortisationszeit bei 9 Monaten.

Es zeigt sich also, dass sich Industrie 4.0 resp. Digitalisierung rechnet. Ohne fundierte Wirtschaftlichkeitsrechnung wird der CFO eines Unternehmens schwerlich von Investitionen in diesen Bereich überzeugt werden können.

 

Anwendungen bereitstellen

Die Bereitstellung ist in wenigen Sekunden abgeschlossen, da Sie generell nur wenige Einstellungen vornehmen.

Während der Bereitstellung legen Sie zum Beispiel die Benutzersammlung fest, die Zugriff auf die Anwendung hat. Hier kann es sinnvoll sein, wenn Sie in Active Directory eine Benutzergruppe anlegen, zum Beispiel „Office-Benutzer“. Danach legen Sie in SCCM eine neue Benutzersammlung an und nehmen als Mitglied die Gruppe aus Active Directory auf.

Stellen Sie im Netzwerk Office 2016 bereit, hinterlegen Sie im Assistenten die neue Benutzersammlung. Um nach der Bereitstellung Office an Benutzer zu verteilen, müssen Sie in Active Directory das Benutzerkonto nur zur neuen AD-Gruppe hinzufügen. Durch die Mitgliedschaft in der Benutzersammlung erhält der Benutzer automatisch Office 2016 auf Basis der Einstellungen, die Sie in der Anwendung und Bereitstellung hinterlegt haben.

Sie finden die Benutzer und Gruppen in AD, die Sie für Benutzersammlungen verwenden können im Bereich „Assets und Konformität\Benutzer“.

Erstellen Sie eine neue Benutzersammlung, erstellen Sie eine Regel, in der Sie die Office 2016-Benutzer aus Active Directory in eine neue Benutzersammlung aufnehmen.

Am einfachsten geht das, wenn Sie in der SCCM-Konsole bei „Assets und Konformität\Benutzer“ die entsprechende Gruppe mit der rechten Maustaste anklicken und „Ausgewählte Elemente hinzufügen\Ausgewählte Elemente der neuen Benutzersammlung hinzufügen“ auswählen. So erstellen Sie eine neue Benutzersammlung mit den richtigen Einstellungen. Sie können hier natürlich auch eine vorhandene Benutzersammlung auswählen.

Bereitstellung von Anwendungen simulieren

Sie erstellen dazu das Anwendungspaket über den Bereich „Softwarebibliothek\Übersicht\Anwendungen“. Danach verteilen Sie die Anwendung über deren Kontextmenü mit „Inhalt verteilen“. Anschließend wählen Sie das Kontextmenü erneut aus und wählen „Bereitstellung simulieren“.

Der Assistent sieht jetzt aus, wie das produktive Bereitstellen von Anwendungen, mit dem Unterschied, dass Sie die Bereitstellung nur testen und überprüfen, ob diese auch auf den Clientcomputern funktionieren würde.

Klicken Sie auf die simulierte Anwendung, sehen Sie im unteren Bereich, ob die Bereitstellung funktioniert. Bei „Überwachung\Bereitstellungen“ sehen Sie welche Anwendungen aktuell simuliert werden, ob später die produktive Bereitstellung funktionieren würde. Anwendungen die bereitgestellt, und nicht nur simuliert wurden, erscheinen nach einiger Zeit im Softwarecenter, wenn die Option bei der Bereitstellung entsprechend aktiviert wurde, und der jeweilige Benutzer das Recht hat die Software zu nutzen.

Verschlafen die Energieversorger den digitalen Wandel?

„Ohne Strom ist doof“ stand mal in einer Anzeige eines großen Energieversorgers. Jeder braucht ihn, ob Privathaushalt oder Gewerbe. Aber dennoch: Der Verkauf von Strom ist schrecklich spröde. Spätestens seit der Liberalisierung des Strommarktes tun sich die Marktteilnehmer schwer damit, ihre Angebote vom Wettbewerb abzuheben.

Kaum Flexibilität beim Strompreis

Anfang Januar 2018 kostete die Kilowattstunde Strom für Haushalte in Deutschland im Durchschnitt 30 Cent pro Kilowattstunde. Den größten Kostenfaktor belegen dabei Netzentgelte, Steuern und Abgaben.

Der Wettbewerb im Strommarkt findet in den Segmenten Erzeugung, Handel und Vertrieb statt. Die ersten beiden werden über Börsen abgewickelt, und der Vertrieb ist mittlerweile hoch digitalisiert. Was am Ende beim Privatkunden abgerechnet werden muss, lässt daher kaum noch preisliche Flexibilität zu. Zu wenig jedenfalls, als dass sich Endkunden für eine Marktbeobachtung interessieren.

Achtung „Commodity-Falle“

So locken die Anbieter ihre Kunden in den Vergleichsportalen mit Wechselboni oder appellieren an das grüne Gewissen, indem sie ihren Kunden Strom aus möglichst vielen regenerativen Quellen verkaufen. Aus der Steckdose kommt natürlich trotzdem immer nur der gleiche Strommix heraus. 

Die Stromversorger laufen Gefahr, in die „Commodity-Falle“ zu tappen. Ihr Produkt ist austauschbar und zu gleichen Konditionen überall zu bekommen. Dabei sitzen die Versorger im Grunde auf einer Goldmine und nutzen sie nicht: Die Verbrauchsdaten ihrer Kunden. Kommt man in ausreichender Auflösung an sie heran, lassen sich damit zahllose digitale Geschäftsmodelle kreieren, um Kundenzufriedenheit und -bindung zu steigern. Als Nebeneffekt werden noch die eigenen Ablese- und Abrechnungsprozesse optimiert. 

Die Krux bei der Digitalisierung: Die in den meisten Haushalten heute noch installierten analogen Stromzähler lassen bis auf den Gesamtverbrauch keine weiteren Rückschlüsse auf die individuellen Nutzungsgewohnheiten der Verbraucher zu. 

Während Großverbraucher ab 10.000 kWh/Jahr und Selbsterzeuger, beispielsweise mit eigener Photovoltaikanlage auf dem Dach, laut Gesetz bereits heute über digitale Stromzähler, so genannten intelligente Messysteme (iMSys) verfügen müssen (ab 2020 bereits ab 6000 kWh Jahresverbrauch) herrscht im Privathaushalt nur bedingt Druck, die alten analogen Zähler auszutauschen. Hier ist die Vorgabe, dass bis 2032 alle alten analogen Zähler durch digitale ersetzt sein müssen.

Aber: Bei den dort zum Einsatz kommenden „modernen Messeinrichtungen“ (mME) wird letztlich nur das analoge Messsystem durch ein digitales ersetzt. Vernetzt sind auch die neuen digitalen Zähler typischerweise nicht und fristen ein kümmerliches Schattendasein. Doch dass lässt sich ändern.

Moderne IoT-Technologien eröffnen neue Möglichkeiten

Die technologischen Voraussetzungen haben sich in den letzten Jahren maßgeblich zum Positiven verändert. Die Kosten für leistungsfähige Hardware sind gesunken, auf Internet-Technologien basierende Verbindungsstandards ermöglichen heute viel bessere Leistung, als branchenetablierte Standards. Auch mischen neue Marktteilnehmer mit ausgeklügelten Analyseplattformen das Geschäft auf und ermöglichen Geschäftsmodelle, die vor ein paar Jahren noch undenkbar schienen.

Jedes im Haushalt genutzte Gerät weist beim Stromverbrauch ein individuelles Muster auf. Eine Lastkurve, die für den Stromverbrauch über einen gewissen Zeitraum typisch ist. Ein Wasserkocher, der mit einer Leistung von rund 1500 bis 2000 Watt über einen kurzen Zeitraum ein Liter Wasser zum Kochen bringt, zeigt entsprechend eine ganz andere Charakteristik als eine Waschmaschine, die über einen viel längeren Zeitraum mit verschiedenen Waschprogrammen und Aufheizphasen arbeitet. Kühlschrank, Fernseher, Radio, Haartrockner – sie alle hinterlassen eine Art Fingerabdruck im Netz.

Mit den bereits auf dem Markt befindlichen „modernen Messeinrichtungen“ lassen sich diese Lastkurven erfassen. Je kürzer der Messabstand, desto genauer die Datengrundlage, desto besser können die Geräte voneinander unterschieden werden.

Versetzt man diese digitalen Stromzähler mit Hilfe moderner IoT-Technologien nun noch in die Lage,  Daten bedarfsgerecht dem Energieversorger sowie Endkunden jederzeit zur Verfügung zu stellen, etwa über ein einfaches Gateway zur Datenübermittlung vom Zähler ins Internet,  lassen sich mit diesen feingranularen Informationen ganz neue Mehrwerte schaffen. 

Die Technologie dahinter heißt „Non-intrusive Load Monitoring“ kurz NiLM. Eine Leistungsmessung ohne die Notwendigkeit, an jedem einzelnen Endgerät im Haushalt weitere Messgeräte, so genannte „Sub-Meter“, etwa durch eine Zwischenstecker zu installieren.

NiLM: Der Schlüssel zu  digitalen Geschäftsmodellen.

Ein naheliegender Einsatz ist die individuelle Verbrauchserkennung. Stromkunden können sich den einzelnen Verbrauch ihrer Endgeräte jederzeit grafisch aufbereitet anzeigen lassen. Ein nettes Gimmick für den Endkunden. Mehr auch nicht. Habe ich als Kunde mir einmal einen Überblick verschafft, werde ich kaum täglich auf die Analysen schauen. 

Aber wie wäre es mit  weiteren Features, wie etwa der frühzeitigen Ausfallserkennung? Die so genannte „Predictive Maintenance“ zielt darauf ab, defekte Geräte vor ihrem Totalausfall bereits durch Unregelmäßigkeiten in ihrer Lastkurve zu erkennen.  

Nicht nur jedes Gerät, auch jeder Haushalt als Ganzes verfügt in der Regel über ein typisches, wiederkehrendes Verbrauchsverhalten. Das lässt sich nutzen: Unter dem Stichwort „Ambient Assisted Living“ versteht man Konzepte, die älteren oder benachteiligten Menschen Hilfestellung geben, ihren Alltag zu meistern ohne ständig auf externe Hilfe angewiesen zu sein. So könnte die automatische Erkennung von Geräten im Haushalt dazu beitragen, Nutzer daran zu erinnern, den Herd abzuschalten oder gar umgehend nahe Verwandte informieren, sollten entgegen üblicher Tagesabläufe auffällige Abweichungen festgestellt werden. 

Energieversorger müssen bei der Schaffung neuer digitaler Geschäftsmodelle ein Stückchen weiter „Out Of The Box“ denken.  Die Mehrwerte, die ich mit den Verbrauchsdaten schaffen kann, werden künftig wichtiger sein, als der Stromverkauf selbst.

Machine Learning in der Qualitätssicherung: Pseudofehler erkennen

Inzwischen besitzen die meisten Unternehmen eine Digitalstrategie und sind sich der Notwendigkeit bewusst, ihre Produkte, Dienstleistungen, aber auch internen Prozesse auf der Grundlage von intelligenten, digitalen Lösungen weiterzuentwickeln. Doch die praktischen Erfahrungen mit den Technologien sind oft noch sehr gering. Daher probieren viele Unternehmen erste Ansätze in Proof of Concepts aus, um die neuen Kompetenzen schnell auszubauen und ggf. positive Fehlerkulturen zu leben. 

So sind in der Praxis häufig Digitalstrategie kombiniert mit dem Starten von kleinen, überschaubaren Pilotprojekten in nicht geschäftskritischen Bereichen. Dadurch lassen sich mit geringem Risiko relativ schnell Technologiewissen sowie weitere organisatorische Fähigkeiten wie agiles Projektmanagement im Unternehmen aufbauen. Dabei sollten sie jedoch so früh wie möglich spezialisierte Partner einbinden, die sowohl mit IoT- als auch KI-Projekten sowie innerhalb der Branche ausreichend Expertise aufweisen. Sie helfen dabei, Themen schneller umzusetzen und eigene Expertise im Unternehmen zu festigen. 

Machine Learning in der Qualitätssicherung

Wie dies funktionieren kann, zeigt ein Praxisbeispiel zu Machine Learning in der Qualitätssicherung. Am Ende einer Produktionsstraße durchlaufen Produkte Prüfstände zur Fehlererkennung. In einer gewissen Anzahl der Prüfungen werden jedoch Fehler gemeldet, obwohl das Produkt einwandfrei funktioniert – sogenannte Pseudofehler. Die erweiterte Diagnose sowie die erneute Prüfung kosten Zeit und binden Ressourcen in der Produktion.  

Daher hat ein industrieller Hersteller gemeinsam mit Campana & Schott sowie Studenten der Goethe-Universität in Frankfurt am Main Machine-Learning-Algorithmen erprobt, um mögliche Korrelationen zur Mustererkennung mit Hilfe von maschinellen Lernverfahren zu untersuchen. Die Beteiligten wollten erste Hinweise zur Erkennung von Pseudofehlern erlangen. Dies ist ein vielversprechender Ausgangspunkt, um mit vertiefenden Untersuchungen einen optimierten Prozess zu entwickeln.

Umsetzung und Ergebnisse 

Als Technologieplattform für die Untersuchungen wurde die Microsoft Azure Suite gewählt, die mit dem Azure Machine Learning Studio eine benutzerfreundliche Modellierungsumgebung für diesen Anwendungsfall bietet. Ein agiler Entwicklungsprozess stellte die adäquate Methode für die schrittweise Evaluierung dar. Die Kernelemente der agilen Softwareentwicklung sind Sprints, die aus dem inkrementellen Entwickeln und Verfeinern des jeweiligen Entwicklungsstandes bestehen. In diesem Projekt dauerte ein Sprint zwei Wochen, wobei dem Team pro Sprint etwa 10 Personentage zur Verfügung standen. Insgesamt belief sich der Entwicklungsprozess auf 4 Sprints.

Die erstellten ML-Algorithmen erreichten eine Prognosegüte von über 95 Prozent. So können auf dieser Basis durch eine geeignete Erkennung von Pseudofehlern die Mehrkosten für zusätzliche Prüfungen reduziert werden. Dies bindet weniger Menschen-Kapazität in der Produktion und reduziert den Personaleinsatz. Das Projekt hat außerdem gezeigt, dass sich durch eine funktionsstarke und gleichzeitig einfach zu bedienende Cloud-Plattform zahlreiche vielversprechende Anknüpfungspunkte ergeben. Dazu zählt zum Beispiel, die Maschinen direkt an einen zentralen IoT-Hub anzubinden, um damit Prognoseinformationen in Echtzeit zu erhalten und unmittelbar in den Prüfprozess einfließen zu lassen.   

Fazit 

Die entwickelte ML-Lösung erkennt mehr als 95 Prozent der Pseudofehler frühzeitig. Das Modell lernt auf Basis vorhandener Daten, in denen Pseudofehler markiert sind, und kann so eine Analyse der Ergebnisse in Echtzeit vornehmen. 

Fallstudie: Produktivität in der Automobilindustrie absichern

Die Vision des Industriellen Internet der Dinge (IIoT) kann nur erfolgreich umgesetzt werden, wenn die Steuerungsnetze (Industrial Control Systems, ICS)  als lebenswichtiges Nervensystem zukünftiger Produktionsstätten verstanden und behandelt werden. Aus diesem Grund stehen die Steuerungsnetze in aktuellen Standards immer mehr im Mittelpunkt, um die Prozesskontinuität sicherzustellen.

Komplexität von Steuerungssystemen steigt

Ein deutscher Automobilhersteller entschied sich deshalb, sein ICS mittels der industriellen Anomalieerkennung Rhebo Industrial Protector zu prüfen und zu schützen. Das Monitoringwerkzeug analysiert rückwirkungsfrei und auf Inhaltsebene jegliche Kommunikation innerhalb des ICS. Verdächtige Vorfälle werden in Echtzeit und inklusive Risikobewertung an die Verantwortlichen im Unternehmen gemeldet.

Die Pilotinstallation sollte vorerst in einer komplexen Fertigungszelle fünf grundlegende Herausforderungen der Industrie 4.0 adressieren, welche bislang weder durch gängige Monitoring- noch durch bestehende IT-Sicherheitslösungen abgedeckt wurden:

  1. Vollständige Sichtbarkeit für alle in der Fertigungszelle eingebundenen Komponenten und deren Kommunikationsmuster.
  2. Detaillierte Analyse der Kommunikation bis auf Inhaltsebene, insbesondere für Profinet und Siemens S7.
  3. Lückenlose Meldung aller Anomalien im ICS in Echtzeit, die potentiell zu Anlagenausfällen führen oder die Produktivität beeinträchtigen können.
  4. Identifikation von Verbesserungspotentialen für die Feldbusinfrastruktur (Profinet) auf Basis der detaillierten, fortlaufenden Analyse der Kommunikationsmuster.
  5. Stärkung der Industrial Security durch Echtzeitmeldung jeglichen verdächtigen Zugriffs auf das Netzwerk ‒ bekannt oder unbekannt, extern oder intern ‒ mit allen Vorfalldetails.

Die industrielle Anomalieerkennung wurde ohne Unterbrechung der Produktion binnen kürzester Zeit in einer komplexen Fertigungszelle installiert. Die erste Analyse im Rahmen eines Stabilitäts- und Sicherheitsaudits zeigte bereits eine starke Heterogenität und Komplexität innerhalb der Systemarchitektur. Allein in der überwachten Fertigungszelle fanden sich über 300 Komponenten, u.a. von Siemens, SICK, SMC, SEW, IMI und Norgren, die verschiedenste Konfigurationen aufwiesen und frei miteinander kommunizierten.

Kontinuität hängt nicht nur von Cybersicherheit ab

Im laufenden Betrieb wurden nachfolgend mehrere Risiken identifiziert, die sowohl die Cybersicherheit als auch die Anlagenverfügbarkeit betrafen.

Zu den sicherheitsrelevanten Vorfällen gehörten u.a.:

  • unbekannte Teilnehmer, z.T. mit Fallback-IP-Adressen, mit auffälligen Operationen und Konfigurationen
  • doppelt verwendete IP-Adressen durch unautorisierten DHCP-Server
  • möglicher Man-in-the-Middle-Angriff durch Missbrauch des Address Resolution Protocols (ARP)

Die Gesamtanlageneffektivität (GAE) wurde u.a. durch folgende versteckte ICS-Probleme beeinträchtigt:

  • erhöhte Netzwerkbelastung durch fehlerhafte Datenpakete (z. B. IP-Fragmente, Übertragungswiederholungen), die sich u.a. durch das Ausbleiben zyklischer Echtzeittelegramme negativ auf die Anlage auswirkte
  • Profinet-Fehlermeldungen einzelner Komponenten, die auf Störungen hinweisen
  • Störungen des Echtzeitbetriebs durch Kommunikationsabbrüche

Produktivität und Industrial Security gewährleisten

Der Automobilhersteller erlangte durch den Einsatz der industriellen Anomalieerkennung vollständige Transparenz im überwachten Fertigungsbereich. Fehlkonfigurationen und potentielle Sicherheitsrisiken, konnten eindeutig identifiziert werden. Durch die detaillierte Speicherung jeglicher Anomalien im ICS mit Metadaten und Rohdaten (als PCAP) konnten die Betreiber schnell auf Gefährdungen reagieren. Dadurch konnte auch der Zeitaufwand für die forensische Analyse, Fehlersuche und -behebung deutlich reduziert werden.

Für den Automobilhersteller bedeutet dies nicht nur erhöhten Schutz vor Cyberangriffen, sondern auch Prozessstabilität und verbesserte Betriebskontinuität.

Globale Mobilfunknetze als Basis für IoT-Projekte: Einsatzbereit oder Zukunftsmusik?

Verbessertes Fuhrparkmanagement; verbesserte landwirtschaftliche Produktion; besser vernetzte Lieferketten; effizientere Fabriken. Das Ausschöpfen des Potenzials des Internet der Dinge (IoT) ist heute ein Schlüsselelement in den digitalen Transformationsprogrammen für Unternehmen. Tatsächlich gibt es branchenübergreifend ein wachsendes Bestreben, innovative Anwendungen des IoT zu nutzen – nicht nur für operative Effizienz, engere Kundenbindung und verbesserte Business Intelligence, sondern auch für neue Services und disruptive Geschäftsmodelle.

Mobile Dienste sind wohl ein Katalysator für die Globalisierung. Sie ermöglichen es Unternehmen, über die nationalen Grenzen hinaus zu agieren und die Bedürfnisse einer internationalen Kundschaft zu erfüllen. Das ist der Grund, warum in der heutigen datengestützten Wirtschaft für die meisten multinationalen Unternehmen die Idee eines wirklich grenzenlosen, operativen Betriebs im Mittelpunkt ihrer IoT-Zielsetzung steht. Ziel ist es, dass remote IoT-Geräte, deren Konnektivität und Daten über ein sicheres, globales Mobilfunknetz verwaltet werden, sich unabhängig vom Standort nahtlos verbinden und miteinander interagieren können.

Neue Ideen für Mobilfunknetze im IoT-Zeitalter

Die zunehmende und strategisch wichtige Rolle des IoT macht es erforderlich, dass sich die traditionellen Grundsätze der Bereitstellung mobiler Dienste rasch weiterentwickeln. Als Antwort auf die gestiegenen Anforderungen an die weltweite Konnektivität benötigen Unternehmen Lösungen, die diese umfassend gewährleisten, um damit Informationen auf globaler Ebene zu erfassen, weiterzugeben und zu managen, damit der Erfolg von IoT-Projekten sichergestellt ist.

Als Basis vieler IoT-Projekte bieten Mobilfunknetze eine effektive, zuverlässige, sichere und allgegenwärtige Konnektivitätslösung. Die Herausforderung besteht jedoch darin, dass die heutigen Mobilfunknetze auf Länderebene lizenziert und bereitgestellt werden. Mobilfunknetzbetreiber (MNOs) kontrollieren alle Aspekte ihres eigenen Netzes: die Architektur, den Einsatz, die Kapazität, die Investitionen und die Anbindung von Geräten wie Smartphones und Laptops.

Ein Konzept eines einzigen, globalen Mobilfunknetzes gibt es nicht. Da jedoch das Internet der Dinge die Anzahl und die Reichweite der angeschlossenen Geräte dramatisch erweitert, ist dies genau das, was Unternehmen brauchen. Das traditionelle Konnektivitätsmodell bietet nicht mehr die Flexibilität und Autonomie, die das Management länderübergreifender IoT-Projekte erfordert. Um Unternehmen die Kontrolle über ihre wachsende Anzahl von Geräten, SIM-Karten und Verbindungen in Echtzeit zu geben, sollten sie in der Lage sein, ihre Policies zu verwalten, Informationen zu analysieren, Aktualisierungen vorzunehmen und Geräteparameter selbst zu ändern. Ein einziger Mobile Network Operator (MNO) als Gatekeeper für Tausende oder Hunderttausende von Geräten ist weder wünschenswert noch effizient.

Mit der Entwicklung der mobilen Unternehmensvernetzung ergeben sich völlig neue Möglichkeiten. Ein potenziell sehr wertvoller Aspekt ist, dass ein Unternehmen selbst ein Mobile Virtual Network Operator (MVNO) werden kann. Es ist nicht so weit hergeholt, wie es vielleicht klingen mag: Die Anforderungen an das IoT-Management stimmen bereits eng mit dem MVNO-Modell überein. Unternehmen, die IoT-Programme verwalten, werden bereits zu Experten für SIM-Provisioning, Mobile Device Management und Wireless Revenue Management – alles wichtige Aufgaben eines MVNO. Tatsächlich könnte das richtige virtualisierte Mobilfunknetz fast vollständig selbstverwaltend und eine Erweiterung der unternehmenseigenen Backoffice-Systeme sein. Das würde dem CIO mehr Kontrolle als bisher über alle mobilen und IoT-Assets geben.

Die Geiselnahme von Unternehmen muss gestoppt werden

Mit zunehmender Verbreitung des IoT muss die Konnektivität auf globaler statt nationaler Ebene definiert werden. IoT-Geräte sollten einfach mit dem am besten geeigneten Netzwerk vernetzt werden, je nach Verfügbarkeit und Qualität des Netzwerks. Unternehmen können es sich nicht erlauben, als Geisel für die Beschränkungen der Roaming-Vereinbarungen von Mobilfunkbetreibern gehalten werden. Dies bedeutet, die Netzanbindung auf der Grundlage von MNO-Roaming-Richtlinien und bevorzugten Partnerschaften zu beenden.

Ein wirklich globaler Ansatz für mobile Netzwerke sollte auch die unterschiedlichen Konnektivitätsanforderungen der Unternehmen berücksichtigen. Auch an abgelegenen Standorten mit lückenhafter Abdeckung sollten Anwendungen nahtlos zwischen verschiedenen Netzwerken wechseln können, um einen Verlust der Konnektivität zu vermeiden. In der Logistikbranche wählen Unternehmen den kostengünstigsten Weg oder die kostengünstigste Transportmethode über mehrere Standorte und Länder hinweg – ebenso müssen Unternehmen in der Lage sein, ihre eigenen Mittel für die IoT-Konnektivität zu definieren, basierend auf Parametern, die für sie wichtig sind.

In zukunftsorientierten Unternehmen ist das IoT Teil eines unternehmensweiten digitalen Transformationsprogramms. Aus Sicht der Konnektivität bedeutet dies, dass das Management mobiler Geräte und SIM-Karten in bestehende Unternehmenssysteme integriert werden muss. Durch die vollständige Integration mit ERP-, CRM- und anderen Kernanwendungen bietet das IoT Unternehmen mehr relevante Einblicke und einen maximalen Return-on-Investment. Da ein Unternehmen bis zu Millionen verschiedener angeschlossener Geräte verwalten kann, ist diese Art der Integration nur mit Automatisierung möglich. APIs spielen eine Schlüsselrolle, um dies schmerzlos und effizient zu machen.

Born Connected

In den nächsten zehn Jahren werden multinationale Unternehmen IoT-Anwendungen über alle Aspekte ihres Betriebs hinweg einsetzen, um Informationen effizient zu erfassen, zu verschieben und zu verwalten – und dabei zunehmend auch die Art der Konnektivitätslösungen zu definieren, die ihnen zugrunde liegen. Lokale MNOs sind längst nicht mehr immer die beste Lösung, um den Konnektivitätsbedarf grenzüberschreitender IoT-Anwendungen von Unternehmen zu decken. Dies wird zu einem grundlegenden Wandel in der zellularen Kommunikation weltweit führen, da virtualisierte, wirklich globale Mobilfunknetze an Dynamik gewinnen, die sich nicht auf alte Branchenkonventionen stützen.

Tata Communications hat seine Vision für eine Welt entwickelt, in der alles „born connected“ sein könnte – direkt nach dem Auspacken, mit sofortigem, nahtlosem Zugang zum Internet. Damit dies aber auch wirklich geschieht, müssen sämtliche Vorgänge effizient, zuverlässig und sicher funktionieren – überall auf der Welt. Nur durch ein Umdenken bei Konnektivitätsmodellen werden Unternehmen in der Lage sein, die transformatorischen Auswirkungen von IoT heute und in Zukunft optimal zu nutzen.

Bereits Wirklichkeit: IT-Monitoring für IoT in der Praxis

Die weitverteilten IoT-Umgebungen entwickeln sich stetig dynamisch weiter. Sie erfassen Unmengen wertvoller Betriebsdaten, mit deren Hilfe es Unternehmen und Entwicklern gelingt, die Herausforderungen der Digitalisierung zu bewältigen, indem sie Performance-Probleme und Risiken frühzeitig erkennen. Geschäftsentscheidend ist die automatisierte, intelligente Überwachung des gesamten IoT-Ökosystems.

Das IoT-Ökosystem ist ein um spezifische Cloud-Plattformen angesiedeltes Technologie-Universum. (©dynatrace)

Flottenmanagement: Bei Störungen werden Alarmmeldungen ausgelöst. Die erfassten Daten können zur Unfallvermeidung von den Fahrzeugen zu intelligenten Notfallsystemen geschickt werden. Im Ernstfall wird das Fahrzeug daraufhin ferngesteuert stillgelegt. IT-Monitoring garantiert, dass die Geräte ihre Daten rechtzeitig senden und dass die Backend-Services fehlerfrei laufen, um dann im Notfall optimale Entscheidungen treffen zu können.

Öl- und Gasförderung: Hier geht es um die Überwachung von Pipelines mit einer Länge von mehreren Tausend Kilometern sowie um die Erfassung und Verarbeitung von Sensorendaten, die beim Auftreten von Störungen Benachrichtigungen aussenden – z.B. bei Undichtigkeiten oder Energiediebstahl. APM erkennt, ob ein Gerät Daten sendet und empfängt und berichtet über die Stellen, an denen Probleme auftreten.

Produktion: Sensordaten werden in Geräten, die den Produktionsprozess steuern, vorverarbeitet (edge computing), bevor sie zur Auswertung zurückgeschickt werden; regelmäßige Softwareupdates sind für die Verbesserung und Weiterentwicklung dieser Komponenten notwendig. IT-Monitoring liefert die Einsicht in erfolgreiche oder fehlerhafte Softwaredeployments, und verhindert somit die Ausführung magelhaften Codes und die damit verbundenen Fehler und Ausfälle. Eine zeitaufwändige Fehlersuche und –behebung gehört damit der Vergangenheit an.

Smarte Städte und intelligente Stromzähler: Energieeffizienz und beste Ausnutzung der Ressourcen stellen hier die Ziele dar. Das Einschalten von Straßenlaternen oder die richtige Helligkeit wird dabei in Abhängigkeit von den tatsächlichen Bedingungen gesteuert. IT-Monitoring stellt fest, ob einzelne Geräte arbeiten – andernfalls wird gemeldet, welches Problem wo vorliegt und wie es behoben werden kann. Ganz ähnlich ist es bei intelligenten Stromzählern, die in immer mehr Haushalten eingebaut werden. Die Zähler helfen beim Stromsparen, senken die Betriebskosten und sammeln Daten über den Energieverbrauch, die bei künftigen Entscheidungen rund um die Stromversorgung der Haushalte helfen. Mit IT-Monitoring garantieren die Anbieter die Verfügbarkeit dieser Geräte und registrieren sofort außergewöhnliche Ereignisse wie etwa Energiediebstahl oder ungewöhnlich hohen Verbrauch.

Landwirtschaft: IoT in der Landwirtschaft bietet ein extrem breites Spektrum an Anwendungsfällen, wie intelligente Lösungen zur Saatausbringung und Bewässerung, Flottenmanagement inklusive selbstfahrender Geräte, Überwachung der Tiere, die Kenntnis des verbleibenden Tierfutters im Futterbehälter oder Einzelheiten zum Wasserpegel an jeder einzelnen Stelle des Feldes. Mittels IT-Monitoring kann der Anwender Probleme vermeiden und Risiken bei der Viehversorgung oder der Ernte ausschließen. Dabei werden sämtliche Verbindungen und Geräte überwacht, Performance-Berichte erstellt und Ursachen von Abweichungen und Fehlerquellen automatisch ermittelt.

Gesundheitswesen: Empfindliche medizinische Geräte lassen sich automatisiert überwachen, lebenswichtige Systeme werden mit minimalem Aufwand regelmäßig aktualisiert. APM hilft bei der Erkennung von Problemen bezüglich Bereitstellung und Performance bis hinein in die Code-Ebene. Dadurch minimiert es Risiken durch fehlerhafte Auswertungen und sorgt für Arbeitszeit- und Kosteneinsparungen.

Vernetzte Wohnung (Smart Home): Die Kaffeemaschine, die automatisch Bohnen nachbestellt oder informiert, wenn Wartungen anstehen, witterungsangepasste Heizungen und Beleuchtungen, Alarmsysteme, Zugangskontrollen oder individueller Zugang zu Medien sind hier nur einige der bereits sehr vielen bestehenden Einsatzmöglichkeiten. In allen diesen Fällen erfolgt eine Überwachung der korrekten Funktion und Leistungen. IT-Monitoring sorgt für störungsfreie Verbindungen und erkennt im Störungsfall zeitnah sowohl das Problem als auch dessen Ursache.

Einzelhandel: Verbraucher erhalten über ihre mobilen Endgeräte aktuelle Angebote, die sie auf den Besuch im Geschäft vorbereiten. Eine intelligente Auswertung des Käuferverhaltens steuert das Erlebnis und somit die Kundenzufriedenheit beim Einkauf im Supermarkt. Verkaufte Produkte können mit Sensoren ausgestattet werden, um den Kundenservice zu verbessern. Taucht ein Problem auf, so lässt sich automatisch ein Service-Team benachrichtigen, das den Kunden proaktiv kontaktiert oder im Hintergrund unterstützt. Monitoring sorgt für Transparenz an den wichtigen Verbindungspunkten und erkennt, ob das Produkt beim Kunden schnell verfügbar ist.

Wearables: Eine Smart Watch zeichnet Trainingsstrecken auf oder erfasst biometrische Werte, die direkt weitergeleitet werden. Während die Daten, beispielsweise über die Runtastic App, direkt online publiziert werden können, lässt sich andererseits durch die medizinischen Parameter die Behandlung von Patienten verbessern oder Erkrankungen vorbeugen. Sogar Notfälle können erkannt und entsprechende Benachrichtigungen versendet werden. All dies funktioniert nur, wenn die Verbindungen nachweislich störungsfrei arbeiten.

Ein IoT-UFO für die Teamarbeit bei Projekten: Für Unternehmen, die als verteiltes Team arbeiten, stellt ein IoT-UFO ein visuelles IoT-Gerät dar, das den Status eines Projektes auf einen Blick erkennbar macht. Es ist mit den Projektdaten, beispielsweise aus der Softwareentwicklung, verknüpft und kann problemlos an zentral einsehbaren Stellen im Unternehmen montiert werden. Mit einem Ampelsystem zeigt es den Projektfortschritt oder Ausfälle an. DieTeams sehen so auch sofort, ob es Ausfälle gibt, ob Kunden verfügbare Softwareupdates nutzen oder ob bestimmte Firmware-Versionen nicht optimal arbeiten.

IoT-UFO (©dynatrace)

Diese Liste an Beispielen könnte ewig fortgesetzt werden. Die Szenarien und Anwendungen zeigen: Bei IoT geht es nicht um eine einzelne Technologie, sondern vielmehr um ein komplexes Ökosystem bestehend aus Kontaktpunkten zu Mensch und Maschine, die sich über verschiedene Technologien erstrecken. Es entsteht so eine sowohl dynamische als auch komplexe Umgebung, die nur schwer vollständig zu durchblicken ist. Unternehmen können nur von ihren IoT-Lösungen profitieren, wenn sie Echtzeit-Kontrolle und einen umfassenden Überblick über ihre gesamte IoT-Landschaft haben. Die relevanten Daten dazu müssen intelligent aufbereitet werden.

Die traditionell eingesetzte Form der Überwachung mit Hilfe von Dashboards, Reaktion auf Alarmmeldungen und manuell durchgeführter Analyse stößt hier schnell an ihre Grenzen. Die Kontrolle der Datenmenge und -vielfalt kann nur mit IT-Monitoring-Lösungen gelingen, die das gesamte IT-Spektrum, ob in der Cloud, im hauseigenen Rechenzentrum oder bei Serviceprovidern ganzheitlich überwachen. Damit die IT-Administratoren nicht den Überblick verlieren, sind KI und Datenaggregation unumgänglich. Die in Echtzeit auftretenden Milliarden von Ereignissen lassen sich so in einem Format anzeigen, das nicht nur verständlich ist, sondern relevante Einblicke – sortiert nach Priorität – vermittelt. So können Unternehmen die Potenziale von IoT erfolgreich erschließen und den größtmöglichen Nutzen daraus ziehen!

Das IoT-Ökosystem: Szenarien und Herausforderungen

Ob im Einzelhandel, bei tragbaren Geräten, in der Produktion oder in unseren vernetzten Fahrzeugen, Wohnungen und Städten: neue Technologien und Endgeräte ermöglichen die Entstehung völlig neuer Angebote. Immer neue Smart Devices schaffen vielfältige Kontaktpunkte und Schnittstellen: Bereits im Einsatz sind beispielsweise häusliche Einbruchsicherungen, Sensoren für industrielle Anwendungen oder vernetzte Fahrzeuge und Haushaltsgeräte. Die unterschiedlichen Anwendungswelten wachsen derzeit schneller als je zuvor zusammen. Als Folge entsteht aus herkömmlichen IT-Umgebungen das neue, große Ökosystem des IoT.

Laut Forrester Research kristallisieren sich drei wesentliche IoT-Geschäftsszenarien heraus:

  • Erfahrene Designer integrieren Sensoren in Produkte oder Umgebungen, um so die Kundenzufriedenheit zu erhöhen. Beispielsweise kann dann ein Garagentor melden, wann eine Wartung erforderlich ist und auf Wunsch auch einen Servicetermin beim Techniker vereinbaren.
  • Prozessverantwortliche in sämtlichen Unternehmen können durch IoT-basierte Assets ihren Betrieb optimieren und enger mit dem Kundenerlebnis verknüpfen. Es wird dadurch einfacher und kostengünstiger, individuelle Kundenwünsche bis hin zur Fertigung von Einzelteilen umzusetzen oder Material genau nach Bedarf zu bestellen.
  • Viele Führungskräfte nutzen IoT-Daten von Drittanbietern oder die daraus resultierenden Erkenntnisse, um ihre eigenen Abläufe und Angebote stark zu verbessern. Daraus ergeben sich völlig neue Datenanalysen sowie Steuerungs- und Vorhersagemodelle.

Dieser Forrester-Blick in die Zukunft zeigt: Erfolgreiche Unternehmen nutzen das Internet der Dinge, um neue Funktionalitäten und Services zu entwickeln, Betriebsabläufe zu optimieren, ihren Produkten und Dienstleistungen Alleinstellungsmerkmale zu verleihen und ganze Märkte mit Hilfe neuer Angebote zu transformieren [1].

Herausforderungen für Unternehmen und Entwickler

Schon heute beschleunigen IoT-Lösungen die Innovationszyklen bei Produkten und Dienstleistungen, während sich gleichzeitig die Überwachung von Kosten und Risiken als zunehmend komplexe Aufgabe erweist. Zur Steuerung der dynamischen Umgebung müssen Unternehmen diese Herausforderungen lösen:

Hohe Komplexität und Größe: IoT-Ökosysteme sind komplex, sie umfassen viele dynamische Komponenten und Unmengen von Daten. Die Verlagerung von Rechenleistung vom (Cloud-) Backend hin zu den Geräten selbst (edge computing) erhöht diese Komplexität enorm! Herkömmliche oder eigenentwickelte Monitoring-Lösungen sind für die Überwachung derart vielschichtiger und dynamischer Umgebungen weder ausgelegt noch geeignet.

Auswirkungen auf geschäftskritische Systeme: Vielfach sind IoT-Anwendungen geschäftskritischer Natur, da sie direkte Auswirkungen auf Geschäftsprozesse wie in der Produktion oder auf die Kundenzufriedenheit haben. Da sich schlechte Performance oder gar Ausfälle aufgrund von Störungen negativ auf das Geschäftsergebnis auswirken, sollten diese Probleme schnell, idealerweise sogar in Echtzeit oder proaktiv erkannt und behoben werden.

Unterschiedliche Datenquellen: IoT-Systeme beinhalten häufig eine Vielzahl von Peripheriegeräten, von einfachen Sensoren bis hin zu komplexen Linux-Servern sowie jeder denkbaren weiteren Hardware dazwischen. Auch die Art der verarbeiteten Daten ist dabei extrem vielfältig, von der Verarbeitung von Einzeltransaktionen bis hin zur Erfassung von riesigen Mengen an Sensordaten, die dann verwendet werden, um Machine Learning Modelle zu trainieren oder von diesen mittels KI analysiert werden. Monitoring-Systeme benötigen daher ausreichend Flexibilität, um diese Unmengen von Daten aufnehmen und verarbeiten zu können.

Das IoT-Ökosystem bildet eine hochkomplexe Landschaft, die ohne viel Aufwand, möglichst automatisiert und zuverlässig kontrollierbar und jederzeit verfügbar sein muss.

Um die Chancen von IoT zu nutzen, müssen Unternehmen diese Herausforderungen meistern. Das gelingt nur mit leistungsfähigem IT-Monitoring, mit dem sie sicherstellen können, dass alle Komponenten funktionieren und richtig zusammenarbeiten. Oder sofort eingreifen können, wenn Störungen vorliegen.

Was leistet IT-Monitoring für IoT und wie funktioniert es?

Korrektes APM (Application Performance Management) oder IT-Monitoring bedeutet End-to-End Monitoring vom Sensor oder Gerät bis zum Backend der Cloudplattformen und aller Anwendungen. Genauso umfasst es deren Integration in die Geschäftsprozesse und die Kontrolle der Geräte selbst. Es beinhaltet die Überwachung aller Transaktionen (Serviceverfahren), Geräte – E/A, Netzwerkanfragen, Crashes und menschlichen Interaktionen. Es liefert detaillierte Einsichten in die Verteilung und Updates der Firmwareversionen, IoT-Plattformen, externen Service-Aufrufe, Cloud-Infrastrukturen, Container- und PaaS-Umgebungen. IoT-Monitoring selbst sollte als Software as a Service (SaaS) oder als Managed System angeboten und eingesetzt werden.

Dabei geht es bei APM nicht darum, die Arbeitsfähigkeit oder die Nutzlast einzelner Sensoren zu überwachen oder Sensorendaten zu visualisieren. Vielmehr geht es um die lückenlose Überwachung des Gesamtsystems einschließlich aller Endgeräte, Netzwerkkomponenten und (Cloud-) Backends sowie deren gegenseitige Abhängigkeiten. Die Mindestanforderung an das Monitoring besteht darin, dass eigener Code ausgeführt wird und dass Aktionen und Netzwerktransaktionen stattfinden, die von diesem Code verarbeitet werden. Allerdings kann beispielsweise die Kommunikation zwischen Sensor und Gerät eine Aktion sein, die überwacht wird. Genauso Aktivitäten, Zustand, Aufzeichnungen, Latenzen und Fehler, mit denen diese Metriken in den Gesamtzusammenhang der Anwendung eingebunden werden.

Lesen Sie weiter in Teil 2, was das für die Praxis heißt und in welchen Anwendungsfeldern sich IoT-Monitoring einsetzen lässt.

[1] “Untangle Your IoT Strategies, The Three IoT Scenarios And How They Drive Business Value”, von Frank E. Gillett, 21. September 2017, Forrester Research

 

Anwendungen mit SCCM bereitstellen

Es viele Möglichkeiten und auch zahlreiche Einstellungen zur Automatisierung. Dazu stellt Microsoft auch Gruppenrichtlinienvorlagen zur Verfügung, mit denen sich Office 2016 recht umfassend absichern und automatisieren lässt.

Microsoft stellt für die Anpassung von Office-Installationen verschiedene Tools zur Verfügung, mit denen Administratoren die Installation vorbereiten und dann mit SCCM bereitstellen können:

Office 2016 Deployment Tool (https://www.microsoft.com/en-us/download/details.aspx?id=49117)

PowerShell App Deployment Toolkit (http://psappdeploytoolkit.com).

Office-IT-Pro-Deployment-Scripts (https://github.com/OfficeDev/Office-IT-Pro-Deployment-Scripts/tree/master/Office-ProPlus-Deployment/Remove-PreviousOfficeInstalls).

Die automatisierte Standard-Installation von Office 2016 trägt auch die Bezeichnung „Click-to-Run“ oder C2R Installer“. Auf deutschen Rechnern trägt diese Installationsvariante auch die Bezeichnung Klick-und-Los-Datei. Die Installation können Sie nicht mit Bordmitteln in Office 2016 anpassen, sondern benötigen dazu das kostenlose Office 2016 Deployment Tool https://www.microsoft.com/en-us/download/details.aspx?id=49117).

Mit diesem Tool können Sie auch die Installationsdateien von Office 2016 herunterladen.

Nachdem Sie Office 2016 Deployment Tool heruntergeladen haben, entpacken Sie es im ersten Schritt. Im Archiv finden Sie die beiden Dateien Configuration.xml und setup.exe. Mit der Datei Configuration.xml steuern Sie welche Office-Programme installiert werden sollen. Außerdem tragen Sie hier den Produktschlüssel ein und nehmen andere Einstellungen vor.