Archiv der Kategorie: IOT – IoT-Technologie

Die nächste Evolutionsstufe für Produktions- und Engineering Services

Mithilfe der PoCs konnten Unternehmen schnell die vielfältigen Geschäftsvorteile des industriellen IoT validieren. Die Branche beginnt jetzt nach und nach, IoT in den operativen Standorten einzuführen. Da mehr als 80 Prozent der Industrieanlagen Brachland sind, wird die Umsetzung in Phasen und nicht in einem einzigen Schritt erfolgen.

Darüber hinaus werden die Prozesse mithilfe von Erfahrungswerten verbessert und stabilisiert. Dabei ergeben sich eine Vielzahl von Entwicklungsmöglichkeiten für die Branche – die drei wichtigsten davon sind:

  • Die IT-OT (Operational Technology)-Integration steht weiterhin im Mittelpunkt, insbesondere bei der ISA-95-Stack-Integration über alle Layer hinweg. Eine engere Vernetzung zwischen Menschen, Prozessen und Maschinen wird zu einer höheren Transparenz des Betriebs, einer besseren Auslastung und Leistung der Anlagen, einer effizienteren Lieferkette und reduzierten Betriebskosten führen.
  • Während die Einführung des industriellen IoT den Mainstream erreicht, evaluieren alle Branchen neue Technologien wie Augmented Reality (AR) / Virtual Reality (VR), künstliche Intelligenz (KI), Machine Learning und Autonome Technologien.
  • Technologien wie Blockchain werden innerhalb des industriellen IoT keine direkte Anforderung sein, da es sich bei den Produktionssystemen nach wie vor meist um geschlossene, bewährte Systeme handelt. Cyber-Sicherheit wird zur Hauptanforderung für die Gerätesicherheit, Daten- und Geräteintegrität, Zugangskontrolle und Autorisierung – und dies über den Datenschutz hinaus.

Das industrielle IoT hat das Potential, den digitalen Wandel in der Industrie voranzutreiben. Die Digitalisierung umfasst den gesamten Lebenszyklus der Fertigung, einschließlich Design, Produktion, Verkauf und Service. Die digitale Fertigung ist ein entscheidendes Element dieser Transformation. Die Integration der Systeme wird daher über den gesamten Design-, Herstellungs-, Betriebs- und Servicelebenszyklus hinweg gesteuert. Darunter fallen unter anderem:

  • Integriertes Lifecycle Management – Das Product Lifecycle Management (PLM)-System spielt eine zentrale Rolle. Die digitalen Artefakte eines Produkts – angefangen beim Digital Engineering, das durch CAD/CAE, Manufacturing Operations Management (MOM), Manufacturing Engineering Services (MES) und Qualitätsmanagement ermöglicht wird – unterstützen bei der Produktnachverfolgung über alle Phasen des Lebenszyklus hinweg. Die IT-OT-Integration vereint alle Daten aus Maschinen, Anlagen, Prozessen und Systemen auf einer gemeinsamen Plattform, hilft bei der Einrichtung und Verfolgung der Lebenszyklusphasen sowie bei der Statusverfolgung von ‚wie geplant‘ versus ‚wie betrieben‘ versus ‚wie gewartet‘.
  • Digitalisierung – Das industrielle Set-Up verfügt über viele Funktionen, die noch manuell gesteuert werden. Dazu gehört auch die Datenerfassung. Industrielles IoT ermöglicht die Digitalisierung und Automatisierung von Arbeitsprozessen. Daten von SPS, Maschinen, Prozessen und Echtzeitverarbeitung über MES gewährleisten die Compliance des Produktionsprozesses, ermöglichen Qualitätssicherung und reduzieren den Materialverbrauch. All dies ist auf einem einzigen Dashboard integriert. Alle Mitarbeiter einer Fabrik können somit in Echtzeit auf Informationen zugreifen und schneller Entscheidungen treffen.
  • Organisatorischer Wandel – Die Art und Weise wie Betreiber, Techniker, Betriebsleiter oder Produktionsleiter arbeiten, wird sich grundlegend ändern. Unternehmen müssen deshalb in Schulungen der Mitarbeiter investieren, damit die Auswirkungen der Transformation auf das laufende Tagesgeschäft so gering wie möglich sind. Die Arbeitsumgebung muss sich zudem an die Technologien anpassen, die hinter der Transformation stehen. Die Neuausrichtung der bestehenden Belegschaft wird für den Übergang zur digitalen Fertigung entscheidend sein: Unternehmen müssen ganzheitlich denken und Silos aufbrechen, um kollaborativer und integrierter zu sein.

Der Weg in die Cloud ist unumgänglich

Mittelständische Unternehmen sind Experten in ihrer Nische. Um spezifische Aufgaben zu lösen, nutzen sie oft sehr spezifische IT-Lösungen, die die Effizienz im jeweiligen Arbeitsumfeld erhöhen. Diese Teilspezifizierung der IT ist einerseits notwendig, steht aber andererseits häufig der Entwicklung und Umsetzung einer IT- und Digitalisierungsstrategie im Weg. Fehlt diese übergreifende Strategie, finden viele Prozesse, die man mittels Software optimieren könnte, zu wenig Beachtung. Unmengen an Daten und Systemen sind dann nicht in die IT-Systemlandschaft integriert. Zudem haben viele Mittelständler nicht genügend IT-Fachpersonal und laufen darum Gefahr, den Anschluss an die fortschrittlichere Konkurrenz zu verlieren. Die Lösung: eine zukunftsweisende IT-Strategie, die ein gut positionierter CIO zielstrebig verfolgt.

Strategische Beratung und Unterstützung

Zu den Hauptaufgaben eines CIO zählt es heute komplexe, zerklüftete und heterogene IT-Strukturen, die über die Jahre als Ergebnis lokal optimierter Einzellösungen entstanden sind, aufzulösen. Solch eine Integration stellt angesichts einer siloartigen IT-Architektur und der fehlenden Gesamt-Roadmap häufig eine große Herausforderung dar. In solch einem Fall empfiehlt sich die Zusammenarbeit mit einem professionellen IT-Dienstleister, der Unternehmen strategisch berät und begleitet. Er unterstützt und berät bei der Anpassung der Geschäftsmodelle, erarbeitet eine passende IT-Strategie und migriert die gewünschten Lösungen in die Cloud – im Sinne eines Smart-Shift. Diese Transformation, die alle Cloud-Ebenen (PaaS, IaaS, SaaS) berücksichtigt, sollte schrittweise, bedarfsorientiert und im laufenden Betrieb erfolgen. Ein Smart-Shift ist zugleich strukturiert und risikoarm, und er kann im individuellen Tempo des Mittelständlers geschehen.

Multi-Cloud-Ansatz ist empfehlenswert

Die größtmögliche Flexibilität bietet ein Multi-Cloud-Ansatz. Die Entscheidung, welche Lösungen man in der Private-Cloud eines deutschen Anbieters betreibt und welche Anwendungen und Systeme man in internationale Public-Clouds auslagert, ist nicht leicht. Ein IT-Dienstleister zeigt verschiedene Möglichkeiten auf, skizziert adäquate Szenarien und erarbeitet eine bedarfsgerechte Kombination von dedizierten IT-Lösungen und verschiedenen Clouds. Er lagert Applikationen und Systeme in die Private-Cloud aus, bindet Public-Clouds möglichst sicher an die IT-Infrastruktur an und sorgt dafür, dass sich bei Bedarf im Projektverlauf weitere Services aus der Public-Cloud einbinden lassen.

Agilität ist Trumpf

Die Modernisierung veralteter IT-Strukturen ist ein Aspekt. Viele Mittelständler wollen aber auch ebenso agil, flexibel und effizient arbeiten können wie Startups. Eine cloudbasierte IT-Infrastruktur ist eine wichtige Voraussetzung für Agilität. Entscheidend ist zudem der richtige Mix aus Standardisierung und Individualisierung: Die Software-Basis sollte möglichst homogen sein, während einzelne Lösungen funktional angepasst sein müssen. Eine agile Arbeitsweise kommt mittelständischen Unternehmen bei der eigenen Transformation und bei Kundenprojekten zugute. Um agil arbeiten zu können, müssen sich Mittelständler von etablierten, aber schwerfälligen Prozessen verabschieden. Es gilt, mutig zu sein und sich schnell zu entscheiden. Anstatt monatelang ein Pflichtenheft zu erarbeiten, braucht es kurze Sprints, in denen IT-Experten kleine Teilaufgaben umsetzen – und dann analysieren, ob Ergebnis und Herangehensweise sinnvoll sind. Ist das der Fall, bilden solche Quick-wins eine optimale Basis für das weitere agile Vorgehen. Entpuppt sich ein Ansatz als wenig erfolgsversprechend, sollten Unternehmen das Ergebnis verwerfen und einen neuen Versuch starten. Flexibilität ist auch bei der Projektarbeit gefordert. Es braucht ein Kern-Team, das ein Projekt über seine gesamte Dauer begleitet und für Stabilität sorgt. Daneben ist es sinnvoll, Mitarbeiter mit ergänzenden Fähigkeiten für spezielle Aufgaben ins Boot zu holen. Sie können unvoreingenommen an eine Herausforderung herangehen, sie mit anderen Augen sehen und kreative Lösungsansätze entwickeln.

So werden intelligente Städte sicher

Städtische Infrastrukturen werden immer stärker digitalisiert und vernetzt. Aber mit der Zunahme von Smart-City-Lösungen wächst auch die Angriffsfläche, die Cyberkriminelle für ihre Zwecke ausnutzen können. Städte dürfen die genutzten Daten und die öffentliche Infrastruktur jedoch keinem hohen Risiko aussetzen. Daher müssen sie vor allem zwei große Schwachstellen vermeiden: eine unzureichende Absicherung von öffentlichen WiFi-Netzen sowie Sicherheitslücken bei den eingesetzten IoT-Geräten und -Sensoren.

Gerade letzteres wird häufig unterschätzt. Tatsächlich weisen viele IoT-Geräte nur voreingestellte Passwörter auf, die sich zum Teil nicht verändern lassen. Solche Standard-Passwörter sprechen sich aber in Hacker-Kreisen schnell herum, so dass Angriffen Tür und Tor geöffnet wird. Attacken können dann Infrastrukturen empfindlich stören, zum Beispiel Verkehrsinformationen und Leitsysteme oder Steuerungen für Parkplätze, Laternen, Luft- und Lärmmessungen, die auf die Sensorik des Internet of Things zurückgreifen.

Eine Absicherung der Geräte und Sensoren durch Security-Software ist aber aufgrund der geringen Speicher- und Rechenkapazitäten kaum möglich. Daher müssen sie durch eine Art Schutzwall aus Systemen mit ausreichenden Ressourcen abgesichert werden. Entsprechend benötigen Städte ein durchgängiges Sicherheitskonzept. Gleichzeitig müssen die Hersteller konsequent aktuelle Security-Standards nutzen und weiterentwickeln, um ihre IoT-Produkte besser zu schützen.

Ganze Strukturen gefährdet

Neben Geräten werden auch ganze Systeme und Technologien für Smart Cities immer noch ohne geeignete Sicherheitsarchitekturen oder Lösungen zur Abwehr von Bedrohungen entwickelt. Diese Nachlässigkeit kann eine Reihe von Schwachstellen verursachen, die wiederum ernsthafte Probleme nach sich ziehen. Ein Hacker, der eine intelligente Parkuhr kontrolliert, kann lästig sein, aber ein cyberkriminelles Eindringen in die Verkehrsleitstruktur könnte katastrophale Folgen haben.

Auf der diesjährigen Black-Hat-Konferenz untersuchte das X-Force Red Team von IBM bestehende kommunale Technologien, um die Möglichkeit von groß angelegten Angriffen zu ermitteln. Die Nachforschungen konzentrierten sich auf vier gängige Systeme und fanden 17 Schwachstellen, von denen neun als kritisch eingestuft wurden. Ein europäisches Land benutzte ein empfindliches Gerät zur Strahlungsdetektion. In den USA war es ein System zur Überwachung der Verkehrsregelung. Die fraglichen Schwachstellen waren bei beiden Gelegenheiten nicht komplex. Die Anbieter hatten es einfach versäumt, grundlegende Sicherheitsmaßnahmen zu implementieren.

Zudem simulierten die Forscher von IBM einen Angriff auf Geräte, die den Wasserstand in Staudämmen überwachen. In weniger als einer Minute konnten sie die umliegenden Gebiete überfluten. Der simulierte Hack fand auf einer häufig verwendeten, aber leicht zu kapernden Hardware für Smart Cities statt.

Neue Gesetze und Verordnungen dürften die Sicherheitslage aber nicht wesentlich verbessern, da sie ohnehin nicht mit der technischen Entwicklung Schritt halten können. Daher helfen nur eher allgemein gefasste Rahmenbedingungen wie das IT-Sicherheitsgesetz sowie einheitliche Regelungen, die bereits heute von verantwortungsvollen Herstellern entwickelt und befolgt werden. In Zukunft müssen sie aber die technischen Möglichkeiten noch konsequenter und zeitnäher umsetzen, um kritische Infrastrukturen besser zu schützen, die bereits heute jeden Tag angegriffen werden.

Der Wettlauf um die Entwicklung

Ein einfaches Weiter-so und Ignorieren der Entwicklung bringt Städte aber nicht weiter. Denn schon heute befinden sie sich in einem Wettlauf um Bürger und Unternehmen. So müssen sie moderne, attraktive Infrastrukturen bieten, damit sie auch weiterhin erfolgreich sind. Gerade hier leisten Smart-City-Lösungen einen wichtigen Beitrag. Damit lassen sich umfassende Erkenntnisse aus unzähligen Sensoren, Interaktionen und Verhaltensweisen gewinnen. Laut einem aktuellen Whitepaper von ABI Research könnten weltweite Smart-City-Technologien im nächsten Jahrzehnt dadurch mehr als 20 Billionen Dollar an zusätzlichen wirtschaftlichen Vorteilen erschließen.

Europa verfolgt dabei große Ambitionen. Gemäß einer Untersuchung des Europäischen Parlaments aus dem Jahr 2017 gibt es hier bereits 240 Städte mit über 100.000 Einwohnern, die zumindest über einige intelligente Lösungen verfügen. Dazu gehört Technologie zur Verbesserung der Energienutzung, der Verkehrssysteme oder anderer Infrastrukturen. Die Europäische Innovationspartnerschaft Smart Cities and Communities sagt voraus, dass bis Ende 2019 sogar 300 Städte intelligent sind.

Die Zukunft gestalten

Führungskräfte, Vordenker, Entwickler, Dienstleister und Städteplaner müssen daher die Zusammenarbeit mit Regulierungsbehörden und Systempartnern dringend intensivieren. Nur gemeinsam können sie die Einführung sicherer Netzwerke und Geräte gewährleisten. Die gesamte Technologiebranche sollte auch mehr tun, um das Prinzip ‚Security-by-Design‘ konsequent in der gesamten Entwicklung von Infrastrukturen umzusetzen. Darüber hinaus muss die Ende-zu-Ende-Sicherheit verbessert werden, einschließlich strenger Authentifizierung der Benutzer sowie Richtlinien für alle Kommunikationswege. Gleichzeitig sollten Dienstleister ihre Verschlüsselungsfunktionen für den Datenschutz mit aktueller Software erweitern.

So müssen alle Beteiligten die Warnzeichen für eine zunehmende Cyberkriminalität bei städtischen Infrastrukturen ernst nehmen. Außerdem sind Cybersicherheitsexperten in allen Phasen einzubeziehen –von der Planung und dem Bau bis zum Infrastrukturmanagement. Städte müssen intelligenter werden. Das gilt nicht nur für die Nutzung der Daten, sondern auch für die Abwehr von Gefahren durch Cyberkriminelle. Die bislang geschlossenen städtischen Systeme waren von der Außenwelt abgekoppelt. Doch bei den offenen Smart-City-Lösungen hilft nur eine agile Sicherheitsarchitektur, welche die neuesten Security-Standards und -Funktionen voll ausschöpft und sich ständig weiterentwickeln lässt.

API? Bitte effizient und sicher!

Sicherheit von Anfang an

Merkwürdig bleibt die Erkenntnis, dass viele Unternehmen unabhängig von ihrer Branche bereits praktische Erfahrungen mit solchen negativen Auswirkungen gemacht haben – dennoch wird die IT-Sicherheit in der Entwicklung meist viel zu spät oder gar nicht betrachtet. Das ist nicht nur verwunderlich, sondern hat im Ernstfall fatale Folgen. Darum sollte das Thema „IT-Sicherheit“ in einem professionell geplanten „Secure Software Development Life Cycle“ (SSDLC) in jedem Schritt integriert sein. Insbesondere im boomenden Bereich der „Internet of Things“ (IoT) -Applikationen ist verstärkt darauf zu achten, dass eine ausreichende Sicherheitsbetrachtung bereits in der Design-Phase erfolgt. Kostspielige Anpassungen nachträglich sichtbar werdender Schwachstellen können so bereits im Vorfeld vermieden werden. Eine Korrektur ist in diesem frühen Zustand deutlich einfacher umzusetzen.

Auch in Industrieanlagen ist mit Blick auf I.40 Anwendungen ein starker Anstieg von APIs feststellbar. Der Vorteil, einen einfachen REST-API-Aufruf aufzubauen, abzuschicken und ggf. das Ergebnis zu verarbeiten, benötigt in den meisten Fällen nur wenig Rechenkapazität. Auch hier kann der fehlende Fokus auf die IT-Sicherheit die angedachten Vorteile einer digitalen Transformation des innerbetrieblichen Logistikwesens schnell neutralisieren.

Fünf Faktoren für sichere APIs

Um Schnittstellen (APIs) sicher entwickeln zu können, sollten stets diese fünf Faktoren beachtet werden:

  • Erster Schritt: Identifizierung & Authentifizierung. Zuerst muss klar sein, wer oder was auf die eigenen Ressourcen zugreifen möchte. Nur, wenn diese Daten vorliegen, sollte ein Zugriff erlaubt werden.
  • Zweiter Schritt: Autorisierung. Nach einer erfolgreichen Authentifizierung sollte eine separate Autorisierung erfolgen, um einen Zugriff / Nutzbarkeit entsprechend der Benutzerberechtigung bereitzustellen.
  • Dritter Schritt: Hiernach ist eine Überprüfung erforderlich, ob ein API-Aufruf  Informationen über die dahinter liegende Architektur preisgibt. Denn das darf in niemals der Fall sein.
  • Vierter Schritt: API Keys sind keine Secrets. Daher muss sicher gestellt sein, dass diese auch nicht als solche behandelt werden.
  • Fünfter Schritte: Nun können Input-, Data- und Plausibilitätskontrollen folgen.

Natürlich gibt es neben den fünf genannten Faktoren noch weitere, welche in der Entwicklung und im Lifecycle beachtet werden sollten.

Beispielarchitektur

Im Kontext der industriellen Nutzung von APIs und IoT-Geräten würde eine Architektur wie folgt aussehen (siehe Abbildung 1). Die Grafik veranschaulicht beispielhaft, wie Sensoren oder andere IoT- Geräte an Maschinen einer Produktion über eine (Micro-) API-Architektur angebunden werden könnten. Hierbei hat jede Maschine eigene IoT Geräte, welche jeweils eine andere Funktion erfüllen. Jene sind durch diverse Anwendungsfälle definiert, wie beispielsweise das Messen der Temperatur, Luftfeuchtigkeit, die Position der Produkte oder deren Abmessung. Dabei koordiniert ein API-Gateway die Schnittstellen, damit die IoT-Geräte die Anfragen an eine zentrale Stelle schicken. An dieser Stelle können dann entsprechende Sicherheitsmechanismen platziert werden. Das API- Gateway leitet die Anfragen an die einzelnen Endpunkte zu Verarbeitung weiter. Zusätzlich helfen Micro Gateways dabei, die Micro Services zu koordinieren und zu managen.

 

 

 

Realistische Erwartungen an das IIoT

Das Industrial Internet of Things (IIoT) ist für die meisten Unternehmen nach wie vor Neuland. Die Erwartungshaltung ist hoch, verspricht die umfassende Automatisierung, Konnektivität und Analytik doch ein Plus an Effizienz und damit Chancen auf Gewinnsteigerung und Kostenminimierung. Anwender, die zum ersten Mal in Richtung IIoT aufbrechen, erwarten dabei häufig ähnliche Vorteile und Verbesserungen wie durch Manufacturing Execution Systeme (MES). Die Wunschvorstellung: 100.000 im Sekundentakt erfasste Sensordaten und IIoT-Edge-Geräte, die über massive Skalierbarkeit und endlose Rechenleistung verfügen und die Daten in die Cloud übertragen.

Diese Vorstellung mag nicht ganz falsch sein, kann jedoch in einigen Fällen zu Enttäuschungen und Fehleinschätzungen führen. Nicht jedes Edge-Gerät bietet automatisch die nötige Bandbreite oder die Funktionen, um Daten wunschgemäß zu verarbeiten. Wie effizient und sinnvoll IIoT-Anwendungen tatsächlich sind, hängt immer von mehreren Faktoren ab und unterscheidet sich von Fall zu Fall. Selbst wenn die passende Edge-Hardware für ausreichend Konnektivität ausgewählt wurde, können trotzdem Einschränkungen in Bezug auf das Datenvolumen und Häufigkeit der Datenübermittlung auftreten.

Kostenfaktor und Sicherheit IIoT

Bei der Umsetzung eines industriellen IoT-Projekts ist es wichtig, genaue Informationen zu den betreffenden Edge-Geräten, Industrieprotokollen, Sensoren und Netzwerken vorliegen zu haben. Insbesondere betrifft das auch die Kosten jedes einzelnen IIoT-Bausteins. Edge-Geräte verfügen in der Regel über eine Vielzahl von Features, die mit unterschiedlichen Kosten verbunden sind. Dabei reicht die Spannweite von einigen Hundert bis zu Tausenden von Euros. Hinzu kommen hohe Netznutzungsentgelte – zum Beispiel für die Übertragung per Mobilfunk oder Satellit– sowie durch Kosten für die Datenspeicherung in der Cloud. Letztendlich ist das Ziel von IIoT-Projekten zwar die Optimierung der maximalen Wertschöpfung. Doch zunächst ist dabei immer auch mit Kosten zu rechnen.

Der Umgang mit den hohen Erwartungen ist ein wichtiger Aspekt eines jeden IIoT-Projekts. Ein mobiles Edge-Gerät mit niedrigem Stromverbrauch und geringen Onboard-Ressourcen ist schlichtweg nicht darauf ausgelegt, die Daten von 10.000 Sensoren in die Cloud zu übertragen. Realistischer ist es hier entweder das Datenvolumen auf 100 Sensordaten zu reduzieren oder ausreichende Ressourcen an der Schnittstelle zwischen Sensoren und Cloud zur Verfügung zu stellen, – einschließlich der nötigen Bandbreite für das Netzwerk.

Neben Kosten ist auch das Thema Sicherheit zu berücksichtigen. Eine absolute Garantie gibt es hier nicht, lediglich Best-in-Class Practices und bewährte Sicherheitsmaßnahmen. Sicheres IIoT kann als Kombination von zuverlässiger Hardware + Software + Installation + sicherer Kommunikationsprozesse verstanden werden. Sind in einem IIOT-Projekt diese Vorgaben erfüllt, lässt sich das Sicherheitsrisiko zumindest auf ein Mindestmaß reduzieren.

Die passende Anwendung

Grundlegendes Know-how in der Prozessinstrumentierung ist die Voraussetzung dafür, um die richtige Entscheidung bei der Auswahl der Geräte, Sensoren und Anwendungen treffen zu können. Dabei muss von vorherein klar definiert sein, welche Aufgaben durch den Einsatz von IIoT gelöst werden sollen. Klare Zielvorgaben erleichtern es, die passende Anwendung auszuwählen und gleichzeitig Anforderungen hinsichtlich des Prozessbetriebs, der Wartung und der IT-Teams im Unternehmen zu erfüllen. Nicht alle gesammelten Daten aus Edge-Geräten sind relevant für die geschäftlichen Anforderungen und rechtfertigen ein IIoT-Projekt.

IIoT-Anwendungen sind für komplexe Aufgaben konzipiert, um eine große Menge an Prozessdaten-Variablen und ihren Beziehungen untereinander zu verarbeiten und nutzbar zu machen. Gefragt sind Big Data Tools und hohe Rechenleistung. Es ist das Einsatzgebiet von Künstlicher Intelligenz, multivariater Analyse, Mustererkennung, Ereigniserkennung und maschinellem Lernen. Sämtliche Systeme und Anlagen für IIoT aufzurüsten, hilft Unternehmen nicht zum Durchbruch.

Vielmehr sollte die ausgewählte Lösung auf die spezifischen Anforderungen der Anlage und der Prozesse zugeschnitten sein (zum Beispiel kontinuierliche oder Batch). Soll beispielsweise ein Qualitätsproblem eines Assets behoben werden, sind mit hoher Wahrscheinlichkeit multivariate Analysetools notwendig. Handelt es sich um die Implementation von vorausschauender Wartung und Fehlerfrüherkennung mit dynamischen Modellen, empfiehlt sich eine Applikation für Maschinelles Lernen.

IIoT-Deployment

Auch in Sachen IIoT-Deployment gilt es, eine Vielzahl von Fragen zu beantworten: Soll die Anwendung cloudbasiert arbeiten oder On-Premise? Benötigt die Lösung High-Speed-Computing mit geringer Latenzzeit, um die Appplikation näher an das Edge-Gerät zu bringen? Und wie wirken sich die damit verbundenen Kosten auf das Return on Investment (ROI) aus?

Mit der Wahl der richtigen Konnektivität, der richtigen Sensoren und der richtigen Anwendung unter Berücksichtigung aller Kosten ist ein erster wichtiger Schritt in Richtung IIoT getan. Doch sollten Unternehmen sich bewusst sein, dass die Auswahl an Lösungen und Technologien in allen Bereichen von Tag zu Tag wächst. Umso wichtiger ist es, bei allen Vorteilen und Möglichkeiten des IIoTs realistische Erwartungen vorzugeben, die sich innerhalb der eigenen Unternehmensstrategie umsetzen lassen.

 

 

Mobile Arbeitskräfte im Zeitalter der Plattformwirtschaft

Es nicht noch nicht lange her, da ebnete das Brechen des Status quo den Weg zur Marktführerschaft. Jetzt ist diese Taktik nur noch ein Mittel zum Überleben. Mit dem Aufstieg der Platform-Economy nutzen nicht nur Uber und Amazon die digitale Transformation – jeder „bewegt sich schnell und zerschlägt die Dinge“, vor allem um Wettbewerb abzuwehren und im Geschäft zu bleiben.

Seit Beginn des 21. Jahrhunderts erleben wir technologische Innovationen. Wenn man jedoch der Meinung ist, dass die letzten 10 Jahre disruptiv waren, so steht der größte Wandel noch bevor – vor allem in Form der Mitarbeitermobilität. Verschiedene Studien zeigen, dass Mobilität die Zufriedenheit der Mitarbeiter steigert und in der Folge ihre Produktivität verbessert. Es wird geschätzt, dass bis zum Jahr 2022 42,5 Prozent der weltweiten Workforce mobil sein wird.

Die Mitarbeiter werden jederzeit und von überall arbeiten können und werden ihre smarten Geräte sowohl für die Arbeit als auch für die Freizeit nutzen. Sind das Phantastereien? Nun, es ist bereits Realität. Smartphones mit einer Netzwerkverbindung oder ein Gerät, das mit dem Internet der Dinge verbunden ist, sind für die „mobile-first“ Mitarbeiter eine unverzichtbare Komponente.

Doch wie werden diese mobilen Arbeitskräfte die neue digitale Plattformökonomie prägen?

Das Angebot befriedigt nicht die Nachfrage

Mobilität befreit die Mitarbeiter auf einen Schlag von ihrem physischen Arbeitsplatz. Unternehmen haben heute ihren eigenen Social Media Bereich, der Funktionalitäten wie Crowd-Sourcing und die Shared Economy nutzt, um neue Arbeitsformen zu schaffen.

Damit Unternehmen den Anforderungen dieser sich schnell mobilisierenden Mitarbeiter gerecht werden, müssen sich CIOs auf einen mobilen Plattformansatz konzentrieren, der den Zugriff auf eine Vielzahl von Unternehmensanwendungen in Echtzeit über das Handy ermöglicht – ganz unabhängig von Standort und Netzwerk.

Doch die Anbieter von Kommunikationsdiensten (CSPs) hinken hinterher. Obwohl es etwa 900 netzwerkbasierte mobile CSPs gibt, ist eine gewisse Zurückhaltung zu erkennen, Netzwerke und Dienste über Application Programming Interfaces (APIs) freizuschalten.

Es gibt einen Weg nach vorn

Der nächste Schritt ist der Übergang von vereinfachten mobilen Diensten, bei denen die Endbenutzer einfach eine Nachricht senden oder einen Anruf tätigen, zu einem wesentlich anspruchsvolleren Dienst.

Wenn Service Provider bereit sind, weiter fortgeschrittene Mobilfunkdienste anzubieten, dann ist es sowohl für Käufer als auch für Verkäufer eine Win-Win-Situation. Unternehmen werden eine deutliche Verbesserung dessen erleben, was über Mobiltelefone möglich ist – sei es durch umfangreichere Unified Communications und Collaboration-Lösungen, oder durch einfachen Zugriff auf Cloud-basierte Dienste. In der Folge können die neuen, dabei entstehenden Geschäftsmodelle und Dienstleistungen zu Wertschöpfung in Höhe von über einer Milliarden Dollar für die Mobilfunkindustrie führen.

Um dies zu erreichen, bedarf es eines Umdenkens. Arbeitgeber und Arbeitnehmer sollten Mobilität in der gleichen Weise wahrnehmen, wie sie heute das weltweite Netz oder die Cloud erleben. Alle Apps, Inhalte und Dienste sollten über das Mobilgerät zugänglich sein, unabhängig vom Standort und ohne die hohen Kosten des Datenroaming.

Auf dem Vormarsch in Richtung 5G werden wir sehen, wie neue Modelle von Mobilfunkanbietern übernommen werden. Mobile Dienste können so bereitgestellt werden, dass sie die Struktur des World Wide Web widerspiegeln und ein einheitliches, nahtloses Erlebnis auf globaler Basis bieten.

Die Zeit zum Liefern ist jetzt gekommen

Ericsson prognostiziert bis 2022 weltweit 6,8 Milliarden Smartphone-Teilnehmer und 29 Milliarden vernetzte Geräte.

Mobile Dienste sollten bereits jetzt mit der Versorgung dieses riesigen Marktes beginnen. Und CIOs sollten erkennen, dass sie sich auf programmierbare, grenzenlose mobile Dienste verlassen können, ohne dass sie auf Kosten, Sicherheit oder Zugangsbeschränkungen stoßen, denen sie heute noch gegenüberstehen.

Dem digitalen Kunden auf der Spur

Im digitalen Zeitalter ist es für Unternehmen wichtig, den Kunden in allen Phasen der Kundeninteraktion (Customer Journey) ein besonderes Erlebnis zu bieten. Dazu gehören schneller und reibungsloser Service, personalisierte Inhalte und eine konsistente Erfahrung über alle Kanäle hinweg. Gleichgültig, ob der Kunde über die mobile App, den Online-Shop, das Callcenter oder vor Ort in der Filiale mit dem Unternehmen in Kontakt tritt – die Angebote müssen aufeinander abgestimmt sein und eine durchgängige Erfahrung bieten.

Vier Phasen sind in der Customer Journey zu unterscheiden: Aufmerksamkeit, Interesse, Kauf und Service.

1. Aufmerksamkeit (Awareness)

Früher wurden Kunden vor allem durch Anzeigen in gedruckten Medien, TV-Werbung oder Plakate auf Produkte und Leistungen aufmerksam. Nun, da das Internet die Kommunikation prägt, ist es Ziel jeder Marketing-Abteilung, ein Top-Ranking bei den Anfragen in Suchmaschinen zu erreichen. Dazu kommt Online-Werbung, die sich am Besuchs- und Leseverhalten des Anwenders im Internet orientiert, oder Content-Marketing in Form von Texten, Bildern, Audio- oder Videomaterial mit personalisierten Inhalten. Weitere Impulse kommen über Empfehlungen aus sozialen Netzwerken wie Facebook, Pinterest oder Fancy, auf denen Anwender Produkte „liken“ können, die ihnen gefallen.

2. Interesse (Interest)

Ist das Interesse geweckt, so will sich der potentielle Kunde in der Regel eingehender informieren. Dazu blieb ihm früher nur der Weg in ein Ladengeschäft. Heute steht ein umfassendes Spektrum von Informationsmöglichkeiten zur Verfügung: Produkt-Videos auf YouTube, Meinungen und Bewertungen anderer Kunden in Online-Foren oder sozialen Netzwerken schaffen Transparenz und unterstützen den Kunden bei seiner Entscheidung. Die Käufer sind oft sogar besser informiert als die Verkäufer. Unternehmen müssen dabei berücksichtigen, dass sich die Kunden beim Kauf stärker an den Empfehlungen von Bekannten und Freunden aus ihren sozialen Netzwerken orientieren als an Vertriebs- und Marketing-Botschaften.

 3. Kauf (Purchase)

In Zeiten von Online-Shops und E-Commerce erwartet der Kunde, das Produkt direkt und unmittelbar kaufen zu können. Unternehmen müssen daher die Transaktionen möglichst einfach gestalten. Gelingt es, ihre potenziellen Kunden aus den sozialen Netzwerken und Online-Plattformen direkt auf ihre E-Commerce-Angebote zu leiten, erzielen sie einen klaren Wettbewerbsvorteil. Im Idealfall sind Online- und die Offline-Welt nahtlos miteinander verbunden. Will ein Kunde das Produkt nicht online kaufen, bieten innovative Unternehmen einen Termin beim nächstgelegenen Händler vor Ort an. Da der Händler mit dem Online-Shop vernetzt ist, kennen die Verkäufer die Historie und Bedürfnisse des Kunden – und können ihm passgenaue Zusatz- oder Sonderangebote vorschlagen.

4. Service

Auch die Fulfillment-Prozesse müssen in die digitale Prozesskette eingebunden und für den Kunden transparent sein. Kunden akzeptieren keine Lieferverzögerungen mehr. Mittlerweile gilt auch Self Service wieder als wichtiges Mittel, um die Kundenbindung zu erhöhen und gleichzeitig Kosten zu reduzieren. Mittlerweile geht der Trend zu virtuellen Beratern, die Natural Language Processing, Text Analytics und Predictive Analytics nutzen, um Kunden mit relevanten Vorschlägen bei der Lösung von Serviceanfragen zu unterstützen. Natürlich muss auch die persönliche Interaktion mit einem Berater möglich sein, der über das CRM-System die komplette Kundenhistorie kennt.

Eine konsistente, kanalunabhängige Customer Journey setzt eine leistungsfähige Hardware und Infrastruktur voraus. Hier bietet sich – abhängig vom individuellen Anwendungsfall und der Sensibilität der Daten – auch eine Cloud-Lösung an. Dadurch fallen Administrationsaufgaben weg und Unternehmen können sich auf die strategischen Fragen konzentrieren. Da sich Cloud-Systeme zudem einfach skalieren lassen, können sie auch die Basis für Big-Data- und Predictive-Analytics-Projekte bilden, mit denen Firmen im Rahmen statistischer Wahrscheinlichkeit das wahrscheinliche Kundenverhalten vorhersagen können. Mit Hilfe der Analytics-Systeme ist es auch möglich, die Kundenbedürfnisse in Echtzeit zu antizipieren und dem Kunden relevante Vorschläge anzubieten (Next Best Action).

Das Mapping einer Customer Journey, also die graphische Erfassung der relevanten Interaktionen, verschafft den Unternehmen zusätzlich Übersicht und erlaubt es, kritische Stellen im Prozess rechtzeitig zu identifizieren beziehungsweise die Erfahrung interaktiv zu optimieren.

Das Customer-Journey-Management lässt sich auch in CRM-Lösungen (Customer Relationship Management) integrieren. Sie ermöglichen nicht nur einen umfassenden Blick auf den Kunden und alle seine Interaktionen, sondern führen und unterstützen auch Benutzer wie Vertriebsmitarbeiter, Makler oder Kunden im Customer Self Service rollenbasiert im ganzen Service -und Vertriebsprozess. Auch Konzepte zur Prozess-Automatisierung wie Business Process Management (BPM), Dynamic Case Management (DCM) und Robotic Process Automation (RPA) lassen sich im Rahmen des Customer-Journey-Managements nutzen.

Angesichts der wachsenden Bedeutung mobiler Endgeräte, ist es unerlässlich, dass sich die betreffenden Lösungen auch mobil nutzen lassen, und dass mobile Anwendungen im Bereich CRM und Customer Journey wiederum eng mit den anderen Kanälen und Prozessen verknüpft sind. Eine reibungslose Customer Journey bedeutet auf Seiten des Kunden ein optimales Einkaufserlebnis und das ist die Basis für langfristige Kundenbindung und eine gute Position im Wettbewerb.

Zehn Punkte, die Unternehmen beachten sollten:

Für die digitale Customer Journey ergeben sich daraus zehn Punkte, die Unternehmen beachten sollten, um wettbewerbsfähig zu bleiben:

  • Always-Online-Kunden: Da viele Kunden heute permanent auf das Internet zugreifen können, ist eine rein transaktionsorientierte Beziehung zum Kunden heute wenig sinnvoll. Unternehmen müssen daher jederzeit und in Echtzeit über alle Kanäle hinweg mit dem Kunden interagieren.
  • Mobil: Die Verbraucher sind heute auch wegen mobiler Endgeräte wie Smartphones und Tablets nahezu immer online. Rund 50 Prozent des Internetverkehrs entsteht heute durch die mobilen Geräte.
  • Internet der Dinge: Das Internet der Dinge ist unaufhaltbar auf dem Vormarsch. Vernetzte Geräte aller Art werden dadurch zu einem weiteren, Kanal für Unternehmen, um Daten in ihrem CRM-System zu sammeln. Ein Beispiel sind Versicherer, die etwa für die Kfz-Versicherung Daten von vernetzten Autos sammeln.
  • Verständnis der Kundenbedürfnisse: Der Always-Online-Customer bietet für Unternehmen eine große Chance, da Kunden auf allen digitalen Kanälen und Touchpoints massenweise Daten hinterlassen. Aus der Analyse dieser Daten lassen sich Erkenntnisse über die tatsächlichen Kundenbedürfnisse gewinnen.
  • Personalisierung: Digitales Marketing nach dem Gießkannen-Prinzip ist nicht mehr gefragt. Die Analyse der Bedürfnisse der Kunden bildet die Basis für individuelle und personalisierte Angebote, die sich bei Bedarf auch in Echtzeit anpassen lassen. Unternehmen müssen daher umdenken und den Kunden nicht mehr als anonymen Teil einer Gruppe ansprechen, sondern als Individuum.
  • Kanalübergreifende Interaktionen: Kunden erwarten eine konsistente Erfahrung und Interaktion auf allen Kanälen, sei es die mobile App, der Online-Shop, das Callcenter oder die Filiale vor Ort. Die Angebote müssen aufeinander abgestimmt sein und eine durchgängige Erfahrung bieten. Dass das Callcenter nicht weiß, was der Kunde im Online-Shop bestellt hat, darf nicht vorkommen.
  • Vertrauen: Die Sicherheit der Kundendaten sowie Transparenz über deren Nutzung haben höchste Priorität. Verlieren Kunden das Vertrauen in die Sicherheit ihrer persönlichen Daten, werden sie zu einem anderen Anbieter wechseln.
  • Keep it simple: Self-Service-Angebote wie Mobile Apps, Web-Seiten sowie die Interaktion mit dem Kundendienst müssen einfach und intuitiv sein.
  • Neue digitale Prozesse: Viele Unternehmen machen den Fehler und konzentrieren sich auf die Optimierung und Digitalisierung der bekannten Prozesse. Stattdessen sollten sie über neue, digitale Prozesse nachdenken. Ein interessantes Beispiel ist die Nutzung von Twitter für Kundendienstanfragen durch Apple.
  • Digitalisierung ist Chefsache: Da Unternehmen im Rahmen der digitalen Transformation nicht nur bestehende Prozesse ändern, sondern oft auch ihre Organisationsstruktur verändern müssen, sollte der CEO das Projekt leiten oder zumindest den verantwortlichen Personen den Rücken stärken. In einigen Unternehmen wurde bereits mit dem Chief Digital Officer (CDO) eine eigene Position hierfür geschaffen.

IoT braucht kein 5G

Laut einer Gartner-Studie wird das Internet der Dinge (IoT) bereits in zwei Jahren über 25 Milliarden Geräte umfassen. Vor allem Consumer Electronics wie Komponenten aus dem Heimnetz oder Smart Home gehören dazu. Aber auch immer mehr intelligente Maschinen, Autos, Smart Meter und ganze Smart Citys sorgen für eine steigende Vernetzungsrate. Nicht selten kommt dabei Mobilfunktechnologie zum Einsatz – allerdings mitnichten der derzeitige Topstandard 4G. Schließlich geht es bei den meisten IoT-Anwendungen nicht um hohe Bandbreiten wie etwa beim mobilen Internet für Endkunden, sondern um die verlässliche Übertragung von zumeist kleineren Datenpaketen. Auch der Energieverbrauch spielt eine Rolle.

In vielen Unternehmen mangelt es an IoT-Know-how

„Die Bandbreiten und Geschwindigkeiten von 3G, 2G oder auch GSM reichen in den meisten Fällen absolut aus, um etwa im Industrie 4.0-Umfeld Informationen zwischen Maschinen auszutauschen“, sagt Peter Matthes von Siwaltec. Das Unternehmen hat sich als Teil der TGE Gruppe auf SIM-Kartenlösungen spezialisiert. „4G oder gar das zukünftige 5G spielen dabei eine untergeordnete Rolle“, so Matthes. Der Trend, dass die Bandbreite immer höher werden müsse, treffe auf Mobilfunk-basierte IoT-Lösungen für Unternehmen eher nicht zu. „Hier kommt es vielmehr darauf an, stabile und verlässliche Übertragungen zu gewährleisten, die nicht zu viel Energie beanspruchen.“ Dass dennoch viele Unternehmen 5G entgegenfiebern, obwohl es für die meisten IoT-Anwendungen weitgehend irrelevant ist, zeigt laut Matthes, dass es in den Unternehmen weiterhin an entsprechendem Fachwissen mangelt. Statt willkürlich in neue Technologien zu investieren, sollten die Unternehmen sich zunächst auf die Grundlagen fokussieren und nötigenfalls externe Experten hinzuziehen.

Narrowband-IoT dringt bis in den Keller vor

Die Tatsache, dass 4G und 5G eher nicht die Lösung für derzeitige und wohl auch zukünftige IoT-Lösungen sind, bedeutet allerdings nicht, dass neuere Mobilfunkstandards komplett ignoriert werden sollten. Denn mit dem sogenannten Narrowband-IoT gibt es mittlerweile einen eigens fürs Internet der Dinge entwickelten Mobilfunkstandard – wie man schon am Namen erkennen kann.

Wie etwa GSM eignet sich Narrowband-IoT für Anwendungen, die geringe Datenraten benötigen. Batteriebetriebene Geräte wie Rauchmelder oder Stromzähler funktionieren so zuverlässig bis zu zehn Jahre, bevor die Batterien ausgetauscht werden müssen. Vor allem aber dringt Narrowband-IoT bis tief in Gebäude vor, sodass selbst Gerätschaften im Kellergeschoss per Mobilfunk mit dem Internet of Things verknüpft werden können.

Laut Oliver Wierichs, Principal Manager IoT Devices bei Vodafone, ergeben sich durch die reduzierte Datenrate im Vergleich zu 4G/LTE zudem deutliche Einsparungen bei der Hardware. „Man verwendet kleinere Prozessoren, weniger Speicher und auch das Funkmodul wurde vereinfacht, ohne dabei auf wichtige Eigenschaften des Mobilfunks, wie beispielsweise Sicherheit und Verschlüsselung, zu verzichten“, erklärte Oliver Wierichs kürzlich in einem Gespräch mit dem Verband der Internetwirtschaft, eco.

Laut der GSM Association (GSMA) gibt es auf internationaler Ebene bereits über 50 Narrowband-IoT-Netze. Allein auf Vodafone gehen dabei weltweit zehn kommerzielle Netze zurück. „Unsere Labors sind ausgebucht und wir testen mit Hunderten von Kunden weltweit“, berichtet Oliver Wierichs. „In Deutschland haben wir rund 90 Prozent der 4G-Basisstationen mit Narrowband-IoT ausgestattet.“ Insofern ist 4G dann doch wieder nützlich, um die Entwicklung des Internet of Things weiter voranzutreiben.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.