Archiv der Kategorie: IOT – IoT-Technologie

Die nächste Evolutionsstufe für Produktions- und Engineering Services – Teil 2

Dabei liegt China bei der Einführung von Industrie 4.0 vorne. Im Vergleich mit anderen Märkten ist China ein Produktionsstandort mit relativ brachliegenden Industrien. Länder wie Indien und Brasilien, die kein langjähriges Industrievermächtnis haben, könnten Industrie 4.0 deshalb schneller einführen. Unter den Staaten mit großen Industriebrachen starteten insbesondere Unternehmen in Europa und Nordamerika ihre Transformation direkt großflächig.

Hierbei zeichnen sich neben dem neuen Mobilfunkstandard 5G und dem super schnellen Edge Computing ein paar weitere Schlüsseltechnologien ab.

  • SDN/NFV: SDN- und NFV-Anwendungen werden in der Netzwerkindustrie vermehrt zum Einsatz kommen und ersetzen schnell Hardware und integriertes Equipment. Mithilfe von kontinuierlichen Investitionen und Spezialisierungen konnten wir eine breite Palette Software Defined Networking (SDN)-Angeboten entwickeln.
  • Autonome Technologien:  In der Fertigung werden neben den traditionellen Industrierobotern immer mehr autonome Robotiktechnologien zum Einsatz kommen. So werden beispielsweise Autonomous Guided Vehicles (AGV) – sogenannte Bots – in gefährlichen und giftigen Umgebungen eingesetzt und ersetzen hier Menschen oder manuelle Arbeiten. Dieser Trend wird sich fortsetzen und immer weiter verbreiten, sodass Unternehmen sich in manchen Bereichen nicht mehr auf Menschen und Handarbeit verlassen müssen – dies wird die Effizienz erheblich steigern.
  • Digital Engineering: Digitale Zwillinge, fortschrittliche 3D-Modellierung, Simulationen und Tests von Designs werden zunehmend in der Fertigung eingesetzt. Der Designzyklus wird verkürzt, gleichzeitig durch eine erweiterte Simulationen die Validierung und Qualität verbessert. Ergänzt wird dies durch die Integration von Product Lifecycle Management (PLM), die bei der Nachverfolgbarkeit und Compliance hilft und vor allem Fehler bei der Produktherstellung reduziert.
  • Additive Fertigung: Diese Technologie stammt ursprünglich aus den Laboren und hat sich auch bei der großtechnischen Anwendung in der Industrie als kostengünstig für die Prototypen-Entwicklung erwiesen. Die metallbasierte additive Fertigung und die Polymer-basierte additive Fertigung verändern die Art und Weise, wie Dinge entworfen und hergestellt werden. Dies wird das Produktdesign revolutionieren und die Kosten senken.
  • KI-augmented Analytics: Die Technologie ermöglicht es Unternehmen, Szenarien zu kombinieren, das Verständnis zu verbessern und mithilfe von KI-basierten Analyse-Tools vorausschauende Entscheidungen in Echtzeit zu treffen.

Trotz Automatisierung: Ohne den versierten Softwarenutzer geht‘s nicht

Unternehmen, die diesen Trend erkennen, entscheiden sich verstärkt für spezielle Marketing-Automation-Lösungen; so beispielsweise auch eine  internationale Management- und Technologieberatung. Den dortigen Verantwortlichen war aber auchklar: Selbst die beste Software entfaltet ihr Potenzial nicht von allein. Es bedarf geschulter Anwender im Unternehmen, die den digitalen Helfer optimal einsetzen können. Man legte daher besonderen Wert darauf, die Software-Einführung mit zielgerichteten Mitarbeitertrainings zu flankieren. Hier kommen Customer-Engagement-Spezialisten ins Spiel.

Keine E-Mail verschwindet im Nirwana

Das internationale Consultingunternehmen unterhält Büros in über 20 Ländern und beschäftigt mehrere Tausend Mitarbeiter. Um den umfangreichen E-Mail- Verkehr im Marketing besser zu managen, führte es ein Marketing-Automation-Tool ein. Besonders wichtig war den Verantwortlichen, dass sämtliche Daten, die bei den automatisierten Marketing- Prozessen erfasst werden, dann automatisch im CRM zur Verfügung stehen. Denn so lassen sich alle Aussendungen überwachen und analysieren. Eine solche Lösung stellt für jede E-Mail fest, ob sie angekommen ist und gelesen oder gelöscht wurde. Die Software registriert jeden Klick auf Verlinkungen in der Mail. Damit sind die Absender genau im Bilde, ob der Empfänger auf der Website war und welche Seiten er dort besucht hat.

Generalprobe zunächst an nur einem Standort

Die Marketing-Mitarbeiter in einer der Niederlassungen in Europa waren die ersten, die Erfahrungen mit der neuen Software sammelten. Die Software diente ihnen dazu, den Versand von internen und externen Newslettern und Einladungen zu optimieren. In der Regel verschickt diese Marketingabteilung monatlich tausende Eventeinladungen. Ihr Tracking und der Informationsrückfluss ins CRM-System gibt Hinweise, wie mit laufenden Aktionen weiter zu verfahren ist und wofür sich die Kunden in Zukunft interessieren könnten. Ein Anwender wird eine Software jedoch nur dann vollumfänglich nutzen, wenn er sie richtig kennt und mit ihr umzugehen weiß. Das Beratungsunternehmen holte sich daher gleich zum Projektstart Unterstützung ins Haus: CRM-Spezialisten, die sich besonders auf CRM und Customer Engagement fokussiert haben. Von Beginn an waren auch zwei Manager des Kunden dabei, die standortübergreifend für das Gesamtunternehmen verantwortlich sind und ihren Sitz in verschiedenen europäischen Großstädten haben: ein IT-Advisor und der Manager IT-Applications. Letzterer erhielt als zuständiger IT-Administrator eine besonders detaillierte Schulung.

Test bestanden, nun wird weltweit geklickt

Die Ergebnisse der Testphase waren vielversprechend. Anfang letzten Jahres fiel daher die Entscheidung, die Spezialsoftware unternehmensweit in allen Niederlassungen zu implementieren. Im ersten Schritt ging es darum, die Software für einen optimalen Versand und zur Nachverfolgung von Newslettern, Veranstaltungseinladungen und informellen E-Mails zu nutzen – in den lokalen Marketing-Abteilungen, die die Unternehmensberatung derzeit in mehr als zehn Ländern unterhält. Schließlich müssen sowohl die Marketing-Leute als auch die IT-Spezialisten vor Ort das Programm wie ihre Westentasche kennen, um es bestmöglich einzusetzen. Entsprechend haben die Mitarbeiterschulungen sofort begonnen, nachdem die Entscheidung für das Tool gefallen war. Innerhalb weniger Monate fanden dann in acht europäischen Metropolen zweitägige Schulungen statt. Aktuell sind weitere Mitarbeiter-Trainings in Planung.

Die IT harmonisieren und dennoch lokale Besonderheiten zulassen

Teilweise unterscheiden sich die einzelnen Marketingprozesse von Land zu Land – so ist beispielsweise die Kontaktbeschaffung verschieden: Manche Niederlassungen greifen auf Excellisten mit Kontaktdaten zurück, die ihnen Partner zur Verfügung stellen, andere bevorzugen Events, um Neukontakte zu erhalten, wieder andere nutzen dafür eher Quellen im Netz, etwa Unternehmenswebsites. Eine Anpassung der Software-Features an die konkreten lokalen Bedingungen kann daher sehr sinnvoll sein. Gemeinsam mit den Spezialisten haben die IT-ler vor Ort diese Anpassungen vorgenommen. Als außenstehender Dienstleister war es dabei deren Aufgabe, die globale Betrachtungsweise beizubehalten und eine gute Balance zwischen unternehmensweit einheitlicher Software und lokalen Besonderheiten zu finden.

Alle unter einen Hut bringen

Aktuell hat die Unternehmensberatung mehr als 40 Marketingmitarbeiter. Sie alle sollen nicht nur die neue Automation-Software nutzbringend einsetzen, sondern auch gegenseitig von ihren Erfahrungen profitieren. Ein guter Anbieter hält diese darum stets auf dem Laufenden, genauso wie die weiteren involvierten Mitarbeiter, etwa Regionalleiter für die DACH-Region, IT-Mitarbeiter und das Unternehmensmanagement. Nahezu wöchentlich fanden Abstimmungen mit dem Manager IT-Applications und den Vor-Ort-Teams statt. Insgesamt haben die Customer-Engagement-Spezialistenwährend der Einführung der Software die Arbeit von rund 50 Personen koordiniert.

Man muss es auch können wollen

Wie gut eine Software im Unternehmen funktioniert, hängt entscheidend von der Mitarbeiter-Akzeptanz ab. „Da gab es bei unseren Nutzern überhaupt keine Schwierigkeiten“, zeigt man sich im Projekt- Team des Consultingunternehmens zufrieden. Geholfen hat sicher, dass die Nutzer frühzeitig in das Softwareprojekt eingebunden waren. Zudem haben die Schulungsexperten die Mitarbeiter mit der Anwendung bestens vertraut gemacht. Neben einem weltweit verbesserten Customer Relationship Management mit einheitlich hohen Qualitätsstandards zählt dazu auch die strikte Anwendung des Corporate Designs durch vorgefertigte Templates. Auch eine indirekte Kostenreduktion durch gestiegene Effizienz ist absehbar, denn die diversen IT-Abteilungen müssen sich nur noch mit einem Marketing-Automation-Tool auseinandersetzen, das überall gleich ist.

Newsletter sind nur der Anfang

Der erfolgreiche Rollout– und die dazugehörigen Trainings – werden weitergehen. Es ist zudem geplant, in weiteren Ländern nationale Marketing-Abteilungen aufzubauen. Auch diese Teams werden die Customer-Engagement-Spezialistendann in kürzester Zeit auf den Wissensstand ihrer Kollegen bringen. Weitere Möglichkeiten der Software werden bereits besprochen. Denkbar wären beispielsweise Funktionalitäten für das Subscription- und das Event-Management. Was auch immer für Module in Zukunft noch zum Einsatz kommen, eins steht für die Unternehmensberatung fest: nämlich, dass professionelles CRM nur möglich ist, wenn die Nutzer mit dem System auch professionell umgehen können. Menschen bleiben wichtig, gerade im CRM-Kontext.

 

IoT: Zutrittskontrolle und Cybersecurity

Die Verknüpfung von physischen und digitalen Sicherheitskomponenten mit dem IoT läutet in der Tat die nächste Phase der digitalen Transformation ein: Das Zusammenspiel aller Komponenten eines vernetzten Sicherheitssystems optimiert zum einen die Effektivität, zum anderen übermitteln die individuellen Hardwareeinheiten Daten, die bei richtiger Handhabung auch eine Business Intelligence ermöglichen. Das Thema Cybersecurity ist dabei elementar und essentiell für den Erfolg eines jeden IoT-Systems.

Vernetzte Zutrittskontrolle

Ein interessantes Beispiel für ein solches vernetztes System ist die Zutrittskontrolle. Denn die Technologien von Türstationen umfassen weit mehr als nur Video-Türklingeln. Als Teil eines IoT-Systems können Netzwerk-Türstationen mit einem äußerst komplexen und hochwertigen Sicherheitsnetzwerk verbunden werden. Gleichzeitig werden Business-Intelligence-Daten gesammelt und sicher an Smartphones oder Server gesendet.

So können beispielsweise auch KFZ-Nummernschilder als Berechtigungsnachweise für einen Zutritt genutzt werden. Bei diesem System arbeiten verschiedene Technologien über das Netzwerk zusammen und sichern auf diese Weise die Zutrittskontrolle auf einen Parkplatz oder ein bestimmtes Areal. Sobald ein Fahrzeug in den Erfassungsbereich einer Kamera gerät, wird die Software der Kamera aktiviert und das Kfz-Kennzeichen des Fahrzeugs überprüft. Die Netzwerk-Kamera sendet die Daten anschließend an die Türsteuerung am Tor. Sie wiederum entscheidet durch die angeschlossene Datenbank mit den zugelassenen Kennzeichen, ob der Zutritt gewährt wird oder nicht. Sollte das Nummernschild eines Fahrzeuges nicht für den Zutritt freigegeben sein, kann sich der Fahrer beispielsweise über die Netzwerk-Video-Türstation mit einem Mitarbeiter verbinden, der dann entscheidet, ob er den Zutritt gewährt oder nicht. Die erhobenen Daten aus den geschilderten Vorgängen werden protokolliert und gespeichert.

Diese beschriebenen Vorgänge und Elemente kommunizieren alle über offene Protokolle miteinander. Die standardisierte, sichere Informationsübermittlung ermöglicht auch die Einbindung verschiedener Komponenten von mehreren Herstellern. Dadurch können Unternehmen Geräte nutzen, die für ihre individuellen Bedürfnisse am besten geeignet sind.

Maßnahmen zur IT-Sicherheit

Das Beispiel der KFZ-Kennzeichen-Zutrittskontrolle unterstreicht auch die Notwendigkeit, die Cybersecurity anwendungsorientiert umzusetzen. Jede Komponente dieses Systems stellt einen potenziellen Zugang für Kriminelle dar. Ist eines der Bestandteile in diesem Netzwerk nicht ausreichend geschützt, können sensible Informationen abgegriffen werden – mit der Folge, dass das Unternehmen einen realen Schaden erleiden kann.

Die Sicherung der verbundenen Geräte sowie die Sicherung der Daten selbst haben dabei oberste Priorität. Netzwerk- und Datenlecks verursachen nicht nur schwerwiegenden Reputationsschäden für das betroffene Unternehmen, sondern jeder Verstoß behindert auch die weitere Entwicklung des IoT. Dies liegt daran, dass sowohl Unternehmen als auch die Öffentlichkeit darauf vertrauen müssen, dass IoT-Technologien den Erwartungen an einen ungefährlichen und cybersicheren täglichen Betrieb gerecht werden. Datenschutzrichtlinien wie zum Beispiel die Datenschutz-Grundverordnung (DSGVO) sollten als Hilfe und nicht als Hindernis verstanden werden.

Schnelles Handeln für den Fortschritt

Um im Wettbewerb zu bestehen, müssen Unternehmen die besten am Markt erhältlichen Technologien miteinander verbinden – auch wenn das bedeutet, dass sie mehrere Anbieter kombinieren müssen. Standard- sowie offene Protokolle, mit denen verschiedene Geräte einfach miteinander kommunizieren können, sind der beste Weg für eine Sicherstellung der Kompatibilität bestehender und zukünftiger Produkte. Es ist ebenso wichtig, dass das Sicherheitssystem einfach zu bedienen ist. Die riesigen Datenmengen aus unterschiedlichen Quellen müssen aggregiert und den Nutzern in leicht managebaren Formaten präsentiert werden. Schließlich sollen Analysten die Daten interpretieren, um schnell entschlusskräftige Entscheidungen treffen zu können. IoT-Technologien und -Produkte, die einfach in der Bedienung sind, auf offenen Protokollen und globalen Standards basieren sowie den hohen Anforderungen an die Cybersecurity genügen, vereinen wichtige Erfolgsqualitäten.

Die Förderung offener Systeme zwischen Hardware, Software und Anwendungstechnologien sowie -Produkten bringt Vorteile. Organisationen wie ONVIF, die sich für standardisierte Netzwerkprotokolle einsetzen, leiten eine neue Ära der Zusammenarbeit in der Sicherheitsbranche ein. Dies bildet zusammen mit der Priorisierung von Cybersecurity die Grundlage für eine immer stärker vernetzte Welt.

 

Mixed Reality reduziert Ausfallzeiten in der Produktion

Die Lösung: Über die Einbindung von Mixed Reality erklärt ein Sachverständiger aus der Ferne dem Mitarbeiter vor Ort schnell und einfach, was er zu tun hat, damit die Produktion wieder anläuft.

Virtual Reality, Augmented Reality, Mixed Reality – Diese Begriffe schwirren seit geraumer Zeit durch die Medien. Meist konzentrieren sich die Berichte auf Geräte für Endnutzer im Home-Entertainment-Bereich. Aber auch Unternehmen können diese Technologien einsetzen, um Arbeitsabläufe zu optimieren oder Services zu verbessern. Dabei sollte im ersten Schritt klar sein, für welche Szenarien die Begriffe stehen.

  • Virtual Reality (VR): Hier sieht der Anwender ausschließlich eine virtuelle Abbildung und nicht mehr die Realität. So kann er vollständig in virtuelle Welten eintauchen, ohne von der Wirklichkeit „gestört“ zu werden. Beispiele dafür sind immersive Computerspiele oder interaktive Schulungen.
  • Augmented Reality (AR): Hier wird die reale Welt durch virtuelle Objekte wie Pfeile, CAD-Daten oder Figuren erweitert. Theoretisch und bei idealer Technologie sind diese nicht von realen Objekten zu unterscheiden.
  • Mixed Reality (MR): Sie funktioniert im Prinzip wie AR, allerdings lassen sich hier virtuelle Objekte fest und über längere Zeit im Raum platzieren. So kann sich der Nutzer etwa zu einer virtuellen Maschine hin- oder von ihr wegbewegen oder eine andere Perspektive einnehmen, ohne dass sie ihre Position im Raum verändert. Diese Technologie wird „Spatial Mapping“ genannt und lässt sich in diesem Video nachvollziehen.

Diese drei verwandten Ansätze eröffnen zahlreiche neue Anwendungsmöglichkeiten für Unternehmen, so dass ihnen eine erfolgreiche Zukunft vorhergesagt wird. Laut Capgemini gehören AR und VR in drei bis fünf Jahren bei jedem zweiten Unternehmen zum Standard. Erst vor kurzer Zeit kam MR als dritte Variante hinzu, da die entsprechende Hardware und Software inzwischen in der Praxis einsatzfähig ist. Als die drei am besten geeigneten Einsatzgebiete haben sich hier die Bereiche „Prozessoptimierung“, „Training“ und „Remote Maintenance“ (auch „Remote Assist“ genannt) herausgestellt. 

Konkretes Einsatzbeispiel

Bei einem Produktionsunternehmen fällt eine Maschine in der Fertigungsstraße aus. Da sich der Herstellungsprozess nicht auf andere Maschinen umleiten lässt, steht die gesamte Straße still. Dieser Ausfall kostet dem Unternehmen pro Stunde mehrere tausend Euro. Daher muss der Fehler so schnell wie möglich behoben werden. Bislang hatte ein speziell ausgebildeter Mitarbeiter Handbücher und Bedienungsanleitungen zu lesen, um mögliche Ursachen festzustellen. Erst nach mehreren Versuchen war er erfolgreich. Doch das bedeutete noch lange nicht, dass er den Fehler auch sofort beheben konnte. Häufig galt es, einen Service-Techniker des Maschinenherstellers anzurufen. Im ersten Schritt musste der Mitarbeiter umständlich erklären, welcher Fehler aufgetreten ist, welche Maßnahmen er getroffen hat und warum die Behebung gescheitert ist. Anschließend erklärte der Service-Techniker telefonisch, welche Schritte zu unternehmen sind.

Mit Hilfe von Fernzugriff und Videotelefonie lassen sich diese Prozesse zwar verkürzen, doch auch hier hat der Mitarbeiter vor Ort häufig nicht beide Hände für die Reparatur frei oder muss immer wieder zwischen Maschine und Videobild hin- und herschauen. Diese Ineffizienzen vermeidet eine Mixed-Reality-Lösung. Damit erhält der Mitarbeiter sowohl die Maschine als auch die Anleitungen für ihre Reparatur in einem Blickfeld. Zusätzlich kann der externe Service-Techniker über virtuelle Objekte wie Pfeile, gezeichnete Kreise oder Grafiken aus dem Handbuch die durchzuführenden Schritte anschaulich erklären. Diese Objekte bleiben bei MR auch immer an der richtigen Stelle, selbst wenn sich der Mitarbeiter vor Ort bewegt. Damit lässt sich eine Reparatur deutlich schneller erledigen als mit herkömmlichen Maßnahmen. Wenn die Maschine dann statt einer Stunde nur noch 15 Minuten still steht, hat sich die Investition in die MR-Technologie meist schon nach einem Servicefall amortisiert.

HoloLens-Perspective1-2
(Quelle: Campana & Schott)
HoloLens-Perspective1-1
(Quelle: Campana & Schott)

Verfügbare Lösungen

Inzwischen stehen einsatzfähige Lösungen für AR und MR von verschiedenen Herstellern zur Verfügung. Dazu gehören etwa Microsoft, Magic Leap oder ODG, wobei sich der Markt jedoch ständig verändert. Gerade die Microsoft HoloLens dürfte mit der für dieses Jahr angekündigten neuen Version 2 einen großen Schritt nach vorne machen. Dies liegt nicht nur an der wohl deutlich verbesserten Hardware, sondern auch an neuen Software-Lösungen. So ermöglicht zum Beispiel Remote Assist die reibungslose Zusammenarbeit über Videotelefonie mit Hilfe von Heads-Up-Display, Freisprech-Funktion, Bildaustausch und Anmerkungen. Dadurch können Mitarbeiter vor Ort mit einem Experten teilen, was sie in der Realität sehen, während sie gleichzeitig die Hände frei haben, um Probleme zu lösen und Aufgaben schneller zu erledigen. Wie das funktioniert, zeigt dieses Video. Dabei ist die Lösung komplett in die Collaboration-Tools Microsoft Office und Microsoft Teams integriert sowie die Kommunikation auf Unternehmensebene abgesichert.

Da die aktuelle Version der HoloLens wenige tausend Euro kostet, dürfte der Preis für die zweite Version nicht wesentlich höher liegen. Mit der benötigten Standard-Software bleibt die Investition für eine MR-Lösung meist unter 5.000 Euro. Verglichen mit den Kosten für einen Produktionsausfall rentiert sich diese Anschaffung durch die Reduzierung der Zeit für die Problembehebung sehr schnell. Was Unternehmen beim Einsatz von MR sonst noch wissen müssen, etwa weitere Einsatzszarien oder Herausforderungen wie Capability Building, erfahren sie in einem Online-Seminar am 5. Februar 2019. Hier wird auch ein konkretes Einsatzszenario der Microsoft HoloLens live gezeigt. Eine Anmeldemöglichkeit gibt es hier.

Fazit

Für Fertigungsunternehmen bietet Mixed Reality zahlreiche Vorteile, um Gewinneinbußen durch Produktionsausfälle zu vermeiden. So können Mitarbeiter über die HoloLens einen Microsoft-Teams-Videoanruf an einen oder mehrere externen Experten starten. Dieser sieht die Maschine, kann das Bild einfrieren und mit einem Stift Pfeile oder Kreise zur Veranschaulichung zeichnen, die der Mitarbeiter vor Ort an der richtigen Stelle der Maschine im Sichtfeld eingeblendet bekommt – selbst wenn er sich bewegt. Damit kann er deutlich schneller die Maschine reparieren als mit herkömmlichen Methoden – und die Produktion läuft in entsprechend kürzerer Zeit wieder an.

 

 

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Die nächste Evolutionsstufe für Produktions- und Engineering Services

Mithilfe der PoCs konnten Unternehmen schnell die vielfältigen Geschäftsvorteile des industriellen IoT validieren. Die Branche beginnt jetzt nach und nach, IoT in den operativen Standorten einzuführen. Da mehr als 80 Prozent der Industrieanlagen Brachland sind, wird die Umsetzung in Phasen und nicht in einem einzigen Schritt erfolgen.

Darüber hinaus werden die Prozesse mithilfe von Erfahrungswerten verbessert und stabilisiert. Dabei ergeben sich eine Vielzahl von Entwicklungsmöglichkeiten für die Branche – die drei wichtigsten davon sind:

  • Die IT-OT (Operational Technology)-Integration steht weiterhin im Mittelpunkt, insbesondere bei der ISA-95-Stack-Integration über alle Layer hinweg. Eine engere Vernetzung zwischen Menschen, Prozessen und Maschinen wird zu einer höheren Transparenz des Betriebs, einer besseren Auslastung und Leistung der Anlagen, einer effizienteren Lieferkette und reduzierten Betriebskosten führen.
  • Während die Einführung des industriellen IoT den Mainstream erreicht, evaluieren alle Branchen neue Technologien wie Augmented Reality (AR) / Virtual Reality (VR), künstliche Intelligenz (KI), Machine Learning und Autonome Technologien.
  • Technologien wie Blockchain werden innerhalb des industriellen IoT keine direkte Anforderung sein, da es sich bei den Produktionssystemen nach wie vor meist um geschlossene, bewährte Systeme handelt. Cyber-Sicherheit wird zur Hauptanforderung für die Gerätesicherheit, Daten- und Geräteintegrität, Zugangskontrolle und Autorisierung – und dies über den Datenschutz hinaus.

Das industrielle IoT hat das Potential, den digitalen Wandel in der Industrie voranzutreiben. Die Digitalisierung umfasst den gesamten Lebenszyklus der Fertigung, einschließlich Design, Produktion, Verkauf und Service. Die digitale Fertigung ist ein entscheidendes Element dieser Transformation. Die Integration der Systeme wird daher über den gesamten Design-, Herstellungs-, Betriebs- und Servicelebenszyklus hinweg gesteuert. Darunter fallen unter anderem:

  • Integriertes Lifecycle Management – Das Product Lifecycle Management (PLM)-System spielt eine zentrale Rolle. Die digitalen Artefakte eines Produkts – angefangen beim Digital Engineering, das durch CAD/CAE, Manufacturing Operations Management (MOM), Manufacturing Engineering Services (MES) und Qualitätsmanagement ermöglicht wird – unterstützen bei der Produktnachverfolgung über alle Phasen des Lebenszyklus hinweg. Die IT-OT-Integration vereint alle Daten aus Maschinen, Anlagen, Prozessen und Systemen auf einer gemeinsamen Plattform, hilft bei der Einrichtung und Verfolgung der Lebenszyklusphasen sowie bei der Statusverfolgung von ‚wie geplant‘ versus ‚wie betrieben‘ versus ‚wie gewartet‘.
  • Digitalisierung – Das industrielle Set-Up verfügt über viele Funktionen, die noch manuell gesteuert werden. Dazu gehört auch die Datenerfassung. Industrielles IoT ermöglicht die Digitalisierung und Automatisierung von Arbeitsprozessen. Daten von SPS, Maschinen, Prozessen und Echtzeitverarbeitung über MES gewährleisten die Compliance des Produktionsprozesses, ermöglichen Qualitätssicherung und reduzieren den Materialverbrauch. All dies ist auf einem einzigen Dashboard integriert. Alle Mitarbeiter einer Fabrik können somit in Echtzeit auf Informationen zugreifen und schneller Entscheidungen treffen.
  • Organisatorischer Wandel – Die Art und Weise wie Betreiber, Techniker, Betriebsleiter oder Produktionsleiter arbeiten, wird sich grundlegend ändern. Unternehmen müssen deshalb in Schulungen der Mitarbeiter investieren, damit die Auswirkungen der Transformation auf das laufende Tagesgeschäft so gering wie möglich sind. Die Arbeitsumgebung muss sich zudem an die Technologien anpassen, die hinter der Transformation stehen. Die Neuausrichtung der bestehenden Belegschaft wird für den Übergang zur digitalen Fertigung entscheidend sein: Unternehmen müssen ganzheitlich denken und Silos aufbrechen, um kollaborativer und integrierter zu sein.

Der Weg in die Cloud ist unumgänglich

Mittelständische Unternehmen sind Experten in ihrer Nische. Um spezifische Aufgaben zu lösen, nutzen sie oft sehr spezifische IT-Lösungen, die die Effizienz im jeweiligen Arbeitsumfeld erhöhen. Diese Teilspezifizierung der IT ist einerseits notwendig, steht aber andererseits häufig der Entwicklung und Umsetzung einer IT- und Digitalisierungsstrategie im Weg. Fehlt diese übergreifende Strategie, finden viele Prozesse, die man mittels Software optimieren könnte, zu wenig Beachtung. Unmengen an Daten und Systemen sind dann nicht in die IT-Systemlandschaft integriert. Zudem haben viele Mittelständler nicht genügend IT-Fachpersonal und laufen darum Gefahr, den Anschluss an die fortschrittlichere Konkurrenz zu verlieren. Die Lösung: eine zukunftsweisende IT-Strategie, die ein gut positionierter CIO zielstrebig verfolgt.

Strategische Beratung und Unterstützung

Zu den Hauptaufgaben eines CIO zählt es heute komplexe, zerklüftete und heterogene IT-Strukturen, die über die Jahre als Ergebnis lokal optimierter Einzellösungen entstanden sind, aufzulösen. Solch eine Integration stellt angesichts einer siloartigen IT-Architektur und der fehlenden Gesamt-Roadmap häufig eine große Herausforderung dar. In solch einem Fall empfiehlt sich die Zusammenarbeit mit einem professionellen IT-Dienstleister, der Unternehmen strategisch berät und begleitet. Er unterstützt und berät bei der Anpassung der Geschäftsmodelle, erarbeitet eine passende IT-Strategie und migriert die gewünschten Lösungen in die Cloud – im Sinne eines Smart-Shift. Diese Transformation, die alle Cloud-Ebenen (PaaS, IaaS, SaaS) berücksichtigt, sollte schrittweise, bedarfsorientiert und im laufenden Betrieb erfolgen. Ein Smart-Shift ist zugleich strukturiert und risikoarm, und er kann im individuellen Tempo des Mittelständlers geschehen.

Multi-Cloud-Ansatz ist empfehlenswert

Die größtmögliche Flexibilität bietet ein Multi-Cloud-Ansatz. Die Entscheidung, welche Lösungen man in der Private-Cloud eines deutschen Anbieters betreibt und welche Anwendungen und Systeme man in internationale Public-Clouds auslagert, ist nicht leicht. Ein IT-Dienstleister zeigt verschiedene Möglichkeiten auf, skizziert adäquate Szenarien und erarbeitet eine bedarfsgerechte Kombination von dedizierten IT-Lösungen und verschiedenen Clouds. Er lagert Applikationen und Systeme in die Private-Cloud aus, bindet Public-Clouds möglichst sicher an die IT-Infrastruktur an und sorgt dafür, dass sich bei Bedarf im Projektverlauf weitere Services aus der Public-Cloud einbinden lassen.

Agilität ist Trumpf

Die Modernisierung veralteter IT-Strukturen ist ein Aspekt. Viele Mittelständler wollen aber auch ebenso agil, flexibel und effizient arbeiten können wie Startups. Eine cloudbasierte IT-Infrastruktur ist eine wichtige Voraussetzung für Agilität. Entscheidend ist zudem der richtige Mix aus Standardisierung und Individualisierung: Die Software-Basis sollte möglichst homogen sein, während einzelne Lösungen funktional angepasst sein müssen. Eine agile Arbeitsweise kommt mittelständischen Unternehmen bei der eigenen Transformation und bei Kundenprojekten zugute. Um agil arbeiten zu können, müssen sich Mittelständler von etablierten, aber schwerfälligen Prozessen verabschieden. Es gilt, mutig zu sein und sich schnell zu entscheiden. Anstatt monatelang ein Pflichtenheft zu erarbeiten, braucht es kurze Sprints, in denen IT-Experten kleine Teilaufgaben umsetzen – und dann analysieren, ob Ergebnis und Herangehensweise sinnvoll sind. Ist das der Fall, bilden solche Quick-wins eine optimale Basis für das weitere agile Vorgehen. Entpuppt sich ein Ansatz als wenig erfolgsversprechend, sollten Unternehmen das Ergebnis verwerfen und einen neuen Versuch starten. Flexibilität ist auch bei der Projektarbeit gefordert. Es braucht ein Kern-Team, das ein Projekt über seine gesamte Dauer begleitet und für Stabilität sorgt. Daneben ist es sinnvoll, Mitarbeiter mit ergänzenden Fähigkeiten für spezielle Aufgaben ins Boot zu holen. Sie können unvoreingenommen an eine Herausforderung herangehen, sie mit anderen Augen sehen und kreative Lösungsansätze entwickeln.

So werden intelligente Städte sicher

Städtische Infrastrukturen werden immer stärker digitalisiert und vernetzt. Aber mit der Zunahme von Smart-City-Lösungen wächst auch die Angriffsfläche, die Cyberkriminelle für ihre Zwecke ausnutzen können. Städte dürfen die genutzten Daten und die öffentliche Infrastruktur jedoch keinem hohen Risiko aussetzen. Daher müssen sie vor allem zwei große Schwachstellen vermeiden: eine unzureichende Absicherung von öffentlichen WiFi-Netzen sowie Sicherheitslücken bei den eingesetzten IoT-Geräten und -Sensoren.

Gerade letzteres wird häufig unterschätzt. Tatsächlich weisen viele IoT-Geräte nur voreingestellte Passwörter auf, die sich zum Teil nicht verändern lassen. Solche Standard-Passwörter sprechen sich aber in Hacker-Kreisen schnell herum, so dass Angriffen Tür und Tor geöffnet wird. Attacken können dann Infrastrukturen empfindlich stören, zum Beispiel Verkehrsinformationen und Leitsysteme oder Steuerungen für Parkplätze, Laternen, Luft- und Lärmmessungen, die auf die Sensorik des Internet of Things zurückgreifen.

Eine Absicherung der Geräte und Sensoren durch Security-Software ist aber aufgrund der geringen Speicher- und Rechenkapazitäten kaum möglich. Daher müssen sie durch eine Art Schutzwall aus Systemen mit ausreichenden Ressourcen abgesichert werden. Entsprechend benötigen Städte ein durchgängiges Sicherheitskonzept. Gleichzeitig müssen die Hersteller konsequent aktuelle Security-Standards nutzen und weiterentwickeln, um ihre IoT-Produkte besser zu schützen.

Ganze Strukturen gefährdet

Neben Geräten werden auch ganze Systeme und Technologien für Smart Cities immer noch ohne geeignete Sicherheitsarchitekturen oder Lösungen zur Abwehr von Bedrohungen entwickelt. Diese Nachlässigkeit kann eine Reihe von Schwachstellen verursachen, die wiederum ernsthafte Probleme nach sich ziehen. Ein Hacker, der eine intelligente Parkuhr kontrolliert, kann lästig sein, aber ein cyberkriminelles Eindringen in die Verkehrsleitstruktur könnte katastrophale Folgen haben.

Auf der diesjährigen Black-Hat-Konferenz untersuchte das X-Force Red Team von IBM bestehende kommunale Technologien, um die Möglichkeit von groß angelegten Angriffen zu ermitteln. Die Nachforschungen konzentrierten sich auf vier gängige Systeme und fanden 17 Schwachstellen, von denen neun als kritisch eingestuft wurden. Ein europäisches Land benutzte ein empfindliches Gerät zur Strahlungsdetektion. In den USA war es ein System zur Überwachung der Verkehrsregelung. Die fraglichen Schwachstellen waren bei beiden Gelegenheiten nicht komplex. Die Anbieter hatten es einfach versäumt, grundlegende Sicherheitsmaßnahmen zu implementieren.

Zudem simulierten die Forscher von IBM einen Angriff auf Geräte, die den Wasserstand in Staudämmen überwachen. In weniger als einer Minute konnten sie die umliegenden Gebiete überfluten. Der simulierte Hack fand auf einer häufig verwendeten, aber leicht zu kapernden Hardware für Smart Cities statt.

Neue Gesetze und Verordnungen dürften die Sicherheitslage aber nicht wesentlich verbessern, da sie ohnehin nicht mit der technischen Entwicklung Schritt halten können. Daher helfen nur eher allgemein gefasste Rahmenbedingungen wie das IT-Sicherheitsgesetz sowie einheitliche Regelungen, die bereits heute von verantwortungsvollen Herstellern entwickelt und befolgt werden. In Zukunft müssen sie aber die technischen Möglichkeiten noch konsequenter und zeitnäher umsetzen, um kritische Infrastrukturen besser zu schützen, die bereits heute jeden Tag angegriffen werden.

Der Wettlauf um die Entwicklung

Ein einfaches Weiter-so und Ignorieren der Entwicklung bringt Städte aber nicht weiter. Denn schon heute befinden sie sich in einem Wettlauf um Bürger und Unternehmen. So müssen sie moderne, attraktive Infrastrukturen bieten, damit sie auch weiterhin erfolgreich sind. Gerade hier leisten Smart-City-Lösungen einen wichtigen Beitrag. Damit lassen sich umfassende Erkenntnisse aus unzähligen Sensoren, Interaktionen und Verhaltensweisen gewinnen. Laut einem aktuellen Whitepaper von ABI Research könnten weltweite Smart-City-Technologien im nächsten Jahrzehnt dadurch mehr als 20 Billionen Dollar an zusätzlichen wirtschaftlichen Vorteilen erschließen.

Europa verfolgt dabei große Ambitionen. Gemäß einer Untersuchung des Europäischen Parlaments aus dem Jahr 2017 gibt es hier bereits 240 Städte mit über 100.000 Einwohnern, die zumindest über einige intelligente Lösungen verfügen. Dazu gehört Technologie zur Verbesserung der Energienutzung, der Verkehrssysteme oder anderer Infrastrukturen. Die Europäische Innovationspartnerschaft Smart Cities and Communities sagt voraus, dass bis Ende 2019 sogar 300 Städte intelligent sind.

Die Zukunft gestalten

Führungskräfte, Vordenker, Entwickler, Dienstleister und Städteplaner müssen daher die Zusammenarbeit mit Regulierungsbehörden und Systempartnern dringend intensivieren. Nur gemeinsam können sie die Einführung sicherer Netzwerke und Geräte gewährleisten. Die gesamte Technologiebranche sollte auch mehr tun, um das Prinzip ‚Security-by-Design‘ konsequent in der gesamten Entwicklung von Infrastrukturen umzusetzen. Darüber hinaus muss die Ende-zu-Ende-Sicherheit verbessert werden, einschließlich strenger Authentifizierung der Benutzer sowie Richtlinien für alle Kommunikationswege. Gleichzeitig sollten Dienstleister ihre Verschlüsselungsfunktionen für den Datenschutz mit aktueller Software erweitern.

So müssen alle Beteiligten die Warnzeichen für eine zunehmende Cyberkriminalität bei städtischen Infrastrukturen ernst nehmen. Außerdem sind Cybersicherheitsexperten in allen Phasen einzubeziehen –von der Planung und dem Bau bis zum Infrastrukturmanagement. Städte müssen intelligenter werden. Das gilt nicht nur für die Nutzung der Daten, sondern auch für die Abwehr von Gefahren durch Cyberkriminelle. Die bislang geschlossenen städtischen Systeme waren von der Außenwelt abgekoppelt. Doch bei den offenen Smart-City-Lösungen hilft nur eine agile Sicherheitsarchitektur, welche die neuesten Security-Standards und -Funktionen voll ausschöpft und sich ständig weiterentwickeln lässt.

API? Bitte effizient und sicher!

Sicherheit von Anfang an

Merkwürdig bleibt die Erkenntnis, dass viele Unternehmen unabhängig von ihrer Branche bereits praktische Erfahrungen mit solchen negativen Auswirkungen gemacht haben – dennoch wird die IT-Sicherheit in der Entwicklung meist viel zu spät oder gar nicht betrachtet. Das ist nicht nur verwunderlich, sondern hat im Ernstfall fatale Folgen. Darum sollte das Thema „IT-Sicherheit“ in einem professionell geplanten „Secure Software Development Life Cycle“ (SSDLC) in jedem Schritt integriert sein. Insbesondere im boomenden Bereich der „Internet of Things“ (IoT) -Applikationen ist verstärkt darauf zu achten, dass eine ausreichende Sicherheitsbetrachtung bereits in der Design-Phase erfolgt. Kostspielige Anpassungen nachträglich sichtbar werdender Schwachstellen können so bereits im Vorfeld vermieden werden. Eine Korrektur ist in diesem frühen Zustand deutlich einfacher umzusetzen.

Auch in Industrieanlagen ist mit Blick auf I.40 Anwendungen ein starker Anstieg von APIs feststellbar. Der Vorteil, einen einfachen REST-API-Aufruf aufzubauen, abzuschicken und ggf. das Ergebnis zu verarbeiten, benötigt in den meisten Fällen nur wenig Rechenkapazität. Auch hier kann der fehlende Fokus auf die IT-Sicherheit die angedachten Vorteile einer digitalen Transformation des innerbetrieblichen Logistikwesens schnell neutralisieren.

Fünf Faktoren für sichere APIs

Um Schnittstellen (APIs) sicher entwickeln zu können, sollten stets diese fünf Faktoren beachtet werden:

  • Erster Schritt: Identifizierung & Authentifizierung. Zuerst muss klar sein, wer oder was auf die eigenen Ressourcen zugreifen möchte. Nur, wenn diese Daten vorliegen, sollte ein Zugriff erlaubt werden.
  • Zweiter Schritt: Autorisierung. Nach einer erfolgreichen Authentifizierung sollte eine separate Autorisierung erfolgen, um einen Zugriff / Nutzbarkeit entsprechend der Benutzerberechtigung bereitzustellen.
  • Dritter Schritt: Hiernach ist eine Überprüfung erforderlich, ob ein API-Aufruf  Informationen über die dahinter liegende Architektur preisgibt. Denn das darf in niemals der Fall sein.
  • Vierter Schritt: API Keys sind keine Secrets. Daher muss sicher gestellt sein, dass diese auch nicht als solche behandelt werden.
  • Fünfter Schritte: Nun können Input-, Data- und Plausibilitätskontrollen folgen.

Natürlich gibt es neben den fünf genannten Faktoren noch weitere, welche in der Entwicklung und im Lifecycle beachtet werden sollten.

Beispielarchitektur

Im Kontext der industriellen Nutzung von APIs und IoT-Geräten würde eine Architektur wie folgt aussehen (siehe Abbildung 1). Die Grafik veranschaulicht beispielhaft, wie Sensoren oder andere IoT- Geräte an Maschinen einer Produktion über eine (Micro-) API-Architektur angebunden werden könnten. Hierbei hat jede Maschine eigene IoT Geräte, welche jeweils eine andere Funktion erfüllen. Jene sind durch diverse Anwendungsfälle definiert, wie beispielsweise das Messen der Temperatur, Luftfeuchtigkeit, die Position der Produkte oder deren Abmessung. Dabei koordiniert ein API-Gateway die Schnittstellen, damit die IoT-Geräte die Anfragen an eine zentrale Stelle schicken. An dieser Stelle können dann entsprechende Sicherheitsmechanismen platziert werden. Das API- Gateway leitet die Anfragen an die einzelnen Endpunkte zu Verarbeitung weiter. Zusätzlich helfen Micro Gateways dabei, die Micro Services zu koordinieren und zu managen.

 

 

 

Realistische Erwartungen an das IIoT

Das Industrial Internet of Things (IIoT) ist für die meisten Unternehmen nach wie vor Neuland. Die Erwartungshaltung ist hoch, verspricht die umfassende Automatisierung, Konnektivität und Analytik doch ein Plus an Effizienz und damit Chancen auf Gewinnsteigerung und Kostenminimierung. Anwender, die zum ersten Mal in Richtung IIoT aufbrechen, erwarten dabei häufig ähnliche Vorteile und Verbesserungen wie durch Manufacturing Execution Systeme (MES). Die Wunschvorstellung: 100.000 im Sekundentakt erfasste Sensordaten und IIoT-Edge-Geräte, die über massive Skalierbarkeit und endlose Rechenleistung verfügen und die Daten in die Cloud übertragen.

Diese Vorstellung mag nicht ganz falsch sein, kann jedoch in einigen Fällen zu Enttäuschungen und Fehleinschätzungen führen. Nicht jedes Edge-Gerät bietet automatisch die nötige Bandbreite oder die Funktionen, um Daten wunschgemäß zu verarbeiten. Wie effizient und sinnvoll IIoT-Anwendungen tatsächlich sind, hängt immer von mehreren Faktoren ab und unterscheidet sich von Fall zu Fall. Selbst wenn die passende Edge-Hardware für ausreichend Konnektivität ausgewählt wurde, können trotzdem Einschränkungen in Bezug auf das Datenvolumen und Häufigkeit der Datenübermittlung auftreten.

Kostenfaktor und Sicherheit IIoT

Bei der Umsetzung eines industriellen IoT-Projekts ist es wichtig, genaue Informationen zu den betreffenden Edge-Geräten, Industrieprotokollen, Sensoren und Netzwerken vorliegen zu haben. Insbesondere betrifft das auch die Kosten jedes einzelnen IIoT-Bausteins. Edge-Geräte verfügen in der Regel über eine Vielzahl von Features, die mit unterschiedlichen Kosten verbunden sind. Dabei reicht die Spannweite von einigen Hundert bis zu Tausenden von Euros. Hinzu kommen hohe Netznutzungsentgelte – zum Beispiel für die Übertragung per Mobilfunk oder Satellit– sowie durch Kosten für die Datenspeicherung in der Cloud. Letztendlich ist das Ziel von IIoT-Projekten zwar die Optimierung der maximalen Wertschöpfung. Doch zunächst ist dabei immer auch mit Kosten zu rechnen.

Der Umgang mit den hohen Erwartungen ist ein wichtiger Aspekt eines jeden IIoT-Projekts. Ein mobiles Edge-Gerät mit niedrigem Stromverbrauch und geringen Onboard-Ressourcen ist schlichtweg nicht darauf ausgelegt, die Daten von 10.000 Sensoren in die Cloud zu übertragen. Realistischer ist es hier entweder das Datenvolumen auf 100 Sensordaten zu reduzieren oder ausreichende Ressourcen an der Schnittstelle zwischen Sensoren und Cloud zur Verfügung zu stellen, – einschließlich der nötigen Bandbreite für das Netzwerk.

Neben Kosten ist auch das Thema Sicherheit zu berücksichtigen. Eine absolute Garantie gibt es hier nicht, lediglich Best-in-Class Practices und bewährte Sicherheitsmaßnahmen. Sicheres IIoT kann als Kombination von zuverlässiger Hardware + Software + Installation + sicherer Kommunikationsprozesse verstanden werden. Sind in einem IIOT-Projekt diese Vorgaben erfüllt, lässt sich das Sicherheitsrisiko zumindest auf ein Mindestmaß reduzieren.

Die passende Anwendung

Grundlegendes Know-how in der Prozessinstrumentierung ist die Voraussetzung dafür, um die richtige Entscheidung bei der Auswahl der Geräte, Sensoren und Anwendungen treffen zu können. Dabei muss von vorherein klar definiert sein, welche Aufgaben durch den Einsatz von IIoT gelöst werden sollen. Klare Zielvorgaben erleichtern es, die passende Anwendung auszuwählen und gleichzeitig Anforderungen hinsichtlich des Prozessbetriebs, der Wartung und der IT-Teams im Unternehmen zu erfüllen. Nicht alle gesammelten Daten aus Edge-Geräten sind relevant für die geschäftlichen Anforderungen und rechtfertigen ein IIoT-Projekt.

IIoT-Anwendungen sind für komplexe Aufgaben konzipiert, um eine große Menge an Prozessdaten-Variablen und ihren Beziehungen untereinander zu verarbeiten und nutzbar zu machen. Gefragt sind Big Data Tools und hohe Rechenleistung. Es ist das Einsatzgebiet von Künstlicher Intelligenz, multivariater Analyse, Mustererkennung, Ereigniserkennung und maschinellem Lernen. Sämtliche Systeme und Anlagen für IIoT aufzurüsten, hilft Unternehmen nicht zum Durchbruch.

Vielmehr sollte die ausgewählte Lösung auf die spezifischen Anforderungen der Anlage und der Prozesse zugeschnitten sein (zum Beispiel kontinuierliche oder Batch). Soll beispielsweise ein Qualitätsproblem eines Assets behoben werden, sind mit hoher Wahrscheinlichkeit multivariate Analysetools notwendig. Handelt es sich um die Implementation von vorausschauender Wartung und Fehlerfrüherkennung mit dynamischen Modellen, empfiehlt sich eine Applikation für Maschinelles Lernen.

IIoT-Deployment

Auch in Sachen IIoT-Deployment gilt es, eine Vielzahl von Fragen zu beantworten: Soll die Anwendung cloudbasiert arbeiten oder On-Premise? Benötigt die Lösung High-Speed-Computing mit geringer Latenzzeit, um die Appplikation näher an das Edge-Gerät zu bringen? Und wie wirken sich die damit verbundenen Kosten auf das Return on Investment (ROI) aus?

Mit der Wahl der richtigen Konnektivität, der richtigen Sensoren und der richtigen Anwendung unter Berücksichtigung aller Kosten ist ein erster wichtiger Schritt in Richtung IIoT getan. Doch sollten Unternehmen sich bewusst sein, dass die Auswahl an Lösungen und Technologien in allen Bereichen von Tag zu Tag wächst. Umso wichtiger ist es, bei allen Vorteilen und Möglichkeiten des IIoTs realistische Erwartungen vorzugeben, die sich innerhalb der eigenen Unternehmensstrategie umsetzen lassen.