Archiv der Kategorie: IOT – IoT-Praxis

Den Weg der digitalen Transformation in der Produktion meistern

Digitalisieren Sie schon oder suchen Sie noch? Der nächste Digitalisierungskongress steht sicherlich irgendwo kurz bevor und wieder werden Heerscharen von Besuchern die Vorträge aufsaugen. In den Pausen werden sich die Teilnehmer unterhalten, um herauszubekommen, was man denn nun endlich digitalisieren muss und wie man das am besten anstellt. Danach wird man wieder nach Hause fahren und vermutlich feststellen, dass man noch nicht genug weiß, um anzufangen und man sich noch weiter informieren muss… oder, Sie fangen einfach mal an! Huch, wie verrückt ist das denn?

Wie heißt es schön, der Appetit kommt beim Essen und daher ist die Empfehlung der Experten, mit der Digitalisierung einfach anzufangen. Unternehmen sollen mit kleinen Projekten, Proof of Concepts oder einfachen Prototypen, starten, um Innovationen zu fördern und ein kreatives Umfeld zu schaffen, welches für die digitale Transformation notwendig ist. Es gibt übrigens einen Unterschied zwischen Digitalisierung und digitaler Transformation. Bei der Digitalisierung werden bestehende Produkte und Prozesse in der digitalen Welt abgebildet. Entweder 1:1 parallel als digitale Kopie beziehungsweise Digitaler Zwilling oder ein Produkt wird nur noch digital angeboten. Am einfachsten lässt es sich an Hand eines Musikstücks erklären. Wurden zu Anfang noch analoge Datenträger erstellt, wurden später digitalisierte Musikstücke auf einer CD digital gespeichert. Trotzdem wurde diese CD noch über den klassischen Vertriebsweg angeboten. Digitale Transformation bedeutet nun, die Musik wird digital im Studio produziert und als digitales Musikstück über digitale Vertriebswege angeboten. Was die Musik beim Zuhörer auslöst ist immer noch das Gleiche, sprich an den Bedürfnissen des Nutzers und an der Leistung des Produktes selbst hat sich noch nicht einmal etwas geändert und trotzdem läuft alles anders. Wenn man sich jetzt noch dazu denkt, dass durch Digitalisierung neue Zielgruppen erreicht und neue Bedürfnisse befriedigt werden können (z. B. Autos per App kurzfristig mieten), was vorher technisch gar nicht möglich war, erschließt sich das komplette Potenzial der Digitalisierung. Aber weil es so komplex und vielfältig ist, und man nichts falsch machen möchte, ist die erste Reaktion oft „abwarten“. Dieser Prozess lässt sich aber auch proaktiv gestalten und somit „agieren“ statt später nur „reagieren“ zu können.

Anhand von sechs Stufen ist es möglich seine eigene Digitalisierungsstrategie zu definieren und mit ersten Prototypen zu testen. Die sechs Stufen sind:

  1. Strategie – Möglichkeiten entdecken
  2. Readiness – Fitness Check durchführen
  3. Roadmap – Richtung und Meilensteine festlegen
  4. Technologie – Radar der technischen Möglichkeiten
  5. Prototyp-Entwicklung – Erste funktionale Anwendung umsetzen und testen
  6. Realisierung – Umsetzungsprojekt starten

Das 6-Phasen-Modell der digitalen Transformation

Abbildung 1: Das 6-Phasen-Modell der digitalen Transformation / Quelle: Trebing+Himstedt

Strategie

Nur wer weiß, in welchen Hafen gesegelt werden soll, kann die Segel entsprechend setzen. Daher ist es zunächst wichtig, sich über das Ziel im Klaren zu sein und vor allem auch alle Beteiligten abzuholen und ein gleiches Zielverständnis zu haben. Speziell in dieser Phase bietet sich Design Thinking als Methode an. Diese Methodik ist immer dann gut einzusetzen, wenn eine offene Fragestellung aus Anwenderperspektive in einem interdisziplinären Team angegangen werden soll. Es ist also noch nicht klar was und wie etwas zukünftig angeboten wird, aber es soll einen Nutzen für den adressierten Anwender bringen. Der Design-Thinking-Prozess schafft zunächst ein tiefgehendes Verständnis der Problemstellung bei allen Beteiligten, eröffnet dann einen breiten Lösungsraum und hilft, die richtige Auswahl durch unmittelbares Anwender-Feedback zu treffen. Kreativitätstechniken, haptische, funktionale Prototypen und unmittelbare Rückmeldungen der potenziellen Anwender zeichnen diese Methodik aus.

Die Phasen des Design-Thinking-Prozesses

Abbildung 2: Mit Design-Thinking zur Strategie / Quelle: Trebing+Himstedt

Der gefundene Lösungsansatz stellt die Strategie der Digitalisierungsaufgabe dar. Die kann eine Digitalisierung der bestehenden Prozesse sein, um die Effizienz zu erhöhen, aber genauso ein komplett neues Geschäftsmodell auf Basis des Digitalen Zwillings. Wie gesagt, der Ausgang des Workshops ist prinzipiell offen.

Readiness

Um nun den Weg zur Lösung beschreiben zu können, ist eine realistische Ist-Aufnahme notwendig, um die Lücke zu analysieren, die möglicherweise zu schließen ist. Beim Readiness-Check sind die Dimensionen Mensch, Organisation und Technik zu untersuchen, um festzustellen, wie fit die Organisation oder Einheit für die geplante Digitalisierung ist. Zu überprüfen ist, ob die Personen die notwendigen Kenntnisse und Fähigkeiten und auch den Willen haben, den Veränderungsprozess mitzugestalten und mitzugehen. Die anfallenden Aufgaben und Funktionen werden auf Basis situativer und spezifischer Stärken verteilt. Bei der Organisation ist zu überprüfen, wie agil die Strukturen auf Veränderungen reagieren können und gegebenenfalls erfolgt ein neuer Zuschnitt der Aufgaben und Rollen. Die vermutlich einfachste Überprüfung findet auf der technischen Ebene statt – wie weit können Funktionen und Prozesse bereits vernetzt und dezentral in Echtzeit umgesetzt werden. Sprich, wie modular und vernetzt ist meine Fertigung und welche neuen Technologien können den Prozess unterstützen.

Dimensionen des Readiness-Checks

Abbildung 3: Mensch, Organisation und Technik (Quelle: Trebing+Himstedt, BMAS, in Anlehnung an Hirsch-Kreinsen 2016)

Roadmap

Nach den ersten beiden Phasen steht nun das Ziel fest und die Handlungsfelder sind durch die Gap-Analyse identifiziert. Die Roadmap stellt zu diesem Zeitpunkt jetzt noch keinen detaillierten Projektplan zur Verfügung, sondern bringt die Unterziele und Meilensteine in eine richtige Reihenfolge. Dies ist wichtig, um die Priorisierung der Aufgaben und Ressourcen richtig setzen zu können. Am Ende steht dann ein Programmplan, der die einzelnen Handlungsfelder auf Basis des jeweiligen Industrie-4.0-Reifegrades in eine sinnvolle Reihenfolge (Roadmap) von Einzelprojekten bringt.

Technologie

Wer in einer gängigen Suchmaschine die Phrase „Industrie 4.0 Technologien“ eingibt, erhält nahezu 4 Mio. Ergebnisse angezeigt. Damit wird klar, einen vollständigen Überblick wird niemand geben können. Durch den in der ersten Phase definierten Anwendungsfall schränken sich die Möglichkeiten aber wiederum drastisch ein. In dieser Phase geht es also darum, den Markt nach möglichen, unterstützen Technologien zu sondieren und deren Anwendbarkeit und Marktreife zu bewerten. Möchte ich beispielsweise an einem Montagearbeitsplatz die Interaktion des Werkers, der beide Hände voll hat, mit den IT-Systemen neu definieren gäbe es zum Beispiel Gestensteuerung, Sprachsteuerung, Blicksteuerung und noch weitere Alternativen, die es zu überprüfen gilt. Soll die Datenerfassung optimiert werden, könnten statt des klassischen Handscanners ein smarter Handschuh mit integriertem Scanner oder Datenbrille als Erfassungsgehilfen eingesetzt werden und so weiter.

Prototyp-Entwicklung

Der Prototyp in dieser Phase geht schon deutlich über den Prototypen in der Design-Thinking-Phase der Strategie-Entwicklung hinaus. Ein gebasteltes Papier-Scribble reicht hier nicht mehr aus, aber es handelt sich auch noch nicht um ein wirkliches Proof of Concept. Es geht in dieser Phase darum, die funktionalen Aspekte der Idee zu testen, eine volle Integration in Back-End-System oder ähnliches ist hier noch nicht notwendig. Eine leichte, schlanke Anwendung soll veranschaulichen, wohin die Reise gehen soll und dient der Überprüfung, ob ein Konzept generell funktionieren könnte. Man spricht hier auch von einem Minimum Viable Product (MVP), wörtlich ein „minimal überlebensfähiges Produkt“. Es geht also um die Grundfunktion, hübsch – sprich Nutzerfreundlichkeit et cetera – kommt später. Wichtig ist, an dieser Stelle auch schon sehr früh die Rückmeldungen der Anwender einzuholen. Wie würden sie es benutzen? Was ist gut? Was funktioniert so noch nicht? Die Entwicklung des Prototyps geschieht somit auch iterativ in mehreren Schleifen. Prototypen sind auch sehr gut geeignet, um den „Geldgebern“ der späteren Realisierungsphase den Fortschritt zu zeigen und zu beweisen, dass man auf dem richtigen Weg ist.

Realisierung und Go-Live

In der Realisierungsphase angekommen, geht es nun darum, die Idee in den Live-Betrieb zu überführen. Jetzt gilt es zu validieren, wann welche Systeme miteinander kommunizieren müssen. Idealerweise wird dies graphisch in einem Prozessdiagramm dargestellt. Die bildliche Darstellung hilft abteilungsübergreifend (bspw. IT und Fertigung), ein einheitliches Verständnis vom finalen Prozess zu erhalten. Nach Auswahl der notwendigen Technologien und Systeme wird der Projektplan mit den notwendigen Meilensteinen abgestimmt. In den meisten Fällen empfiehlt es sich hier, eine agile Projektmethodik zu verwenden, um rechtzeitig auf Änderungen reagieren zu können. Je nach Umfang kann es hier auch notwendig sein, zunächst ein Proof of Concept an einer Maschine oder Linie umzusetzen, um das Konzept im Live-Betrieb zu testen, bevor es am Standort oder global ausgerollt wird.

Die Produkt-DNA entschlüsseln

Will man sich die Komplexität heutiger Produkte vor Augen führen, lohnt sich ein Blick unter die Motorhaube eines Autos. Durchschnittlich stecken in einem Fahrzeug 100 Kommunikationsbusse, die Informationen innerhalb des Fahrzeugs übertragen, 200 Steuergeräte, die rund 400 Funktionalitäten wie Beschleunigung, Kollisionsschutz, Audio, GPS oder Sitzheizung regeln. Hinzu kommen 2.000 Softwarekomponenten und Anwendungen, die rund 10.000 Signale aus allen Bereichen des Fahrzeugs verarbeiten und austauschen. Von der eigentlichen Hardware gar nicht zu sprechen.

Insgesamt setzt sich ein Auto aus über 30.000 mechanischen Teilen zusammen – von der Schraube über die Windschutzscheibe bis zur Glühbirne. Alle diese Komponenten müssen in unzähligen Konfigurationen zusammen arbeiten, um ein Produkt zu realisieren, das seinen Nutzer nicht nur von A nach B bewegt, sondern gleichzeitig auch alle regulatorischen Anforderungen und Sicherheitsauflagen erfüllt.

Wir erstellen Excel-Tabellen und Stücklisten zur Rückverfolgung, speichern strukturierte und unstrukturierte Daten in ERP, PDM oder DAM/PIM und modellieren mit Hilfe verschiedenster Entwicklungs-Tools. Letztendlich jedoch beschreiben all diese unterschiedlichen Arten von Informationen ein einzelnes Produkt. Noch immer liegt diese Produkt-DNA bei vielen Herstellern verteilt in Datensilos und kann nur in Teilansichten betrachtet werden. Eine einfache und schnelle Navigation durch sämtliche Daten, um zu erkennen, wie einzelne Komponenten im Gesamtkontext zusammen hängen ist damit unmöglich. Mit zunehmender Konnektivität im IoT und IIoT, ist kaum zu erwarten, dass diese Komplexität zurückgeht.

Knowledge Graph & Künstliche Intelligenz

Das Management komplexer großer Datenmengen ist eine Herausforderung und konsequenterweise geht der nächste Schritt in Richtung Künstliche Intelligenz. Knowledge Graphen schaffen einen Wissenskontext aus relevanten Informationen, der Unternehmen dabei hilft bessere Entscheidungen zu treffen und diesen Prozess zu automatisieren.

Eigenschaften eines Knowledge Graphs:

  • Heterogene Daten werden verknüpft, um Informationssilos miteinander zu verbinden und Abhängigkeiten aufzuzeigen.
  • Da Daten allein noch kein Wissen vermitteln, werden nur die Informationen miteinander verknüpft, die über gemeinsame, relevante Attribute verfügen.
  • Dabei sind Knowledge Graphen dynamisch, d.h. sie verstehen warum bestimmte Daten füreinander relevant sind und können entsprechende Zuordnungen über Attribute selbständig vornehmen. Neue Daten müssen somit nicht jedes Mal manuell in den Graphen eingepflegt werden.
  • Intelligente Metadaten ermöglichen Data-Mining bzw. Knowledge-Mining und vereinfachen die Navigation, um tiefer im Graphen nach Detailinformationen zu suchen und Antworten auf völlig neue Fragen zu finden.

KI-Lösungen wie Machine Learning oder Natural Language Processing (NLP) können den Knowledge Graph mit neuen, prognostizierten Datenbeziehungen anreichern. Der semantische Kontext des Graphen wiederum kann von Machine Learning Engines herangezogen werden, um Vorhersagen zu verbessern.

Die Produkt-DNA abbilden

Innerhalb des Produktdatenmanagements kann ein Knowledge Graph dazu genutzt werden, um eine Art Landkarte aller Funktionen eines Produkts zu entwerfen und darauf die Abhängigkeiten anschaulich nachzuziehen. Statt einer Liste aller Funktionalitäten entsteht so ein zentraler Wissens-Hub, der ein Produkt in Gänze abbildet. Über Analytikverfahren lassen sich Schleifen (Loops) im Systemdesign identifizieren, Cluster erkennen, die ideale Sequenz von Prozessen definieren und die Projektplanung optimieren.

Anschaulich lässt sich das wieder am Beispiel des komplexen Produkts „Auto“ zeigen: Die meisten Fahrzeuge lassen sich per Funkschlüssel ver- und entriegeln. Drückt man lange genug auf den Knopf, werden neben den Türen auch offene Fenster und das Schiebedach geschlossen. Überträgt man diese Funktionalität in einen Knowledge Graph ergibt sich ein Modell aus vier Knoten, die über Kanten miteinander verbunden sind: übergeordnete Funktion „Öffnen/Schließen“, Zentralverriegelung Türen, Fenster und Sonnendach.

So simpel das Modell auch wirkt, enthält es eine Reihe an nützlichen Informationen für das Entwicklerteam. Intuitiv lässt sich nachvollziehen, dass die Änderung einer Funktion sich unmittelbar auf die anderen auswirkt. Bei Re-Designs und Anpassungen sollten Entwicklerteams der jeweiligen Funktionen deshalb eng miteinander zusammenarbeiten, um auch weiterhin die Gesamtfunktionalität sicherstellen zu können. Die jeweiligen Ansprechpartner, die es zur nächsten Projektbesprechung einzuladen gilt, lassen sich ebenso im Knowledge Graph finden. Hinzu kommen weitere Produktfunktionalitäten, die mit der Funktion „Öffnen/Schließen“ direkt verknüpft sind – beispielsweise das automatische Deaktivieren der Scheinwerfer und der Innenbeleuchtung oder das kurze Audio- und Lichtsignal beim Betätigen des Autoschlüssels, das anzeigt, dass das Fahrzeug tatsächlich verriegelt ist. Dieses Lichtsignal ist wiederum Teil der Funktion der Warnblinkanlage.

Komplexität managen

Die Liste an solchen Abhängigkeiten ist schier endlos und die Komplexität enorm. Für Hersteller rücken dabei zentrale Fragen in den Vordergrund: Wie kommt es zu Abhängigkeiten zwischen Komponenten und Funktionalitäten? Wodurch entstehen im Produkt-Design Synergien oder Schwachstellen? Wird das richtige System und das effizienteste Tool genutzt? Welches Mindestmaß an Komplexität ist erforderlich, um alle Anforderungen an Qualität, Sicherheit und Nutzerfreundlichkeit zu erfüllen? Erst wenn Hersteller die DNA ihrer Produkte verstehen, lässt sich Komplexität nicht nur minimieren, sondern auch nutzen.

In fünf Schritten zu Sicherheit und Stabilität in Kritischen Infrastrukturen

Das Mai 2018 in zweiter Fassung veröffentlichte Whitepaper »Anforderungen an sichere Steuerungs- und Telekommunikationssysteme« übersetzt die Highlevel-Forderungen aus dem deutschen IT-Sicherheitsgesetz und dem »Österreichische Programm zum Schutz Kritischer Infrastrukturen« (APCIP) in technische Anforderungen. Trotz des vergleichsmäßig hohen Detailgrades, auf den sich der deutsche Bundesverband der Energie- und Wasserwirtschaft (BDEW) und Österreichs Energie (OE) geeinigt haben, bleiben die Maßnahmen vage in der konkreten Umsetzung.

Das Whitepaper beschreibt auf 80 Seiten und in acht Maßnahmengruppen, wie die Prozess- und Netzleittechnik (PNLT) von Energie-, Wasserwirtschafts- und Öl/Gas-Unternehmen vor Störungen geschützt werden soll. Die Gruppen umfassen:

  1. Allgemeine Anforderungen (Sichere Systemarchitektur, definierte Verwaltungsprozesse, Sicherstellung der Datensicherheit und -integrität)
  2. Projektorganisation (Ansprechpartner, Tests, Datenspeicherung und -übertragung, Übergabeprozesse)
  3. Basissystem (Systemhärtung, Schadsoftware-Schutz, Authentifizierung, Virtualisierung)
  4. Netzwerk und Kommunikation (Protokolle, Segmentierung, Fernzugänge, Dokumentation)
  5. Anwendung (Rollen, Authentifizierung, Autorisierung, Umgang mit Webapplikationen, Integritätsprüfung, Logging)
  6. Entwicklung (Standards, Freigabe, Integrität)
  7. Wartung (Updates, Konfigurations- und Change Management, Sicherheitslücken)
  8. Datensicherung und Notfallplanung (Backup, Wiederanlauf)

Am Tagesgeschäft vorbei gedacht

Die Maßnahmengruppen des Whitepapers folgen damit der Architektur und Struktur der PNLT. Das Whitepaper verfehlt damit jedoch die Day-to-Day-Workflows und Zusammenhänge zwischen einzelnen Maßnahmen. Die Prozess- und Organisationslogik der IT/OT-Sicherheit wird nicht abgebildet. Insbesondere fehlt die Eingliederung in die etablierten Managementsysteme (wie QMS oder ISMS), die der Logik des kontinuierlichen Verbesserungsprozesses (Plan, Do, Check, Act) folgen. In der IEC 62443 wird dies zumindest in Teilen mit der Beschreibung der Risikoanalyse begonnen. In der Schweiz orientiert sich das »Handbuch Grundschutz für «Operational Technology» in der Stromversorgung« des VSE explizit am US-amerikanischen NIST-Standard. Dieser bricht die Cybersicherheit in Kritischen Infrastrukturen auf fünf logische Ebenen eines Defense-In-Depth-Konzepts herunter, die in einem Verbesserungsprozess münden:

  1. Identifizieren (Identify)
  2. Schützen (Protect)
  3. Erkennen (Detect)
  4. Reagieren (Respond)
  5. Wiederherstellen (Recover)

Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)
Abb. 1: Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)

BDEW-Whitepaper im Prozesskontext

Es ergibt daher Sinn, die Anforderungen des BDEW-/OE-Whitepapers auf die fünf Schritte des NIST-Frameworks zu beziehen.

Schritt 1: Identifizieren

Hinter dem Identifizieren verbergen sich alle Aspekte einer detaillierten Risikoanalyse. Der erste Schritt ist hierbei die Herstellung vollständiger Transparenz in Bezug auf:

  • Netzwerkstruktur
  • Komponenten, ihre Eigenschaften, Prozesse und Services
  • Bestehende Sicherheitslücken
  • Kommunikationsverbindungen (intern und mit externen Netzen)
  • Kommunikationsverhalten der einzelnen Komponenten
  • Kommunikationsprotokolle
  • Kommunikationsinhalte
  • Unterliegende Prozesse

Letztlich verbirgt sich hierunter vor allem die Maßnahmengruppe 4 »Netzwerk und Kommunikation«. Aber auch Aspekte der Gruppen »Allgemeine Anforderungen« (bestehende Sicherheits- und Monitoringstrukturen, Verwaltungsprozesse), »Projektorganisation« (Verantwortliche) und »Wartung« (Updates, Konfigurationen, Sicherheitslücken) fallen hierunter.

Grundsätzlich geht es darum, eine ganzheitliche Istanalyse der PNLT, organisatorischen Struktur und Gefährdungslage durchzuführen. Sie bildet die Basis, um festzulegen, worüber überhaupt gesprochen werden muss. Damit die nachfolgenden Schritte der Sicherung weder im Gießkannenprinzip ausgeführt werden, noch zu kurz gedacht werden, muss zwingend vollständige Transparenz hergestellt werden. Technologisch sollte hierbei über diesen Zeitraum der Istanalyse hinaus gedacht werden, denn auch im laufenden Betrieb der Sicherung, Erkennung und Reaktion steht und fällt die Handlungsfähigkeit der Verantwortlichen mit der Transparenz.

Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)
Abb. 2: Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)

Die Istanalyse ist auch nicht nur relevant, um die eigene PNLT besser zu verstehen. Sie offenbart in der Regel auch bestehende Engpässe, Gefährdungen und Fehlerzustände. In Stabilitäts- und Sicherheitsaudits, die wir regelmäßig in Kritischen Infrastrukturen im Rahmen der Erst- und Wiederholungsanalyse durchführen, finden sich im Schnitt rund 22 Gefährdungskategorien, die bislang den Verantwortlichen unbekannt waren. Die Analyse erfolgt hierbei mittels der industriellen Anomalieerkennung Rhebo Industrial Protector, die jegliche Kommunikation und Komponenteneigenschaften innerhalb der PNLT bis auf Inhaltsebene analysiert.

Schritte 2 und 3: Sichern und Erkennen

Diese Systemlösung bildet im Anschluss des Schrittes »Identifizieren« als Monitoring- und Detektionswerkzeug auch das Rückgrat der Sicherung der PNLT und des Erkennens von Störungen. Hierbei lernt die Anomalieerkennung das zu erwartende Verhaltensmuster der PNLT und analysiert die Kommunikation im Normalbetrieb auf Abweichungen (Anomalien). Wie vielfältig diese Anomalien ausfallen können, skizziert ein im März 2019 von der Allianz für Cyber-Sicherheit des BSI veröffentlichte Empfehlung zu Monitoring und Anomalieerkennung in industriellen Netzen. Die Anomalien werden in Echtzeit gemeldet und für die forensische Analyse inklusive der Rohdaten gespeichert.

Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen abgerufen (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo)
Abb. 3: Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen nachgeschaut werden (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo Industrial Protector)

Bei der Sicherung kommen hierbei die bekannten Mechanismen wie Segmentierung, Rollenkonzepte, Authentifizierung, Autorisierung, Prüfung der Datensicherheit und -integrität, Veränderungsmanagement, aktive Schadsoftware-Werkzeuge zum Einsatz. Diese sind im BDEW-/OE-Whitepaper über fast alle Kategorien verteilt. Im Sinne des Defense-in-Depth-Ansatzes, nach dem »Es gibt keine 100 prozentige Sicherheit.« die Basis aller Erkenntnis ist, übernimmt die Anomalieerkennung hier die Instanz eines durchgängigen Überwachungs-, Analyse- und Frühwarnsystems. Der Schutz der PNLT geht somit Hand in Hand mit der Fähigkeit, jedwede Veränderung zu detektieren. Denn nur was gesehen wird, kann auch abgewehrt werden. Das ist umso wichtiger in Infrastrukturen, die aus pragmatischen Gründen nicht auf Fernzugänge oder Webapplikationen verzichten können. Veränderungen betreffen hierbei nicht nur Vorfälle, die eindeutig als Sicherheitsgefährdung identifiziert werden können. Insbesondere wird auf die Fähigkeit hingewiesen, Vorgänge zu erkennen, die nicht durch die gängigen Blacklisting- oder Whitelisting-Konzepte abgedeckt werden. Diese Anomalien oder Abweichungen vom zu erwartenden Netzverhalten bergen bei täglich rund 400.000 neuen Schadprogrammen die eigentliche Gefahr.

Schritte 4 und 5: Reagieren und wiederherstellen

Diese Schritte werden im BDEW-/OE-Whitepaper nur sehr abstrakt behandelt, auch wenn sie im Tagesgeschäft die eigentliche Herausforderung darstellen. Über alle Kategorien wird auf die Notwendigkeit einer Notfallkonzeption verwiesen, konkrete Ansätze hierfür fehlen jedoch auch im eigentlichen Kapitel »Datensicherung und Notfallplanung«.

Eine sinnvolle Reaktion auf einen Vorfall im Sinne der Abwehr sowie internen und externen Kommunikation kann nur erfolgen, wenn alle Daten zum jeweiligen Vorfall vorliegen. Dazu gehören sowohl Details zu den Kommunikationsinhalten als auch Informationen zum Verlauf und den beteiligten Komponenten und Systemen. Die notwendige Vorfallsanalyse ist letztlich nur so gut, wie die Vorfallsdaten vollständig sind. Entsprechend hängen sowohl Effektivität der Reaktion als auch die Geschwindigkeit der Wiederherstellung und die kontinuierliche Verbesserung zur Steigerung der Resilienz maßgeblich von einer stichhaltigen und schnellen Analyse ab. Nicht zuletzt ist die Fähigkeit zur Analyse und Dokumentation auch für die Meldepflicht maßgeblich.

Verantwortliche in Kritischen Infrastrukturen sollten deshalb Überwachungssysteme auch danach bewerten, ob diese die Reaktion auf Vorfälle und die Wiederherstellung unterstützen. Dazu gehören:

  • Detailspeicherung von Anomalien mit Metadaten und Rohdaten;
  • Speicherung in universellem Format (z. B. PCAP), um Daten leicht teilen und programmunabhängig analysieren zu können;
  • universelle Schnittstellen (REST-API, Syslog u.a.) zur schnellen, verlustfreien Weiterleitung an andere Sicherheitssysteme (z. B. aktiv blockende Firewalls oder SIEM)
  • automatisierte Weiterleitungsregeln zur Unterstützung der unternehmensinternen Prozesse.

Auch diese Anforderungen können von einigen industriellen Anomalieerkennungen vollumfänglich abgebildet werden.

In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)
Abb. 4: In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)

Fazit

Wer das BDEW-/OE-Whitepaper umsetzen möchte, sollte auch weitere Empfehlungen (z. B. des VSE und des BSI) berücksichtigen, um gezielt und strukturiert die Anforderungen umsetzen zu können. Grundsätzlich sollte das Konzept der Defense-in-Depth verfolgt werden. Zu dieser gehört neben aktiven Absicherungswerkzeugen (Firewalls, Virenscanner, Datendioden) auch eine passive Monitoringkomponente in Form einer industriellen Anomalieerkennung. Die Chief Information Security Officers und IT-Leiter Kritischer Infrastrukturen erhalten die bislang fehlende Sichtbarkeit in ihre Netzwerke, ein proaktives Frühwarnsystem und schaffen eine fundierte Basis für das übergeordnete Netzwerk-Monitoring und die forensische Datenanalyse. Damit können sie ihre Prozess- und Netzleittechnik effektiv gegen Störungen wie Cyberattacken, Manipulation aber auch technische Fehlerzustände schützen und die Versorgungssicherheit gewährleisten.

Unternehmenssicherheit: Insider Threats erfolgreich abwehren

Moderne Systeme für Dynamic Data Protection helfen dabei, Daten vor Verlust und Diebstahl verlässlich zu schützen. Sie ermöglichen flexible und dynamische Sicherheitsmechanismen auf Basis eines individuellen Risiko-Scores. Auf diese Weise lässt sich die höchstmögliche Produktivität der Mitarbeiter beibehalten und ein maximaler Schutz der Daten sicherstellen.

Das größte Risiko für die Datensicherheit in Unternehmen kommt von innen – durch so genannte Insider Threats. Dabei lassen sich verschiedene Arten von Bedrohungen unterscheiden: Häufig begünstigen Mitarbeiter unwissentlich oder unbeabsichtigt die Abwanderung sensibler Unternehmensdaten. Beispielsweise können durch die arglose Mitnahme und fahrlässige Verwendung von firmeninternen USB-Sticks oder anderen Datenträgern betriebliche Informationen in fremde, unberechtigte Hände gelangen. Ein weiterer Risikofaktor ist der absichtliche Datendiebstahl durch Firmenangehörige: In diesem Fall handeln die Täter mit Vorsatz oder kriminellem Motiv und nehmen einen Schaden für das Unternehmen durch die Veruntreuung von Daten bewusst in Kauf. Eine dritte Kategorie von Bedrohungen sind kompromittierte Anwender. Dabei haben sich Kriminelle Zugang zu den Anmeldedaten eines Mitarbeiters verschafft und missbrauchen diese für Angriffe.

Eine Möglichkeit zur Abwehr der Risiken bieten Lösungen für Data Loss Prevention (DLP). Sie beinhalten herkömmliche Funktionen für Identitätsmanagement, Monitoring, Verschlüsselung sowie Zugriffskontrolle. Zudem steuern und überwachen sie Nutzer-Aktivitäten und bieten Mechanismen, um Datenströme im Unternehmensnetzwerk zu filtern und zu schützen. Konventionelle DLP-Systeme sind aber in der Regel sehr starr und bieten nicht die nötige Dynamik, um auf die verschiedenen Spezies von Insider Threats adaptiv zu reagieren. Die Lösungen fokussieren häufig nur den reinen Infrastrukturschutz oder die Abwehr von externen Gefahren. Dabei nutzen sie meist statische Auswertungen, die sich nicht flexibel an verschiedene Arten von Benutzern und Transaktionen anpassen und dadurch zusätzliche Sicherheitslücken verursachen. So verwenden solche Systeme für alle User immer die gleichen Policies und Richtlinien, verbieten von vornherein bestimmte Aktionen und schränken dadurch die Produktivität der Mitarbeiter erheblich ein. Überdies senden die meisten DLP-Lösungen an die Sicherheitsverantwortlichen in Unternehmen eine riesige Anzahl von teilweise unnötigen Alerts, auf die reagiert werden muss. Dies erhöht den Administrationsaufwand und verursacht zusätzliche Kosten.

Sicherheit im Einklang mit Produktivität und Effizienz

Einen weitaus effektiveren Schutz vor Insider Threats bieten moderne Lösungen für Dynamic Data Protection (DDP). Sie schneiden interne Sicherheitsrichtlinien ohne Zutun eines Administrators automatisch und adaptiv auf alle Nutzer oder Geräte zu. Dadurch können Unternehmen die Sicherheit ihrer Nutzer und Daten lückenlos mit den Anforderungen an Produktivität und Effizienz in Einklang bringen. Das Besondere: Flexibel und individuell passen DDP-Systeme die Reaktion auf einen Sicherheitsvorfall anhand des jeweiligen Risikos an. Auf diese Weise wird der momentane Sicherheitslevel automatisch und situativ an die jeweiligen Anforderungen angeglichen. Dabei besteht die Möglichkeit, dynamisch und je nach Rolle oder Verhalten eines Mitarbeiters spezielle Policies zu generieren.

Ein Beispiel: Eine bestimmte Person darf interne Daten auf einen USB-Stick kopieren und diesen mit nach Hause nehmen, um dort beispielsweise an einer Firmenpräsentation weiterzuarbeiten. Handelt es sich jedoch um kritische oder sensible Unternehmensdaten, besteht ein höheres Risiko. In diesem Fall regelt eine Richtlinie, dass der Mitarbeiter die Daten nur verschlüsselt kopieren darf. Ein weiteres Szenario beschreibt noch höhere Sicherheitsanforderungen: Hat ein Betriebsangehöriger bereits ein auffälliges Verhalten gezeigt – zum Beispiel durch einen versuchten Zugriff auf Daten, für die er nicht berechtigt ist – ist höchste Vorsicht geboten. Dann sollte eine entsprechende Policy ihm die Mitnahme von Daten komplett verbieten.

Risiko-Score resultiert aus Nutzerverhalten

Grundlage der Erkennungsmechanismen ist die Technologie „User and Entity Behaviour Analytics“ (UEBA). Die DDP-Lösung beobachtet dabei das Verhalten der Nutzer, definiert daraus automatisch einen bestimmten Risiko-Score und passt die Berechtigungen des Betroffenen adaptiv an die jeweiligen Risiken an. Beschäftigte mit geringem Risikofaktor verfügen dann über mehr Rechte und können dadurch produktiver arbeiten. Besonders wichtig ist es dabei auch, bestimmte Verhaltensänderungen eines Mitarbeiters zu erkennen. Greift er beispielsweise von einem anderen Ort als üblich auf Daten zu oder meldet er sich von einem bisher nicht genutzten Gerät an, wird ein erhöhtes Risiko festgestellt. Das DDP-System ist hierbei in der Lage, die jeweiligen Datenpunkte zu identifizieren und zu korrelieren. So lassen sich potenzielle Probleme und Bedrohungen frühzeitig erkennen und gezielt Gegenmaßnahmen einleiten. Beim Einsatz einer solchen Lösung ist jedoch das berechtigte Interesse von Mitarbeitern auf Privatsphäre gegenüber des zu erwartenden Schadens abzuwägen.

Dabei wird der Risiko-Score herangezogen, um die jeweilige Berechtigung des Users passgenau zu definieren, um also den Datenzugriff lediglich zu überwachen und zuzulassen, ihn zu verschlüsseln oder vollständig zu blockieren. So werden beispielsweise die Security-Experten im Unternehmen in hohem Maße entlastet. Diese können sich durch den hohen Automatisierungsgrad und die adaptiven, risikobasierten Anpassungen ganz auf relevante, auffällige Aktivitäten konzentrieren. Zudem lässt sich die benötigte Zeit für die verlässliche Erkennung von Risiken und Bedrohungen auf nur wenige Sekunden reduzieren.

 

Fazit

Insider Threats zählen zu den größten Risiken für die Sicherheit von Unternehmensdaten. Herkömmliche Security-Tools wie etwa DLP-Systeme reichen meist nicht mehr aus, um die Bedrohungen effektiv abzuwehren. Hilfreicher sind moderne Dynamic-Data-Protection-Lösungen, die auf einem risikoadaptiven Ansatz basieren. Sie richten sich nicht nach starren Policies, sondern passen sich dynamisch an das Verhalten der User und die damit verbundenen Risiken an. Dies wirkt sich positiv auf die Produktivität aus und gewährleistet gleichzeitig den optimalen Schutz der Daten.

IoT-Visionen erfolgreich umsetzen

Laut einer kürzlich durchgeführten Umfrage von Ovum unter mehr als 1.300 Unternehmen befindet sich die Einführung von IoT-Projekten derzeit häufig noch in einem frühen Stadium. Die am häufigsten genannten Ziele, die damit verfolgt werden, sind geringere Kosten, höhere Effizienz und bessere Wettbewerbsfähigkeit. Neue Umsatzquellen durch das Internet of Things sind dagegen für die meisten Unternehmen noch Zukunftsmusik. Doch zumindest berichten sie in der Regel von positiven Erfahrungen und planen, die Investitionen in diesem Bereich zu erhöhen.

Die größten Herausforderungen bei der Einführung von IoT-Prozessen sind demnach die Integration mit der bestehenden IT, das Ermitteln der richtigen Analyse-Prozesse, Sicherheitsbedenken und fehlende interne Kapazitäten zur Unterstützung skalierbarer Implementierungen. Dies zeigt, dass eine stärkere Integration von IoT in bestehende Geschäftsprozesse, die Entwicklung geeigneter Lösungen für analytische Modellierung und Datenmanagement sowie die Abwehr von Sicherheitsgefahren die Einführung von IoT-Lösungen beschleunigen können.

Hohes Potenzial

Die Transformation, die hierdurch möglich wird, bietet trotz der frühen Umsetzungsphase ein enormes Potenzial für Unternehmen. Daher möchten sie clevere Führungskräfte schon jetzt so schnell wie möglich durchführen. Neben der Einführung von geeigneten Technologien ist es dabei ebenso wichtig, die möglichen konkreten Vorteile zu identifizieren. So erhöhen Investitionen in die Vorplanung und die Auswahl der richtigen Komponenten die Erfolgschancen eines solchen IoT-Projekts deutlich. Darüber hinaus bietet es sich häufig an, „groß zu denken, aber klein anzufangen“. Dadurch können Unternehmen in überschaubaren Projekten schnell Erfahrungen sammeln, die sich iterativ mit zunehmender Skalierung umsetzen lassen.

Intensive Abstimmungen nötig

Von Anfang an die richtigen Entscheidungen zu treffen und anschließend auf Kurs zu bleiben, sind wichtige Aspekte eines IoT-Projekts. Um schon zu Beginn die Planung richtig zu gestalten, sollte ein Projektleiter folgende Punkte berücksichtigen:

Erstens sollte er die nötigen CXO-Genehmigungen einholen und sich mit den Verantwortlichen abstimmen. Die meisten IoT-Projekte sind abteilungsübergreifend. So trägt ein Top-Down-Ansatz dazu bei, die Entscheidungsfindung und -umsetzung zu beschleunigen. Darüber hinaus sind für ein Projekt, das Technologien und Standards verwendet, die sich noch in der Entwicklung befinden, intensive Absprachen notwendig, um die entsprechenden Mittel und die Unterstützung der Führungskräfte zu erhalten. Andernfalls ist das Risiko sehr hoch, dass das Projekt scheitert.

Außerdem sollte der Projektleiter sicherstellen, dass auch eine regelmäßige Abstimmung zwischen Fachabteilungen und IT erfolgt. Das Internet of Things ermöglicht verbesserte oder veränderte Arbeitsabläufe und Geschäftsprozesse, welche die bestehende Technologie-Infrastruktur betreffen. Daher ist es von entscheidender Bedeutung, sorgfältig zu planen, Verantwortlichkeiten zu teilen und gemeinsame Ziele im Auge zu behalten.

Die richtigen Daten nutzen

Schließlich sollte der Projektmanager sicherstellen, dass das richtige Datenerfassungssystem eingesetzt wird. Dazu gehört die Ermittlung der zu erfassenden Daten sowie der Aufbau eines zuverlässigen Kommunikationskanals und einer IoT-Datenplattform, die aus den Daten relevante Informationen gewinnt. Sobald die Daten auf die richtige Weise erfasst wurden, lassen sich verwertbare Erkenntnisse daraus ziehen, um fundierte Entscheidungen zu treffen. Genau dies schafft einen deutlichen Mehrwert.

Entsprechend ergeben sich folgende Best Practices für IoT-Projekte:

  • Stellen Sie sicher, dass das Projekt definierte, greifbare Ergebnisse beinhaltet. Dies trägt dazu bei, den gewünschten Zeitplan einzuhalten.
  • Seien Sie realistisch bei der Planung Ihres IoT-Projekts. Sie sollten sich darüber im Klaren sein, in welchen Bereichen die Fähigkeiten Ihres Unternehmens begrenzt sind und wo es noch viel zu lernen gibt, damit Ihr Projekt Gestalt annimmt.
  • Eine IoT-basierte Business-Transformation erfordert auch ein umfassendes organisatorisches Change Management. Die Anpassung an neue Arbeitsweisen, neue Prozesse und neue Richtlinien muss schrittweise und behutsam erfolgen, um die gewünschten Ziele zu erreichen.
  • Große IoT-Projekte betreffen häufig mehrere Teams im Unternehmen. Diese sind von Anfang an einzubeziehen, um durch eine Kultur der gemeinsamen Verantwortung den Erfolg des Projekts zu gewährleisten. Sichern Sie auch das Engagement wichtiger Führungskräfte, damit das IoT-Projekt den notwendigen Fokus sowie Unterstützung von allen Bereichen des Unternehmens erhält.
  • Bauen Sie die nötigen Partnerschaften mit Teams innerhalb Ihres Unternehmens sowie mit externen IoT-Anbietern, Experten und Beratern auf. Damit können Sie Lücken bei Wissen oder Fähigkeiten schließen.

Fazit

Die Steigerung von Geschäftsergebnissen ist ein wichtiges Ziel eines erfolgreichen IoT-Projekts. Um Ihre IoT-Vision zu verwirklichen, müssen Sie jedoch flexibel und anpassungsbereit sein. Die Herangehensweise an solche Projekte mit einem hohen Maß an Kontrolle und festen Vorstellungen wird nur zu Enttäuschungen führen. Dagegen verspricht ein offener und kooperativer Ansatz wesentlich bessere Erfolgsaussichten.

Trotz Automatisierung: Ohne den versierten Softwarenutzer geht‘s nicht

Unternehmen, die diesen Trend erkennen, entscheiden sich verstärkt für spezielle Marketing-Automation-Lösungen; so beispielsweise auch eine  internationale Management- und Technologieberatung. Den dortigen Verantwortlichen war aber auchklar: Selbst die beste Software entfaltet ihr Potenzial nicht von allein. Es bedarf geschulter Anwender im Unternehmen, die den digitalen Helfer optimal einsetzen können. Man legte daher besonderen Wert darauf, die Software-Einführung mit zielgerichteten Mitarbeitertrainings zu flankieren. Hier kommen Customer-Engagement-Spezialisten ins Spiel.

Keine E-Mail verschwindet im Nirwana

Das internationale Consultingunternehmen unterhält Büros in über 20 Ländern und beschäftigt mehrere Tausend Mitarbeiter. Um den umfangreichen E-Mail- Verkehr im Marketing besser zu managen, führte es ein Marketing-Automation-Tool ein. Besonders wichtig war den Verantwortlichen, dass sämtliche Daten, die bei den automatisierten Marketing- Prozessen erfasst werden, dann automatisch im CRM zur Verfügung stehen. Denn so lassen sich alle Aussendungen überwachen und analysieren. Eine solche Lösung stellt für jede E-Mail fest, ob sie angekommen ist und gelesen oder gelöscht wurde. Die Software registriert jeden Klick auf Verlinkungen in der Mail. Damit sind die Absender genau im Bilde, ob der Empfänger auf der Website war und welche Seiten er dort besucht hat.

Generalprobe zunächst an nur einem Standort

Die Marketing-Mitarbeiter in einer der Niederlassungen in Europa waren die ersten, die Erfahrungen mit der neuen Software sammelten. Die Software diente ihnen dazu, den Versand von internen und externen Newslettern und Einladungen zu optimieren. In der Regel verschickt diese Marketingabteilung monatlich tausende Eventeinladungen. Ihr Tracking und der Informationsrückfluss ins CRM-System gibt Hinweise, wie mit laufenden Aktionen weiter zu verfahren ist und wofür sich die Kunden in Zukunft interessieren könnten. Ein Anwender wird eine Software jedoch nur dann vollumfänglich nutzen, wenn er sie richtig kennt und mit ihr umzugehen weiß. Das Beratungsunternehmen holte sich daher gleich zum Projektstart Unterstützung ins Haus: CRM-Spezialisten, die sich besonders auf CRM und Customer Engagement fokussiert haben. Von Beginn an waren auch zwei Manager des Kunden dabei, die standortübergreifend für das Gesamtunternehmen verantwortlich sind und ihren Sitz in verschiedenen europäischen Großstädten haben: ein IT-Advisor und der Manager IT-Applications. Letzterer erhielt als zuständiger IT-Administrator eine besonders detaillierte Schulung.

Test bestanden, nun wird weltweit geklickt

Die Ergebnisse der Testphase waren vielversprechend. Anfang letzten Jahres fiel daher die Entscheidung, die Spezialsoftware unternehmensweit in allen Niederlassungen zu implementieren. Im ersten Schritt ging es darum, die Software für einen optimalen Versand und zur Nachverfolgung von Newslettern, Veranstaltungseinladungen und informellen E-Mails zu nutzen – in den lokalen Marketing-Abteilungen, die die Unternehmensberatung derzeit in mehr als zehn Ländern unterhält. Schließlich müssen sowohl die Marketing-Leute als auch die IT-Spezialisten vor Ort das Programm wie ihre Westentasche kennen, um es bestmöglich einzusetzen. Entsprechend haben die Mitarbeiterschulungen sofort begonnen, nachdem die Entscheidung für das Tool gefallen war. Innerhalb weniger Monate fanden dann in acht europäischen Metropolen zweitägige Schulungen statt. Aktuell sind weitere Mitarbeiter-Trainings in Planung.

Die IT harmonisieren und dennoch lokale Besonderheiten zulassen

Teilweise unterscheiden sich die einzelnen Marketingprozesse von Land zu Land – so ist beispielsweise die Kontaktbeschaffung verschieden: Manche Niederlassungen greifen auf Excellisten mit Kontaktdaten zurück, die ihnen Partner zur Verfügung stellen, andere bevorzugen Events, um Neukontakte zu erhalten, wieder andere nutzen dafür eher Quellen im Netz, etwa Unternehmenswebsites. Eine Anpassung der Software-Features an die konkreten lokalen Bedingungen kann daher sehr sinnvoll sein. Gemeinsam mit den Spezialisten haben die IT-ler vor Ort diese Anpassungen vorgenommen. Als außenstehender Dienstleister war es dabei deren Aufgabe, die globale Betrachtungsweise beizubehalten und eine gute Balance zwischen unternehmensweit einheitlicher Software und lokalen Besonderheiten zu finden.

Alle unter einen Hut bringen

Aktuell hat die Unternehmensberatung mehr als 40 Marketingmitarbeiter. Sie alle sollen nicht nur die neue Automation-Software nutzbringend einsetzen, sondern auch gegenseitig von ihren Erfahrungen profitieren. Ein guter Anbieter hält diese darum stets auf dem Laufenden, genauso wie die weiteren involvierten Mitarbeiter, etwa Regionalleiter für die DACH-Region, IT-Mitarbeiter und das Unternehmensmanagement. Nahezu wöchentlich fanden Abstimmungen mit dem Manager IT-Applications und den Vor-Ort-Teams statt. Insgesamt haben die Customer-Engagement-Spezialistenwährend der Einführung der Software die Arbeit von rund 50 Personen koordiniert.

Man muss es auch können wollen

Wie gut eine Software im Unternehmen funktioniert, hängt entscheidend von der Mitarbeiter-Akzeptanz ab. „Da gab es bei unseren Nutzern überhaupt keine Schwierigkeiten“, zeigt man sich im Projekt- Team des Consultingunternehmens zufrieden. Geholfen hat sicher, dass die Nutzer frühzeitig in das Softwareprojekt eingebunden waren. Zudem haben die Schulungsexperten die Mitarbeiter mit der Anwendung bestens vertraut gemacht. Neben einem weltweit verbesserten Customer Relationship Management mit einheitlich hohen Qualitätsstandards zählt dazu auch die strikte Anwendung des Corporate Designs durch vorgefertigte Templates. Auch eine indirekte Kostenreduktion durch gestiegene Effizienz ist absehbar, denn die diversen IT-Abteilungen müssen sich nur noch mit einem Marketing-Automation-Tool auseinandersetzen, das überall gleich ist.

Newsletter sind nur der Anfang

Der erfolgreiche Rollout– und die dazugehörigen Trainings – werden weitergehen. Es ist zudem geplant, in weiteren Ländern nationale Marketing-Abteilungen aufzubauen. Auch diese Teams werden die Customer-Engagement-Spezialistendann in kürzester Zeit auf den Wissensstand ihrer Kollegen bringen. Weitere Möglichkeiten der Software werden bereits besprochen. Denkbar wären beispielsweise Funktionalitäten für das Subscription- und das Event-Management. Was auch immer für Module in Zukunft noch zum Einsatz kommen, eins steht für die Unternehmensberatung fest: nämlich, dass professionelles CRM nur möglich ist, wenn die Nutzer mit dem System auch professionell umgehen können. Menschen bleiben wichtig, gerade im CRM-Kontext.

 

Mixed Reality reduziert Ausfallzeiten in der Produktion

Die Lösung: Über die Einbindung von Mixed Reality erklärt ein Sachverständiger aus der Ferne dem Mitarbeiter vor Ort schnell und einfach, was er zu tun hat, damit die Produktion wieder anläuft.

Virtual Reality, Augmented Reality, Mixed Reality – Diese Begriffe schwirren seit geraumer Zeit durch die Medien. Meist konzentrieren sich die Berichte auf Geräte für Endnutzer im Home-Entertainment-Bereich. Aber auch Unternehmen können diese Technologien einsetzen, um Arbeitsabläufe zu optimieren oder Services zu verbessern. Dabei sollte im ersten Schritt klar sein, für welche Szenarien die Begriffe stehen.

  • Virtual Reality (VR): Hier sieht der Anwender ausschließlich eine virtuelle Abbildung und nicht mehr die Realität. So kann er vollständig in virtuelle Welten eintauchen, ohne von der Wirklichkeit „gestört“ zu werden. Beispiele dafür sind immersive Computerspiele oder interaktive Schulungen.
  • Augmented Reality (AR): Hier wird die reale Welt durch virtuelle Objekte wie Pfeile, CAD-Daten oder Figuren erweitert. Theoretisch und bei idealer Technologie sind diese nicht von realen Objekten zu unterscheiden.
  • Mixed Reality (MR): Sie funktioniert im Prinzip wie AR, allerdings lassen sich hier virtuelle Objekte fest und über längere Zeit im Raum platzieren. So kann sich der Nutzer etwa zu einer virtuellen Maschine hin- oder von ihr wegbewegen oder eine andere Perspektive einnehmen, ohne dass sie ihre Position im Raum verändert. Diese Technologie wird „Spatial Mapping“ genannt und lässt sich in diesem Video nachvollziehen.

Diese drei verwandten Ansätze eröffnen zahlreiche neue Anwendungsmöglichkeiten für Unternehmen, so dass ihnen eine erfolgreiche Zukunft vorhergesagt wird. Laut Capgemini gehören AR und VR in drei bis fünf Jahren bei jedem zweiten Unternehmen zum Standard. Erst vor kurzer Zeit kam MR als dritte Variante hinzu, da die entsprechende Hardware und Software inzwischen in der Praxis einsatzfähig ist. Als die drei am besten geeigneten Einsatzgebiete haben sich hier die Bereiche „Prozessoptimierung“, „Training“ und „Remote Maintenance“ (auch „Remote Assist“ genannt) herausgestellt. 

Konkretes Einsatzbeispiel

Bei einem Produktionsunternehmen fällt eine Maschine in der Fertigungsstraße aus. Da sich der Herstellungsprozess nicht auf andere Maschinen umleiten lässt, steht die gesamte Straße still. Dieser Ausfall kostet dem Unternehmen pro Stunde mehrere tausend Euro. Daher muss der Fehler so schnell wie möglich behoben werden. Bislang hatte ein speziell ausgebildeter Mitarbeiter Handbücher und Bedienungsanleitungen zu lesen, um mögliche Ursachen festzustellen. Erst nach mehreren Versuchen war er erfolgreich. Doch das bedeutete noch lange nicht, dass er den Fehler auch sofort beheben konnte. Häufig galt es, einen Service-Techniker des Maschinenherstellers anzurufen. Im ersten Schritt musste der Mitarbeiter umständlich erklären, welcher Fehler aufgetreten ist, welche Maßnahmen er getroffen hat und warum die Behebung gescheitert ist. Anschließend erklärte der Service-Techniker telefonisch, welche Schritte zu unternehmen sind.

Mit Hilfe von Fernzugriff und Videotelefonie lassen sich diese Prozesse zwar verkürzen, doch auch hier hat der Mitarbeiter vor Ort häufig nicht beide Hände für die Reparatur frei oder muss immer wieder zwischen Maschine und Videobild hin- und herschauen. Diese Ineffizienzen vermeidet eine Mixed-Reality-Lösung. Damit erhält der Mitarbeiter sowohl die Maschine als auch die Anleitungen für ihre Reparatur in einem Blickfeld. Zusätzlich kann der externe Service-Techniker über virtuelle Objekte wie Pfeile, gezeichnete Kreise oder Grafiken aus dem Handbuch die durchzuführenden Schritte anschaulich erklären. Diese Objekte bleiben bei MR auch immer an der richtigen Stelle, selbst wenn sich der Mitarbeiter vor Ort bewegt. Damit lässt sich eine Reparatur deutlich schneller erledigen als mit herkömmlichen Maßnahmen. Wenn die Maschine dann statt einer Stunde nur noch 15 Minuten still steht, hat sich die Investition in die MR-Technologie meist schon nach einem Servicefall amortisiert.

HoloLens-Perspective1-2
(Quelle: Campana & Schott)
HoloLens-Perspective1-1
(Quelle: Campana & Schott)

Verfügbare Lösungen

Inzwischen stehen einsatzfähige Lösungen für AR und MR von verschiedenen Herstellern zur Verfügung. Dazu gehören etwa Microsoft, Magic Leap oder ODG, wobei sich der Markt jedoch ständig verändert. Gerade die Microsoft HoloLens dürfte mit der für dieses Jahr angekündigten neuen Version 2 einen großen Schritt nach vorne machen. Dies liegt nicht nur an der wohl deutlich verbesserten Hardware, sondern auch an neuen Software-Lösungen. So ermöglicht zum Beispiel Remote Assist die reibungslose Zusammenarbeit über Videotelefonie mit Hilfe von Heads-Up-Display, Freisprech-Funktion, Bildaustausch und Anmerkungen. Dadurch können Mitarbeiter vor Ort mit einem Experten teilen, was sie in der Realität sehen, während sie gleichzeitig die Hände frei haben, um Probleme zu lösen und Aufgaben schneller zu erledigen. Wie das funktioniert, zeigt dieses Video. Dabei ist die Lösung komplett in die Collaboration-Tools Microsoft Office und Microsoft Teams integriert sowie die Kommunikation auf Unternehmensebene abgesichert.

Da die aktuelle Version der HoloLens wenige tausend Euro kostet, dürfte der Preis für die zweite Version nicht wesentlich höher liegen. Mit der benötigten Standard-Software bleibt die Investition für eine MR-Lösung meist unter 5.000 Euro. Verglichen mit den Kosten für einen Produktionsausfall rentiert sich diese Anschaffung durch die Reduzierung der Zeit für die Problembehebung sehr schnell. Was Unternehmen beim Einsatz von MR sonst noch wissen müssen, etwa weitere Einsatzszarien oder Herausforderungen wie Capability Building, erfahren sie in einem Online-Seminar am 5. Februar 2019. Hier wird auch ein konkretes Einsatzszenario der Microsoft HoloLens live gezeigt. Eine Anmeldemöglichkeit gibt es hier.

Fazit

Für Fertigungsunternehmen bietet Mixed Reality zahlreiche Vorteile, um Gewinneinbußen durch Produktionsausfälle zu vermeiden. So können Mitarbeiter über die HoloLens einen Microsoft-Teams-Videoanruf an einen oder mehrere externen Experten starten. Dieser sieht die Maschine, kann das Bild einfrieren und mit einem Stift Pfeile oder Kreise zur Veranschaulichung zeichnen, die der Mitarbeiter vor Ort an der richtigen Stelle der Maschine im Sichtfeld eingeblendet bekommt – selbst wenn er sich bewegt. Damit kann er deutlich schneller die Maschine reparieren als mit herkömmlichen Methoden – und die Produktion läuft in entsprechend kürzerer Zeit wieder an.

 

 

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Der Weg in die Cloud ist unumgänglich

Mittelständische Unternehmen sind Experten in ihrer Nische. Um spezifische Aufgaben zu lösen, nutzen sie oft sehr spezifische IT-Lösungen, die die Effizienz im jeweiligen Arbeitsumfeld erhöhen. Diese Teilspezifizierung der IT ist einerseits notwendig, steht aber andererseits häufig der Entwicklung und Umsetzung einer IT- und Digitalisierungsstrategie im Weg. Fehlt diese übergreifende Strategie, finden viele Prozesse, die man mittels Software optimieren könnte, zu wenig Beachtung. Unmengen an Daten und Systemen sind dann nicht in die IT-Systemlandschaft integriert. Zudem haben viele Mittelständler nicht genügend IT-Fachpersonal und laufen darum Gefahr, den Anschluss an die fortschrittlichere Konkurrenz zu verlieren. Die Lösung: eine zukunftsweisende IT-Strategie, die ein gut positionierter CIO zielstrebig verfolgt.

Strategische Beratung und Unterstützung

Zu den Hauptaufgaben eines CIO zählt es heute komplexe, zerklüftete und heterogene IT-Strukturen, die über die Jahre als Ergebnis lokal optimierter Einzellösungen entstanden sind, aufzulösen. Solch eine Integration stellt angesichts einer siloartigen IT-Architektur und der fehlenden Gesamt-Roadmap häufig eine große Herausforderung dar. In solch einem Fall empfiehlt sich die Zusammenarbeit mit einem professionellen IT-Dienstleister, der Unternehmen strategisch berät und begleitet. Er unterstützt und berät bei der Anpassung der Geschäftsmodelle, erarbeitet eine passende IT-Strategie und migriert die gewünschten Lösungen in die Cloud – im Sinne eines Smart-Shift. Diese Transformation, die alle Cloud-Ebenen (PaaS, IaaS, SaaS) berücksichtigt, sollte schrittweise, bedarfsorientiert und im laufenden Betrieb erfolgen. Ein Smart-Shift ist zugleich strukturiert und risikoarm, und er kann im individuellen Tempo des Mittelständlers geschehen.

Multi-Cloud-Ansatz ist empfehlenswert

Die größtmögliche Flexibilität bietet ein Multi-Cloud-Ansatz. Die Entscheidung, welche Lösungen man in der Private-Cloud eines deutschen Anbieters betreibt und welche Anwendungen und Systeme man in internationale Public-Clouds auslagert, ist nicht leicht. Ein IT-Dienstleister zeigt verschiedene Möglichkeiten auf, skizziert adäquate Szenarien und erarbeitet eine bedarfsgerechte Kombination von dedizierten IT-Lösungen und verschiedenen Clouds. Er lagert Applikationen und Systeme in die Private-Cloud aus, bindet Public-Clouds möglichst sicher an die IT-Infrastruktur an und sorgt dafür, dass sich bei Bedarf im Projektverlauf weitere Services aus der Public-Cloud einbinden lassen.

Agilität ist Trumpf

Die Modernisierung veralteter IT-Strukturen ist ein Aspekt. Viele Mittelständler wollen aber auch ebenso agil, flexibel und effizient arbeiten können wie Startups. Eine cloudbasierte IT-Infrastruktur ist eine wichtige Voraussetzung für Agilität. Entscheidend ist zudem der richtige Mix aus Standardisierung und Individualisierung: Die Software-Basis sollte möglichst homogen sein, während einzelne Lösungen funktional angepasst sein müssen. Eine agile Arbeitsweise kommt mittelständischen Unternehmen bei der eigenen Transformation und bei Kundenprojekten zugute. Um agil arbeiten zu können, müssen sich Mittelständler von etablierten, aber schwerfälligen Prozessen verabschieden. Es gilt, mutig zu sein und sich schnell zu entscheiden. Anstatt monatelang ein Pflichtenheft zu erarbeiten, braucht es kurze Sprints, in denen IT-Experten kleine Teilaufgaben umsetzen – und dann analysieren, ob Ergebnis und Herangehensweise sinnvoll sind. Ist das der Fall, bilden solche Quick-wins eine optimale Basis für das weitere agile Vorgehen. Entpuppt sich ein Ansatz als wenig erfolgsversprechend, sollten Unternehmen das Ergebnis verwerfen und einen neuen Versuch starten. Flexibilität ist auch bei der Projektarbeit gefordert. Es braucht ein Kern-Team, das ein Projekt über seine gesamte Dauer begleitet und für Stabilität sorgt. Daneben ist es sinnvoll, Mitarbeiter mit ergänzenden Fähigkeiten für spezielle Aufgaben ins Boot zu holen. Sie können unvoreingenommen an eine Herausforderung herangehen, sie mit anderen Augen sehen und kreative Lösungsansätze entwickeln.

Kleine Schritte – große Wirkung: Drei Grundsätze für eine erfolgreiche Digitalisierung

Schritt 1: Notwendigkeit erkennen

Anzeichen für die Notwendigkeit, über Digitalisierungsvorhaben dringend nachdenken zu müssen, gibt es viele und auf fast jeder Unternehmensebene. Doch es gilt, sie zu erkennen und ernst zu nehmen.

So ist etwa die Tatsache, sich bei weitreichenden Entscheidungen auf das Bauchgefühl statt auf valide Kennzahlen verlassen zu müssen, für viele Manager heute noch bittere Realität und sollte die Verantwortlichen aufhorchen lassen. Regelmäßig wird es vor Strategie-Meetings hektisch, und Mitarbeiter müssen für das Erstellen flüchtiger Reports Überstunden machen. In der Regel fehlt es anschließend auch noch an einer Vernetzung der Daten, um eine Aussage zu überprüfen oder um ‚hier‘ gewonnene Erkenntnisse ‚dort‘ nutzbringend zu verarbeiten.

Ein anderes Problem und sicheres Signal für notwendige Veränderungen sind die ‘ungeschliffenen Rohdiamanten‘ in der Produktion. Dort wird Telemetrie gerne noch mit dem Klemmbrett gleichgesetzt, statt vernetzte Mess- und Regelsysteme auch über große Entfernungen (IoT) anzusprechen und zu nutzen. Ein sicheres Alarmsignal ist schließlich, wenn Daten ‘immer wieder‘ statt ‘ständig‘ aufgenommen werden müssen und unvernetzte Steuerungsprozesse nicht die Ausnahme, sondern die Regel sind.

Schritt 2: Mut zur Technik

Sind die Notwendigkeit und die Stellschrauben, an denen gedreht werden muss, erkannt, gilt es die technologischen Optionen abzuklopfen. Denen sind heute kaum mehr Grenzen gesetzt. Aussagen wie „An der Maschine ist aber kein Netzanschluss möglich!“ oder „Die Datenbank ist in Ihrer Größe begrenzt!“ können und dürfen heute nicht mehr Gründe für einen mangelnden Fortschritt der Digitalisierung sein. Wer hier zögert, sollte einen Blick in den südamerikanischen Dschungel wagen. Hier liefern heute Telemetriedaten die Basis für die Beauftragung einer Wartungscrew, da die Leitstelle in Frankfurt am Main erkannt hat, dass der Druck einer Pipeline um 0,001 mbar abgesunken ist. Alles in Echtzeit und über vernetzte Systeme.

Schritt 3: Prozesswissen im eigenen Haus

Die Auftragslage für externe Berater in allen Bereichen war noch nie so gut wie heute. In fast jedem Projekt sind die Schlüsselrollen mit Business-Analysten der TOP-Beratungshäuser besetzt, die eigenen Leute übernehmen die kleinteilige Arbeit. Nie zuvor war das Risiko höher, sich in eine andauernde und zudem teure Abhängigkeit zu begeben wie im Rahmen eines Digitalisierungsvorhabens, welches nicht hinreichendes, internes Wissen/Kompetenz aufweisen kann. Schritt drei heißt also, einen eigenen Chief Digital Officer als kreativen Kopf des Vorhabens einzusetzen und die Schlüsselrollen durch interne Experten zu besetzen. Auch wenn der Know-how-Aufbau ein Digitalisierungsvorhaben zunächst etwas verzögern mag, ist er der Schlüssel zur unabhängigen Nachhaltigkeit nach der Realisierung.

Kleine Schritte mit großer Wirkung

Natürlich ist es mit Schritt eins bis drei längst nicht getan. Auch Fragen etwa nach dem Budget oder dem Changeability-Potenzial eines Unternehmens spielen für den Erfolg von Digitalisierungsstrategien wichtige Rollen. Doch wem es gelingt, überhaupt Notwendigkeiten zu erkennen, eigene Teams aufzubauen und nicht an der technischen Umsetzung zu zweifeln, der schafft es auch, Budgetfragen realistisch zu bewerten und seine Mitarbeiter mit Empathie und Vertrauen mit auf die Reise zu nehmen.

*Volker Altwasser arbeitet bei der expertplace networks Group AG.