Archiv der Kategorie: IOT – IoT-Praxis

Cybersecurity Report – Trends und Entwicklungen 2019

Cyberkriminalität boomt weiterhin und auch 2019 wird rasante Entwicklungen und Herausforderungen für die IT-Sicherheit mit sich bringen. Sicherheitsexperten und Datenwissenschaftler des US-amerikanischen Cyber-Security-Anbieters Forcepoint haben sieben Trends und Bedrohungen identifiziert, die ein Umdenken in der Cybersecurity erfordern: Von Biometrischen-Hacking, Künstlicher Intelligenz und der Cloud als Einfallstor für IoT-Hacks bis hin zu branchenweiten Security Trust Ratings und einem Cyber Cold War aufgrund von neuem Isolationismus der Politik und Wirtschaft durch Handelsembargos.

Das gefälschte Gesicht – Hacker manipulieren Gesichtserkennungssoftware

Mit Phishing-Attacken und Hacks wie „SIM SWAPS“ untergraben Angreifer bereits regelmäßig die Wirksamkeit von Zwei-Faktor-Authentifizierung-(2FA)-Methoden (z. B. Login mit Passwort und SMS-Code).  Eine mehrstufige Authentifizierung  durch biometrische Merkmale bietet hier eine zusätzliche Sicherheitsebene. Sie verwendet Daten, die spezifisch für den End User sind. Der Technologiegigant Apple setzt bei seinen neuen iPhones etwa auf Gesichtserkennung. Fakt jedoch ist: Keine Authentifizierungs-Methode ist zu 100 Prozent sicher. Hacker werden zukünftig Identitäten trotz und gerade mit Gesichtserkennungssoftware stehlen. So überlistete bereits 2016 ein Bildverarbeitungsspezialist der University of North Carolina Gesichtserkennungssysteme mit öffentlich verfügbaren Digitalfotos und mobiler VR-Technologie. Unternehmen sollten sich daher mit verhaltensbasierten Systemen schützen. Tastenanschlag, Mausbewegungen, Geschwindigkeit beim Scrollen, etc. – physisches Verhalten einer Person ist eindeutig und lässt sich nicht nachahmen.

Industrie-4.0 – Angreifer nutzen Schwachstellen bei Hardware- und Cloud-Infrastruktur

In einer Umfrage unter 1.000 Forcepoint-Kunden identifizierten 76 Prozent die massive Einflussnahme auf industrielle IoT als wichtige Sicherheitsfrage. Die Vielzahl vernetzter Geräte, mobile Zugriffe und verschiedene Applikationen machen den Schutz von Systemen und Daten zunehmend komplexer. Mit gleichzeitig steigender Datenmenge setzen Unternehmen immer mehr auf Cloud-Lösungen und -Provider für Wartung, Updates und Device-Management. Die Multi-Tenancy-Architektur vieler skalierbarer Dienste für IoT-Systeme führt aber zu technologischen Schwachstellen. Angriffe auf die Cloud-Infrastruktur sind daher deutlich lukrativer, um wichtige Systeme zum Stillstand zu bringen. Produktion, Energieerzeugung und andere wichtige Sektoren könnten gleichzeitig betroffen sein. Ein effektiver, ganzheitlicher Schutz erfordert daher Einblicke in das Verhalten von Mensch und Maschine, um automatisch unautorisierte Eingriffe in IoT-Systeme zu verhindern, ohne dass die Verfügbarkeit beeinträchtigt wird.

Künstliche Intelligenz bleibt nur ein „Buzzword“ in der Cyber-Sicherheit

Künstliche Intelligenz, die menschliche Kognition bzw. geistige Aktivität reproduzieren kann, gibt es in der Cybersecurity nicht. Auch in 2019 wird KI ein beliebtes Schlagwort für Marketer und unausgereifte Produktlösungen bleiben. Manche Firmen gehen dabei sogar soweit, menschliche Eingriffe in ihr Produkt zu verschleiern. Automation und nicht KI per se, kann Security-Experten im Unternehmen in hohem Maße entlasten. So können sich diese durch einen hohen Automatisierungsgrad und adaptive, risikobasierte Lösungen sowie Anpassungen etwa ganz auf relevante, auffällige Aktivitäten konzentrieren.

Politische Isolation und Handelsstreit beschwören Cyber Cold War herauf

Spionage hat Staaten und Unternehmen schon immer einen Weg zum Erwerb neuer Technologien eröffnet.  Allein 43 Milliarden Euro Schaden durch Hackerangriffe hat der IT-Verband Bitkom und das Bundesamt für Verfassungsschutz für Unternehmen in Deutschland in den vergangenen zwei Jahren festgestellt. Isolationismus bei der Handelspolitik wird in vielen Fällen Nationen und Unternehmen dazu veranlassen, noch stärker durch Cyber-Taktiken Einfluss auf andere Staaten, kritische Infrastrukturen oder wichtige Branchen zu nehmen oder geistiges Eigentum stehlen. Solche Angriffe zielen dabei häufig auf einzelne Mitarbeiter als Einfallstor für Schadsoftware. Statt weitere Mauern zu bauen, gilt es daher, besser zu verstehen, wie und warum Menschen mit sensiblen Daten umgehen und wo sich diese bewegen. Mit der Analyse von Nutzerverhalten kann gezielt auf hochriskante Aktivitäten eingegangen werden. Mittels automatischer Anomalie-Erkennung können Unternehmen normales Nutzerverhalten sowie gewöhnlichen ein- und ausgehenden Datenverkehr von verdächtigen Datenbewegungen unterscheiden

Security Trust Ratings – die neue Grundlage für Kooperationen in der Wirtschaft

In der heutigen „Zero Perimeter World“, einer digitalen Welt ohne klare Grenzen, sind kritische Daten und geistiges Eigentum mehr denn je gefährdet. Die Verantwortung für die Datensicherheit bleibt dabei jedoch immer beim Unternehmen, auch wenn die Daten beispielsweise bei einem Provider liegen. Branchenweite Security Trust Ratings sind notwendig, wenn Unternehmen nach Zusicherungen suchen, dass Partner und Wertschöpfungsketten vertrauenswürdig und ausreichend gesichert sind. Firmen müssen Sicherheit daher von oben nach unten in ihre Unternehmenskultur integrieren. So funktioniert Sicherheit etwa nur, wenn Mitarbeiter das Gefühl haben, einen Beitrag zur ganzheitlichen Sicherheit des Unternehmens zu leisten. Sicherheit darf daher nicht nur in der Verantwortung der IT-Teams liegen, sondern ist ein Geschäftswert. So suchen schon jetzt 58 Prozent der befragten Forcepoint-Kunden aktiv nach vertrauenswürdigen Cloud-Anbietern mit einem guten Ruf für Sicherheit.

DSGVO – Mitarbeiter und Unternehmen streiten über Verantwortlichkeiten bei Datenverlust

Mit der DSGVO sind Konfrontationen im Gerichtssaal vorprogrammiert: 2019 wird es Gerichtsverfahren wegen Datenschutzverletzungen geben, bei denen ein Mitarbeiter seine Unschuld bekundet und ein Arbeitgeber vorsätzliches Handeln unterstellt. Ob ein Richter zugunsten eines Arbeitgebers oder eines Arbeitnehmers entscheidet, ist dabei nahezu irrelevant. Vielmehr werden mangelhafte IT-Sicherheitsmaßnahmen eines Unternehmens öffentlich präsentiert. Unternehmen müssen daher Menschen und Daten schützen und bösartige Aktivitäten identifizieren, bevor sie kritische Systeme und IPs schädigen. Die Analyse von Nutzerverhalten und Datenbewegungen am Arbeitsplatz hilft dabei das Gesamtbild eines Vorfalls zu verstehen. Eingesetzte Lösungen müssen dabei drei Grundprinzipien erfüllen: legitimer Zweck, Verhältnismäßigkeit und vollständige Transparenz. Der Schutz personenbezogener Daten und der Privatsphäre sollte Grundvoraussetzungen für jedes erfolgreiche Unternehmen sein.

Datenskandale – Mit Edge Computing die Vertrauenslücke schließen

Der Facebook-Datenskandal rund um Cambridge Analytica war 2018 nur die Spitze des Eisbergs. Das Vertrauen der User in viele Online-Dienste und dem verantwortungsvollen Umgang mit ihren Daten ist gering. Unternehmen werden versuchen mit Edge Computing diese Vertrauenslücke zu schließen. Daten werden nicht mehr automatisch in die Cloud geladen und zentral in einem Datencenter gespeichert, sondern auf dem jeweiligen Endgerät oder der Applikation (der „Edge“). Das verbessert den Datenschutz und erlaubt Usern mehr Kontrolle über ihre Daten. Edge Computing allein wird das mangelnde Vertrauen der Verbraucher aber nicht überwinden können. Es reicht nicht aus, dass Unternehmen Daten sowohl auf dem Gerät als auch in der Cloud erfassen und sichern. Um Vertrauen zu schaffen, müssen sie nachvollziehbar offenlegen, wie Nutzerdaten gesichert und genutzt werden.

Gesunde IT-Systeme: Wie sich Fehler erkennen lassen

Mehr als jedes zweite Industrieunternehmen (52 Prozent) in Deutschland hat laut Unternehmensberatung Staufen in diesem Jahr Industrie-4.0-Initiativen in Einzelprojekten oder unternehmensübergreifend umgesetzt. Die Mehrheit verfolgte das Ziel, digitale Produktions-Prozesse und -Techniken (Smart Factory) einzuführen oder zu verbessern. In den kommenden drei bis fünf Jahren wollen Unternehmen in Deutschland vor allem weiter in Multi-Cloud-Umgebungen (37 Prozent) und IoT-Technologien (36 Prozent) im Rahmen ihrer IoT-Projekte investieren, so  Dell.

Multidisziplinärer Ansatz zur Fehler-Erkennung und -Behebung

Dreh- und Angelpunkt von Smart-Factory-Konzepten sind naturgemäß vor allem digitale, durchgängige Prozesse und intelligente Technologien. Hierbei beteiligt sind Anwendungen, Maschinen, Netzwerke, Infrastrukturen, Rechenzentrums-Dienste und schließlich der Endnutzer. In einer vernetzten Industrieumgebung müssen all diese Komponenten fehlerfrei und meist sogar unter Berücksichtigung sehr geringer Latenzzeiten zusammenarbeiten können. Dennoch ist gerade bei vernetzten Komponenten in einer hochverteilten Umgebung die Störanfälligkeit hoch. Wie können (Industrie-) Unternehmen also die Gesundheit ihrer digitalen Dienste und Systeme sicherstellen?

 

Empfehlen lässt sich ein multidisziplinärer Ansatz, der alle beteiligten Komponenten überwacht und Fehler schnell identifizierbar macht. Hierbei sollten Industrieunternehmen im ersten Schritt die Funktionen ihrer jeweiligen digitalen Dienste zerlegen. Ein Dienst lässt sich in diesem Zusammenhang als eine technische Einheit verstehen. Dieser bündelt zusammenhängende Funktionen und stellt diese zum Beispiel einem Nutzer per Schnittstelle zur Verfügung.

Digitale Dienste identifizieren

Der digitale Dienst sollte nun also in seine einzelnen Funktionen, wie den allgemeinen Dienstzustand, beteiligte Anwendungen und Diensteabhängigkeiten (Mapping) zerlegt werden. Außerdem sind die Parameter Reaktionszeiten des Endbenutzers, Sessions, forensische Diagnose, System- und Konnektivitäts-Zustand sowie die IT-Security zu berücksichtigen.

Auf Basis all dieser Kriterien kann der allgemeine Gesundheitszustand des jeweiligen Dienstes gemessen, quantifiziert und ausgewertet werden. Fehlerpotentiale lassen sich so identifizieren und Probleme in der Regel schneller beheben.

1. Allgemeinen Gesundheitszustand eines digitalen Dienstes definieren

In diesem Schritt empfiehlt es sich, eine sogenannte Baseline zu etablieren. Diese hilft zu verstehen, wie sich ein Dienst im Laufe der Zeit verändert oder wie er unter außergewöhnlichen Belastungen reagiert, etwa bei Produktionsspitzen. Dabei kann auch untersucht werden, ob sich der Dienst flexibel erweitert, wenn beispielsweise Cloud-basierte Komponenten dazu geschaltet werden. Sobald eine Baseline festgelegt wurde, kann diese mögliche Anomalien, die zu einer Verschlechterung des Services führen, aufzeigen. Die Baseline soll also den Normalzustand eines Dienstes definieren und als Ausgangszustand dienen, um einen Bezugspunkt für spätere Vergleichsanalysen zu haben.

2. Anwendungsfehler erkennen

Anwendungen werden in Testumgebungen unter meist optimalen Bedingungen erstellt und geprüft. In einer Produktionsumgebung muss die eingesetzte Anwendung jedoch mit anderen Komponenten fehlerlos interagieren – und wird somit zu einem System aus mehreren Variablen. Unternehmen sollten daher prüfen, ob sie nach Anwendungsimplementierung noch die Möglichkeit haben, Anwendungsfehler zu detektieren, die für die Anwendung selbst, den Anwendungsentwickler oder den Endbenutzer möglicherweise nicht erkennbar sind. Fehler können sich auch erst später bemerkbar machen, etwa in Form erhöhter Response-Zeiten.

Oft können sich Fehler auch in der Kommunikation zwischen den Komponenten eines Dienstes verbergen. Aus Redundanzaspekten haben Dienste mehrere Komponenten, die wiederum vielfältige Abhängigkeiten aufweisen, um den Dienst auszuführen, Benutzer zu authentifizieren und Informationen zwischen den Komponenten des Dienstes zu verteilen.

3. Dienstabhängigkeiten zuordnen: Service Dependency Mapping

Ein digitaler Dienst kann sich im Laufe der Zeit verändern, wenn etwa neue Komponenten zugeschaltet oder zusätzliche Aufgaben von ihm übernommen werden. Damit der Überblick nicht verloren geht, sollten Unternehmen definieren: Was macht einen Dienst aus, wie kommuniziert dieser und wovon ist er abhängig? Diese Übersicht (Logic Map) ist besonders hilfreich, wenn etwa eine System- oder Plattformmigration ansteht.

4. Antwortverhalten des Systems bezogen auf Endnutzer messen

Digitale Dienste werden neben Maschinen auch von Endanwendern, etwa Mitarbeitern, genutzt. Hierbei ist es ein wesentlicher Faktor, das Antwortzeitverhalten von Anwendungen (Response Time) zu messen, um die User Experience hoch und Produktivitätseinbußen gering zu halten. Sind diese Reaktionszeiten zu lang, sollten entweder eine Kapazitätserweiterung oder Fehlerbehebungsmaßnahmen eingeleitet werden. Haben Unternehmen keinen Überblick über die angesprochenen Diensteabhängigkeiten, gestaltet sich die Fehlersuche nach langen Reaktionszeiten jedoch oft zeit- und kostenintensiv.

5. Sessions: bestehende Verbindungen prüfen

Bei einem Dienst mit mehreren Komponenten besteht jede Interaktion zwischen den Komponenten aus mehreren Sessions. Jede Sitzung sollte überwacht und per Session Health Score bewertet werden. So ist es einfacher, fehlgeschlagene Sitzungen zu detektieren. Diese führen oft zu höheren Response-Zeiten und können auf mögliche Ressourcen-Engpässe hinweisen.

6. Forensik-Tools frühzeitig etablieren

Gibt es Probleme mit Ineffizienzen im System, müssen Unternehmen forensische Maßnahmen ergreifen. Damit ist es möglich, tiefergehende Ursachenforschung zu betreiben, um etwa Verbindungsprobleme innerhalb und zwischen den Diensten aufzudecken. Liegen jedoch zum Zeitpunkt der Fehlermeldung zu wenig forensische Daten vor, muss oft abgewartet werden, bis das Problem erneut auftritt. Ebenso verkürzen erst zu diesem Zeitpunkt eilig eingerichtete Forensik-Systeme die Zeit für die Fehlerbehebung nicht.

7. Systemmonitoring einbinden

Oft haben Unternehmen ein Systemmonitoring eingerichtet. Doch wie knüpft dieses an die oben genannten Themen an. Unternehmen müssen sich die Frage stellen, ob sie alle erwähnten Parameter mit einem gemeinsamen Datensatz verknüpfen können – oder ob alle Datensätze isoliert gesammelt werden, ohne dass sie miteinander in Beziehung gesetzt werden können.

8. IT-Sicherheit

Mit zunehmender Bedrohungslage ist auch der Aspekt IT-Sicherheit unbedingt zu berücksichtigen. So ist laut IT-Sicherheitsbericht 2018, den das BSI im Oktober veröffentlich hat, die Gefährdungslage im Bereich Cybersecurity in den vergangenen Monaten abermals vielschichtiger geworden. Gerade Distributed-Denial-of-Service (DDoS) -Attacken sind gefährlich. Bei einer DDoS-Attacke werden Server, Web-Dienste, IT-Komponenten oder die IT-Infrastruktur solange mit Datenverkehr überlastet, bis diese nicht mehr verfügbar sind. Laut Sicherheitsbericht von NETSCOUT Arbor gab es 2017 in der DACH-Region knapp 197.000 derartiger Cyber-Attacken. Organisationen und Unternehmen mussten also umgerechnet 22 DDoS-Angriffe pro Stunde abwehren.

Vor allem die Zahl von Multivektor-Angriffen wird künftig zunehmen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. Somit ist es also möglich, per DDoS-Attacke digitale Dienste zu schädigen oder lahmzulegen. Unternehmen sollten daher prüfen, wie sie ihre vernetzten Dienste mit geeigneten Security-Tools vor Ausfall und Datenabfluss schützen können.

Fazit

Gerade in der Smart Factory, aber auch anderen IIoT-Szenarien, in dem die hochgradige Vernetzung im Mittelpunkt steht, muss die eingesetzte Technologie reibungslos funktionieren. Geht es beispielsweise um vernetzte Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, kann eine fehlerhafte Dienstkomponente gravierende Konsequenzen nach sich ziehen. So kann der Informationsaustausch zwischen Maschinen und Produkten beeinträchtigt werden und nachgelagerte Prozesse oder gar Produktionsschritte komplett zum Erliegen kommen. Digitale Dienste müssen also vielfältige Aufgaben übernehmen, steuern und dabei höchsten Anforderungen Rechnung tragen. Ein geeigneter, multidisziplinärer Ansatz, um Fehler und Störquellen im Vorfeld zu identifizieren, ist für Unternehmen daher erfolgskritisch.

Schnelle Innovationen durch Hackathon

Im Zuge der umfassenden Digitalisierung und Vernetzung werden Unternehmen von vielen Themen geradezu überflutet. Die Herausforderung besteht oft darin zu entscheiden, welche dieser Themen aus fachlicher oder technischer Perspektive wichtig sind und in die eigenen Geschäftsziele einzahlen.

Entsprechend müssen für die identifizierten Themen und Problemstellungen Lösungsansätze und Innovationen entwickelt werden. Doch wie so oft gilt: Eine Idee bleibt eine Idee, bis man sie umsetzt. Wie können Projektteams also aus einer ersten Ideen-Phase hinauskommen und über konkrete Projekte greifbare Ergebnisse erzeugen?

Verschiedene Methoden für Innovation Management

Für das laufende Innovation Management stehen diverse Methoden zur Erzeugung und Bewertung von Ideen bereit, die aufeinander aufbauen oder auch getrennt voneinander durchgeführt werden können. Dazu gehören:

  • Innovation Workshops. Sie bringen Stakeholder aus verschiedenen Bereichen zusammen, um Ideen zu generieren, zu bewerten und einen kleinen Teil davon auszuwählen. Diese vielversprechenden Ideen werden anschließend aus unterschiedlichen Perspektiven analysiert, wobei jeder Stakeholder Quick Wins definiert. Diese Themen lassen sich dann umsetzen.
  • Design Thinking. Design Thinking ist eine moderne Methode, die einen längeren Prozess beschreibt. Dennoch lassen sich – gerade aus den ersten Phasen – wichtige Erkenntnisse ziehen. Es geht darum, ein Problem bestmöglich zu begreifen und zu beschreiben. Die Methode eignet sich somit am besten für ein konkretes Problem oder eine konkrete Idee. Dabei liegt der Fokus auf der Entwicklung von Lösungen, die aus Anwendersicht überzeugend sind. Hierzu sind die relevanten Personengruppen zu identifizieren und als „Personas“ zu beschreiben, um das Problem möglichst zielgenau auf den Punkt zu bringen.
  • Mini-Hackathon. Nach einer Präsentation des Themas werden Vorschläge gesammelt sowie die vielversprechendsten Ideen innerhalb weniger Stunden ausgearbeitet. Bei mehreren Teams sollten diese jeweils aus Personen mit verschiedenen Rollen aus unterschiedlichen Unternehmensbereichen bestehen. Fachliche Themen lassen sich in der Regel mit einem Pen & Paper Hackathon bearbeiten, technische Themen im Rahmen eines Proof-of-Concepts umsetzen. Ziel des Mini-Hackathon ist es, etwas Konkretes in der Hand zu haben, um es erleben zu können.

Wenn zum Beispiel die Verkäufe ohne erkennbaren Grund zurückgehen, lassen sich mit einem Innovation Workshop kreative Ideen für neue und veränderte Angebote generieren. Die Vielversprechendsten können mit Design Thinking an die Zielgruppen und Personas angepasst werden, woraufhin konkrete Lösungen anhand von Rapid Prototyping oder einem Mini-Hackathon entstehen. Ist das Problem bereits bekannt und gut beschrieben, kann man auch direkt mit einem Hackathon starten.

Beispiel für einen Hackathon

Ein Unternehmenskunde will Bots über einen agilen Ansatz entwickeln und einsetzen. Zunächst werden relevante Stakeholder identifiziert und die Zeitplanung festgelegt. In der Vorbereitung gilt es, die Vision zu definieren, technische Fragen zu klären, die SCRUM-Umgebung einzurichten und den Produkt-Backlog vorab zu befüllen. Das gemeinsame Team legt eine Woche vor dem Hackathon Vision, Umfang und weitere Kriterien fest.

Am ersten Tag erfolgt nur ein Sprint, der „Exploration Sprint“. Dieser dient zur Einrichtung der Backend-Dienste und ihrer Kommunikation. In den nächsten beiden Tagen werden jeweils zwei vierstündige Sprints mit Planung, Reviews und Retrospektive durchgeführt.

Der wichtigste Teil ist die Demo am letzten Tag, bei der die greifbaren Ergebnisse vor wichtigen Stakeholdern präsentiert werden. Teilnehmer sind beispielsweise der Leiter des Intranets, der Leiter des Web-Shops und die Leiter des weltweiten Service Centers. Diese geben abschließend wertvolles Feedback.

Fazit

Mit einem Mini-Hackathon werden ausgewählte Use Cases und Ideen schnell in die Praxis umgesetzt und ein erstes Minimal Viable Product erzeugt, das durch so viele relevante Personengruppen wie möglich bewertet wird. Dadurch lässt sich ohne hohe Kosten ein Thema schnell evaluieren und ein Projekt vorantreiben oder bei mangelnden Erfolgsaussichten beenden. So können Unternehmen das Thema besser bewerten und das Projekt effizienter bis zur Produktionsreife weiterentwickeln.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.

 

Industrie 4.0 zum Anfassen

Seit der Firmengründung 2010 verzeichnet die Firma aus dem hessischen Limburg an der Lahn ein kontinuierliches Wachstum und mittlerweile sind die EMS-Experten auch im Joint Development Manufacturing (JDM) tätig. In dieser Funktion bauen sie für ihre Kunden aus Industrie, Automobilbranche sowie Medizin- und Sicherheitstechnik maßgeschneiderte Prototypen und übernehmen später auf Wunsch die Serienproduktion.

Das Unternehmen engagiert sich außerdem im Verein Smart Electronic Factory e.V. (SEF). Dort entstehende Konzepte und Szenarien werden im eigenen Unternehmen umgesetzt – unter anderem durch die Kombination intelligenter Technologien mit Lean-Management-Prozessen. Die ERP-Komplettlösung Proalpha kann hierbei als Schaltzentrale der intelligenten Fabrik fungieren.

Einheitliche Plattform für alle Prozesse

„Die Vorgänger-ERP-Lösung hielt den gestiegenen Anforderungen nicht stand und stieß immer mehr an ihre Grenzen”, erinnert sich Geschäftsführer Gerd Ohl. Deshalb wurde nach einer einheitlichen Plattform gesucht, die alle Prozesse entlang der gesamten Wertschöpfungskette steuern kann: vom Einkauf und der Materialwirtschaft über die Produktion und den Vertrieb bis hin zum Finanz- und Rechnungswesen. Gleichzeitig sollte das neue ERP-System das künftige Wachstum im In- und Ausland flexibel unterstützen.

Laut Georgios Giantsios, Geschäftsführer bei Limtronik, lassen sich mit dem neuen ERP-Komplettsystem heute sämtliche Geschäftsprozesse effizient aufeinander abstimmen und bedarfsgerecht steuern, automatisieren und kontrollieren. Dazu tragen unter anderem das integrierte Workflow Management und das Dokumenten Management System (DMS) bei.

In der Produktion stellt die Multiressourcenplanung Advanced Planning and Scheduling (APS) sicher, dass Material, Fertigungsanlagen und Personal optimal eingesetzt werden können. In den verschiedenen Unternehmensbereichen gewährleisten zudem die Business-Intelligence-Cockpits eine hohe Transparenz. „Dadurch haben wir jederzeit den kompletten Überblick über alle wichtigen Zahlen und können schnell die richtigen Entscheidungen treffen”, unterstreicht Gerd Ohl.

Lückenlose Traceability als Wettbewerbsvorteil

Ein ausschlaggebender Punkt bei der Entscheidung war auch die nahtlose Integration mit dem Manufacturing Execution System (MES) von Itac. Denn dieses bildet die Brücke zwischen Produktions- und Planungsebene und ermöglicht unter anderem die lückenlose Rückverfolgbarkeit der verwendeten Bauteile.

Diese Traceability ist eine der größten Herausforderungen für die EMS-Branche. Alle Produkte, alle verwendeten Leiterplatten und die darauf befindlichen Bauteile müssen umfassend rückverfolgt werden können. Wenn später Mängel auftreten, lässt sich die Fehlerquelle damit schnell eingrenzen.

In der Medizintechnik ist Rückverfolgbarkeit sogar gesetzlich vorgeschrieben. Andere Branchen – zum Beispiel die Automobilindustrie – wollen damit bei Reklamationen etwaige Rückrufaktionen nur für die wirklich betroffenen Fahrzeuge starten. „Wer eine lückenlose Traceability nachweisen kann, hat einen klaren Wettbewerbsvorteil”, so Giantsios.

Bei Limtronik werden deshalb sämtliche Zulieferteile beim Wareneingang über einen speziellen Wareneingangstisch gezogen. Dadurch gelangen die notwendigen Traceability-Daten zuerst in das Materialwirtschaftsmodul und dann automatisch in das MES. Pro Verpackungseinheit wird eine eindeutige Nummer erzeugt, die neben anderen Informationen auf einem Etikett steht. Das Etikett wird auf das Gebinde des Bauteils geklebt. In der Fertigung erfasst dann das MES, wo diese Komponenten genau verbaut wurden.

So ist die Lösung in der Lage, auf unterschiedliche Traceability-Anforderungen der Kunden zu reagieren, etwa mit eigenen Seriennummern, der Erfassung geometrischer Daten oder der Bündelung von Baugruppen. Zukünftig sollen im Zuge dieses Industrie-4.0-Konzepts die Auftraggeber mit Limtronik vernetzt werden. Über einen abgesicherten Zugang gelangen sie dann an die entsprechenden Daten im ERP-System. Bei Feldausfällen oder im Servicefall kann dann anhand der Seriennummer festgestellt werden, welche Fehler welche Ursache haben.

Mit Data Mining Fehler vorausschauend erkennen

Die häufigsten Fehler in der Leiterplattenbestückung sind Zinnschluss, ungenaue Positionierung, das Fehlen eines Bauteils und der berüchtigte Tombstone-Effekt. Dieser tritt beim sogenannten Reflow-Löten von elektronischen Bauteilen auf, die sich währenddessen auf der Leiterplatte einseitig aufstellen. Die nach oben stehende Seite ist dann nicht mehr elektrisch kontaktiert, das Bauteil wirkt wie ein Grabstein. Deshalb der englische Name „Tombstone“. Um hier wirksam gegensteuern zu können, plant das hessische Unternehmen als nächsten großen Schritt in Richtung Industrie 4.0 ein Datamining-Projekt. „Wir streben einen intelligenten Big-Data-Analytics-Regelkreis an, in dem Qualitäts-, Prozess- und Maschinendaten stetig analysiert werden“, erläutert Gerd Ohl. Damit sollen die Qualität weiter gesteigert und die Liefertreue verbessert werden. „Längerfristiges Ziel ist eine produktionsspezifische Vorhersage von Wartungsintervallen für unsere Fertigungsanlagen, die mithilfe eines Algorithmus gesteuert wird“, betont Ohl.

Denn mit dieser vorausschauenden Wartung (Predictive Maintenance) lässt sich sicherstellen, dass der laufende Produktionsvorgang möglichst wenig bis gar nicht unterbrochen werden muss. „Solche Industrie-4.0-Szenarien mit einem flexiblen ERP-System wie Proalpha umzusetzen“, so Gerd Ohl, „macht sich schnell bezahlt.“ Um etwa den Tombstone-Effekt nachträglich zu beheben, fallen Kosten von rund sechs Euro je Leiterplatte an. „In einer Vorserienfertigung kann das bereits Ausgaben von über 30.000 Euro bedeuten“, rechnet der Geschäftsführer vor. In bestimmten Fällen potenzieren sich die Kosten leicht auch auf das 10-Fache. Ziel muss daher sein, derartige Produktionsfehler von vornherein zu vermeiden, beziehungsweise zu minimieren.

Dieses Szenario zur Qualitätssteigerung in der Produktion stieß auch auf dem nationalen IT-Gipfel 2017 der Bundesregierung auf große Resonanz. „Es lässt sich einfach auf andere Branchen übertragen und kann im Idealfall durchaus als Standardanwendung für mittelständische Fertigungsbetriebe etabliert werden“, hofft Gerd Ohl.

Limtronik sei auf dem Weg zur Industrie 4.0 inzwischen bei der Version 3.8 angelangt und habe für die nächsten Jahre bereits eine Reihe weiterer Digitalisierungsprojekte definiert. „Am Ende werden in unserer Fabrik Maschinen stehen, die sich selbst steuern“, blickt der Geschäftsführer in die Zukunft.

 

Smart Cities – Urbane Probleme in den Griff bekommen

Sinnvoll angewendet kann Big Data hier wirksam unterstützen. Daten sammeln allein reicht nicht aus, die Flut an Informationen muss auch nutzenbringend ausgewertet werden.

Denn Ballungsräume kommen an ihre Grenzen, sei es durch den zunehmenden Verkehr, die Luftverschmutzung oder die Bevölkerungsdichte – bei gleichbleibender innerstädtischer Fläche. Derzeit lebt ungefähr 50 Prozent der Weltbevölkerung in Städten, Prognosen für 2050 sprechen sogar von rund 70 Prozent. Dies bringt besonders für die Stadtplanung erhebliche Herausforderungen mit sich. Die Erfassung, Analyse und Nutzung von Daten spielt bei der urbanen Problemlösung eine große Rolle. Doch wie lassen sich Städte mit Hilfe dieser Daten zu lebenswerteren Räumen gestalten? Und wie werden die Daten gewonnen?

Am Beginn der Datengewinnung steht die Sammlung von Informationen, beispielsweiser mittels verschiedener optischer und nicht-visueller Sensoren. Dies geschieht personenunabhängig, also anonymisiert. Im nächsten Schritt werden die neu erworbenen mit historischen Daten aus den unterschiedlichsten Bereichen gebündelt und vernetzt. Dieser Datenpool wird dann als Grundlage für Analysen verwendet. Die Daten eines einzelnen Menschen sind für sich genommen nicht relevant, erst in der Masse werden sie für die Stadtverwaltung und -entwicklung interessant und finden bereits Anwendung für verschiedenste Bereiche in der intelligenten Stadt.

Ein besonders wichtiger Sensor für die Datengewinnung und -verarbeitung ist die Netzwerk-Kamera. Zu den Möglichkeiten der digitalen Technologie einige Beispiele:

Intelligente Verkehrsplanung

So erfassen und analysieren Kameras heute mittels Sensoren und Software beispielsweise den Verkehrsfluss. Besonders an Verkehrsknotenpunkten oder zentralen Umschlagplätzen im öffentlichen Nahverkehr gilt es, durch Datenanalyse präventiv auf erhöhte Frequenzen zu reagieren.

Im Verkehr ist durch integrierte Sensoren beispielsweise das Zählen von Fahrzeugen, die Erfassung der Durchschnittsgeschwindigkeit und Fahrspurauslastung oder eine Fahrzeugklassifizierung möglich. Auch können Wetterfaktoren wie starke Regen- oder Schneefälle einbezogen werden. Die Stadtverwaltung kann sich somit früh auf Verkehrsstaus einstellen, die Situation anhand von Videoanalysen überprüfen, nötige Einsätze überwachen und Reaktionszeiten verkürzen.

Um den städtischen Verkehr zu optimieren, muss auch die Fahrzeuganzahl massiv gesenkt werden. Die intelligente Verwaltung von Parkmöglichkeiten und die Förderung von Car- und Bike-Sharing sind dabei wichtige Schritte – sie können ebenfalls über IP-Videotechnik realisiert werden. Durch Kameraerfassung und die gleichzeitige Vernetzung werden verfügbare Fahrzeuge oder Parkplätze in Echtzeit erkannt und sind sofort einsatzbereit.

Datenbasierter Umweltschutz

Netzwerk-Kameras mit speziellen Sensoren können Umweltparameter wie Luftqualität, Konzentration von Gasen wie CO2, Temperatur, Luftfeuchtigkeit oder Wasserqualität messen und diese mit der zugehörigen Software anschließend auch auswerten. Mit einer speziellen Technologie zur Niederschlagserkennung kann sogar die Intensität von Regentropfen oder Schnee mittels Echtzeitbildern gemessen werden. Die verschiedenen Datensätze liefern wichtige Informationen über die Luftbeschaffenheit, die Schadstoffbelastung oder Wetterverhältnisse und werden für eine effiziente Stadtentwicklung, Verkehrsplanung, Umweltschutz oder Präventionsmaßnahmen eingesetzt.

Auch der Müll nimmt in wachsenden Städten zu, wird mit Hilfe von intelligenten, vernetzten Sammelsystemen aber zumindest schneller entfernt. Transportwege für die Abfallentsorgungsbetriebe werden kürzer. Müllcontainer sind dafür beispielsweise mit Sensoren ausgestattet, die den Abfallentsorgungsunternehmen den Füllstand signalisieren. Das lässt eine Anpassung an aktuelle Bedürfnisse oder saisonale Abweichungen zu und ist effizient.

Zudem kann die Straßenbeleuchtung in intelligenten Städten auf den tatsächlichen Bedarf abgestimmt werden. Die Bewegungsanalyse in den Kameras erkennt, wann, ob und wie viele Personen oder Fahrzeuge sich in der zu beleuchtenden Gegend befinden und passt die Lichtverhältnisse von Straßen oder öffentlichen Plätzen dementsprechend an.

Höhere Sicherheit

In Städten geht mit wachsender Bevölkerungszahl oftmals auch eine Steigerung der Kriminalitätsrate einher. Um Sicherheit zu gewährleisten, ist das Zusammenspiel von Video, Audio und Analyse essentiell. Besonders bei großen Menschenansammlungen. Mittels Videoanalyse können die Anzahl der Personen in einer Menschenmenge erfasst, das Verhalten der Masse analysiert und dabei Abweichungen sofort erkannt werden. So können schwierige Situationen oder Probleme verhindert werden, noch bevor sie entstehen.

Die Stadt Tel Aviv nimmt eine Vorreiterrolle bei der datenbasierten Stadtverwaltung ein. Die Verantwortlichen haben nach einer neuen und effizienten Lösung gesucht, die Kriminalitätsrate zu senken und den Bewohnern ein nachhaltiges Gefühl von Sicherheit zu geben. Dabei sollen die Bewohner und ihr Eigentum einerseits bestmöglich geschützt, das Lebensgefühl und die Freiheit andererseits aber nicht eingeschränkt werden. Aktuell sind bereits hunderte Netzwerk-Kameras in Tel Aviv installiert, die mit einem offenen System von Axis in den Bereichen Sicherheit oder Verkehrsoptimierung arbeiten.

Avi David, Manager Control and Command Center bei der Stadt Tel Aviv, sagt: „Smart Cities sind die Zukunft, das steht außer Frage. Wir haben damit bereits den Grundstein für eine intelligente und vernetzte Stadt gelegt.“

Machine Learning im Edge mit dem Internet der Dinge

In der Praxis wollen Anwender ihre IoT-Dienste jedoch auch im Edge – außerhalb der Cloud – zum Beispiel in ihren Produktionsstätten einsetzen. Dafür bietet sich der Einsatz von Spezialsoftware an. Bei dieser handelt es sich um Anwendungen, mit denen auf sichere Weise lokale Datenverarbeitungs-, Messaging-, Caching- und Synchronisierungsvorgänge für verbundene Geräte im Edge durchgeführt werden können. Zu den Funktionen der Software zählt ein lokaler Message Broker, mit dem IoT-Geräte kommunizieren können – auch dann, wenn keine Internet-Verbindung besteht. Außerdem ist die Datenverarbeitung im Edge unabhängig von der Cloud. Auch die Event-basierte Ausführung von Code ist denkbar, ohne dass sich der Benutzer um die darunterliegende Infrastruktur kümmern muss.

Eine weitere Funktion, die die Arbeit im IoT Umfeld erleichtert: Maschinelle Lerninterferenzen können auf IoT-Edge-Geräte heruntergeladen und so auch ohne Cloud-Konnektivität ausgeführt werden. Damit kann Machine Learning nun auch im Edge und unabhängig von einer Internet-Verbindung verwendet werden. Die Machine-Learning-Modelle werden in der Cloud mit einer verwalteten Plattform von Entwicklern oder Datenwissenschaftlern erzeugt und können dann von dort direkt auf die Spezialsoftware heruntergeladen werden. So wird es möglich, weitere Dienste im Edge auszuführen, Voraussagen noch schneller zu treffen und an die eigenen Anforderungen angepasste Lösungen zu entwickeln, etwa zur Bilderkennung.

Ein Beispiel dafür liefert die japanische Firma Yanmar. Sie hat ein intelligentes Gewächshaus entwickelt, in dem die Spezialsoftware AWS Greengrass zum Einsatz kommt. Um bessere Erträge von Tomatenpflanzen zu erreichen, wird dabei die Gewächshausumgebung technologieunterstützt optimiert. Dazu werden in jedem Gewächshaus bis zu zwölf Kameras installiert und die Pflanzen regelmäßig fotografiert. Yanmar plant, Machine-Learning-Algorithmen zu verwenden, um die Pflanzenwachstumsphasen (nach Höhe, Anzahl der Blätter, Anzahl der Blüten und Früchte) automatisiert zu erkennen. Der Pflegebedarf der Pflanzen wird dadurch deutlich und Bewässerung sowie Temperatur können angepasst werden.

Digitale Doppelgänger und das Produktionssystem 4.0

Der Bezug auf das 3-D-Modell des Produktes ist im Kontext des Digitalen Zwillings das vorherrschende Beispiel. Darauf aufbauend dann Anwendungen der virtuellen oder erweiterten Realität für Instandhaltung und Service. Dabei liegen, wie bei einem Eisberg, 90 % der Daten und Prozesse, die einen Digitalen Zwilling repräsentieren, häufig nicht im Blick der Beteiligten. Wie sieht also eine ganzheitliche Perspektive über Wertschöpfungsstufen und Systemgrenzen hinweg aus?

Entgegen dem Eisberg ist eine typische Eigenschaft des Digitalen Zwillings, dass er mit zunehmendem Alter – in unserem Fall Lebenszyklus – immer umfangreicher wird und durch neue Daten an „Masse“ gewinnt. Die Historie der Daten macht ihn immer wertvoller und ist letztlich die Voraussetzung für neue digitale Anwendungen und Geschäftsmodelle. Die versprochenen Wettbewerbsvorteile und Effizienzgewinne einer Smart Factory werden ohne ein integriertes Management des Digitalen Zwillings nicht zu erreichen sein.

Gefangen im Silo der Systeme

Betrachtet man stark vereinfacht Design -> Make -> Service als Wertschöpfungsstufen, so stehen auf jeder Stufe entsprechende IT-Systeme bereit. Im Bereich Design die CAD/PLM-Systeme, im Make ein ERP und MES sowie im Service die Instandhaltungssysteme. Entlang dieser Kette werden eigene Datenmodelle und Instanzen von Digitalen Zwillingen in den IT-Systemen erzeugt. Trotz aller Bemühungen um offene Standards dominieren viele herstellerspezifische Formate und Varianten, so dass, insbesondere beim Übergang von einer Stufe auf die andere, viele Daten verloren gehen oder manuelle Datenpflege betrieben wird. Diese Art der IT-technischen Verschwendung galt als unvermeidlich. Da auch organisatorisch Grenzen übersprungen werden, fühlte sich jede Abteilung in ihren Grenzen ganz komfortabel. Viele gut gemeinte Digitalisierungsprojekte fügen jetzt mit Cloud- und IoT-Systemen eine schnell wachsende Schatten-IT hinzu, die die Vielfalt inkompatibler Digitaler Zwillinge schnell unübersehbar werden lässt.

Die Rolle im Produktionssystem 4.0

Produktionssysteme wurden über viele Jahre nach Lean-Prinzipien optimiert und funktionieren weitgehend ohne Digitalen Zwilling. Der Fokus lag auf dem ununterbrochenen, getakteten, verschwendungsfreien Produkt- und Materialfluss. Papier (z.B. der Laufzettel) ist dabei immer noch der Träger aller wesentlichen Informationen, auch wenn punktuell beispielsweise CNC-Systeme unterstützen. Die typischen Tätigkeiten in der Arbeitsvorbereitung, Produktion und Service wie das Aufbereiten der Auftragsdaten, das Ausdrucken und Verteilen der Auftragsdokumente, das Erfassen von Daten in IT-Systeme – all dies sind typische Vorgänge, die nicht wertschöpfend sind.

Das Produktionssystem 4.0 ist durch die Fähigkeit gekennzeichnet, dem Kunden trotz schwankenden Bedarfs individuelle Produkte  mit minimaler Durchlaufzeit bereitzustellen. Takt und Band verlieren an Bedeutung und werden durch flexible und modulare Produktionsmodule ersetzt. Typische Designmerkmale eines Produktionssystems 4.0 sind:

  1. Durchlaufzeit „Same Day“ für alle Produkte
  2. Rüstzeit „Null“
  3. Flexible Produktionsmodule auf denen „jedes“ Produkt gefertigt werden kann
  4. Papierlose Produktion
  5. Keine ungeplanten Stillstände und Störungen

Diese extremen Prinzipien zeigen den Weg auf, um die Effizienzgewinne der Zukunft erreichen zu können. Wertschöpfungssteigerungen von 30 bis 50 % der Gesamtleistung werden in diversen Studien als Potenzial ausgewiesen. Diese Ziele werden aber nur erreicht, wenn der Digitale Zwilling ein integraler Bestandteil und Kern des Produktionssystems 4.0 by Design ist. Er ist der wesentliche Schlüssel der Optimierung und des Effizienzgewinns.

Welche Design-Prinzipien gelten für den Digitalen Zwilling, um diese Ziele zu erreichen?

  1. Es braucht einen Digitalen Zwilling für das Produkt.
  2. Es braucht einen Digitalen Zwilling für die Produktionsanlage.
  3. Es braucht ein kompatibles Datenformat zwischen Anlagen- und Produktmodell, welches den Produktionsprozess digital abbilden kann (Thing-Core-Model).
  4. Stammdaten, egal ob produkt- oder anlagenspezifisch, müssen standardisiert, zentral gepflegt werden bzw. synchronisiert werden.
  5. Über alle Wertschöpfungsstufen ist der Digitale Zwilling wiederzuverwenden (ReUse) und mit Daten anzureichern (Add) – Add- & ReUse-Prinzip.
  6. Digitale Zwillinge müssen über Grenzen des Unternehmens hinaus, das heißt zwischen Herstellern, Betreibern und Servicepartnern im Netzwerk, über ein offenes Thing-Modell austauschbar und erweiterbar sein.

Werden diese Prinzipien des integrierten Digitalen Zwillings als zentrales Designelement in der Unternehmensarchitektur angewendet, können alle Prozesse entlang der Wertschöpfung verschwendungsfrei aufgebaut werden. Daten, die einmal erstellt wurden, stehen nachfolgenden Schritten zur Verfügung und können für Prozesse und Applikationen genutzt werden. Um dieses Ziel zu erreichen, ist ein konsequentes, interdisziplinäres Prozess- und Stammdatenmanagement in der Organisation als Kultur zu entwickeln.

Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess

Abbildung 1: Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess (Quelle: Trebing+Himstedt)

Wertschöpfung ohne Verschwendung

Sind die Grundregeln des Umgangs mit dem Digitalen Zwilling verstanden, erschließen sich zahlreiche Potenziale, um die Verschwendung auf nahe Null zu reduzieren.

Beispiel papierlose Produktion und elektronische Werkerführung. Bei der automatisierten oder manuellen Montage benötigt es neben der Stückliste immer eine spezifische Arbeits- beziehungsweise Prüfanweisung. Heute werden die Anweisungen pro Produktvariante manuell in einem Editor erstellt, ausgedruckt oder als PDF am Terminal bereitgestellt. Alle Daten liegen in der Regel aber bereits elektronisch vor und können nur nicht automatisiert zusammengeführt werden. Nutzt man die Idee des Digitalen Zwillings, werden die Konstruktionsdaten (z.B. PLM) mit den ERP-Daten integriert und das MES wird der Nutzer der Daten für die Arbeitsanweisungen, zum Beispiel für die schrittgenaue Darstellung mit 3-D-Modell und Animation.

Zusätzlich werden für Werkzeuge oder Prüfstände Maschinenparameter benötigt. Diese können am Digitalen Zwilling des Produktes im ERP gepflegt werden, ans MES weitergeleitet und dann auf Basis offener Standards wie OPC UA technisch in Echtzeit an die Maschine übertragen werden. Auch hier entfällt die doppelte Datenpflege und Verteilung.

Der Digitale Zwilling wird im MES angereichert - as-built, Beispiel SAP ME

Abbildung 2: Der Digitale Zwilling wird im MES angereichert – as-built, Beispiel SAP ME (Quelle: Trebing+Himstedt)

Ein Beispiel aus dem Bereich Instandhaltung ist der häufig genannte Anwendungsfall visueller Wartungsanweisungen mit Hilfe von Augmented Reality. Hier erhält der Instandhalter, sobald das Bauteil mit einem QR- Code identifiziert ist, Informationen zu Zustand und Wartung eingeblendet.

Nutzt man auch hier das entlang des Lebenszyklus angereicherte Datenset des Digitalen Zwillings, kann man das 3-D Modell und die Strukturinformationen aus der Geburtsphase des Objektes (CAD, PLM) (As-Designed), dann aus dem ERP und MES die Stücklisten und Komponenteninformationen (As-Built) und zum Schluss die Wartungshistorie (As-Maintained) sowie die Betriebsdaten (z.B. IoT-Real-Time-Performance-Daten) heranziehen. Alles basierend auf dem Thing-Core-Modell, über Systemgrenzen hinweg und nach dem Add- & ReUse-Prinzip für den Digitalen Zwilling. Dieser Anwendungsfall zeigt, dass der Nutzen am Ende der Wertschöpfung immer größer wird. Kann man aber nicht auf einen integrierten Prozess zurückgreifen, wird der Aufwand für die Einführung eines solchen Prozesses immer höher. In diesem Anwendungsfall wird auch die Notwendigkeit von unternehmensübergreifenden Asset-Netzwerken deutlich, da der Digitale Zwilling die Unternehmensgrenze des Herstellers verlassen hat und der Betreiber die Daten nutzen möchte. Ist dieser Austausch nicht möglich, müsste der Betreiber das gleiche Modell nochmals aufwendig erstellen und pflegen, ohne dass insgesamt ein Mehrwert entsteht.

 

Der Digitale Zwilling im Asset-Netzwerk - Beispiel SAP AIN

Abbildung 3: Der Digitale Zwilling im Asset-Netzwerk – Beispiel SAP AIN (Quelle: Trebing+Himstedt)

Diese beiden Beispiele sind nur ein kleiner Ausschnitt von Anwendungsfällen, die den Digitalen Zwilling benötigen. Die smarte Fabrik gelingt nur mit dem Management des Digitalen Zwillings in seiner Vielfalt über den gesamten Lebenszyklus hinweg. Der Weg über viele kleine schlanke IT-Systeme lässt das Maß der Verschwendung nur anwachsen und führt zur Inflexibilität. Leider scheint die Vielfalt der Apps und die versprochene schnelle Einführung vielen Akteure sehr verlockend. Aber an einem integrierten, leistungsstarken Backend (Digital Core) kommt kein Unternehmen vorbei. Auf diesem Backend aufbauend kann die Welt der Apps durchaus leicht und produktiv genutzt werden. Spätestens bei datengetriebenen Geschäftsmodellen, die eine nutzungsorientierte Vergütung (Pay-per-use) anstreben, ist der Digitale Zwilling eine zwingende Voraussetzung.

Datenfehler in der Supply Chain automatisch erkennen und korrigieren

Auch wenn die Supply-Chain-Planung immer mehr automatisiert wird, ist es für die meisten Disponenten schwierig, die Hände vom Lenkrad zu nehmen und die Technologie die Arbeit machen zu lassen. Allerdings stimmen die meisten Planer wohl darin überein, dass ein Job, den sie gerne an die KI delegieren würden, die Datenbereinigung ist. Die Datenqualität ist auch in der Supply-Chain-Planung ausschlaggebend für den Erfolg. Die Aufarbeitung schlechter Daten, das Erfassen und Korrigieren von Datenfehlern wird nicht selten mit viel manuellem Aufwand von Planungsteams betrieben.

Fehler, Fehler, überall Fehler

Denn Supply-Chain-Datenfehler können in Beschreibungen, Identifikatoren, Klassifizierungscodes, Steuerungsvariablen und an vielen anderen Stellen gefunden werden. Fehler können das Ergebnis falscher menschlicher Eingaben, falscher Beziehungen zwischen Datenelementen und Datensätzen, einer falschen Ausgabe von statistischen Optimierern, mangelhafter EDI-Übertragungen und anderer Ursachen sein. Und da die Daten der Lieferkette miteinander verbunden sind, kann ein Fehler in einem Feld schnell zu Fehlern in einem anderen Feld führen.

Supply-Chain-Fehler können auch sehr subtil sein, wenn es um obskure Anwendungsdaten geht, die nicht regelmäßig überprüft werden. Für jeden bekannten Fehlertyp gibt es zwangsläufig Hunderte von unbekannten Typen, und für jeden bekannten Fehler kann es Tausende von anderen geben, die so lange unentdeckt bleiben, bis sie Probleme verursachen.

Angesichts der Tatsache, dass die Supply Chain gerade dabei ist, sich zum Netzwerk der Netzwerke zu entwickeln, werden Datenfehler künftig immer häufiger zutage treten. Ihre Auswirkungen werden im gesamten Unternehmen und noch darüber hinaus stärker spürbar sein.

Von der Unmöglichkeit, manuell Fehler in komplexen Lieferketten zu finden

In einer großen Lieferkette ist es nicht möglich, einzelne Fehler mit traditionellen Ansätzen zu finden und auszumerzen. Selbst der erfahrenste Planer kann nur noch einen Bruchteil der vorhandenen Anomalien finden. Die Erstellung einer ausreichend großen Stichprobe von Beispielfällen ist ein sehr zeitaufwendiger Prozess. Es gibt einfach zu viele Daten, als dass ein manueller Ansatz in einer großen oder komplexen Lieferkette sinnvoll wäre.

Die Grenzen prädiktiver Modelle

Wenn ein gewisser Grad an Automatisierung heutzutage in der Datenbereinigung eingesetzt wird, dann sind das prädiktive Modelle. Aber da es sich dabei meist um mathematische Funktionen handelt, können sie zwar deutlich machen, dass sie einen Datensatz für einen Ausreißer halten, aber nicht erklären, warum. Dies macht es, besonders in einer dynamischen Supply-Chain-Umgebung, schwierig, Ausreißer zu verstehen, zu verwalten oder zu ändern.

Wie KI Abhilfe schaffen kann

Einen besseren Ansatz verfolgt die sogenannte sich selbst korrigierende Supply Chain, die Künstliche Intelligenz einsetzt, um Fehler in Supply-Chain-Daten automatisch zu finden und zu beheben. Das schließt auch vergangene Datenfehler ein. Zudem werden Methoden des maschinellen Lernens eingesetzt, durch die das Modell sein Wissen darüber, wie man solche Fehler erkennt und korrigiert erweitert. Dieses wird genutzt, um aktuell auftretende Datenfehler zu korrigieren, bevor sie sich negativ auf Produktion oder Prozesse auswirken können.

Bei diesem Ansatz zur Korrektur von Supply-Chain-Daten schauen Experten nicht auf Hunderte oder Tausende von verdächtigen Datensätzen. Sie untersuchen nur eine Handvoll Regeln, die alle Anomalien in den Daten qualifizieren. Wird nur eine Anomalie-Regel entfernt, können so automatisch Tausende korrespondierende tatsächliche Anomalien beseitigt werden.

Die sich selbst korrigierende Supply Chain

Der Ansatz der sich selbst korrigierenden Supply Chain nutzt Live-Daten in Supply-Chain-Anwendungen und -Workflows vom Materialeinsatz bis zur Produktverteilung. Das Wissen, die Erfahrung und die Kompetenz von Planern und anderen Experten wird auf höchst effiziente und effektive Weise verwendet. Im Grunde genommen gleicht dieser Ansatz einem intelligenten Assistenten, der den Planern hilft, ihre alltäglichen Aufgaben effektiver zu erledigen.

 

Die sich selbst korrigierende Supply Chain ist ein dreistufiger Prozess:

  1. Das Modell findet Beispiele für Anomalien in historischen Daten und erstellt Regeln für natürliche Sprachtypen, die dann von einem Fachplaner oder IT-Datenbankexperten überprüft werden.
  2. Verdächtige Datensätze, die vorher bereits markiert wurden, werden genutzt, um das logische Modell zur Korrektur der Datenfehler zu erstellen.
  3. Das Modell prüft automatisch und kontinuierlich neue Daten und findet und ersetzt fehlerhafte Datensätze im Produktionssystem.

 

Der Einsatz von KI in der Supply-Chain-Planung hilft dabei, die Fehlerbereinigung zu automatisieren. Anstatt die Daten der Lieferkette selbst zu bereinigen, lassen die Planer diese mühselige Arbeit von der KI erledigen und können sich auf die Aufgaben konzentrieren, bei denen sie ihr Wissen und die menschliche Intelligenz besser einsetzen können.