Archiv der Kategorie: IOT – Industrie 4.0 und IIC

Start des ersten Thüringer Produktionsnetzwerkes

Am 11. September 2019 wurde mit der Unterzeichnung der Kooperationsvereinbarung in Gotha ein Produktionsnetzwerk gegründet. Es vereint die vier Fertigungsunternehmen NOBLEX GmbH aus Eisfeld, IWB Industrietechnik GmbH aus Gotha, Bonsack Präzisionstechnik GmbH aus Brotterode und Sczesny Werkzeugbau GmbH aus Jena. Künftig wollen die Unternehmen gemeinsam Produkte herstellen. Die Grundlage hierfür liefert das Forschungsprojekt „AgiPro“ der TU Ilmenau, welches von der Thüringer Aufbaubank gefördert wird.

Thüringen besteht zu einem großen Teil aus kleinen und mittleren Unternehmen (KMU). Diese sind eine der Stärken des Freistaats, denn sie sind flexibel und durch die typischen Strukturen in KMU adaptions- und anpassungsfähig. Dennoch zögere man als Unternehmer bei der Annahme von Großaufträgen, berichten die anwesenden Geschäftsführer der beteiligten KMU. Zu groß sei die Gefahr einer Fehlkalkulation und die Möglichkeit der Entstehung von Engpässen. Die Arbeit im Netzwerk bietet eine Lösung.

Netzwerk statt Plattform

Im Netzwerk können die Unternehmen ihre Kapazitäten austauschen. Hat ein Unternehmen keine Kapazität, aber einen großen Auftrag, so kann es die Fertigung beispielsweise zum Teil im Netzwerk erledigen lassen. Auf der anderen Seite können Unternehmen, die gerade freie Kapazitäten haben, durch Aufträge aus dem Netzwerk profitieren. Aber warum ausgerechnet ein Netzwerk? Wäre eine Plattform nicht ebenfalls eine Lösung? Das habe man bereits versucht, so Roger Steiner, einer der Geschäftsführer der NOBLEX GmbH. In sogenannten Kapazitätsbörsen hätte man als KMU aber eher geringe Chancen. Es sei undurchsichtig und die Preise werden so weit gedrückt, dass die Fertigung letztendlich unwirtschaftlich wäre.

Anders im Netzwerk. Hier sind die Unternehmen miteinander verbunden, die Vernetzung erfolgt – im Gegensatz zu statischen Plattformen – aber ereignis- bzw. bedarfsorientiert. Hierfür sind gewissen Transparenzen nötig, die Unternehmen müssen wissen, welche Partner gerade wie viel freie Kapazitäten haben. Wie groß sind die Maschinen die gerade frei sind? Wie lange können sie eingesetzt werden? Dank Digitalisierung sind diesen Auskünfte in Echtzeit möglich. Und das erleichtert auch die Preisbildung. Anders als bei Plattformen geht es bei dem sogenannten „Peer-to-Peer“-Netzwerk nicht um Konkurrenzdenken, sondern um Gleichberechtigung und dynamische Zusammenarbeit. Auf diese Weise können auch Großaufträge wirtschaftlich von KMU bearbeitet werden.

Wie funktioniert das in der Praxis?

Mehrere Unternehmen haben bei kurzfristigem Bedarf im Verbund höhere Produktionskapazitäten als ein einzelner. Das Netzwerk erhöht die eigenen Kapazitäten eines Unternehmens also um Fremdkapazitäten. Die Höhen und Tiefen, die kurzfristige Planungsänderungen bei der Ressourcenauslastung der Produktionsbereiche hervorrufen, werden so abgefedert und große Aufträge müssen nicht abgelehnt, sondern können gemeinsam gemeistert werden. Voraussetzung ist eine möglichst genaue Kenntnis der Auftragssituation, der Durchlaufzeit und der Bestände im Verbund. Die Prozessaufnahme und das Monitoring sind also der erste Schritt, den die vier Unternehmen gehen. Dann wird eine Middleware aufgebaut, die die Schnittstelle zwischen den Unternehmen darstellt. Eine besondere Herausforderung hierbei sind die unterschiedlichen ERP-Systeme, die in den teilnehmenden KMU vorhanden sind. Digitale Abbilder von im Unternehmen vorhandenen Maschinen bzw. Maschinengruppen ermöglichen die Netzwerkarbeit. Ein Reglersystem unterstützt die beteiligten Unternehmen bei der dynamischen Preisfindung. Die KMU legen selbst fest, welche Kriterien sie für den Austausch benötigen, welche Schnittstellen sie freigeben (wollen) und wie die Regeln für die Auftragsvergabe im Netzwerk sind. Möglich gemacht wird dies von der Berghof Group GmbH, einem KMU aus Königsee in Thüringen. Am Markt gäbe es eine hohe Nachfrage nach solchen Softwarelösungen, so Steffen Berghof, Geschäftsführer des Unternehmens.

Der Startschuss für die Zusammenarbeit

Am 11.September 2019 wurde bei der IWB Industrietechnik GmbH in Gotha feierlich die Kooperationsvereinbarung unterzeichnet und damit der Grundstein für das erste Thüringer Produktionsnetzwerk gelegt. Der Vertrag sichert den Teilnehmern zu, ungeachtet der Kooperation selbstständige Unternehmen zu bleiben und betont den Wert der vertrauensvollen Zusammenarbeit. Die Netzwerkteilnehmer verpflichten sich, sich an die von ihnen festgelegten Regeln zu halten, ihre Mitarbeiter entsprechend zu qualifizieren und die Leistungen termingerecht und in hoher Qualität abzuliefern.

Die Unternehmen nutzen mit der Teilnahme ihre Chance, neueste Technologien auszuprobieren. Daten aus den ERP-Systemen werden in Form eines digitalen Schattens abgebildet, wodurch Simulationen durchgeführt und als Hilfe für Entscheidungen genutzt werden können. Die im Rahmen des Forschungsprojektes entwickelte Middleware und die gewonnenen Erkenntnisse sollen in Zukunft auch anderen Unternehmen beim Aufbau ähnlicher Netzwerke helfen.

Neben dem horizontalen Produktionsnetzwerk steht mit „AgiLief“ auch die Idee eines vertikalen Netzwerkes in den Startlöchern. Ein entsprechender Antrag für Fördermittel wurde bereits von der TU Ilmenau beim Land Thüringen eingereicht.  

Auf dem Bild v.l.n.r.: Tobias Bonsack (Bonsack Präzisionstechnik GmbH), Jörg Hoffmann (Sczesny Werkzeugbau GmbH, Roger Steiner (NOBLEX GmbH) und Ralf-Peter Kroschel (IWB Industrietechnik GmbH) unterzeichnen die Kooperationsvereinbarung

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.

In Kritischen Infrastrukturen ist Meldepflicht Selbstschutz

Die gesetzliche Pflicht, Störungen in den Netzwerken kritischer Infrastrukturen zu melden, wird oft als bürokratischer Aufwand wahrgenommen. Der vorgeschriebene Informationsaustausch zwischen kritischen Infrastrukturen und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) birgt ohne Zweifel Aufwände und Unklarheiten. Jedoch überwiegt der Mehrwert, der sich aus der Schwarmintelligenz ergibt. Je mehr Akteure über Gefährdungen berichten, desto mehr Akteure können sich gegen diese auch aktiv vorbereiten, bevor Störungen entstehen. So wird Meldepflicht zum Selbstschutz.

Der Mehrwert kann jedoch nur entstehen, wenn über den Tellerrand der gängigen Monitoring- und Sicherheitssysteme geschaut wird. Genau hier setzt das Prinzip des Defense-In-Depth an, das die gängigen Lösungen (Firewalls, Virenscanner etc.), die mittlerweile als Standard in jeder Kritischen Infrastruktur angenommen werden können, um Abwehrmechanismen erweitert, die auch das Unbekannte sichtbar machen.

Dass bislang unbekannte Angriffs- und Störungsmuster in Zukunft eine entscheidende Rolle bei der Gefährdungslage spielen, zeigten nicht zuletzt die mehrstufigen, lange Zeit verborgen agierenden Kampagnen Industroyer und Dragonfly 2.0. Während mit Dragonfly 2.0 Angreifer über Monate bis Jahre Kritische Infrastrukturen auch in Deutschland ausspioniert haben, legte Industroyer 2016 die Stromversorgung Kiews für mehrere Stunden lahm.

Auf der Suche nach dem Unbekannten

Genau hier liegt auch die größte Unklarheit für die Informationssicherheitsbeauftragten in kritischen Infrastrukturen. Das IT-Sicherheitsgesetz (und damit das EnBW, AtG und BSIG) fordert eine Meldung von »erheblichen Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse, die zu einem Ausfall oder einer Beeinträchtigung der Funktionsfähigkeit der von ihnen betriebenen Kritischen Infrastrukturen führen können oder geführt haben.«

Die Formulierung birgt zwei Unschärfen, mit denen Betreiber zu kämpfen haben:

  1. Wie sollen Störungen erkannt werden, die erst langfristig zu einer Beeinträchtigung führen könnten, zum Beispiel Advanced Persistent Threats?
  2. Wie kann bewertet werden, ob die Beeinträchtigungen durch eine Störung erheblich sein könnten?

Auf der FAQ-Seite des BSI findet sich zur ersten Frage lediglich der Hinweis: »Werden Angriffe auf die Kritische Infrastruktur unter Verwendung von neuartigen, außergewöhnlichen, zielgerichteten oder aus technischer Sicht bemerkenswerten Angriffsverfahren entdeckt, muss davon ausgegangen werden, dass eine Einwirkung auf die Kritische Infrastruktur möglich ist, sobald sich die Angreifer dazu entschließen«.

Auch bei der Frage, was »erheblich« bedeutet, sind Informationssicherheitsbeauftragte weitestgehend auf sich gestellt: »Eine eindeutige, umfassend geltende Antwort, wann eine Störung erheblich ist, ist nicht möglich. Stattdessen ist es erforderlich, dass die Verantwortlichen in KRITIS-Unternehmen Einzelfallentscheidungen treffen«.

Aus unseren Erfahrungen des Monitorings von Leitsystemen und Netzleittechnik mittels industrieller Anomalieerkennung wissen wir, dass weder versteckte Angriffe noch offene Sicherheitslücken eindeutig erkannt und eingeschätzt werden. Hinzu kommt, dass die Entwicklungen der Digitalisierung und des Smart Grid zu immer komplexeren Kommunikationsstrukturen führen, die neben Sicherheitsgefährdungen auch die Wahrscheinlichkeit technischer Fehlerzustände erhöhen.

Wer entscheiden will, muss sehen können

Betreiber benötigen somit Werkzeuge, die zwei Dinge ermöglichen:

  1. Vorgänge erkennen, die durch gängige Sicherheitslösungen mit Blacklisting- oder Whitelistingansatz übersehen werden.
  2. Vorgänge dahingehend bewerten, ob diese (erhebliche) Beeinträchtigungen hervorrufen könnten.

Netzleittechnik und Leitsysteme sind von einer deterministischen Kommunikationsstruktur geprägt. Dadurch können zum Beispiel mit einer industriellen Anomalieerkennung alle Vorgänge erkannt werden, die in irgendeiner Form vom deterministischen Grundmuster abweichen. Ein gutes Monitoringsystem erkennt bei den sicherheitsrelevanten Vorfällen u.a. neue:

  • Netzteilnehmer oder Kommunikationsbeziehungen;
  • Verbindungen zum Internet;
  • Protokolle;
  • Befehlsstrukturen sowie Netzwerkscans.

Hinzu kommen sowohl bestehende CVE-Sicherheitslücken an Geräten und Software, als auch Netzstörungen, die keine IT-Sicherheitsvorfälle sind, aber an das BSI gemeldet werden müssen. Zu letzteren gehören Konfigurations- und Kommunikationsfehler sowie andere technische Fehlerzustände, die sich beispielsweise aus der Abnahme der Netzwerkqualität ergeben. Gefährdungen jeglicher Form werden somit in ihrem frühesten Stadium erkannt und in Echtzeit gemeldet.

Die Bewertung der Vorfälle wird durch die industrielle Anomalieerkennung über verschiedene Stufen ermöglicht. Zum einen wird jede Meldung in Sicherheit oder Netzwerkqualität kategorisiert. Des Weiteren erhält jede Meldung eine Risikobewertung in Abhängigkeit von Kommunikationsvorgang und betroffenen Komponenten. Schlussendlich wird jede Meldung inklusive der Rohdaten als frei exportierbares PCAP gespeichert. Somit ist eine umgehende forensische Analyse auf einer vollständigen, nachvollziehbaren Datenlage für alle Stakeholder möglich. Informationssicherheitsbeauftragte können damit auf jede potentielle Gefährdung reagieren, bevor es zur Beeinträchtigung kommt.

IoT-Visionen erfolgreich umsetzen

Laut einer kürzlich durchgeführten Umfrage von Ovum unter mehr als 1.300 Unternehmen befindet sich die Einführung von IoT-Projekten derzeit häufig noch in einem frühen Stadium. Die am häufigsten genannten Ziele, die damit verfolgt werden, sind geringere Kosten, höhere Effizienz und bessere Wettbewerbsfähigkeit. Neue Umsatzquellen durch das Internet of Things sind dagegen für die meisten Unternehmen noch Zukunftsmusik. Doch zumindest berichten sie in der Regel von positiven Erfahrungen und planen, die Investitionen in diesem Bereich zu erhöhen.

Die größten Herausforderungen bei der Einführung von IoT-Prozessen sind demnach die Integration mit der bestehenden IT, das Ermitteln der richtigen Analyse-Prozesse, Sicherheitsbedenken und fehlende interne Kapazitäten zur Unterstützung skalierbarer Implementierungen. Dies zeigt, dass eine stärkere Integration von IoT in bestehende Geschäftsprozesse, die Entwicklung geeigneter Lösungen für analytische Modellierung und Datenmanagement sowie die Abwehr von Sicherheitsgefahren die Einführung von IoT-Lösungen beschleunigen können.

Hohes Potenzial

Die Transformation, die hierdurch möglich wird, bietet trotz der frühen Umsetzungsphase ein enormes Potenzial für Unternehmen. Daher möchten sie clevere Führungskräfte schon jetzt so schnell wie möglich durchführen. Neben der Einführung von geeigneten Technologien ist es dabei ebenso wichtig, die möglichen konkreten Vorteile zu identifizieren. So erhöhen Investitionen in die Vorplanung und die Auswahl der richtigen Komponenten die Erfolgschancen eines solchen IoT-Projekts deutlich. Darüber hinaus bietet es sich häufig an, „groß zu denken, aber klein anzufangen“. Dadurch können Unternehmen in überschaubaren Projekten schnell Erfahrungen sammeln, die sich iterativ mit zunehmender Skalierung umsetzen lassen.

Intensive Abstimmungen nötig

Von Anfang an die richtigen Entscheidungen zu treffen und anschließend auf Kurs zu bleiben, sind wichtige Aspekte eines IoT-Projekts. Um schon zu Beginn die Planung richtig zu gestalten, sollte ein Projektleiter folgende Punkte berücksichtigen:

Erstens sollte er die nötigen CXO-Genehmigungen einholen und sich mit den Verantwortlichen abstimmen. Die meisten IoT-Projekte sind abteilungsübergreifend. So trägt ein Top-Down-Ansatz dazu bei, die Entscheidungsfindung und -umsetzung zu beschleunigen. Darüber hinaus sind für ein Projekt, das Technologien und Standards verwendet, die sich noch in der Entwicklung befinden, intensive Absprachen notwendig, um die entsprechenden Mittel und die Unterstützung der Führungskräfte zu erhalten. Andernfalls ist das Risiko sehr hoch, dass das Projekt scheitert.

Außerdem sollte der Projektleiter sicherstellen, dass auch eine regelmäßige Abstimmung zwischen Fachabteilungen und IT erfolgt. Das Internet of Things ermöglicht verbesserte oder veränderte Arbeitsabläufe und Geschäftsprozesse, welche die bestehende Technologie-Infrastruktur betreffen. Daher ist es von entscheidender Bedeutung, sorgfältig zu planen, Verantwortlichkeiten zu teilen und gemeinsame Ziele im Auge zu behalten.

Die richtigen Daten nutzen

Schließlich sollte der Projektmanager sicherstellen, dass das richtige Datenerfassungssystem eingesetzt wird. Dazu gehört die Ermittlung der zu erfassenden Daten sowie der Aufbau eines zuverlässigen Kommunikationskanals und einer IoT-Datenplattform, die aus den Daten relevante Informationen gewinnt. Sobald die Daten auf die richtige Weise erfasst wurden, lassen sich verwertbare Erkenntnisse daraus ziehen, um fundierte Entscheidungen zu treffen. Genau dies schafft einen deutlichen Mehrwert.

Entsprechend ergeben sich folgende Best Practices für IoT-Projekte:

  • Stellen Sie sicher, dass das Projekt definierte, greifbare Ergebnisse beinhaltet. Dies trägt dazu bei, den gewünschten Zeitplan einzuhalten.
  • Seien Sie realistisch bei der Planung Ihres IoT-Projekts. Sie sollten sich darüber im Klaren sein, in welchen Bereichen die Fähigkeiten Ihres Unternehmens begrenzt sind und wo es noch viel zu lernen gibt, damit Ihr Projekt Gestalt annimmt.
  • Eine IoT-basierte Business-Transformation erfordert auch ein umfassendes organisatorisches Change Management. Die Anpassung an neue Arbeitsweisen, neue Prozesse und neue Richtlinien muss schrittweise und behutsam erfolgen, um die gewünschten Ziele zu erreichen.
  • Große IoT-Projekte betreffen häufig mehrere Teams im Unternehmen. Diese sind von Anfang an einzubeziehen, um durch eine Kultur der gemeinsamen Verantwortung den Erfolg des Projekts zu gewährleisten. Sichern Sie auch das Engagement wichtiger Führungskräfte, damit das IoT-Projekt den notwendigen Fokus sowie Unterstützung von allen Bereichen des Unternehmens erhält.
  • Bauen Sie die nötigen Partnerschaften mit Teams innerhalb Ihres Unternehmens sowie mit externen IoT-Anbietern, Experten und Beratern auf. Damit können Sie Lücken bei Wissen oder Fähigkeiten schließen.

Fazit

Die Steigerung von Geschäftsergebnissen ist ein wichtiges Ziel eines erfolgreichen IoT-Projekts. Um Ihre IoT-Vision zu verwirklichen, müssen Sie jedoch flexibel und anpassungsbereit sein. Die Herangehensweise an solche Projekte mit einem hohen Maß an Kontrolle und festen Vorstellungen wird nur zu Enttäuschungen führen. Dagegen verspricht ein offener und kooperativer Ansatz wesentlich bessere Erfolgsaussichten.

Die nächste Evolutionsstufe für Produktions- und Engineering Services – Teil 2

Dabei liegt China bei der Einführung von Industrie 4.0 vorne. Im Vergleich mit anderen Märkten ist China ein Produktionsstandort mit relativ brachliegenden Industrien. Länder wie Indien und Brasilien, die kein langjähriges Industrievermächtnis haben, könnten Industrie 4.0 deshalb schneller einführen. Unter den Staaten mit großen Industriebrachen starteten insbesondere Unternehmen in Europa und Nordamerika ihre Transformation direkt großflächig.

Hierbei zeichnen sich neben dem neuen Mobilfunkstandard 5G und dem super schnellen Edge Computing ein paar weitere Schlüsseltechnologien ab.

  • SDN/NFV: SDN- und NFV-Anwendungen werden in der Netzwerkindustrie vermehrt zum Einsatz kommen und ersetzen schnell Hardware und integriertes Equipment. Mithilfe von kontinuierlichen Investitionen und Spezialisierungen konnten wir eine breite Palette Software Defined Networking (SDN)-Angeboten entwickeln.
  • Autonome Technologien:  In der Fertigung werden neben den traditionellen Industrierobotern immer mehr autonome Robotiktechnologien zum Einsatz kommen. So werden beispielsweise Autonomous Guided Vehicles (AGV) – sogenannte Bots – in gefährlichen und giftigen Umgebungen eingesetzt und ersetzen hier Menschen oder manuelle Arbeiten. Dieser Trend wird sich fortsetzen und immer weiter verbreiten, sodass Unternehmen sich in manchen Bereichen nicht mehr auf Menschen und Handarbeit verlassen müssen – dies wird die Effizienz erheblich steigern.
  • Digital Engineering: Digitale Zwillinge, fortschrittliche 3D-Modellierung, Simulationen und Tests von Designs werden zunehmend in der Fertigung eingesetzt. Der Designzyklus wird verkürzt, gleichzeitig durch eine erweiterte Simulationen die Validierung und Qualität verbessert. Ergänzt wird dies durch die Integration von Product Lifecycle Management (PLM), die bei der Nachverfolgbarkeit und Compliance hilft und vor allem Fehler bei der Produktherstellung reduziert.
  • Additive Fertigung: Diese Technologie stammt ursprünglich aus den Laboren und hat sich auch bei der großtechnischen Anwendung in der Industrie als kostengünstig für die Prototypen-Entwicklung erwiesen. Die metallbasierte additive Fertigung und die Polymer-basierte additive Fertigung verändern die Art und Weise, wie Dinge entworfen und hergestellt werden. Dies wird das Produktdesign revolutionieren und die Kosten senken.
  • KI-augmented Analytics: Die Technologie ermöglicht es Unternehmen, Szenarien zu kombinieren, das Verständnis zu verbessern und mithilfe von KI-basierten Analyse-Tools vorausschauende Entscheidungen in Echtzeit zu treffen.

Thingbots nun größte Gefahr für das Internet

Schon im vergangenen Jahr haben wir in dieser Blog-Reihe festgestellt, dass die Gefahr durch angreifbare IoT-Geräte zunimmt. Dieser Trend hat sich laut einer aktuellen Studie deutlich bestätigt. Mehr noch: Attacken auf IoT-Geräte übertreffen zahlenmäßig inzwischen die Angriffe auf Web- und Anwendungsdienste sowie E-Mail-Server.

Gemäß der Studie „The Hunt for IoT“ wurden bereits in der ersten Hälfte des Jahres 2018 dreizehn neue Thingbots entdeckt. Zum Vergleich: Im ganzen Jahr 2017 waren es sechs und 2016 neun. Bei Thingbots handelt es sich um IoT-Geräte, die mit Malware kompromittiert sind.

Demnach wurde Spanien in den letzten 18 Monaten am häufigsten angegriffen. Weitere oft attackierte Länder waren Russland, Ungarn, die USA und Singapur. Die meisten Angriffe zwischen dem 1. Januar und dem 30. Juni 2018 stammten aus Brasilien (18%), gefolgt von China (15%), Japan (9%), Polen (7%), USA (7%) und Iran (6%). Die am häufigsten von Bots infizierten IoT-Geräte waren Small/Home Office-Router, IP-Kameras, digitale Videorekorder und Videoüberwachungsanlagen.

Auch Deutschland stark betroffen
In Deutschland ist die Gefahr ebenfalls sehr hoch, nicht zuletzt aufgrund zunehmend eingesetzter Industrie-4.0-Lösungen und der stark wachsenden Zahl an IoT-Geräten. Auch hier stellen derzeit die auf einfache Weise mit dem Internet verbundenen Geräte wie Smart TV, Gebäudesteuerung und Überwachungskameras sowie im Privatbereich Spielekonsolen, Videorekorder und Haushaltsgeräte das größte Risiko dar. Viele dieser Geräte werden nur selten auf Sicherheitslücken geprüft und aktualisiert sowie deren Standard-Passwort geändert.

Den meisten Unternehmen ist diese Gefahr durchaus bewusst. So besitzt das Thema Security eine hohe Priorität bei Projekten, die auf einer IoT-Infrastruktur basieren. Dau gehören zum Beispiel vernetzte Fahrzeuge, kritische Infrastrukturen oder intelligente Produktionssysteme. Doch vor allem Privatnutzer und Mitarbeiter sind häufig nachlässig und setzen weitgehend  bedenkenlos vernetzte Heimsysteme oder Smartphones auch im beruflichen Umfeld ein.

Häufig eingesetzte Methoden
Das spiegelt sich in der Zunahme von Social-Engineering-Attacken wider. Zwar bleibt bei Thingbots die meistgenutzte Angriffsmethode Distributed Denial of Service (DDoS), im vergangenen Jahr kamen aber weitere Methoden hinzu. Dazu gehören die Installation von Proxy-Servern zum Starten von Angriffen, Kryptojacking, die Installation von Tor-Knoten und Paket-Sniffern, DNS-Hijacks, Credential Collection, Credential Stuffing und Betrugstrojaner. Gerade die letzte Methode zielt vor allem auf Nutzer.

Die häufigste Maßnahme, mit der Angreifer IoT-Geräte aufspürten und infizierten, waren Internet-Scans, die nach offenen Remote-Administrationsdiensten suchten. Telnet und Secure Shell (SSH) waren die beliebtesten Protokolle, gefolgt von Home Network Administration Protocols (HNAP), Universal Plug and Play Protocols (UPnP), Simple Object Access Protocols (SOAP) und anderen Transmission Control Protocol (TCP) Ports, die von IoT-Geräten verwendet werden.  

Infrastrukturen und Mobilgeräte anfällig
Laut der Studie sind IoT-Infrastrukturen „ebenso anfällig für Authentifizierungsangriffe über schwache Anmeldeinformationen wie die IoT-Geräte selbst“. Zur IoT-Infrastruktur gehören vor allem Server und Datenbanken.

Mobile IoT-Gateways sind genauso gefährdet wie herkömmliche drahtgebundene und WiFi-basierte IoT-Geräte. Bis zu 62 Prozent der getesteten Geräte waren anfällig für Angriffe per Fernzugang. Dabei wurden vor allem schwache Standardbenutzerdaten des Herstellers ausgenutzt.

Mirai weiterhin gefährlich
Außerdem ergab die Studie, dass die Gefahr durch Mirai weltweit kaum abnimmt. Zwar reduzierte sich die Anzahl der Mirai-Scannersysteme von Dezember 2017 bis Juni 2018 leicht. Europa bleibt jedoch die einzige Region, in der die Infektion mit Mirai-Scannern relativ konstant geblieben ist.

Dabei müssen Unternehmen neben dem ursprünglichen Bot auch mindestens 10 Mirai-Ableger berücksichtigen. Dazu gehören Annie, Satori/Okiru, Persirai, Masuta, Pure Masuta, OMG, SORA, OWARI, Omni und Wicked. Diese Geschwister von Mirai können weitaus mehr als nur DDoS-Angriffe starten. Zum Beispiel setzen sie Proxy-Server ein, um Krypto-Währungen zu suchen und andere Bots zu installieren.

Geeignete Maßnahmen treffen
Um sich ausreichend vor Thingbots zu schützen, müssen Unternehmen mehrere Schichten betrachten: zum einen die Applikationen und IoT-Broker, die Informationen verarbeiten und aufbereiten, und zum anderen Infrastrukturen sowie Endpunkte und Sensoren. Ein DDOS-Schutz ist auf allen Schichten sämtlicher Infrastrukturen und Applikationen notwendig, da es sonst zu einem Totalausfall der Systeme kommen kann. Eine Strategie zum Schließen von Sicherheitslücken in Anwendungen über Updates muss ebenfalls gegeben sein. Eine WAF (Web Application Firewall) sollte sicherstellen, dass sogar angreifbare Anwendungen bis zum Software-Update abgesichert sind.

Einfache Sensoren ohne Speicher und ohne gängiges Betriebssystem lassen sich aufgrund der geringen Kapazitäten nur schwer angreifen. Hier ist ein grundlegender Manipulationsschutz oft ausreichend. Endgeräte mit Speicher und Anwendungen sind dagegen durch veränderbare, komplexe Passwörter, Sicherheitsupdates, Härtung des Betriebssystems und bei Bedarf mit Virus- und Malware-Schutz zu versehen.

Dabei lassen sich zum Teil bereits genutzte Internet-bezogene Security-Maßnahmen erweitern und anpassen. Dazu gehören etwa DDOS-Schutz, WAF oder die klassische Netzwerk-Firewall. Kommen jedoch IoT-spezifische Protokolle zum Einsatz wie MQTT, sind meist neue Schutzmechanismen zu implementieren, zum Beispiel ein MQTT Gateway oder eine MQTT-fähige WAF. In jedem Fall sollten Digitale Signaturen, strenge Authentifizierung und Verschlüsselung immer Bestandteil der IoT-Kommunikation sein.

Fazit
Thingbots verbreiten sich immer stärker und die Angriffsmöglichkeiten auf das IoT nehmen zu. Daher sollten Unternehmen jetzt für hohe Sicherheit sorgen, vor allem durch Bot-Abwehr am Anwendungsperimeter sowie eine Anti-DDoS-Lösung. Sonst können Vorfälle zu deutlichen Umsatzeinbußen führen.

Mixed Reality reduziert Ausfallzeiten in der Produktion

Die Lösung: Über die Einbindung von Mixed Reality erklärt ein Sachverständiger aus der Ferne dem Mitarbeiter vor Ort schnell und einfach, was er zu tun hat, damit die Produktion wieder anläuft.

Virtual Reality, Augmented Reality, Mixed Reality – Diese Begriffe schwirren seit geraumer Zeit durch die Medien. Meist konzentrieren sich die Berichte auf Geräte für Endnutzer im Home-Entertainment-Bereich. Aber auch Unternehmen können diese Technologien einsetzen, um Arbeitsabläufe zu optimieren oder Services zu verbessern. Dabei sollte im ersten Schritt klar sein, für welche Szenarien die Begriffe stehen.

  • Virtual Reality (VR): Hier sieht der Anwender ausschließlich eine virtuelle Abbildung und nicht mehr die Realität. So kann er vollständig in virtuelle Welten eintauchen, ohne von der Wirklichkeit „gestört“ zu werden. Beispiele dafür sind immersive Computerspiele oder interaktive Schulungen.
  • Augmented Reality (AR): Hier wird die reale Welt durch virtuelle Objekte wie Pfeile, CAD-Daten oder Figuren erweitert. Theoretisch und bei idealer Technologie sind diese nicht von realen Objekten zu unterscheiden.
  • Mixed Reality (MR): Sie funktioniert im Prinzip wie AR, allerdings lassen sich hier virtuelle Objekte fest und über längere Zeit im Raum platzieren. So kann sich der Nutzer etwa zu einer virtuellen Maschine hin- oder von ihr wegbewegen oder eine andere Perspektive einnehmen, ohne dass sie ihre Position im Raum verändert. Diese Technologie wird „Spatial Mapping“ genannt und lässt sich in diesem Video nachvollziehen.

Diese drei verwandten Ansätze eröffnen zahlreiche neue Anwendungsmöglichkeiten für Unternehmen, so dass ihnen eine erfolgreiche Zukunft vorhergesagt wird. Laut Capgemini gehören AR und VR in drei bis fünf Jahren bei jedem zweiten Unternehmen zum Standard. Erst vor kurzer Zeit kam MR als dritte Variante hinzu, da die entsprechende Hardware und Software inzwischen in der Praxis einsatzfähig ist. Als die drei am besten geeigneten Einsatzgebiete haben sich hier die Bereiche „Prozessoptimierung“, „Training“ und „Remote Maintenance“ (auch „Remote Assist“ genannt) herausgestellt. 

Konkretes Einsatzbeispiel

Bei einem Produktionsunternehmen fällt eine Maschine in der Fertigungsstraße aus. Da sich der Herstellungsprozess nicht auf andere Maschinen umleiten lässt, steht die gesamte Straße still. Dieser Ausfall kostet dem Unternehmen pro Stunde mehrere tausend Euro. Daher muss der Fehler so schnell wie möglich behoben werden. Bislang hatte ein speziell ausgebildeter Mitarbeiter Handbücher und Bedienungsanleitungen zu lesen, um mögliche Ursachen festzustellen. Erst nach mehreren Versuchen war er erfolgreich. Doch das bedeutete noch lange nicht, dass er den Fehler auch sofort beheben konnte. Häufig galt es, einen Service-Techniker des Maschinenherstellers anzurufen. Im ersten Schritt musste der Mitarbeiter umständlich erklären, welcher Fehler aufgetreten ist, welche Maßnahmen er getroffen hat und warum die Behebung gescheitert ist. Anschließend erklärte der Service-Techniker telefonisch, welche Schritte zu unternehmen sind.

Mit Hilfe von Fernzugriff und Videotelefonie lassen sich diese Prozesse zwar verkürzen, doch auch hier hat der Mitarbeiter vor Ort häufig nicht beide Hände für die Reparatur frei oder muss immer wieder zwischen Maschine und Videobild hin- und herschauen. Diese Ineffizienzen vermeidet eine Mixed-Reality-Lösung. Damit erhält der Mitarbeiter sowohl die Maschine als auch die Anleitungen für ihre Reparatur in einem Blickfeld. Zusätzlich kann der externe Service-Techniker über virtuelle Objekte wie Pfeile, gezeichnete Kreise oder Grafiken aus dem Handbuch die durchzuführenden Schritte anschaulich erklären. Diese Objekte bleiben bei MR auch immer an der richtigen Stelle, selbst wenn sich der Mitarbeiter vor Ort bewegt. Damit lässt sich eine Reparatur deutlich schneller erledigen als mit herkömmlichen Maßnahmen. Wenn die Maschine dann statt einer Stunde nur noch 15 Minuten still steht, hat sich die Investition in die MR-Technologie meist schon nach einem Servicefall amortisiert.

HoloLens-Perspective1-2
(Quelle: Campana & Schott)
HoloLens-Perspective1-1
(Quelle: Campana & Schott)

Verfügbare Lösungen

Inzwischen stehen einsatzfähige Lösungen für AR und MR von verschiedenen Herstellern zur Verfügung. Dazu gehören etwa Microsoft, Magic Leap oder ODG, wobei sich der Markt jedoch ständig verändert. Gerade die Microsoft HoloLens dürfte mit der für dieses Jahr angekündigten neuen Version 2 einen großen Schritt nach vorne machen. Dies liegt nicht nur an der wohl deutlich verbesserten Hardware, sondern auch an neuen Software-Lösungen. So ermöglicht zum Beispiel Remote Assist die reibungslose Zusammenarbeit über Videotelefonie mit Hilfe von Heads-Up-Display, Freisprech-Funktion, Bildaustausch und Anmerkungen. Dadurch können Mitarbeiter vor Ort mit einem Experten teilen, was sie in der Realität sehen, während sie gleichzeitig die Hände frei haben, um Probleme zu lösen und Aufgaben schneller zu erledigen. Wie das funktioniert, zeigt dieses Video. Dabei ist die Lösung komplett in die Collaboration-Tools Microsoft Office und Microsoft Teams integriert sowie die Kommunikation auf Unternehmensebene abgesichert.

Da die aktuelle Version der HoloLens wenige tausend Euro kostet, dürfte der Preis für die zweite Version nicht wesentlich höher liegen. Mit der benötigten Standard-Software bleibt die Investition für eine MR-Lösung meist unter 5.000 Euro. Verglichen mit den Kosten für einen Produktionsausfall rentiert sich diese Anschaffung durch die Reduzierung der Zeit für die Problembehebung sehr schnell. Was Unternehmen beim Einsatz von MR sonst noch wissen müssen, etwa weitere Einsatzszarien oder Herausforderungen wie Capability Building, erfahren sie in einem Online-Seminar am 5. Februar 2019. Hier wird auch ein konkretes Einsatzszenario der Microsoft HoloLens live gezeigt. Eine Anmeldemöglichkeit gibt es hier.

Fazit

Für Fertigungsunternehmen bietet Mixed Reality zahlreiche Vorteile, um Gewinneinbußen durch Produktionsausfälle zu vermeiden. So können Mitarbeiter über die HoloLens einen Microsoft-Teams-Videoanruf an einen oder mehrere externen Experten starten. Dieser sieht die Maschine, kann das Bild einfrieren und mit einem Stift Pfeile oder Kreise zur Veranschaulichung zeichnen, die der Mitarbeiter vor Ort an der richtigen Stelle der Maschine im Sichtfeld eingeblendet bekommt – selbst wenn er sich bewegt. Damit kann er deutlich schneller die Maschine reparieren als mit herkömmlichen Methoden – und die Produktion läuft in entsprechend kürzerer Zeit wieder an.

 

 

Cybersecurity – Was User und Unternehmen wissen müssen

Cyberkriminalität boomt und wird weiterhin rasante Entwicklungen und Herausforderungen für die IT-Sicherheit mit sich bringen. Sicherheitsexperten und Datenwissenschaftler haben sieben Entwicklungen identifiziert, die ein Umdenken in der Cybersecurity erfordern: von biometrischem Hacking, Künstlicher Intelligenz und der Cloud als Einfallstor für IoT-Hacks bis hin zu branchenweiten Security Trust Ratings und einem Cyber Cold War aufgrund von neuem Isolationismus der Politik und Wirtschaft durch Handelsembargos.

Das gefälschte Gesicht – Hacker manipulieren Gesichtserkennungssoftware

Mit Phishing-Attacken und Hacks wie „SIM SWAPS“ untergraben Angreifer bereits regelmäßig die Wirksamkeit von Zwei-Faktor-Authentifizierung-(2FA)-Methoden (z. B. Login mit Passwort und SMS-Code). Eine mehrstufige Authentifizierung durch biometrische Merkmale bietet hier eine zusätzliche Sicherheitsebene. Sie verwendet Daten, die spezifisch für den End-User sind. Der Technologiegigant Apple setzt bei seinen neuen iPhones etwa auf Gesichtserkennung. Fakt jedoch ist: Keine Authentifizierungsmethode ist zu 100 Prozent sicher. Hacker werden zukünftig Identitäten trotz und gerade mit Gesichtserkennungssoftware stehlen. So überlistete bereits 2016 ein Bildverarbeitungsspezialist der University of North Carolina Gesichtserkennungssysteme mit öffentlich verfügbaren Digitalfotos und mobiler VR-Technologie. Unternehmen sollten sich daher mit verhaltensbasierten Systemen schützen. Tastenanschlag, Mausbewegungen, Geschwindigkeit beim Scrollen et cetera – physisches Verhalten einer Person ist eindeutig und lässt sich nicht nachahmen.

Industrie 4.0 – Angreifer nutzen Schwachstellen bei Hardware- und Cloud-Infrastruktur

In einer Umfrage identifizierten 76 Prozent der 1.000 Teilnehmer die massive Einflussnahme auf das industrielle IoT als wichtige Sicherheitsfrage. Die Vielzahl vernetzter Geräte, mobile Zugriffe und verschiedene Applikationen machen den Schutz von Systemen und Daten zunehmend komplexer. Mit gleichzeitig steigender Datenmenge setzen Unternehmen immer mehr auf Cloud-Lösungen und -Provider für Wartung, Updates und Device-Management. Die Multi-Tenancy-Architektur vieler skalierbarer Dienste für IoT-Systeme führt aber zu technologischen Schwachstellen. Angriffe auf die Cloud-Infrastruktur sind daher deutlich lukrativer, um wichtige Systeme zum Stillstand zu bringen. Produktion, Energieerzeugung und andere wichtige Sektoren könnten gleichzeitig betroffen sein. Ein effektiver, ganzheitlicher Schutz erfordert daher Einblicke in das Verhalten von Mensch und Maschine, um automatisch unautorisierte Eingriffe in IoT-Systeme zu verhindern, ohne dass die Verfügbarkeit beeinträchtigt wird.

Künstliche Intelligenz bleibt nur ein Buzzword in der Cyber-Sicherheit

Künstliche Intelligenz, die menschliche Kognition beziehungsweise geistige Aktivität reproduzieren kann, gibt es in der Cybersecurity nicht. Auch in 2019 wird KI ein beliebtes Schlagwort für Marketer und unausgereifte Produktlösungen bleiben. Manche Firmen gehen dabei sogar soweit, menschliche Eingriffe in ihr Produkt zu verschleiern. Automation und nicht KI per se, kann Security-Experten im Unternehmen in hohem Maße entlasten. So können sich diese durch einen hohen Automatisierungsgrad und adaptive, risikobasierte Lösungen sowie Anpassungen etwa ganz auf relevante, auffällige Aktivitäten konzentrieren.

Politische Isolation und Handelsstreit beschwören Cyber Cold War herauf

Spionage hat Staaten und Unternehmen schon immer einen Weg zum Erwerb neuer Technologien eröffnet. Allein 43 Milliarden Euro Schaden durch Hackerangriffe hat der IT-Verband Bitkom und das Bundesamt für Verfassungsschutz für Unternehmen in Deutschland in den vergangenen zwei Jahren festgestellt. Isolationismus bei der Handelspolitik wird in vielen Fällen Nationen und Unternehmen dazu veranlassen, verstärkt durch Cyber-Taktiken Einfluss auf andere Staaten, kritische Infrastrukturen und wichtige Branchen zu nehmen oder geistiges Eigentum stehlen. Solche Angriffe zielen dabei häufig auf einzelne Mitarbeiter als Einfallstor für Schadsoftware. Statt weitere Mauern zu bauen, gilt es daher, besser zu verstehen, wie und warum Menschen mit sensiblen Daten umgehen und wo sich diese bewegen. Mit der Analyse von Nutzerverhalten kann gezielt auf hochriskante Aktivitäten eingegangen werden. Mittels automatischer Anomalie-Erkennung können Unternehmen normales Nutzerverhalten sowie gewöhnlichen ein- und ausgehenden Datenverkehr von verdächtigen Datenbewegungen unterscheiden.

Security Trust Ratings – die neue Grundlage für Kooperationen in der Wirtschaft

In der heutigen „Zero Perimeter World“, einer digitalen Welt ohne klare Grenzen, sind kritische Daten und geistiges Eigentum mehr denn je gefährdet. Die Verantwortung für die Datensicherheit bleibt dabei jedoch immer beim Unternehmen, auch wenn die Daten beispielsweise bei einem Provider liegen. Branchenweite Security Trust Ratings sind notwendig, wenn Unternehmen nach Zusicherungen suchen, dass Partner und Wertschöpfungsketten vertrauenswürdig und ausreichend gesichert sind. Firmen müssen Security daher von oben nach unten in ihre Unternehmenskultur integrieren. So kann diese etwa nur dann funktionieren, wenn Mitarbeiter das Gefühl haben, einen Beitrag zur ganzheitlichen Sicherheit des Unternehmens zu leisten. Das Thema darf daher nicht nur in der Verantwortung der IT-Teams liegen, sondern ist ein Geschäftswert. So suchen schon jetzt 58 Prozent der befragten Forcepoint-Umfrageteilnehmer aktiv nach vertrauenswürdigen Cloud-Anbietern mit einem guten Ruf für Sicherheit.

DSGVO – Mitarbeiter und Unternehmen streiten über Verantwortlichkeiten bei Datenverlust

Mit der DSGVO sind Konfrontationen im Gerichtssaal vorprogrammiert: 2019 wird es Gerichtsverfahren wegen Datenschutzverletzungen geben, bei denen ein Mitarbeiter seine Unschuld bekundet und ein Arbeitgeber vorsätzliches Handeln unterstellt. Ob ein Richter zugunsten eines Arbeitgebers oder eines Arbeitnehmers entscheidet, ist dabei nahezu irrelevant. Vielmehr werden mangelhafte IT-Sicherheitsmaßnahmen eines Unternehmens öffentlich präsentiert. Firmen müssen daher Menschen und Daten schützen und bösartige Aktivitäten identifizieren, bevor sie kritische Systeme und IPs schädigen. Die Analyse von Nutzerverhalten und Datenbewegungen am Arbeitsplatz hilft dabei, das Gesamtbild eines Vorfalls zu verstehen. Eingesetzte Lösungen müssen dabei drei Grundprinzipien erfüllen: legitimer Zweck, Verhältnismäßigkeit und vollständige Transparenz. Der Schutz personenbezogener Daten und der Privatsphäre sollte Grundvoraussetzungen für jedes erfolgreiche Unternehmen sein.

Datenskandale – mit Edge Computing die Vertrauenslücke schließen

Der Facebook-Datenskandal rund um Cambridge Analytica war 2018 nur die Spitze des Eisbergs. Das Vertrauen der User in viele Online-Dienste und dem verantwortungsvollen Umgang mit ihren Daten ist gering. Unternehmen werden versuchen mit Edge Computing diese Vertrauenslücke zu schließen. Daten werden nicht mehr automatisch in die Cloud geladen und zentral in einem Datencenter gespeichert, sondern auf dem jeweiligen Endgerät oder der Applikation (also am Rande des Netzwerks – dem „Edge“). Das verbessert den Datenschutz und erlaubt Usern mehr Kontrolle über ihre Daten. Edge Computing allein wird das mangelnde Vertrauen der Verbraucher aber nicht überwinden können. Es reicht nicht aus, dass Unternehmen Daten sowohl auf dem Gerät als auch in der Cloud erfassen und sichern. Um Vertrauen zu schaffen, müssen sie nachvollziehbar offenlegen, wie Nutzerdaten gesichert und genutzt werden.

Die nächste Evolutionsstufe für Produktions- und Engineering Services

Mithilfe der PoCs konnten Unternehmen schnell die vielfältigen Geschäftsvorteile des industriellen IoT validieren. Die Branche beginnt jetzt nach und nach, IoT in den operativen Standorten einzuführen. Da mehr als 80 Prozent der Industrieanlagen Brachland sind, wird die Umsetzung in Phasen und nicht in einem einzigen Schritt erfolgen.

Darüber hinaus werden die Prozesse mithilfe von Erfahrungswerten verbessert und stabilisiert. Dabei ergeben sich eine Vielzahl von Entwicklungsmöglichkeiten für die Branche – die drei wichtigsten davon sind:

  • Die IT-OT (Operational Technology)-Integration steht weiterhin im Mittelpunkt, insbesondere bei der ISA-95-Stack-Integration über alle Layer hinweg. Eine engere Vernetzung zwischen Menschen, Prozessen und Maschinen wird zu einer höheren Transparenz des Betriebs, einer besseren Auslastung und Leistung der Anlagen, einer effizienteren Lieferkette und reduzierten Betriebskosten führen.
  • Während die Einführung des industriellen IoT den Mainstream erreicht, evaluieren alle Branchen neue Technologien wie Augmented Reality (AR) / Virtual Reality (VR), künstliche Intelligenz (KI), Machine Learning und Autonome Technologien.
  • Technologien wie Blockchain werden innerhalb des industriellen IoT keine direkte Anforderung sein, da es sich bei den Produktionssystemen nach wie vor meist um geschlossene, bewährte Systeme handelt. Cyber-Sicherheit wird zur Hauptanforderung für die Gerätesicherheit, Daten- und Geräteintegrität, Zugangskontrolle und Autorisierung – und dies über den Datenschutz hinaus.

Das industrielle IoT hat das Potential, den digitalen Wandel in der Industrie voranzutreiben. Die Digitalisierung umfasst den gesamten Lebenszyklus der Fertigung, einschließlich Design, Produktion, Verkauf und Service. Die digitale Fertigung ist ein entscheidendes Element dieser Transformation. Die Integration der Systeme wird daher über den gesamten Design-, Herstellungs-, Betriebs- und Servicelebenszyklus hinweg gesteuert. Darunter fallen unter anderem:

  • Integriertes Lifecycle Management – Das Product Lifecycle Management (PLM)-System spielt eine zentrale Rolle. Die digitalen Artefakte eines Produkts – angefangen beim Digital Engineering, das durch CAD/CAE, Manufacturing Operations Management (MOM), Manufacturing Engineering Services (MES) und Qualitätsmanagement ermöglicht wird – unterstützen bei der Produktnachverfolgung über alle Phasen des Lebenszyklus hinweg. Die IT-OT-Integration vereint alle Daten aus Maschinen, Anlagen, Prozessen und Systemen auf einer gemeinsamen Plattform, hilft bei der Einrichtung und Verfolgung der Lebenszyklusphasen sowie bei der Statusverfolgung von ‚wie geplant‘ versus ‚wie betrieben‘ versus ‚wie gewartet‘.
  • Digitalisierung – Das industrielle Set-Up verfügt über viele Funktionen, die noch manuell gesteuert werden. Dazu gehört auch die Datenerfassung. Industrielles IoT ermöglicht die Digitalisierung und Automatisierung von Arbeitsprozessen. Daten von SPS, Maschinen, Prozessen und Echtzeitverarbeitung über MES gewährleisten die Compliance des Produktionsprozesses, ermöglichen Qualitätssicherung und reduzieren den Materialverbrauch. All dies ist auf einem einzigen Dashboard integriert. Alle Mitarbeiter einer Fabrik können somit in Echtzeit auf Informationen zugreifen und schneller Entscheidungen treffen.
  • Organisatorischer Wandel – Die Art und Weise wie Betreiber, Techniker, Betriebsleiter oder Produktionsleiter arbeiten, wird sich grundlegend ändern. Unternehmen müssen deshalb in Schulungen der Mitarbeiter investieren, damit die Auswirkungen der Transformation auf das laufende Tagesgeschäft so gering wie möglich sind. Die Arbeitsumgebung muss sich zudem an die Technologien anpassen, die hinter der Transformation stehen. Die Neuausrichtung der bestehenden Belegschaft wird für den Übergang zur digitalen Fertigung entscheidend sein: Unternehmen müssen ganzheitlich denken und Silos aufbrechen, um kollaborativer und integrierter zu sein.

Kleine Schritte – große Wirkung: Drei Grundsätze für eine erfolgreiche Digitalisierung

Schritt 1: Notwendigkeit erkennen

Anzeichen für die Notwendigkeit, über Digitalisierungsvorhaben dringend nachdenken zu müssen, gibt es viele und auf fast jeder Unternehmensebene. Doch es gilt, sie zu erkennen und ernst zu nehmen.

So ist etwa die Tatsache, sich bei weitreichenden Entscheidungen auf das Bauchgefühl statt auf valide Kennzahlen verlassen zu müssen, für viele Manager heute noch bittere Realität und sollte die Verantwortlichen aufhorchen lassen. Regelmäßig wird es vor Strategie-Meetings hektisch, und Mitarbeiter müssen für das Erstellen flüchtiger Reports Überstunden machen. In der Regel fehlt es anschließend auch noch an einer Vernetzung der Daten, um eine Aussage zu überprüfen oder um ‚hier‘ gewonnene Erkenntnisse ‚dort‘ nutzbringend zu verarbeiten.

Ein anderes Problem und sicheres Signal für notwendige Veränderungen sind die ‘ungeschliffenen Rohdiamanten‘ in der Produktion. Dort wird Telemetrie gerne noch mit dem Klemmbrett gleichgesetzt, statt vernetzte Mess- und Regelsysteme auch über große Entfernungen (IoT) anzusprechen und zu nutzen. Ein sicheres Alarmsignal ist schließlich, wenn Daten ‘immer wieder‘ statt ‘ständig‘ aufgenommen werden müssen und unvernetzte Steuerungsprozesse nicht die Ausnahme, sondern die Regel sind.

Schritt 2: Mut zur Technik

Sind die Notwendigkeit und die Stellschrauben, an denen gedreht werden muss, erkannt, gilt es die technologischen Optionen abzuklopfen. Denen sind heute kaum mehr Grenzen gesetzt. Aussagen wie „An der Maschine ist aber kein Netzanschluss möglich!“ oder „Die Datenbank ist in Ihrer Größe begrenzt!“ können und dürfen heute nicht mehr Gründe für einen mangelnden Fortschritt der Digitalisierung sein. Wer hier zögert, sollte einen Blick in den südamerikanischen Dschungel wagen. Hier liefern heute Telemetriedaten die Basis für die Beauftragung einer Wartungscrew, da die Leitstelle in Frankfurt am Main erkannt hat, dass der Druck einer Pipeline um 0,001 mbar abgesunken ist. Alles in Echtzeit und über vernetzte Systeme.

Schritt 3: Prozesswissen im eigenen Haus

Die Auftragslage für externe Berater in allen Bereichen war noch nie so gut wie heute. In fast jedem Projekt sind die Schlüsselrollen mit Business-Analysten der TOP-Beratungshäuser besetzt, die eigenen Leute übernehmen die kleinteilige Arbeit. Nie zuvor war das Risiko höher, sich in eine andauernde und zudem teure Abhängigkeit zu begeben wie im Rahmen eines Digitalisierungsvorhabens, welches nicht hinreichendes, internes Wissen/Kompetenz aufweisen kann. Schritt drei heißt also, einen eigenen Chief Digital Officer als kreativen Kopf des Vorhabens einzusetzen und die Schlüsselrollen durch interne Experten zu besetzen. Auch wenn der Know-how-Aufbau ein Digitalisierungsvorhaben zunächst etwas verzögern mag, ist er der Schlüssel zur unabhängigen Nachhaltigkeit nach der Realisierung.

Kleine Schritte mit großer Wirkung

Natürlich ist es mit Schritt eins bis drei längst nicht getan. Auch Fragen etwa nach dem Budget oder dem Changeability-Potenzial eines Unternehmens spielen für den Erfolg von Digitalisierungsstrategien wichtige Rollen. Doch wem es gelingt, überhaupt Notwendigkeiten zu erkennen, eigene Teams aufzubauen und nicht an der technischen Umsetzung zu zweifeln, der schafft es auch, Budgetfragen realistisch zu bewerten und seine Mitarbeiter mit Empathie und Vertrauen mit auf die Reise zu nehmen.

*Volker Altwasser arbeitet bei der expertplace networks Group AG.