Archiv der Kategorie: IOT – IoT-Praxis

Digitale Doppelgänger und das Produktionssystem 4.0

Der Bezug auf das 3-D-Modell des Produktes ist im Kontext des Digitalen Zwillings das vorherrschende Beispiel. Darauf aufbauend dann Anwendungen der virtuellen oder erweiterten Realität für Instandhaltung und Service. Dabei liegen, wie bei einem Eisberg, 90 % der Daten und Prozesse, die einen Digitalen Zwilling repräsentieren, häufig nicht im Blick der Beteiligten. Wie sieht also eine ganzheitliche Perspektive über Wertschöpfungsstufen und Systemgrenzen hinweg aus?

Entgegen dem Eisberg ist eine typische Eigenschaft des Digitalen Zwillings, dass er mit zunehmendem Alter – in unserem Fall Lebenszyklus – immer umfangreicher wird und durch neue Daten an „Masse“ gewinnt. Die Historie der Daten macht ihn immer wertvoller und ist letztlich die Voraussetzung für neue digitale Anwendungen und Geschäftsmodelle. Die versprochenen Wettbewerbsvorteile und Effizienzgewinne einer Smart Factory werden ohne ein integriertes Management des Digitalen Zwillings nicht zu erreichen sein.

Gefangen im Silo der Systeme

Betrachtet man stark vereinfacht Design -> Make -> Service als Wertschöpfungsstufen, so stehen auf jeder Stufe entsprechende IT-Systeme bereit. Im Bereich Design die CAD/PLM-Systeme, im Make ein ERP und MES sowie im Service die Instandhaltungssysteme. Entlang dieser Kette werden eigene Datenmodelle und Instanzen von Digitalen Zwillingen in den IT-Systemen erzeugt. Trotz aller Bemühungen um offene Standards dominieren viele herstellerspezifische Formate und Varianten, so dass, insbesondere beim Übergang von einer Stufe auf die andere, viele Daten verloren gehen oder manuelle Datenpflege betrieben wird. Diese Art der IT-technischen Verschwendung galt als unvermeidlich. Da auch organisatorisch Grenzen übersprungen werden, fühlte sich jede Abteilung in ihren Grenzen ganz komfortabel. Viele gut gemeinte Digitalisierungsprojekte fügen jetzt mit Cloud- und IoT-Systemen eine schnell wachsende Schatten-IT hinzu, die die Vielfalt inkompatibler Digitaler Zwillinge schnell unübersehbar werden lässt.

Die Rolle im Produktionssystem 4.0

Produktionssysteme wurden über viele Jahre nach Lean-Prinzipien optimiert und funktionieren weitgehend ohne Digitalen Zwilling. Der Fokus lag auf dem ununterbrochenen, getakteten, verschwendungsfreien Produkt- und Materialfluss. Papier (z.B. der Laufzettel) ist dabei immer noch der Träger aller wesentlichen Informationen, auch wenn punktuell beispielsweise CNC-Systeme unterstützen. Die typischen Tätigkeiten in der Arbeitsvorbereitung, Produktion und Service wie das Aufbereiten der Auftragsdaten, das Ausdrucken und Verteilen der Auftragsdokumente, das Erfassen von Daten in IT-Systeme – all dies sind typische Vorgänge, die nicht wertschöpfend sind.

Das Produktionssystem 4.0 ist durch die Fähigkeit gekennzeichnet, dem Kunden trotz schwankenden Bedarfs individuelle Produkte  mit minimaler Durchlaufzeit bereitzustellen. Takt und Band verlieren an Bedeutung und werden durch flexible und modulare Produktionsmodule ersetzt. Typische Designmerkmale eines Produktionssystems 4.0 sind:

  1. Durchlaufzeit „Same Day“ für alle Produkte
  2. Rüstzeit „Null“
  3. Flexible Produktionsmodule auf denen „jedes“ Produkt gefertigt werden kann
  4. Papierlose Produktion
  5. Keine ungeplanten Stillstände und Störungen

Diese extremen Prinzipien zeigen den Weg auf, um die Effizienzgewinne der Zukunft erreichen zu können. Wertschöpfungssteigerungen von 30 bis 50 % der Gesamtleistung werden in diversen Studien als Potenzial ausgewiesen. Diese Ziele werden aber nur erreicht, wenn der Digitale Zwilling ein integraler Bestandteil und Kern des Produktionssystems 4.0 by Design ist. Er ist der wesentliche Schlüssel der Optimierung und des Effizienzgewinns.

Welche Design-Prinzipien gelten für den Digitalen Zwilling, um diese Ziele zu erreichen?

  1. Es braucht einen Digitalen Zwilling für das Produkt.
  2. Es braucht einen Digitalen Zwilling für die Produktionsanlage.
  3. Es braucht ein kompatibles Datenformat zwischen Anlagen- und Produktmodell, welches den Produktionsprozess digital abbilden kann (Thing-Core-Model).
  4. Stammdaten, egal ob produkt- oder anlagenspezifisch, müssen standardisiert, zentral gepflegt werden bzw. synchronisiert werden.
  5. Über alle Wertschöpfungsstufen ist der Digitale Zwilling wiederzuverwenden (ReUse) und mit Daten anzureichern (Add) – Add- & ReUse-Prinzip.
  6. Digitale Zwillinge müssen über Grenzen des Unternehmens hinaus, das heißt zwischen Herstellern, Betreibern und Servicepartnern im Netzwerk, über ein offenes Thing-Modell austauschbar und erweiterbar sein.

Werden diese Prinzipien des integrierten Digitalen Zwillings als zentrales Designelement in der Unternehmensarchitektur angewendet, können alle Prozesse entlang der Wertschöpfung verschwendungsfrei aufgebaut werden. Daten, die einmal erstellt wurden, stehen nachfolgenden Schritten zur Verfügung und können für Prozesse und Applikationen genutzt werden. Um dieses Ziel zu erreichen, ist ein konsequentes, interdisziplinäres Prozess- und Stammdatenmanagement in der Organisation als Kultur zu entwickeln.

Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess

Abbildung 1: Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess (Quelle: Trebing+Himstedt)

Wertschöpfung ohne Verschwendung

Sind die Grundregeln des Umgangs mit dem Digitalen Zwilling verstanden, erschließen sich zahlreiche Potenziale, um die Verschwendung auf nahe Null zu reduzieren.

Beispiel papierlose Produktion und elektronische Werkerführung. Bei der automatisierten oder manuellen Montage benötigt es neben der Stückliste immer eine spezifische Arbeits- beziehungsweise Prüfanweisung. Heute werden die Anweisungen pro Produktvariante manuell in einem Editor erstellt, ausgedruckt oder als PDF am Terminal bereitgestellt. Alle Daten liegen in der Regel aber bereits elektronisch vor und können nur nicht automatisiert zusammengeführt werden. Nutzt man die Idee des Digitalen Zwillings, werden die Konstruktionsdaten (z.B. PLM) mit den ERP-Daten integriert und das MES wird der Nutzer der Daten für die Arbeitsanweisungen, zum Beispiel für die schrittgenaue Darstellung mit 3-D-Modell und Animation.

Zusätzlich werden für Werkzeuge oder Prüfstände Maschinenparameter benötigt. Diese können am Digitalen Zwilling des Produktes im ERP gepflegt werden, ans MES weitergeleitet und dann auf Basis offener Standards wie OPC UA technisch in Echtzeit an die Maschine übertragen werden. Auch hier entfällt die doppelte Datenpflege und Verteilung.

Der Digitale Zwilling wird im MES angereichert - as-built, Beispiel SAP ME

Abbildung 2: Der Digitale Zwilling wird im MES angereichert – as-built, Beispiel SAP ME (Quelle: Trebing+Himstedt)

Ein Beispiel aus dem Bereich Instandhaltung ist der häufig genannte Anwendungsfall visueller Wartungsanweisungen mit Hilfe von Augmented Reality. Hier erhält der Instandhalter, sobald das Bauteil mit einem QR- Code identifiziert ist, Informationen zu Zustand und Wartung eingeblendet.

Nutzt man auch hier das entlang des Lebenszyklus angereicherte Datenset des Digitalen Zwillings, kann man das 3-D Modell und die Strukturinformationen aus der Geburtsphase des Objektes (CAD, PLM) (As-Designed), dann aus dem ERP und MES die Stücklisten und Komponenteninformationen (As-Built) und zum Schluss die Wartungshistorie (As-Maintained) sowie die Betriebsdaten (z.B. IoT-Real-Time-Performance-Daten) heranziehen. Alles basierend auf dem Thing-Core-Modell, über Systemgrenzen hinweg und nach dem Add- & ReUse-Prinzip für den Digitalen Zwilling. Dieser Anwendungsfall zeigt, dass der Nutzen am Ende der Wertschöpfung immer größer wird. Kann man aber nicht auf einen integrierten Prozess zurückgreifen, wird der Aufwand für die Einführung eines solchen Prozesses immer höher. In diesem Anwendungsfall wird auch die Notwendigkeit von unternehmensübergreifenden Asset-Netzwerken deutlich, da der Digitale Zwilling die Unternehmensgrenze des Herstellers verlassen hat und der Betreiber die Daten nutzen möchte. Ist dieser Austausch nicht möglich, müsste der Betreiber das gleiche Modell nochmals aufwendig erstellen und pflegen, ohne dass insgesamt ein Mehrwert entsteht.

 

Der Digitale Zwilling im Asset-Netzwerk - Beispiel SAP AIN

Abbildung 3: Der Digitale Zwilling im Asset-Netzwerk – Beispiel SAP AIN (Quelle: Trebing+Himstedt)

Diese beiden Beispiele sind nur ein kleiner Ausschnitt von Anwendungsfällen, die den Digitalen Zwilling benötigen. Die smarte Fabrik gelingt nur mit dem Management des Digitalen Zwillings in seiner Vielfalt über den gesamten Lebenszyklus hinweg. Der Weg über viele kleine schlanke IT-Systeme lässt das Maß der Verschwendung nur anwachsen und führt zur Inflexibilität. Leider scheint die Vielfalt der Apps und die versprochene schnelle Einführung vielen Akteure sehr verlockend. Aber an einem integrierten, leistungsstarken Backend (Digital Core) kommt kein Unternehmen vorbei. Auf diesem Backend aufbauend kann die Welt der Apps durchaus leicht und produktiv genutzt werden. Spätestens bei datengetriebenen Geschäftsmodellen, die eine nutzungsorientierte Vergütung (Pay-per-use) anstreben, ist der Digitale Zwilling eine zwingende Voraussetzung.

Datenfehler in der Supply Chain automatisch erkennen und korrigieren

Auch wenn die Supply-Chain-Planung immer mehr automatisiert wird, ist es für die meisten Disponenten schwierig, die Hände vom Lenkrad zu nehmen und die Technologie die Arbeit machen zu lassen. Allerdings stimmen die meisten Planer wohl darin überein, dass ein Job, den sie gerne an die KI delegieren würden, die Datenbereinigung ist. Die Datenqualität ist auch in der Supply-Chain-Planung ausschlaggebend für den Erfolg. Die Aufarbeitung schlechter Daten, das Erfassen und Korrigieren von Datenfehlern wird nicht selten mit viel manuellem Aufwand von Planungsteams betrieben.

Fehler, Fehler, überall Fehler

Denn Supply-Chain-Datenfehler können in Beschreibungen, Identifikatoren, Klassifizierungscodes, Steuerungsvariablen und an vielen anderen Stellen gefunden werden. Fehler können das Ergebnis falscher menschlicher Eingaben, falscher Beziehungen zwischen Datenelementen und Datensätzen, einer falschen Ausgabe von statistischen Optimierern, mangelhafter EDI-Übertragungen und anderer Ursachen sein. Und da die Daten der Lieferkette miteinander verbunden sind, kann ein Fehler in einem Feld schnell zu Fehlern in einem anderen Feld führen.

Supply-Chain-Fehler können auch sehr subtil sein, wenn es um obskure Anwendungsdaten geht, die nicht regelmäßig überprüft werden. Für jeden bekannten Fehlertyp gibt es zwangsläufig Hunderte von unbekannten Typen, und für jeden bekannten Fehler kann es Tausende von anderen geben, die so lange unentdeckt bleiben, bis sie Probleme verursachen.

Angesichts der Tatsache, dass die Supply Chain gerade dabei ist, sich zum Netzwerk der Netzwerke zu entwickeln, werden Datenfehler künftig immer häufiger zutage treten. Ihre Auswirkungen werden im gesamten Unternehmen und noch darüber hinaus stärker spürbar sein.

Von der Unmöglichkeit, manuell Fehler in komplexen Lieferketten zu finden

In einer großen Lieferkette ist es nicht möglich, einzelne Fehler mit traditionellen Ansätzen zu finden und auszumerzen. Selbst der erfahrenste Planer kann nur noch einen Bruchteil der vorhandenen Anomalien finden. Die Erstellung einer ausreichend großen Stichprobe von Beispielfällen ist ein sehr zeitaufwendiger Prozess. Es gibt einfach zu viele Daten, als dass ein manueller Ansatz in einer großen oder komplexen Lieferkette sinnvoll wäre.

Die Grenzen prädiktiver Modelle

Wenn ein gewisser Grad an Automatisierung heutzutage in der Datenbereinigung eingesetzt wird, dann sind das prädiktive Modelle. Aber da es sich dabei meist um mathematische Funktionen handelt, können sie zwar deutlich machen, dass sie einen Datensatz für einen Ausreißer halten, aber nicht erklären, warum. Dies macht es, besonders in einer dynamischen Supply-Chain-Umgebung, schwierig, Ausreißer zu verstehen, zu verwalten oder zu ändern.

Wie KI Abhilfe schaffen kann

Einen besseren Ansatz verfolgt die sogenannte sich selbst korrigierende Supply Chain, die Künstliche Intelligenz einsetzt, um Fehler in Supply-Chain-Daten automatisch zu finden und zu beheben. Das schließt auch vergangene Datenfehler ein. Zudem werden Methoden des maschinellen Lernens eingesetzt, durch die das Modell sein Wissen darüber, wie man solche Fehler erkennt und korrigiert erweitert. Dieses wird genutzt, um aktuell auftretende Datenfehler zu korrigieren, bevor sie sich negativ auf Produktion oder Prozesse auswirken können.

Bei diesem Ansatz zur Korrektur von Supply-Chain-Daten schauen Experten nicht auf Hunderte oder Tausende von verdächtigen Datensätzen. Sie untersuchen nur eine Handvoll Regeln, die alle Anomalien in den Daten qualifizieren. Wird nur eine Anomalie-Regel entfernt, können so automatisch Tausende korrespondierende tatsächliche Anomalien beseitigt werden.

Die sich selbst korrigierende Supply Chain

Der Ansatz der sich selbst korrigierenden Supply Chain nutzt Live-Daten in Supply-Chain-Anwendungen und -Workflows vom Materialeinsatz bis zur Produktverteilung. Das Wissen, die Erfahrung und die Kompetenz von Planern und anderen Experten wird auf höchst effiziente und effektive Weise verwendet. Im Grunde genommen gleicht dieser Ansatz einem intelligenten Assistenten, der den Planern hilft, ihre alltäglichen Aufgaben effektiver zu erledigen.

 

Die sich selbst korrigierende Supply Chain ist ein dreistufiger Prozess:

  1. Das Modell findet Beispiele für Anomalien in historischen Daten und erstellt Regeln für natürliche Sprachtypen, die dann von einem Fachplaner oder IT-Datenbankexperten überprüft werden.
  2. Verdächtige Datensätze, die vorher bereits markiert wurden, werden genutzt, um das logische Modell zur Korrektur der Datenfehler zu erstellen.
  3. Das Modell prüft automatisch und kontinuierlich neue Daten und findet und ersetzt fehlerhafte Datensätze im Produktionssystem.

 

Der Einsatz von KI in der Supply-Chain-Planung hilft dabei, die Fehlerbereinigung zu automatisieren. Anstatt die Daten der Lieferkette selbst zu bereinigen, lassen die Planer diese mühselige Arbeit von der KI erledigen und können sich auf die Aufgaben konzentrieren, bei denen sie ihr Wissen und die menschliche Intelligenz besser einsetzen können.

 

Survival of the Digital Fittest

Es überrascht heute niemanden mehr, dass etablierte Strukturen als überholt gelten, auch wenn sie sich bislang bewährt haben. Neue Wege sind gefragt. In der digitalen Zukunft ist schlichtweg kein Platz für historische Organisationsmodelle – mit diesem Umstand tun sich vor allem Traditionsunternehmen nicht selten schwer. Die richtigen Schritte beim Change- und Projektmanagement verschaffen allerdings Orientierung und helfen, das Ziel im Auge zu behalten. Die Gefahr: Wer es jetzt verpasst, die Weichen zu stellen, ist langfristig nicht wettbewerbsfähig. Einer nachhaltigen Transformation der mittelständischen Unternehmenslandschaft im Wege steht allerdings nach wie vor die Skepsis vieler Beteiligter gegenüber den Entwicklungen der digitalen Produktionswelt. Das sind nicht immer nur Sicherheitsbedenken, sondern vielmehr Befürchtungen, dass ein neuer Kurs Kunden verschrecken könnte. Dabei vergessen viele jedoch, dass sich diese Kunden demselben Digitalisierungsdruck ausgesetzt sehen und ihrerseits nach eigenen Lösungen suchen müssen. Patentrezepte gibt es schlichtweg nicht. Die digitale Zukunft gehört denjenigen Unternehmen, die es schaffen ihre Unternehmensprozesse und ihre Wertschöpfungskette an neuen Strategien auszurichten. Erfolgreich ist nur derjenige, der am besten an die künftigen Marktbedingungen angepasst ist und flexibel agiert, frei nach Darwins Theorie des „Survival of the Fittest“.

Digitalisierung beginnt im Unternehmen

Die digitale Transformation setzt dementsprechend flexible Strategien und Prozesse voraus, die wiederum nur in einem offenen Umfeld gedeihen können – der „cultural fit“ beziehungsweise „digital fit“ muss stimmen. Bei Licht betrachtet sind nachhaltige Veränderungen nur dann möglich, wenn technische und kulturelle Lösungen Hand in Hand gehen. Dafür müssen alle angestrebten Veränderungen gerade innerhalb des Unternehmens gestaltet, kommuniziert und mitgetragen werden. Der Weg ins digitale Zeitalter führt über die Mitarbeiter und benötigt neben einem umfassenden Qualifikationsmanagement auch individuelle Führungskonzepte.

Die Praxis zeigt, dass vor allem unternehmensinterne Expertengruppen als potenzielle „Inkubatoren“ bei der digitalen Transformation einen wertvollen Beitrag leisten können. Sie prüfen, ob sich die entwickelten Strategien und Lösungen tatsächlich in der Praxis umsetzen lassen – in einem engen Dialog mit Branchenvordenkern und Wissenschaft. Außerdem gewährleisten Sie, dass das Unternehmen externes Wissen für sich nutzt, ohne in Abhängigkeiten zu geraten. Parallel gilt es zu prüfen, ob externe Treiber in Form einer Beratung die Zielerreichung beschleunigen können, indem sie den Erfolg der durchgeführten Maßnahmen zielorientiert und methodisch im Blick behalten. Von einer Entwicklungspartnerschaft während der Strategiefindung und Erprobungsphase ist hingegen abzuraten, da sie Flexibilitätspotenzial frühzeitig negiert. Gleichzeitig sind der Dialog mit den Kunden und die Entwicklung eines gemeinsamen Wertschöpfungsnetzwerks wichtige Schritte, weil sie den positiven Nebeneffekt haben, dass sich potenzielle Investitionen gegebenenfalls sogar teilen lassen.

Flexibilität als Wettbewerbsfaktor

Die Grundvoraussetzung für den Erfolg eines Unternehmens in einer digitalisierten (Produktions-)Welt sind am Ende des Tages nicht nur flexible Prozesse und Strategien, die mehr Effizienz schaffen, sondern auch der Abschied von bewährten Denk- und Handlungsmustern. Darüber hinaus avancieren die unternehmensinterne Transformation und ein adäquates Changemanagement zu klaren Wettbewerbsfaktoren, weil diese Mitarbeiter, Partner, Lieferanten und Kunden schon früh bei der Findung und Umsetzung der notwendigen Schritte begleiten. Der digitale Wandel ist bezeichnenderweise ein technologischer und kultureller Umbruch zugleich, den es auf allen Ebenen zu gestalten gilt.

*Oliver Jäger arbeitet als Leiter Strategie und Business Development bei Q-loud.

Keine Panik bei der Digitalisierung

Schon wieder eine Einladung zu einer Konferenz über die digitale Zukunft. Jeden Tag könnte ich meine Zeit bei Vorträgen zu diesem Megatrend verbringen. Leicht kann es einem schwindlig werden, wenn man nur den Visionären und Evangelisten zuhört. Am Rednerpult kommt die Zukunft schneller als man die Prozesse dafür organisieren kann. Wenn die Mikrofone dann aber ausgeschaltet sind, werden die Töne leiser und nicht wenige Kollegen beklagen einen Digitalismus, der wenig bringt – weder den Herstellern noch den Anwendern.

Rasch eine vermeintlich intelligente Funktion in ein Gerät einbauen, ein Big Data Projekt aus dem Boden stampfen oder überall Sensortechnik einpflanzen, ist noch keine Vorbereitung auf die Zukunft, von der wir wissen, dass sie neu und anders sein wird. Da gibt es viel Rausch, Bauerntricks und auch manche Übertreibung, die im Zuge der Digitalisierung schnell begonnen wird. Und noch schneller eine Datenflut zur Folge hat, die kein Programmierer leicht bewältigen kann. Gerade die deutschen Mittelständler und Familienunternehmen sind bekannt für ihren Innovationsdrang. Aber auch dafür, dass sie Luftblasen zum Platzen bringen. Ganzheitlich werden sich Prozesse und Produkte – aber auch das Denken – an den Arbeitsplätzen verändern müssen, wenn wir aus der Digitalisierung Vorteile für die Kunden ziehen wollen.

Digitalisierung ist das Mittel, zufriedene Kunden der Zweck

Dass Digitalisierung kein Selbstzweck ist, zeigt sich am besten an Amazon: Viele nennen das zweitwertvollste Unternehmen der Welt als leuchtendes Vorbild in Sachen Digitalisierung. Das stimmt zwar, ist aber nur die halbe Wahrheit. Tatsächlich ist Amazon ein Logistik-Gigant. Bei Amazon bestellen wir nicht, weil uns der Webshop so gefällt, sondern weil es das Unternehmen schafft, die unmöglichsten Dinge fast immer innerhalb von 24 Stunden zu liefern. Genau diesen Service wollen die Kunden haben. Pläne, eigene Packstationen aufzustellen oder gar Pakete mit Drohnen auszuliefern, zeigen, worin die Stärke von Amazon tatsächlich liegt. Ohne Digitalisierung wäre all das nicht zu managen, aber sie ist vor allem das Werkzeug, um eine schnelle und effiziente Supply-Chain zu ermöglichen. Ein anderes Beispiel ist ein Flughafen: Digitalisierung bedeutet, dass eine intelligente Software die nahe Zukunft prognostizieren kann und die Prozesse danach ausrichtet, dass an allen Gates das richtige Personal steht und es zu keinen Verspätungen in der Abfertigung kommt. Digitalisierung hängt nicht an mehr Computern und größeren Bandbreiten, sondern an den Prozessen – und sie ist nicht Selbstzweck, sondern sie muss einen neuen, spezifischen Kundennutzen schaffen.

Radikaler Kundennutzen

Wie auch bei Amazon sind Logistik und Supply-Chain-Prozesse auch bei Lapp ganz wesentliche Hebel, um Kundennutzen zu schaffen. Der Endverbraucher kann viele Produkte online bestellen und die Verbindungslösungen (Kabel, Stecker, Switche, Zubehör, fertig konfektionierte Systeme) nach seinen Bedürfnissen konfigurieren. Die Lieferung erfolgt in Deutschland innerhalb von 24 Stunden; in Europa dauert es kaum länger. Die Errichtung von Produktionsstätten und Lagern auf mehreren Kontinenten stellt einen vergleichbaren Servicegrad weltweit sicher. Ein noch schnellerer Lieferservice würde den Kunden derzeit keinen weiteren Vorteil bringen. Die Potenziale liegen in aller Regel nun an anderen Stellen einer ganzheitlich gedachten Wertschöpfungskette. Die Identifikation der Produkte per QR-Code zum Beispiel, das würde Vorteile bringen.

Industrie 4.0 – was ich übrigens für eine tolle Marketinginitiative Deutschlands halte – bedeutet kürzere Innovationszyklen. Das schafft Druck. Doch man kann nicht erfolgreich am Wettbewerb teilnehmen, wenn man sich dem Wandel nicht stellen würde: Anbieter wie Lapp müssen daher das Portfolio ausbauen, tiefer in die Anwendungen eintauchen und die Mitarbeiter befähigen, die Kunden zu beraten. Das Ziel ist es hier, dass in jedem noch so komplexen Maschinennetzwerk, egal bei welchen Protokollen und Standards, Daten und Strom sicher und schnell von A nach B transportiert werden.

Der Fortschritt ist eine Schnecke

Die Digitalkonzerne Facebook, Google & Co. wirbeln vieles durcheinander. Deutschlands Mittelstand, die Basis eines bereits langanhaltenden Wohlstands, wirkt im Vergleich langsam und zögerlich. Doch Veränderungen müssen nicht disruptiv passieren, viele Verbesserungen geschehen durch stetige Entwicklung. Der Maschinenbau und viele vergleichbare Industriebranchen sind weniger technologieverliebt als vielmehr anwendungsgetrieben. Die Veränderungsgeschwindigkeit wird dabei häufig überschätzt, auch in der Digitalisierung.

Nur keine Panik bei der Digitalisierung – das ist keine populäre Position. Ich halte mich an Peter Drucker, der sagte, es gibt nicht viel Nutzloseres, als effizienter zu machen, was man eigentlich gar nicht tun sollte. Deshalb schauen wir genau hin was wir wie und warum digitalisieren.

Der Fortschritt ist eine Schnecke, lautet ein bekanntes Sprichwort – die technischen Möglichkeiten entwickeln sich hingegen in rasender Geschwindigkeit. Heute Industrie 4.0, morgen Künstliche Intelligenz. Wer sich aber allein von den technischen Möglichkeiten treiben lässt, wird sehr wahrscheinlich mit hohem Tempo in die falsche Richtung laufen.

In vier Schritten zum Standard IEC 62443

Spätestens seit den weltweiten Attacken mit den Schadprogrammen WannaCry und NotPetya im Jahr 2017 müssen sich Industrieunternehmen auch mit der umfassenden Sicherung ihrer Industrial Control Systems (ICS) auseinandersetzen. Die internationale Standardfamilie IEC 62443 »Industrielle Kommunikationsnetze – IT-Sicherheit für Netze und Systeme« bildet dabei ein grundlegendes Rahmenwerk. Dieses gewährt sowohl die Cybersicherheit gegenüber Angriffen, als auch die Produktivität gegenüber technischen Fehlerzuständen und Fehlkonfigurationen.

Im Kern bildet die IEC 62443 ein Qualitätsmanagementsystem für ICS, denn sie folgt – wenn auch etwas versteckt – dem kontinuierlichen Verbesserungsprozess von Planen, Umsetzen, Überprüfen und Optimieren. Eine industrielle Anomalieerkennung wie Rhebo Industrial Protector bietet bezüglich der Sichtbarkeit der Daten umfangreiche Funktionalitäten, um ICS stabil und sicher zu planen und zu steuern.

Schritt 1: Risikoanalyse

Die praktische Umsetzung des Standards beginnt mit einer detaillierten Risikobewertung der informationstechnologischen Infrastrukturen. Was im Grund wie eine normale Fehlermöglichkeiten-Einflussanalyse (FMEA) klingt, birgt den Teufel im Detail. Denn der Standard fordert nicht weniger als die vollständige Bewertung des Status Quo:

  • Grenzen des zu betrachtenden Systems (System under Consideration, SuC)
  • Generelle Cybersicherheitsrisiken (externe Bedrohungsszenarien und interne Sicherheitslücken / Verletzbarkeiten)
  • Auswirkungen der Bedrohungen auf die bestehende Infrastruktur
  • Identifikation möglicher Sicherheitsmaßnahmen
  • Re-Evaluierung der Bedrohungen (als iterativen Prozess)

Für Betreiber von ICS bedeutet das die Analyse und Dokumentation jeder Komponente im ICS in Bezug auf ihre Eigenschaften, Kommunikationsbeziehungen sowie ihr Kommunikationsverhalten und Risiko für die Cybersicherheit und Gesamtanlageneffektivität. Firewalls und andere Grenzwächterlösungen versagen bei diesem Punkt, da ihnen die Innenansicht des ICS fehlt. Ein industrielle Anomalieerkennung dagegen blickt gezielt in das Netzwerk und identifiziert aufgrund von Kommunikationsvorgängen jegliche Komponenten, deren Eigenschaften und Verbindungen.

Anomalieerkennung
Eine Sicherheitslösung für ICS muss in der Lage sein, Störungen zu erkennen, bevor es zum ungeplanten Stillstand kommt. (Quelle: Rhebo)

Schritt 2: Komplette Absicherung

Der zweite Schritt umfasst einen sehr umfangreichen Maßnahmenkatalog, der im Kapitel 3.3 für die Systemebene und in Kapitel 4.2 für die Komponentenebene definiert wird. In sieben Basisanforderungen (Foundational Requirements, FR) verlangt der Standard die allumfassende Identifikation und Authentifizierung, Nutzungskontrolle, Systemintegrität, Vertraulichkeit der Daten, eingeschränkten Datenfluss, rechtzeitige Reaktion auf Ereignisse im ICS sowie die Verfügbarkeit der Ressourcen. Ziel ist letztlich eine vollständige Kontrolle über alle Vorgänge, Veränderungen und Zugriffe auf das ICS – sowohl während des Normalbetriebs als auch während des Stressbetriebs sowie nach Neuinstallationen und Anpassungen.

Die industrielle Anomalieerkennung unterstützt, prüft und dokumentiert den Anspruch an eine lückenlose Kontrolle durch die vollständige Sichtbarmachung der Vorgänge im ICS, sowohl punktuell als auch kontinuierlich.

Schritt 3: Rund-um-die-Uhr-Überwachung

Der große Unterschied zum Qualitätsmanagement liegt bei der IEC 62443 in der Gleichzeitigkeit. Während im Qualitätsmanagement Stichproben genutzt werden, um das System regelmäßig zu prüfen, gilt bei der IEC 62443 Echtzeit und Vollständigkeit. Das ergibt sich aus Schritt 2, der eine komplette Kontrolle über alle Vorgänge postuliert. Betreiber von ICS müssen also ein System aufbauen, das alle Vorgänge im ICS auf Richtigkeit prüft und sofort über Abweichungen alarmiert.

Eine industrielle Anomalieerkennung erreicht das zum Beispiel, indem sie lückenlos jeden Kommunikationsvorgang im ICS mitliest, gegen das zu erwartenden Standardmuster abgleicht und Abweichungen zu diesem umgehend als Anomalie meldet. Die Überwachung erfolgt rund um die Uhr, Anomalien werden in Echtzeit und inklusive Risikobewertung an die Betreiber gemeldet.

Schritt 4: Gefährdungen beseitigen, bevor die Fertigung betroffen ist

Wer alle Daten seines ICS vorliegen hat, kann auch optimal auf Störungen und erkannte Gefährdungen reagieren. Der Standard fordert dabei nicht nur die Überwachung des ICS auf Schadsoftware. Auch technische Fehlerzustände, die zum Beispiel Überlastzustände und Kommunikationsfehler im ICS hervorrufen und so die Fertigung gefährden können, gehören dazu.

Eine industrielle Anomalieerkennung erkennt jede Abweichung im ICS – vom Schadcode bis zu Fehlern im Kommunikationsverhalten oder den Inhalten der Telegramme. Darüber hinaus liefert sie zu jeder gemeldeten Anomalie alle Details zum Vorgang. Damit kann die Quelle einer Anomalie schnell gefunden, analysiert und repariert werden. Betreiber können damit Ausfälle vermeiden und das ICS kontinuierlich optimieren. Und sollte doch einmal eine plötzliche Störung auftreten, liegen alle Daten bereit, um Gegenmaßnahmen umgehend einzuleiten und den ungeplanten Stillstand auf ein Minimum zu beschränken.

Umgang mit den Ausreden

In meinem vorigen Kommentar habe ich mehrere Gründe für das Ausbleiben der Digitalisierung in Unternehmen aufgeführt. Jetzt geht es darum, wie mit diesen vermeintlich sachlichen Gründen umgegangen wird. Sind die genannten Argumente nicht eher Ausreden?

Auf jeden Fall können sie geclustert werden in:

  • Digitale Infrastruktur
  • Wirtschaftlichkeit
  • Mitarbeiter, Know-how und Unternehmenskultur

 

Digitale Infrastruktur

Hängt die digitale Zukunft des Unternehmens von einem schnellen Internetanschluss ab? Wohl kaum. Was machen Sie, wenn Sie morgen den dringend benötigten schnellen Internetanschluss haben? Was können Sie ohne diesen Anschluss hinsichtlich der Digitalisierung unternehmen?

Es vergeht keine Woche, ohne dass Wirtschaftsverbände den Ausbau der digitalen Infrastruktur fordern und die Politik eine unverzügliche Umsetzung verspricht. Abwarten, bis die Infrastruktur vorhanden ist, kann für kein Unternehmen eine ernst zu nehmende Option sein.

Wirtschaftlichkeit

Sie haben keinen Business Case für ihre Digitalisierungsvorhaben mit einem ROI innerhalb von zwölf Monate rechnen können? Es geht bei der Digitalisierung nicht nur um Umsatzsteigerung oder effizientere Prozessabläufe im Unternehmen, sondern um langfristige Wettbewerbsfähigkeit und somit die Existenz des Unternehmens. Diese wird durch ausbleibende Digitalisierungsvorhaben gefährdet. Keine Frage: Digitalisierung als Selbstzweck kann und darf jedoch niemand als Motivation nehmen.

Ihre Auftragsbücher sind voll und somit sehen Sie keinen Bedarf, etwas zu ändern. Außerdem haben Sie auch keine Zeit. Alle Kräfte sind eingebunden, um die anstehenden Aufträge abzuarbeiten. Der Erfolg gibt Ihnen an dieser Stelle somit natürlich Recht. Aber wird das zukünftig auch noch so sein? Es stellt sich die Frage nach dem optimalen Augenblick für Veränderungen – diese werden durch die Digitalisierung auf jeden Fall stattfinden. Wann ist also der richtige Zeitpunkt? Jetzt!

Mitarbeiter, Know-how und Unternehmenskultur

Kommen wir zu den Gründen aus dem Personalbereich. Es fehlen schlicht und einfach die Macher, die das Vorhaben „Digitalisierung“ bei Ihnen angehen. Die aktuellen Mitarbeiter sind dazu nicht in der Lage: Sie sind nicht entsprechend ausgebildet und das Wissen über Möglichkeiten der Digitalisierung und die Methoden zur Umsetzung fehlen. Zumindest für die Einführung vernetzter Technologien und intelligenter Steuerungssysteme benötigen Sie profundes Fachwissen. Da heißt es dann „make or buy“. Neue Mitarbeiter mit dem entsprechenden Profil müssen auf dem hart umkämpften Arbeitsmarkt gefunden, eingestellt und langfristig ausgelastet werden. Oder das benötigte Know-how wird als externe Dienstleistung eingekauft. Allerdings sind Absolventen der Universitäten selbst mit einem Master-Abschluss noch lange nicht so weit, dass sie über das notwendige, praktische Wissen verfügen.

In Unternehmen werden sie dennoch als Hoffnungsträger gesehen und mit entsprechenden Erwartungen eingestellt. Das ist der Zeitpunkt, an dem sie Bekanntschaft mit der Unternehmenskultur machen. Wie werden die jungen Mitarbeiter gefördert und auch gefordert? Tragen sie bereits ein wenig Verantwortung und müssen sie in diesem Rahmen Entscheidungen treffen? Wie wird mit ihnen umgegangen, wenn sich ihre Entscheidungen als wenig vorteilhaft herausstellen? Es geht also um Mut zur Entscheidung sowohl beim Top-Management als auch und insbesondere beim mittleren Management.

Entscheiden und zielorientiert Handeln

Betrachtet man die Gründe für die fehlende Digitalisierung wie auch den Umgang damit, fällt auf, dass sie nicht technischen Ursprungs sind. Vielmehr sind sie menschlicher Natur. Bevor man einen Fitness-Check macht, ist es besser, die Ziele der Digitalisierung (z.B. in einem Zielfindungsworkshop) zu definieren und anschließend zur Bestimmung der Ausgangsposition eine gründliche Aufnahme und Analyse der Ist-Situation durchzuführen.

Digitalisierung bedeutet dauerhafte Veränderung für alle Beteiligten. Insbesondere für die Unternehmensführung heißt es, den Mut zum Entscheiden und Handeln zu haben. Abwarten und schauen, was der Wettbewerb macht, bringt jedes Unternehmen eindeutig ins Hintertreffen.

Die Unternehmensführung definiert die Ziele und ist gefordert, ein Umfeld für die Mitarbeiter zu schaffen, in dem sie diese Ziele erreichen können.

Häufig fehlt es genau an diesen Zielvorgaben. Ältere Führungskräfte am Ende ihrer Karriere, scheuen den Aufwand, sich mit der digitalen Zukunft zu beschäftigen. Der Schaden für das Unternehmen ist immens – mit fatalen Folgen.

Appell

Lassen sie die Ausreden sein und stellen sie sich den Tatsachen. Die digitale Infrastruktur entwickelt sich weiter und sie werden sie entsprechend nutzen können. Bereiten sie sich heute schon darauf vor. Anstatt zu überlegen, was wohl passieren wird, wenn sie auf den Zug der Digitalisierung aufspringen, denken sie daran, was wohl passieren wird, wenn sie es nicht tun. Kann sich ihr Unternehmen dies leisten?
Schaffen Sie eine Unternehmenskultur, die eine dauerhafte und nachhaltige Veränderung im Unternehmen unterstützt, denn die Digitalisierung wird das Unternehmen dauerhaft verändern.

 

KI und Datenanalyse im Mittelstand – chancenlos oder vielversprechend?

Laut Beratungsunternehmen PwC soll das deutsche Bruttoinlandsprodukt mit Hilfe Künstlicher Intelligenz bis zum Jahr 2030 um 430 Milliarden Euro steigen. Weltweit wird ein Anstieg um 15,7 Billionen Dollar vorhergesagt. Eine Prognose, die gerade für Unternehmen eine starke Aussagekraft hat. Denn wer erfolgreich sein und bleiben möchte, sollte laut aktuell weit verbreiteter Meinung die Chancen der Anwendung nicht verpassen. Gerade kleine und mittlere Unternehme trauen sich aber häufig nicht zu, bei diesen datengetriebenen Technologie-Trends mit großen Konzernen mithalten zu können. Denn in einer Zeit, in der Daten als Gold bezeichnet werden, bleibt gerade für mittelständische Firmen häufig die Frage bestehen: Wie „Big“ müssen denn unsere Daten sein? Laut Wikipedia-Definition bezeichnet der Begriff Big Data „Datenmengen, welche beispielsweise zu groß, zu komplex zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.“ Diese Definition trifft eigentlich auf fast alle Unternehmen zu – unabhängig von der Größe. Und eine manuelle Auswertung der Datenmengen führt in den meisten Fällen schlichtweg zu veralteten Reportings und etlichen überflüssigen Stunden Arbeitsaufwand.

Gilt für eine erfolgreiche Datenanalyse „mehr ist mehr“?

Trotzdem glauben gerade kleine und mittelständische Unternehmen noch häufig, dass sie nicht ausreichend Daten generieren, um von einer automatischen Analyse wirklich zu profitieren. Oft mangelt es den Unternehmen aber nicht an Daten, sondern primär an einem schlüssigen Datenmodell. Die richtige Aufbereitung und sinnvolle Zusammenführung verschiedener Datenquellen ist wichtig, um Daten als Entscheidungsgrundlage nutzen zu können. So variieren die Datenmengen und deren Qualität je nach Unternehmen und Unternehmensgröße zwar stark, die aus den Daten gewonnenen Erkenntnisse können aber gleichermaßen aussagekräftig für den jeweiligen Unternehmenserfolg sein. Risiken und Chancen werden durch eine zielgerichtete Datenanalyse auch für kleine und mittelständische Unternehmen frühzeitig sichtbar und Potenziale können dementsprechend genutzt werden.

Der nächste Schritt in Richtung Digitalisierung

Den Unternehmen steht folglich eine qualitative Entscheidungsgrundlage zur Verfügung, die manuelle Auswertungsverfahren nicht liefern können.

Beispielsweise konnte die Firma Piller, Hersteller von kundenspezifischen Gebläsen und Kompressoren für die Prozessindustrie, durch die Analyse historischer Daten aus der Fertigung in kürzester Zeit Zukaufteile identifizieren, deren Liefer- und Wiederbeschaffungszeiten besonders lang sind.. Ein weiteres Ergebnis dieser Schwachstellenanalyse war, dass die Gehäuse-Montage mehrere Wochen beanspruchte. Als Gegenmaßnahme konnte der Maschinenbauer eine Taktstraße einführen und die Montagezeit auf eine Woche reduzieren.

Basierend auf einer intelligenten Datenanalyse können außerdem intelligente Anwendungen wie Machine Learning ansetzen. Das wird ebenfalls an einem Beispiel aus der Produktion deutlich: Eine gezielt eingesetzte Datenanalyse könnte hier aufzeigen, dass die eingeplanten Vorgabewerte wie Wiederbeschaffungs- oder Arbeitsgangzeiten nicht der Realität entsprechen. So kann es beispielsweise sein, dass für einen bestimmten Arbeitsgang auf einer Maschine seit vielen Jahren 300 Minuten eingeplant werden. In der Realität dauert der Arbeitsgang jedoch nur 100 Minuten. Solche Zeitpuffer führen zu hohen Inaktivitätszeiten der Maschinen und Ineffizienz. Viele Projekte mit dem eigentlichen Ziel, die Produktionsplanung und deren Termintreue zu verbessern, setzen daher oft eine detaillierte Datenanalyse voraus, bei der die Qualität der Daten bestimmt wird.

Durch Machine-Learning-Algorithmen können die Vorgabewerte sehr genau vorausgesagt und die darauf basierende Produktionsplanung zunehmend optimiert werden. Mit Hilfe Künstlicher Intelligenz kann die Maschine „lernen“, welche Werte realistisch sind. Die Prognosegenauigkeit kann sich hierdurch bis um bis zu 60 Prozent verbessern.

Fazit: Sie haben die Grundlage. Starten Sie die Digitalisierung!

Unternehmen können unabhängig von ihrer Größe Prozesse mit Hilfe neuer Technologien automatisieren und optimieren. Schon kleine Unternehmen besitzen ausreichend Daten für die effiziente Anwendung Künstlicher Intelligenz. Jedoch gehen die Erfolgschancen und Wettbewerbsvorteile ohne eine zielführende Datenaufbereitung und -strategie im Datendschungel unter. Das Ziel bei Data Analytics sollte sein, bessere Kenntnisse über Prozesse oder Kunden zu gewinnen und deren Entwicklung prognostizieren zu können, um so insgesamt effizienter zu handeln. Außerdem können auf diesen „sauberen“ Daten nicht nur strategisch richtige Entscheidungen getroffen werden, sondern auch Anwendungen der Künstlichen Intelligenz anschließen. Durch eine sichere und sinnvolle Anwendung von Data Analytics und Künstlicher Intelligenz sind kleine und mittelständische Unternehmen zum jetzigen Zeitpunkt ihrer Konkurrenz einen großen Schritt voraus.

 

 

Schneller Einstieg in das Industrial Internet of Things (IIoT)

Gerade in der Verpackungsindustrie besteht großer Bedarf, die Produktionsrichtlinien durch digitale Services aufzuwerten, um sich so von der Konkurrenz abzuheben. Aber auch die Getränke- und Nahrungsmittelindustrie, der Bereich Automotive sowie die Papier- und Druckindustrie profitieren von einer solchen Anwendung: Die Arbeit innerhalb dieser Bereiche wird durch die digitalen Helfer einfacher und effizienter gestaltet. All das bietet elunic mit seiner IIoT-Anwendung Dataface, die das Unternehmen auf der diesjährigen Fachmesse für Verpackungen FachPack vorstellt.

Digitaler Zwilling & Co. – IIoT anschaulich erleben
Anhand der Live-Demo ihrer IIoT-Anwendung Dataface ermöglicht elunic dem Besucher viele spannende Einblicke in die Welt der Industrie 4.0. So zeigt etwa ein Digitaler Zwilling das virtuelle Abbild einer Industrie-Produktions-Anlage. Der Bereich der künstlichen Intelligenz wird durch Predictive-Maintenance-Meldungen und die Anwendung von Machine-Learning-Algorithmen abgedeckt. Zudem werden die Gesamtanlageneffektivität OEE sowie weitere KPIs, wie beispielsweise die Produktionsgeschwindigkeit oder die Anzahl der anstehenden Aufgaben, berechnet und dargestellt. Die Live-Demo zeigt ebenfalls, wie die Rechte für komplette Anlagen, einzelne Maschinen sowie Personen oder Gruppen verwaltet werden. Ein integrierter Shop ermöglicht die automatische Nachbestellung von Ersatzteilen. All diese Dienste werden von elunic als Microservices in die Anwendung integriert. „Die Architektur von Dataface ist so aufgebaut, dass auch große Datenmengen aus dem Maschinenumfeld verarbeitet werden; die Microservice-Architektur ermöglicht den Austausch bzw. die Weiterentwicklung einzelner Komponenten. Die Applikation lässt sich sowohl in Cloud-Services wie AWS, als auch in On-Premise-Lösungen integrieren. Durch diese Cloudunabhängigkeit ist ein schneller Einstieg ins IIoT möglich“, erklärt Benjamin Ullrich, Gründer und Geschäftsführer von elunic.

Produktionsanlage in Dataface
Vom Digitalen Zwilling bis zur A.I. & Predictive Maintenance
Mit ihrer Anwendung zeigt elunic nicht nur, wie Unternehmen flexibel und unabhängig in den Bereich IIoT einsteigen; innerhalb der Live-Demo stellt das Unternehmen auch seine einzelnen Leistungen als Module vor. Diese decken folgende Bereiche ab: „Digitale Services & Digitaler Zwilling“, „Asset Management & Equipment Efficiency“, „A.I. & Predictive Maintenance“, „Big Data / Visualisierung“, „Digitalisierung industrieller Prozesse“ sowie „Machine 2 Machine payments“. Die Applikation zeigt alle relevanten Kennzahlen einer Maschine oder Anlage an, wie beispielsweise OEE, und wertet diese aus.

Wir freuen uns darauf, Sie auf der FachPack an unserem Stand zu begrüßen und Ihnen unser Leistungsspektrum vorzustellen.

Auf die Zusammenarbeit kommt es an!

Netzwerklösungen im Sicherheitssystembereich sollen in erster Linie Personen, Gebäude und Güter vor Übergriffen, ungewollten Eindringlingen, Vandalismus oder Diebstahl schützen. Doch dabei sollte eines nicht vergessen werden: Auch das Sicherheitssystem selbst muss gegen Cyberkriminalität gesichert werden. Mit der Aktualisierung von Netzwerk-Videosoftware und angeschlossener Hardware wird in der heutigen Zeit leider eher nachlässig umgegangen. Oftmals werden diese Systeme in der Regel nur dann aktualisiert, wenn weitere Geräte hinzugefügt oder zusätzliche Funktionen vom Benutzer angefordert werden.

Dieser leichtsinnige Umgang kann sich jedoch rächen: Ohne Wartung wird die Cybersicherheit mit der Zeit abnehmen. Die Wahrscheinlichkeit liegt bei fast 100 %, dass eine Schwachstelle im Systemkontext, also im Betriebssystem, der Software oder der Hardware gefunden wird. Auch wenn das Risiko gering erscheint, sollte jede bekannte Schwachstelle behoben werden und selbstverständlich regelmäßig Softwareaktualisierungen durchgeführt werden.

Wer ist verantwortlich?

Cybersicherheit ist ein Prozess, kein einmalig zu erreichender Ist-Zustand, der dann immerwährend gültig ist. Wichtig ist in diesem Zusammenhang, dass die Cybersicherheit eines Sicherheitssystems dabei einer gemeinsamen Verantwortung des Endnutzers sowie der Integratoren, Planer und Hersteller unterliegt. Um das Sicherheitssystem gegen virtuelle Angriffe zu schützen, müssen die Verantwortlichen der verschiedenen Bereiche und Gewerke zusammenarbeiten:

Der Nutzer / Verbraucher

Die Hauptverantwortung des Endanwenders liegt in erster Linie bei der Bereitschaft, für Cybersecurity zu bezahlen. Dies kann entweder auf eigene Faust erfolgen, das heißt beispielsweise die IT-Abteilung des Unternehmens wendet Fixes selbst an, oder man bezahlt einen Integrator/Installateur für die Wartung. Dabei muss beachtet werden, dass die Lebensdauer eines Sicherheitssystems, je nach Zustand, schnell 10-15 Jahre betragen kann. Die Wartung muss allerdings fortlaufend und als stetiger Prozess integriert werden.

Für ein ausgereiftes Bewusstsein im Bereich Cybersecurity spielt allerdings auch das Verhalten der Konsumenten eine zentrale Rolle: Wie oft wird das Passwort des Routers geändert? Wie komplex sind die eigenen Passwörter? Werden unterschiedliche Passwörter oder ein „Master“-Passwort für die meisten Anwendungen verwendet? Die Bequemlichkeit der Verbraucher ist immer noch einer der größten Vorteile für Hacker. Einfach zu erratende Passwörter und solche, die über alle Logins hinweg verwendet werden, setzen die Verbraucher dem Risiko eines Missbrauchs aus.

Der Integrator / Installateur

Der Systemintegrator spielt ebenfalls eine wesentliche Rolle im Bereich der Cybersicherheit. Er muss sicherstellen, dass alle seine eigenen Geräte, Laptops, mobilen Geräte und so weiter mit den neuesten Updates für das Betriebssystem gepatcht werden und einen anspruchsvollen Virenscan durchführen.

Die gewählten Passwörter sollten zumindest pro Kunde und Standort komplex genug und individuell sein. Die allgemeine Gewohnheit, ein Master-Passwort zu verwenden, um die Bedienung der Geräte zu erleichtern, muss unbedingt vermieden werden. Der Fernzugriff auf Installationen sollte nur begrenzt angewendet werden und alle Geräte, die mit dem System des Kunden verbunden sind, müssen äußerst sorgfältig auf Schadsoftware überprüft werden, um jegliche Art von Infektionen zu vermeiden.

Es liegt in der Verantwortung des Integrators, seine Kunden über die möglichen und nötigen Verfahren zu informieren.

Der Planer

Ein weiterer essentieller Bestandteil ist die Arbeit des Planers, der die Komponenten für die Sicherheitssysteme konfiguriert. Dieser muss nicht nur die richtigen Produktfunktionen und -merkmale festlegen, sondern auch die Wartung für die gesamte Lebensdauer des Systems so gut wie möglich definieren. Auf diese Weise kann der Planer deutlich machen, wie wichtig es ist, das System auf dem neuesten Stand zu halten und auch die möglichen Kosten dafür offenlegen.

Im Zusammenhang mit der Installation von so genannten OEM/ODM-Geräten (Geräte, die von einem Hersteller gekauft und unter einer anderen oder eigenen Marke veräußert werden) ist es jedoch sehr schwierig diesen Wartungsaspekt zu gewährleisten.

Der Distributor

Für einen einfachen Distributor ist das Thema Cybersicherheit grundsätzlich von geringer Bedeutung, weil er lediglich die Logistik der Ware übernimmt und mit dem Produkt selbst nicht in Berührung kommt. Allerdings müssen Distributoren einer Wertschöpfungskette die gleichen Aspekte berücksichtigen wie Integratoren oder Installateure.

Für Distributoren, die auch OEM/ODM-Geräte vertreiben, gelten andere Regeln. An erster Stelle steht dabei die Transparenz: Sie müssen ihre Kunden darüber in Kenntnis setzten, was genau sie für ein Produkt kaufen. Auch müssen sie, im Falle von Schwachstellen im System, Firmware-Upgrades des ursprünglichen Lieferanten zur Verfügung stellen. Viele Anwendungsbeispiele aus der Industrie zeigen jedoch, dass eine erkannte Schwachstelle in den Geräten der ursprünglichen Lieferanten in der Regel nicht in den Geräten ihrer vielen OEM-Partner behoben wird.

Der Hersteller

Die Verantwortungsbereiche der Hersteller sind unter anderem folgende:

Zum einen dürfen keine absichtlichen Details wie Backdoors oder hartcodierte Passwörter hinzugefügt werden. Die Bereitstellung der richtigen Tools, um das Cybermanagement für viele Geräte so einfach und kostengünstig wie möglich zu gestalten, muss außerdem gewährleistet sein. Zum anderen müssen Dritte über Risiken und ihre Vermeidung aufgeklärt werden, intern wie auch extern. Relevante Aspekte sollten in Hardening Guides oder anderen Dokumentationen beschrieben sein. Die Partner und Vertriebskanäle müssen zudem über Schwachstellen und mögliche Updates informiert werden. Transparenz ist oberstes Gebot.

Nur wenn alle Beteiligten gemeinsam an dem Thema Cybersecurity arbeiten, wird es gelingen, ein weitgehend sicheres System zu schaffen und auch aufrecht zu erhalten.
Die IT Branche hat im vergangenen Jahrzehnt viel dazu gelernt und sich mittlerweile sehr gut abgesichert. Dennoch schaffen es Hacker immer wieder, Schwachstellen zu finden und auszunutzen.
Die Sicherheitsbranche befindet sich vielerorts leider noch am Anfang der Lernkurve, Cybersecurity wird eher als Herstelleraufgabe verstanden, denn als gemeinsame Anstrengung. Es ist an der Zeit, dieses Verständnis grundlegend zu überdenken.

Wie die Digitalisierung die IT verändert

Die Zusammenarbeit mit der IT-Abteilung hat für Sie als Marketingmitarbeiter in letzter Zeit zugenommen? Und auch der CIO beziehungsweise Ihr CMO haben nun bei wichtigen Entscheidungen immer öfter ein Wörtchen mitzureden? Das liegt daran, dass die Digitale Transformation eine abteilungsübergreifende IT-Expertise notwendig macht. Schon längst hat die Digitalisierung tiefgreifenden Einfluss auf den beruflichen Alltag. Unternehmen müssen Lösungen finden, um die Herausforderungen der Digitalen Transformation zu bewältigen. Dazu gehört, die IT-Abteilung neu aufzustellen: Geschäftsführer und IT-Verantwortliche müssen sich fragen, ob Rolle und Struktur der internen Unternehmens-IT so gestaltet sind, dass sie den aktuellen Anforderungen an digitale Transformationsprozesse gerecht werden können – oder ob eine Umstrukturierung erforderlich ist.

Herausforderungen und Veränderungsprozesse
Firmen, die ihre Wettbewerbsfähigkeit mittel- und langfristig erhalten wollen, müssen Technologien wie Big Data oder Internet of Things einsetzen, neue Geschäftsmodelle, Unternehmenskonzepte und -strategien entwickeln und auf ein verändertes Kunden- und Nutzerverhalten angemessen reagieren. Zudem verkürzen sich Technologie-, Entwicklungs- und Marktzyklen um ein Vielfaches, sodass Unternehmen in Echtzeit auf Marktveränderungen reagieren müssen, um weiterhin erfolgreich im Wettbewerb bestehen zu können. Führungskräften kommt dabei die Aufgabe zu, Antworten auf die Herausforderungen der Digitalen Transformation zu finden und entsprechende Digitalisierungsstrategien zu entwickeln – und in diesem Rahmen Rolle und Struktur ihrer IT-Abteilung zu analysieren und gegebenenfalls anzupassen.

Umstrukturierung der IT-Abteilung
Vor dem Hintergrund der Transformation hat das Datenvolumen in den Unternehmen massiv zugenommen. Grund dafür sind unter anderem die Digitalisierung von Geschäftsprozessen, die steigende Anzahl an Fachanwendungen und Prozessen aus der Cloud oder auch die wachsende Menge der Softwareanwendungen in den unterschiedlichen Fachabteilungen eines Unternehmens. Die Komplexität der gesamten IT-Infrastruktur eines Unternehmens und so auch der Aufwand für die IT-Verantwortlichen haben sich nachweislich erhöht. Es ist also unumgänglich, die unternehmensinterne IT-Abteilung diesen Anforderungen entsprechend zu strukturieren: ein Teil der IT-Verantwortlichen muss den täglichen Betrieb sicherstellen, während der andere Teil die Fachbereiche und die Geschäftsführung im Hinblick auf die Entwicklung digitaler Geschäftsmodelle und -prozesse berät. Auch die Aufgabenschwerpunkte der CIOs verändern sich: vom klassischen IT-Support hin zum Berater, Unterstützer und Impulsgeber für die Fachbereiche bei digitalen Veränderungs- und Anpassungsprojekten.

Neue Formen der Zusammenarbeit
Durch die Digitale Transformation gestaltet sich die interne Zusammenarbeit im Unternehmen neu. Vor allem das Verhältnis zwischen den Fachabteilungen und der IT: Fachbereiche müssen ganzheitlich denken und angrenzende Abteilungen sowie die IT frühzeitig in ihre Planung einbeziehen. Nur dadurch lassen sich Insellösungen vermeiden und gemeinsame Vorgehensweisen im Sinne eines End-to-End-Konzepts finden. Damit die IT-Abteilung als strategischer Partner an der Entwicklung digitaler Geschäftsmodelle und -prozesse mitwirken und die Anforderungen aus den Fachabteilungen schnell umsetzen kann, muss sie jedoch deutlich agiler werden, also heterogene Strukturen akzeptieren und agile Projektmethoden wie Scrum einführen. Herausforderungen sind von beiden Seiten zu bewältigen.

Mit vereinten Kräften zum Erfolg
Die Digitale Transformation führt zu vielfältigen – sowohl technischen als auch organisatorischen – Veränderungsprozessen in Unternehmen. Um diese erfolgreich zu bewältigen, sollte die IT-Abteilung in einen ganzheitlichen Austausch mit den Fachabteilungen treten und so strukturiert sein, dass sie sowohl operativ als auch beratend agieren kann. Der CIO sollte sich auf seine Rolle als strategischer Partner für die Fachabteilungen konzentrieren und Ihnen auch im Marketing bei neuen Herausforderungen zur Seite stehen.