Archiv der Kategorie: IOT – Industrie 4.0 und IIC

NGFW: Neue Dimensionen der Netzwerksicherheit

Unternehmen sind heute durch verteilte Organisationsstrukturen gekennzeichnet: Es gibt häufig viele verschiedene Standorte, Firmenangehörige sowie Freelancer arbeiten flexibel in unterschiedlichen Büros, im Home-Office oder mobil. Dafür muss eine hohe Netzwerk-Konnektivität gewährleistet werden. Auch Interaktive Software-as-a-Service (SaaS)-Applikationen wie beispielsweise Office 365 erfordern äußerst schnelle, performante Verbindungen mit geringen Latenzzeiten.

Auch Bedrohungen aus dem Cyberspace stellen immer neue Anforderungen an die Netzwerksicherheit. Ransomware und Spionage-Software, welche über Exploits Zugang zum Unternehmensnetzwerk erhalten, beeinträchtigen die Funktionsweise von Netzwerkdiensten. Eine noch höhere Gefahr geht von sogenannten Evasions aus. Dabei handelt es sich um getarnte Exploits, welche den Netzwerkverkehr verschleiern, so dass die Übertragungsprozesse nicht zweifelsfrei erkannt werden können. Angriffe durch bestehende Signaturen und andere grundlegende Funktionen lassen sich so nur schwer stoppen.

Traditionelle Netzwerk-Security-Lösungen helfen hier nicht mehr weiter. Sie sind nicht in der Lage, eine ausreichende Verfügbarkeit von Daten und Anwendungen über verschiedenste Geräte, Netze und Zugriffspunkte hinweg zu gewährleisten. Zudem sind sie extrem anfällig gegenüber modernen Angriffsvarianten und lassen sich kaum skalieren und damit nur schwer an die spezifischen Anforderungen im Unternehmen anpassen.

Um diese Herausforderungen erfolgreich zu stemmen, müssen die Firmennetzwerke hinsichtlich Konnektivität, Sicherheit sowie Web- und Cloud-Fähigkeit in ein ganzheitliches Gesamtkonzept eingebunden werden. Moderne Next-Generation-Firewall-Lösungen (NGFW) sind in der Lage, Tausende von Firewalls, IPSs, VPNs und SD-WANs in nur wenigen Minuten über eine zentrale Konsole zu installieren und in Betrieb zu nehmen. Dabei lässt sich das System bedarfsgerecht skalieren und individuell an das Wachstum der jeweiligen physischen und virtuellen Unternehmensnetzwerke anpassen. Dies ermöglicht das Management hocheffizienter Prozesse in verteilten Firmennetzwerken. So sind alle Daten und Anwendungen in der gesamten IT-Infrastruktur verlässlich geschützt – egal ob im Rechenzentrum, an den verschiedenen Firmenstandorten oder in der Cloud.

NGFW bietet Anwendern umfassende Transparenz und einen 360-Grad-Blick auf die gesamte Netzwerk-Architektur. Neben der Verringerung der Komplexität können die Netzwerkkosten gesenkt, Ausfallzeiten um bis zu 50 Prozent reduziert und IT-Risiken signifikant verringert werden.

P.S.: Zum Thema „Smarte Produktionsanlagen sicher betreiben“ findet bei uns ein kostenfreies Webinar statt. Hier geht’s zur Anmeldung.

Industrie 4.0 zum Anfassen

Seit der Firmengründung 2010 verzeichnet die Firma aus dem hessischen Limburg an der Lahn ein kontinuierliches Wachstum und mittlerweile sind die EMS-Experten auch im Joint Development Manufacturing (JDM) tätig. In dieser Funktion bauen sie für ihre Kunden aus Industrie, Automobilbranche sowie Medizin- und Sicherheitstechnik maßgeschneiderte Prototypen und übernehmen später auf Wunsch die Serienproduktion.

Das Unternehmen engagiert sich außerdem im Verein Smart Electronic Factory e.V. (SEF). Dort entstehende Konzepte und Szenarien werden im eigenen Unternehmen umgesetzt – unter anderem durch die Kombination intelligenter Technologien mit Lean-Management-Prozessen. Die ERP-Komplettlösung Proalpha kann hierbei als Schaltzentrale der intelligenten Fabrik fungieren.

Einheitliche Plattform für alle Prozesse

„Die Vorgänger-ERP-Lösung hielt den gestiegenen Anforderungen nicht stand und stieß immer mehr an ihre Grenzen”, erinnert sich Geschäftsführer Gerd Ohl. Deshalb wurde nach einer einheitlichen Plattform gesucht, die alle Prozesse entlang der gesamten Wertschöpfungskette steuern kann: vom Einkauf und der Materialwirtschaft über die Produktion und den Vertrieb bis hin zum Finanz- und Rechnungswesen. Gleichzeitig sollte das neue ERP-System das künftige Wachstum im In- und Ausland flexibel unterstützen.

Laut Georgios Giantsios, Geschäftsführer bei Limtronik, lassen sich mit dem neuen ERP-Komplettsystem heute sämtliche Geschäftsprozesse effizient aufeinander abstimmen und bedarfsgerecht steuern, automatisieren und kontrollieren. Dazu tragen unter anderem das integrierte Workflow Management und das Dokumenten Management System (DMS) bei.

In der Produktion stellt die Multiressourcenplanung Advanced Planning and Scheduling (APS) sicher, dass Material, Fertigungsanlagen und Personal optimal eingesetzt werden können. In den verschiedenen Unternehmensbereichen gewährleisten zudem die Business-Intelligence-Cockpits eine hohe Transparenz. „Dadurch haben wir jederzeit den kompletten Überblick über alle wichtigen Zahlen und können schnell die richtigen Entscheidungen treffen”, unterstreicht Gerd Ohl.

Lückenlose Traceability als Wettbewerbsvorteil

Ein ausschlaggebender Punkt bei der Entscheidung war auch die nahtlose Integration mit dem Manufacturing Execution System (MES) von Itac. Denn dieses bildet die Brücke zwischen Produktions- und Planungsebene und ermöglicht unter anderem die lückenlose Rückverfolgbarkeit der verwendeten Bauteile.

Diese Traceability ist eine der größten Herausforderungen für die EMS-Branche. Alle Produkte, alle verwendeten Leiterplatten und die darauf befindlichen Bauteile müssen umfassend rückverfolgt werden können. Wenn später Mängel auftreten, lässt sich die Fehlerquelle damit schnell eingrenzen.

In der Medizintechnik ist Rückverfolgbarkeit sogar gesetzlich vorgeschrieben. Andere Branchen – zum Beispiel die Automobilindustrie – wollen damit bei Reklamationen etwaige Rückrufaktionen nur für die wirklich betroffenen Fahrzeuge starten. „Wer eine lückenlose Traceability nachweisen kann, hat einen klaren Wettbewerbsvorteil”, so Giantsios.

Bei Limtronik werden deshalb sämtliche Zulieferteile beim Wareneingang über einen speziellen Wareneingangstisch gezogen. Dadurch gelangen die notwendigen Traceability-Daten zuerst in das Materialwirtschaftsmodul und dann automatisch in das MES. Pro Verpackungseinheit wird eine eindeutige Nummer erzeugt, die neben anderen Informationen auf einem Etikett steht. Das Etikett wird auf das Gebinde des Bauteils geklebt. In der Fertigung erfasst dann das MES, wo diese Komponenten genau verbaut wurden.

So ist die Lösung in der Lage, auf unterschiedliche Traceability-Anforderungen der Kunden zu reagieren, etwa mit eigenen Seriennummern, der Erfassung geometrischer Daten oder der Bündelung von Baugruppen. Zukünftig sollen im Zuge dieses Industrie-4.0-Konzepts die Auftraggeber mit Limtronik vernetzt werden. Über einen abgesicherten Zugang gelangen sie dann an die entsprechenden Daten im ERP-System. Bei Feldausfällen oder im Servicefall kann dann anhand der Seriennummer festgestellt werden, welche Fehler welche Ursache haben.

Mit Data Mining Fehler vorausschauend erkennen

Die häufigsten Fehler in der Leiterplattenbestückung sind Zinnschluss, ungenaue Positionierung, das Fehlen eines Bauteils und der berüchtigte Tombstone-Effekt. Dieser tritt beim sogenannten Reflow-Löten von elektronischen Bauteilen auf, die sich währenddessen auf der Leiterplatte einseitig aufstellen. Die nach oben stehende Seite ist dann nicht mehr elektrisch kontaktiert, das Bauteil wirkt wie ein Grabstein. Deshalb der englische Name „Tombstone“. Um hier wirksam gegensteuern zu können, plant das hessische Unternehmen als nächsten großen Schritt in Richtung Industrie 4.0 ein Datamining-Projekt. „Wir streben einen intelligenten Big-Data-Analytics-Regelkreis an, in dem Qualitäts-, Prozess- und Maschinendaten stetig analysiert werden“, erläutert Gerd Ohl. Damit sollen die Qualität weiter gesteigert und die Liefertreue verbessert werden. „Längerfristiges Ziel ist eine produktionsspezifische Vorhersage von Wartungsintervallen für unsere Fertigungsanlagen, die mithilfe eines Algorithmus gesteuert wird“, betont Ohl.

Denn mit dieser vorausschauenden Wartung (Predictive Maintenance) lässt sich sicherstellen, dass der laufende Produktionsvorgang möglichst wenig bis gar nicht unterbrochen werden muss. „Solche Industrie-4.0-Szenarien mit einem flexiblen ERP-System wie Proalpha umzusetzen“, so Gerd Ohl, „macht sich schnell bezahlt.“ Um etwa den Tombstone-Effekt nachträglich zu beheben, fallen Kosten von rund sechs Euro je Leiterplatte an. „In einer Vorserienfertigung kann das bereits Ausgaben von über 30.000 Euro bedeuten“, rechnet der Geschäftsführer vor. In bestimmten Fällen potenzieren sich die Kosten leicht auch auf das 10-Fache. Ziel muss daher sein, derartige Produktionsfehler von vornherein zu vermeiden, beziehungsweise zu minimieren.

Dieses Szenario zur Qualitätssteigerung in der Produktion stieß auch auf dem nationalen IT-Gipfel 2017 der Bundesregierung auf große Resonanz. „Es lässt sich einfach auf andere Branchen übertragen und kann im Idealfall durchaus als Standardanwendung für mittelständische Fertigungsbetriebe etabliert werden“, hofft Gerd Ohl.

Limtronik sei auf dem Weg zur Industrie 4.0 inzwischen bei der Version 3.8 angelangt und habe für die nächsten Jahre bereits eine Reihe weiterer Digitalisierungsprojekte definiert. „Am Ende werden in unserer Fabrik Maschinen stehen, die sich selbst steuern“, blickt der Geschäftsführer in die Zukunft.

 

Digitale Doppelgänger und das Produktionssystem 4.0

Der Bezug auf das 3-D-Modell des Produktes ist im Kontext des Digitalen Zwillings das vorherrschende Beispiel. Darauf aufbauend dann Anwendungen der virtuellen oder erweiterten Realität für Instandhaltung und Service. Dabei liegen, wie bei einem Eisberg, 90 % der Daten und Prozesse, die einen Digitalen Zwilling repräsentieren, häufig nicht im Blick der Beteiligten. Wie sieht also eine ganzheitliche Perspektive über Wertschöpfungsstufen und Systemgrenzen hinweg aus?

Entgegen dem Eisberg ist eine typische Eigenschaft des Digitalen Zwillings, dass er mit zunehmendem Alter – in unserem Fall Lebenszyklus – immer umfangreicher wird und durch neue Daten an „Masse“ gewinnt. Die Historie der Daten macht ihn immer wertvoller und ist letztlich die Voraussetzung für neue digitale Anwendungen und Geschäftsmodelle. Die versprochenen Wettbewerbsvorteile und Effizienzgewinne einer Smart Factory werden ohne ein integriertes Management des Digitalen Zwillings nicht zu erreichen sein.

Gefangen im Silo der Systeme

Betrachtet man stark vereinfacht Design -> Make -> Service als Wertschöpfungsstufen, so stehen auf jeder Stufe entsprechende IT-Systeme bereit. Im Bereich Design die CAD/PLM-Systeme, im Make ein ERP und MES sowie im Service die Instandhaltungssysteme. Entlang dieser Kette werden eigene Datenmodelle und Instanzen von Digitalen Zwillingen in den IT-Systemen erzeugt. Trotz aller Bemühungen um offene Standards dominieren viele herstellerspezifische Formate und Varianten, so dass, insbesondere beim Übergang von einer Stufe auf die andere, viele Daten verloren gehen oder manuelle Datenpflege betrieben wird. Diese Art der IT-technischen Verschwendung galt als unvermeidlich. Da auch organisatorisch Grenzen übersprungen werden, fühlte sich jede Abteilung in ihren Grenzen ganz komfortabel. Viele gut gemeinte Digitalisierungsprojekte fügen jetzt mit Cloud- und IoT-Systemen eine schnell wachsende Schatten-IT hinzu, die die Vielfalt inkompatibler Digitaler Zwillinge schnell unübersehbar werden lässt.

Die Rolle im Produktionssystem 4.0

Produktionssysteme wurden über viele Jahre nach Lean-Prinzipien optimiert und funktionieren weitgehend ohne Digitalen Zwilling. Der Fokus lag auf dem ununterbrochenen, getakteten, verschwendungsfreien Produkt- und Materialfluss. Papier (z.B. der Laufzettel) ist dabei immer noch der Träger aller wesentlichen Informationen, auch wenn punktuell beispielsweise CNC-Systeme unterstützen. Die typischen Tätigkeiten in der Arbeitsvorbereitung, Produktion und Service wie das Aufbereiten der Auftragsdaten, das Ausdrucken und Verteilen der Auftragsdokumente, das Erfassen von Daten in IT-Systeme – all dies sind typische Vorgänge, die nicht wertschöpfend sind.

Das Produktionssystem 4.0 ist durch die Fähigkeit gekennzeichnet, dem Kunden trotz schwankenden Bedarfs individuelle Produkte  mit minimaler Durchlaufzeit bereitzustellen. Takt und Band verlieren an Bedeutung und werden durch flexible und modulare Produktionsmodule ersetzt. Typische Designmerkmale eines Produktionssystems 4.0 sind:

  1. Durchlaufzeit „Same Day“ für alle Produkte
  2. Rüstzeit „Null“
  3. Flexible Produktionsmodule auf denen „jedes“ Produkt gefertigt werden kann
  4. Papierlose Produktion
  5. Keine ungeplanten Stillstände und Störungen

Diese extremen Prinzipien zeigen den Weg auf, um die Effizienzgewinne der Zukunft erreichen zu können. Wertschöpfungssteigerungen von 30 bis 50 % der Gesamtleistung werden in diversen Studien als Potenzial ausgewiesen. Diese Ziele werden aber nur erreicht, wenn der Digitale Zwilling ein integraler Bestandteil und Kern des Produktionssystems 4.0 by Design ist. Er ist der wesentliche Schlüssel der Optimierung und des Effizienzgewinns.

Welche Design-Prinzipien gelten für den Digitalen Zwilling, um diese Ziele zu erreichen?

  1. Es braucht einen Digitalen Zwilling für das Produkt.
  2. Es braucht einen Digitalen Zwilling für die Produktionsanlage.
  3. Es braucht ein kompatibles Datenformat zwischen Anlagen- und Produktmodell, welches den Produktionsprozess digital abbilden kann (Thing-Core-Model).
  4. Stammdaten, egal ob produkt- oder anlagenspezifisch, müssen standardisiert, zentral gepflegt werden bzw. synchronisiert werden.
  5. Über alle Wertschöpfungsstufen ist der Digitale Zwilling wiederzuverwenden (ReUse) und mit Daten anzureichern (Add) – Add- & ReUse-Prinzip.
  6. Digitale Zwillinge müssen über Grenzen des Unternehmens hinaus, das heißt zwischen Herstellern, Betreibern und Servicepartnern im Netzwerk, über ein offenes Thing-Modell austauschbar und erweiterbar sein.

Werden diese Prinzipien des integrierten Digitalen Zwillings als zentrales Designelement in der Unternehmensarchitektur angewendet, können alle Prozesse entlang der Wertschöpfung verschwendungsfrei aufgebaut werden. Daten, die einmal erstellt wurden, stehen nachfolgenden Schritten zur Verfügung und können für Prozesse und Applikationen genutzt werden. Um dieses Ziel zu erreichen, ist ein konsequentes, interdisziplinäres Prozess- und Stammdatenmanagement in der Organisation als Kultur zu entwickeln.

Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess

Abbildung 1: Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess (Quelle: Trebing+Himstedt)

Wertschöpfung ohne Verschwendung

Sind die Grundregeln des Umgangs mit dem Digitalen Zwilling verstanden, erschließen sich zahlreiche Potenziale, um die Verschwendung auf nahe Null zu reduzieren.

Beispiel papierlose Produktion und elektronische Werkerführung. Bei der automatisierten oder manuellen Montage benötigt es neben der Stückliste immer eine spezifische Arbeits- beziehungsweise Prüfanweisung. Heute werden die Anweisungen pro Produktvariante manuell in einem Editor erstellt, ausgedruckt oder als PDF am Terminal bereitgestellt. Alle Daten liegen in der Regel aber bereits elektronisch vor und können nur nicht automatisiert zusammengeführt werden. Nutzt man die Idee des Digitalen Zwillings, werden die Konstruktionsdaten (z.B. PLM) mit den ERP-Daten integriert und das MES wird der Nutzer der Daten für die Arbeitsanweisungen, zum Beispiel für die schrittgenaue Darstellung mit 3-D-Modell und Animation.

Zusätzlich werden für Werkzeuge oder Prüfstände Maschinenparameter benötigt. Diese können am Digitalen Zwilling des Produktes im ERP gepflegt werden, ans MES weitergeleitet und dann auf Basis offener Standards wie OPC UA technisch in Echtzeit an die Maschine übertragen werden. Auch hier entfällt die doppelte Datenpflege und Verteilung.

Der Digitale Zwilling wird im MES angereichert - as-built, Beispiel SAP ME

Abbildung 2: Der Digitale Zwilling wird im MES angereichert – as-built, Beispiel SAP ME (Quelle: Trebing+Himstedt)

Ein Beispiel aus dem Bereich Instandhaltung ist der häufig genannte Anwendungsfall visueller Wartungsanweisungen mit Hilfe von Augmented Reality. Hier erhält der Instandhalter, sobald das Bauteil mit einem QR- Code identifiziert ist, Informationen zu Zustand und Wartung eingeblendet.

Nutzt man auch hier das entlang des Lebenszyklus angereicherte Datenset des Digitalen Zwillings, kann man das 3-D Modell und die Strukturinformationen aus der Geburtsphase des Objektes (CAD, PLM) (As-Designed), dann aus dem ERP und MES die Stücklisten und Komponenteninformationen (As-Built) und zum Schluss die Wartungshistorie (As-Maintained) sowie die Betriebsdaten (z.B. IoT-Real-Time-Performance-Daten) heranziehen. Alles basierend auf dem Thing-Core-Modell, über Systemgrenzen hinweg und nach dem Add- & ReUse-Prinzip für den Digitalen Zwilling. Dieser Anwendungsfall zeigt, dass der Nutzen am Ende der Wertschöpfung immer größer wird. Kann man aber nicht auf einen integrierten Prozess zurückgreifen, wird der Aufwand für die Einführung eines solchen Prozesses immer höher. In diesem Anwendungsfall wird auch die Notwendigkeit von unternehmensübergreifenden Asset-Netzwerken deutlich, da der Digitale Zwilling die Unternehmensgrenze des Herstellers verlassen hat und der Betreiber die Daten nutzen möchte. Ist dieser Austausch nicht möglich, müsste der Betreiber das gleiche Modell nochmals aufwendig erstellen und pflegen, ohne dass insgesamt ein Mehrwert entsteht.

 

Der Digitale Zwilling im Asset-Netzwerk - Beispiel SAP AIN

Abbildung 3: Der Digitale Zwilling im Asset-Netzwerk – Beispiel SAP AIN (Quelle: Trebing+Himstedt)

Diese beiden Beispiele sind nur ein kleiner Ausschnitt von Anwendungsfällen, die den Digitalen Zwilling benötigen. Die smarte Fabrik gelingt nur mit dem Management des Digitalen Zwillings in seiner Vielfalt über den gesamten Lebenszyklus hinweg. Der Weg über viele kleine schlanke IT-Systeme lässt das Maß der Verschwendung nur anwachsen und führt zur Inflexibilität. Leider scheint die Vielfalt der Apps und die versprochene schnelle Einführung vielen Akteure sehr verlockend. Aber an einem integrierten, leistungsstarken Backend (Digital Core) kommt kein Unternehmen vorbei. Auf diesem Backend aufbauend kann die Welt der Apps durchaus leicht und produktiv genutzt werden. Spätestens bei datengetriebenen Geschäftsmodellen, die eine nutzungsorientierte Vergütung (Pay-per-use) anstreben, ist der Digitale Zwilling eine zwingende Voraussetzung.

Datenfehler in der Supply Chain automatisch erkennen und korrigieren

Auch wenn die Supply-Chain-Planung immer mehr automatisiert wird, ist es für die meisten Disponenten schwierig, die Hände vom Lenkrad zu nehmen und die Technologie die Arbeit machen zu lassen. Allerdings stimmen die meisten Planer wohl darin überein, dass ein Job, den sie gerne an die KI delegieren würden, die Datenbereinigung ist. Die Datenqualität ist auch in der Supply-Chain-Planung ausschlaggebend für den Erfolg. Die Aufarbeitung schlechter Daten, das Erfassen und Korrigieren von Datenfehlern wird nicht selten mit viel manuellem Aufwand von Planungsteams betrieben.

Fehler, Fehler, überall Fehler

Denn Supply-Chain-Datenfehler können in Beschreibungen, Identifikatoren, Klassifizierungscodes, Steuerungsvariablen und an vielen anderen Stellen gefunden werden. Fehler können das Ergebnis falscher menschlicher Eingaben, falscher Beziehungen zwischen Datenelementen und Datensätzen, einer falschen Ausgabe von statistischen Optimierern, mangelhafter EDI-Übertragungen und anderer Ursachen sein. Und da die Daten der Lieferkette miteinander verbunden sind, kann ein Fehler in einem Feld schnell zu Fehlern in einem anderen Feld führen.

Supply-Chain-Fehler können auch sehr subtil sein, wenn es um obskure Anwendungsdaten geht, die nicht regelmäßig überprüft werden. Für jeden bekannten Fehlertyp gibt es zwangsläufig Hunderte von unbekannten Typen, und für jeden bekannten Fehler kann es Tausende von anderen geben, die so lange unentdeckt bleiben, bis sie Probleme verursachen.

Angesichts der Tatsache, dass die Supply Chain gerade dabei ist, sich zum Netzwerk der Netzwerke zu entwickeln, werden Datenfehler künftig immer häufiger zutage treten. Ihre Auswirkungen werden im gesamten Unternehmen und noch darüber hinaus stärker spürbar sein.

Von der Unmöglichkeit, manuell Fehler in komplexen Lieferketten zu finden

In einer großen Lieferkette ist es nicht möglich, einzelne Fehler mit traditionellen Ansätzen zu finden und auszumerzen. Selbst der erfahrenste Planer kann nur noch einen Bruchteil der vorhandenen Anomalien finden. Die Erstellung einer ausreichend großen Stichprobe von Beispielfällen ist ein sehr zeitaufwendiger Prozess. Es gibt einfach zu viele Daten, als dass ein manueller Ansatz in einer großen oder komplexen Lieferkette sinnvoll wäre.

Die Grenzen prädiktiver Modelle

Wenn ein gewisser Grad an Automatisierung heutzutage in der Datenbereinigung eingesetzt wird, dann sind das prädiktive Modelle. Aber da es sich dabei meist um mathematische Funktionen handelt, können sie zwar deutlich machen, dass sie einen Datensatz für einen Ausreißer halten, aber nicht erklären, warum. Dies macht es, besonders in einer dynamischen Supply-Chain-Umgebung, schwierig, Ausreißer zu verstehen, zu verwalten oder zu ändern.

Wie KI Abhilfe schaffen kann

Einen besseren Ansatz verfolgt die sogenannte sich selbst korrigierende Supply Chain, die Künstliche Intelligenz einsetzt, um Fehler in Supply-Chain-Daten automatisch zu finden und zu beheben. Das schließt auch vergangene Datenfehler ein. Zudem werden Methoden des maschinellen Lernens eingesetzt, durch die das Modell sein Wissen darüber, wie man solche Fehler erkennt und korrigiert erweitert. Dieses wird genutzt, um aktuell auftretende Datenfehler zu korrigieren, bevor sie sich negativ auf Produktion oder Prozesse auswirken können.

Bei diesem Ansatz zur Korrektur von Supply-Chain-Daten schauen Experten nicht auf Hunderte oder Tausende von verdächtigen Datensätzen. Sie untersuchen nur eine Handvoll Regeln, die alle Anomalien in den Daten qualifizieren. Wird nur eine Anomalie-Regel entfernt, können so automatisch Tausende korrespondierende tatsächliche Anomalien beseitigt werden.

Die sich selbst korrigierende Supply Chain

Der Ansatz der sich selbst korrigierenden Supply Chain nutzt Live-Daten in Supply-Chain-Anwendungen und -Workflows vom Materialeinsatz bis zur Produktverteilung. Das Wissen, die Erfahrung und die Kompetenz von Planern und anderen Experten wird auf höchst effiziente und effektive Weise verwendet. Im Grunde genommen gleicht dieser Ansatz einem intelligenten Assistenten, der den Planern hilft, ihre alltäglichen Aufgaben effektiver zu erledigen.

 

Die sich selbst korrigierende Supply Chain ist ein dreistufiger Prozess:

  1. Das Modell findet Beispiele für Anomalien in historischen Daten und erstellt Regeln für natürliche Sprachtypen, die dann von einem Fachplaner oder IT-Datenbankexperten überprüft werden.
  2. Verdächtige Datensätze, die vorher bereits markiert wurden, werden genutzt, um das logische Modell zur Korrektur der Datenfehler zu erstellen.
  3. Das Modell prüft automatisch und kontinuierlich neue Daten und findet und ersetzt fehlerhafte Datensätze im Produktionssystem.

 

Der Einsatz von KI in der Supply-Chain-Planung hilft dabei, die Fehlerbereinigung zu automatisieren. Anstatt die Daten der Lieferkette selbst zu bereinigen, lassen die Planer diese mühselige Arbeit von der KI erledigen und können sich auf die Aufgaben konzentrieren, bei denen sie ihr Wissen und die menschliche Intelligenz besser einsetzen können.

 

Survival of the Digital Fittest

Es überrascht heute niemanden mehr, dass etablierte Strukturen als überholt gelten, auch wenn sie sich bislang bewährt haben. Neue Wege sind gefragt. In der digitalen Zukunft ist schlichtweg kein Platz für historische Organisationsmodelle – mit diesem Umstand tun sich vor allem Traditionsunternehmen nicht selten schwer. Die richtigen Schritte beim Change- und Projektmanagement verschaffen allerdings Orientierung und helfen, das Ziel im Auge zu behalten. Die Gefahr: Wer es jetzt verpasst, die Weichen zu stellen, ist langfristig nicht wettbewerbsfähig. Einer nachhaltigen Transformation der mittelständischen Unternehmenslandschaft im Wege steht allerdings nach wie vor die Skepsis vieler Beteiligter gegenüber den Entwicklungen der digitalen Produktionswelt. Das sind nicht immer nur Sicherheitsbedenken, sondern vielmehr Befürchtungen, dass ein neuer Kurs Kunden verschrecken könnte. Dabei vergessen viele jedoch, dass sich diese Kunden demselben Digitalisierungsdruck ausgesetzt sehen und ihrerseits nach eigenen Lösungen suchen müssen. Patentrezepte gibt es schlichtweg nicht. Die digitale Zukunft gehört denjenigen Unternehmen, die es schaffen ihre Unternehmensprozesse und ihre Wertschöpfungskette an neuen Strategien auszurichten. Erfolgreich ist nur derjenige, der am besten an die künftigen Marktbedingungen angepasst ist und flexibel agiert, frei nach Darwins Theorie des „Survival of the Fittest“.

Digitalisierung beginnt im Unternehmen

Die digitale Transformation setzt dementsprechend flexible Strategien und Prozesse voraus, die wiederum nur in einem offenen Umfeld gedeihen können – der „cultural fit“ beziehungsweise „digital fit“ muss stimmen. Bei Licht betrachtet sind nachhaltige Veränderungen nur dann möglich, wenn technische und kulturelle Lösungen Hand in Hand gehen. Dafür müssen alle angestrebten Veränderungen gerade innerhalb des Unternehmens gestaltet, kommuniziert und mitgetragen werden. Der Weg ins digitale Zeitalter führt über die Mitarbeiter und benötigt neben einem umfassenden Qualifikationsmanagement auch individuelle Führungskonzepte.

Die Praxis zeigt, dass vor allem unternehmensinterne Expertengruppen als potenzielle „Inkubatoren“ bei der digitalen Transformation einen wertvollen Beitrag leisten können. Sie prüfen, ob sich die entwickelten Strategien und Lösungen tatsächlich in der Praxis umsetzen lassen – in einem engen Dialog mit Branchenvordenkern und Wissenschaft. Außerdem gewährleisten Sie, dass das Unternehmen externes Wissen für sich nutzt, ohne in Abhängigkeiten zu geraten. Parallel gilt es zu prüfen, ob externe Treiber in Form einer Beratung die Zielerreichung beschleunigen können, indem sie den Erfolg der durchgeführten Maßnahmen zielorientiert und methodisch im Blick behalten. Von einer Entwicklungspartnerschaft während der Strategiefindung und Erprobungsphase ist hingegen abzuraten, da sie Flexibilitätspotenzial frühzeitig negiert. Gleichzeitig sind der Dialog mit den Kunden und die Entwicklung eines gemeinsamen Wertschöpfungsnetzwerks wichtige Schritte, weil sie den positiven Nebeneffekt haben, dass sich potenzielle Investitionen gegebenenfalls sogar teilen lassen.

Flexibilität als Wettbewerbsfaktor

Die Grundvoraussetzung für den Erfolg eines Unternehmens in einer digitalisierten (Produktions-)Welt sind am Ende des Tages nicht nur flexible Prozesse und Strategien, die mehr Effizienz schaffen, sondern auch der Abschied von bewährten Denk- und Handlungsmustern. Darüber hinaus avancieren die unternehmensinterne Transformation und ein adäquates Changemanagement zu klaren Wettbewerbsfaktoren, weil diese Mitarbeiter, Partner, Lieferanten und Kunden schon früh bei der Findung und Umsetzung der notwendigen Schritte begleiten. Der digitale Wandel ist bezeichnenderweise ein technologischer und kultureller Umbruch zugleich, den es auf allen Ebenen zu gestalten gilt.

*Oliver Jäger arbeitet als Leiter Strategie und Business Development bei Q-loud.

Ein Blick hinter die Kulissen

Augmented Reality (AR), übersetzt „erweiterte Realität“, erlaubt es, digitale Zusatzinformationen im Display eines mobilen Endgeräts einzublenden. In der Industrie eröffnet diese Technologie vielseitige Potenziale und lässt sich in unterschiedlichen Bereichen einsetzen: Von der Produktionsplanung über die Instandhaltung, Service und Wartung bis hin zur Aus- und Weiterbildung der Mitarbeiter. Durch die neue Form der Visualisierung und die permanente Verfügbarkeit der gesamten Daten zu einem bestimmten Anlagenobjekt werden etwa der Platzbedarf, notwendige Anschlüsse oder technische Defekte schnell und einfach identifiziert und die Erledigung auch millimetergenauer Aufgaben unterstützt.

Augmented Reality mobil machen

Smartphones und Tablets bilden die Grundsteine für AR-Anwendungen – beispielsweise auch im Ex-Bereich. In der neusten Generation werden etwa explosionsgeschützte Tablets mit einem magnetischen Gyroskop ausgestattet, um mittels Augmented-Reality-Anwendungen die Objekte einer Anlage identifizieren zu können und alle Daten in Echtzeit direkt auf das Display des Mobilgeräts zu leiten – ob Baupläne, Instandhaltungsinformationen oder Betriebszustände. Durch den mobilen Einsatz von AR können vielseitige Herausforderungen und Aufgaben in der Industrie gelöst werden – zum Beispiel die Wartung oder Inbetriebnahme einer Anlage.

Schnelle Inbetriebnahme und Navigation zum Ort des Geschehens

Eine Anlage soll möglichst schnell und reibungslos anlaufen. Mobilgeräte mit AR-Applikationen machen die entsprechenden Daten schnell zugänglich und sparen lange Zwischenschritte und den Umweg über handschriftliche Notizen oder Handbücher ein. Zudem können Mobile Worker per AR-Anwendungen Daten und Prüfergebnisse direkt auf dem Mobilgerät empfangen und durch Fotos oder Sprachnotizen ergänzen.
Augmented Reality identifiziert jedoch nicht nur, was die Anwender sehen, und erweitert diese Informationen, sie hilft ihnen auch zum Ort des Geschehens zu gelangen. Eine Augmented-Reality-unterstützte Navigation führt Mitarbeiter effizient und sicher durch komplexe Anlagen. In Notfallsituationen hilft sie, Feuerlöscher, Sammelplätze oder Fluchtwege rasch aufzuspüren.

Inspektion und Instandhaltung 4.0: In Echtzeit mehr über ein Asset erfahren

Für Inspektion und Instandhaltung liefert AR nicht nur eine potentielle Navigationsfunktion für mitunter weitläufige Anlagen, sie stellt dem Mobile Worker auch alle relevanten Daten der zu prüfenden Objekte in Echtzeit auf dem Mobilgerät zur Verfügung. Ein Mobile Worker, der eine Anlage in einer potentiell gefährlichen Arbeitsumgebung untersucht, kann so Schäden noch während der Inspektion oder Instandhaltung beheben oder Reparaturen anstoßen. Ist zur fachmännischen Unterstützung ein zusätzlicher Spezialist gefragt, kann dieser auf das Mobilgerät zugeschaltet werden, ohne dass er die Anlage selbst besuchen muss. So werden Ferndiagnose und -wartung in Echtzeit im Ex-Bereich erheblich erleichtert und beschleunigt.

Shutdown effizient nutzen und verkürzen

Angesichts permanent zunehmenden Preis- und Kostendrucks im globalen Wettbewerb kann sich kein Industriebetrieb lange Ausfälle seiner Anlagen leisten. Mittels Smartphone oder Tablet mit AR-Anwendung kann die Produktivität, Effizienz, Flexibilität und Anlagensicherheit erhöht werden. Anlagenbetreuer erhalten sämtliche Daten auf einen Blick, was ihnen eine reibungslose Termin- und Ablaufplanung erleichtert. Unternehmen können so schneller und präziser auf Ausfälle reagieren oder bei einem Shutdown das termingerechte Hochfahren der Anlage garantieren.

In vier Schritten zum Standard IEC 62443

Spätestens seit den weltweiten Attacken mit den Schadprogrammen WannaCry und NotPetya im Jahr 2017 müssen sich Industrieunternehmen auch mit der umfassenden Sicherung ihrer Industrial Control Systems (ICS) auseinandersetzen. Die internationale Standardfamilie IEC 62443 »Industrielle Kommunikationsnetze – IT-Sicherheit für Netze und Systeme« bildet dabei ein grundlegendes Rahmenwerk. Dieses gewährt sowohl die Cybersicherheit gegenüber Angriffen, als auch die Produktivität gegenüber technischen Fehlerzuständen und Fehlkonfigurationen.

Im Kern bildet die IEC 62443 ein Qualitätsmanagementsystem für ICS, denn sie folgt – wenn auch etwas versteckt – dem kontinuierlichen Verbesserungsprozess von Planen, Umsetzen, Überprüfen und Optimieren. Eine industrielle Anomalieerkennung wie Rhebo Industrial Protector bietet bezüglich der Sichtbarkeit der Daten umfangreiche Funktionalitäten, um ICS stabil und sicher zu planen und zu steuern.

Schritt 1: Risikoanalyse

Die praktische Umsetzung des Standards beginnt mit einer detaillierten Risikobewertung der informationstechnologischen Infrastrukturen. Was im Grund wie eine normale Fehlermöglichkeiten-Einflussanalyse (FMEA) klingt, birgt den Teufel im Detail. Denn der Standard fordert nicht weniger als die vollständige Bewertung des Status Quo:

  • Grenzen des zu betrachtenden Systems (System under Consideration, SuC)
  • Generelle Cybersicherheitsrisiken (externe Bedrohungsszenarien und interne Sicherheitslücken / Verletzbarkeiten)
  • Auswirkungen der Bedrohungen auf die bestehende Infrastruktur
  • Identifikation möglicher Sicherheitsmaßnahmen
  • Re-Evaluierung der Bedrohungen (als iterativen Prozess)

Für Betreiber von ICS bedeutet das die Analyse und Dokumentation jeder Komponente im ICS in Bezug auf ihre Eigenschaften, Kommunikationsbeziehungen sowie ihr Kommunikationsverhalten und Risiko für die Cybersicherheit und Gesamtanlageneffektivität. Firewalls und andere Grenzwächterlösungen versagen bei diesem Punkt, da ihnen die Innenansicht des ICS fehlt. Ein industrielle Anomalieerkennung dagegen blickt gezielt in das Netzwerk und identifiziert aufgrund von Kommunikationsvorgängen jegliche Komponenten, deren Eigenschaften und Verbindungen.

Anomalieerkennung
Eine Sicherheitslösung für ICS muss in der Lage sein, Störungen zu erkennen, bevor es zum ungeplanten Stillstand kommt. (Quelle: Rhebo)

Schritt 2: Komplette Absicherung

Der zweite Schritt umfasst einen sehr umfangreichen Maßnahmenkatalog, der im Kapitel 3.3 für die Systemebene und in Kapitel 4.2 für die Komponentenebene definiert wird. In sieben Basisanforderungen (Foundational Requirements, FR) verlangt der Standard die allumfassende Identifikation und Authentifizierung, Nutzungskontrolle, Systemintegrität, Vertraulichkeit der Daten, eingeschränkten Datenfluss, rechtzeitige Reaktion auf Ereignisse im ICS sowie die Verfügbarkeit der Ressourcen. Ziel ist letztlich eine vollständige Kontrolle über alle Vorgänge, Veränderungen und Zugriffe auf das ICS – sowohl während des Normalbetriebs als auch während des Stressbetriebs sowie nach Neuinstallationen und Anpassungen.

Die industrielle Anomalieerkennung unterstützt, prüft und dokumentiert den Anspruch an eine lückenlose Kontrolle durch die vollständige Sichtbarmachung der Vorgänge im ICS, sowohl punktuell als auch kontinuierlich.

Schritt 3: Rund-um-die-Uhr-Überwachung

Der große Unterschied zum Qualitätsmanagement liegt bei der IEC 62443 in der Gleichzeitigkeit. Während im Qualitätsmanagement Stichproben genutzt werden, um das System regelmäßig zu prüfen, gilt bei der IEC 62443 Echtzeit und Vollständigkeit. Das ergibt sich aus Schritt 2, der eine komplette Kontrolle über alle Vorgänge postuliert. Betreiber von ICS müssen also ein System aufbauen, das alle Vorgänge im ICS auf Richtigkeit prüft und sofort über Abweichungen alarmiert.

Eine industrielle Anomalieerkennung erreicht das zum Beispiel, indem sie lückenlos jeden Kommunikationsvorgang im ICS mitliest, gegen das zu erwartenden Standardmuster abgleicht und Abweichungen zu diesem umgehend als Anomalie meldet. Die Überwachung erfolgt rund um die Uhr, Anomalien werden in Echtzeit und inklusive Risikobewertung an die Betreiber gemeldet.

Schritt 4: Gefährdungen beseitigen, bevor die Fertigung betroffen ist

Wer alle Daten seines ICS vorliegen hat, kann auch optimal auf Störungen und erkannte Gefährdungen reagieren. Der Standard fordert dabei nicht nur die Überwachung des ICS auf Schadsoftware. Auch technische Fehlerzustände, die zum Beispiel Überlastzustände und Kommunikationsfehler im ICS hervorrufen und so die Fertigung gefährden können, gehören dazu.

Eine industrielle Anomalieerkennung erkennt jede Abweichung im ICS – vom Schadcode bis zu Fehlern im Kommunikationsverhalten oder den Inhalten der Telegramme. Darüber hinaus liefert sie zu jeder gemeldeten Anomalie alle Details zum Vorgang. Damit kann die Quelle einer Anomalie schnell gefunden, analysiert und repariert werden. Betreiber können damit Ausfälle vermeiden und das ICS kontinuierlich optimieren. Und sollte doch einmal eine plötzliche Störung auftreten, liegen alle Daten bereit, um Gegenmaßnahmen umgehend einzuleiten und den ungeplanten Stillstand auf ein Minimum zu beschränken.

Umgang mit den Ausreden

In meinem vorigen Kommentar habe ich mehrere Gründe für das Ausbleiben der Digitalisierung in Unternehmen aufgeführt. Jetzt geht es darum, wie mit diesen vermeintlich sachlichen Gründen umgegangen wird. Sind die genannten Argumente nicht eher Ausreden?

Auf jeden Fall können sie geclustert werden in:

  • Digitale Infrastruktur
  • Wirtschaftlichkeit
  • Mitarbeiter, Know-how und Unternehmenskultur

 

Digitale Infrastruktur

Hängt die digitale Zukunft des Unternehmens von einem schnellen Internetanschluss ab? Wohl kaum. Was machen Sie, wenn Sie morgen den dringend benötigten schnellen Internetanschluss haben? Was können Sie ohne diesen Anschluss hinsichtlich der Digitalisierung unternehmen?

Es vergeht keine Woche, ohne dass Wirtschaftsverbände den Ausbau der digitalen Infrastruktur fordern und die Politik eine unverzügliche Umsetzung verspricht. Abwarten, bis die Infrastruktur vorhanden ist, kann für kein Unternehmen eine ernst zu nehmende Option sein.

Wirtschaftlichkeit

Sie haben keinen Business Case für ihre Digitalisierungsvorhaben mit einem ROI innerhalb von zwölf Monate rechnen können? Es geht bei der Digitalisierung nicht nur um Umsatzsteigerung oder effizientere Prozessabläufe im Unternehmen, sondern um langfristige Wettbewerbsfähigkeit und somit die Existenz des Unternehmens. Diese wird durch ausbleibende Digitalisierungsvorhaben gefährdet. Keine Frage: Digitalisierung als Selbstzweck kann und darf jedoch niemand als Motivation nehmen.

Ihre Auftragsbücher sind voll und somit sehen Sie keinen Bedarf, etwas zu ändern. Außerdem haben Sie auch keine Zeit. Alle Kräfte sind eingebunden, um die anstehenden Aufträge abzuarbeiten. Der Erfolg gibt Ihnen an dieser Stelle somit natürlich Recht. Aber wird das zukünftig auch noch so sein? Es stellt sich die Frage nach dem optimalen Augenblick für Veränderungen – diese werden durch die Digitalisierung auf jeden Fall stattfinden. Wann ist also der richtige Zeitpunkt? Jetzt!

Mitarbeiter, Know-how und Unternehmenskultur

Kommen wir zu den Gründen aus dem Personalbereich. Es fehlen schlicht und einfach die Macher, die das Vorhaben „Digitalisierung“ bei Ihnen angehen. Die aktuellen Mitarbeiter sind dazu nicht in der Lage: Sie sind nicht entsprechend ausgebildet und das Wissen über Möglichkeiten der Digitalisierung und die Methoden zur Umsetzung fehlen. Zumindest für die Einführung vernetzter Technologien und intelligenter Steuerungssysteme benötigen Sie profundes Fachwissen. Da heißt es dann „make or buy“. Neue Mitarbeiter mit dem entsprechenden Profil müssen auf dem hart umkämpften Arbeitsmarkt gefunden, eingestellt und langfristig ausgelastet werden. Oder das benötigte Know-how wird als externe Dienstleistung eingekauft. Allerdings sind Absolventen der Universitäten selbst mit einem Master-Abschluss noch lange nicht so weit, dass sie über das notwendige, praktische Wissen verfügen.

In Unternehmen werden sie dennoch als Hoffnungsträger gesehen und mit entsprechenden Erwartungen eingestellt. Das ist der Zeitpunkt, an dem sie Bekanntschaft mit der Unternehmenskultur machen. Wie werden die jungen Mitarbeiter gefördert und auch gefordert? Tragen sie bereits ein wenig Verantwortung und müssen sie in diesem Rahmen Entscheidungen treffen? Wie wird mit ihnen umgegangen, wenn sich ihre Entscheidungen als wenig vorteilhaft herausstellen? Es geht also um Mut zur Entscheidung sowohl beim Top-Management als auch und insbesondere beim mittleren Management.

Entscheiden und zielorientiert Handeln

Betrachtet man die Gründe für die fehlende Digitalisierung wie auch den Umgang damit, fällt auf, dass sie nicht technischen Ursprungs sind. Vielmehr sind sie menschlicher Natur. Bevor man einen Fitness-Check macht, ist es besser, die Ziele der Digitalisierung (z.B. in einem Zielfindungsworkshop) zu definieren und anschließend zur Bestimmung der Ausgangsposition eine gründliche Aufnahme und Analyse der Ist-Situation durchzuführen.

Digitalisierung bedeutet dauerhafte Veränderung für alle Beteiligten. Insbesondere für die Unternehmensführung heißt es, den Mut zum Entscheiden und Handeln zu haben. Abwarten und schauen, was der Wettbewerb macht, bringt jedes Unternehmen eindeutig ins Hintertreffen.

Die Unternehmensführung definiert die Ziele und ist gefordert, ein Umfeld für die Mitarbeiter zu schaffen, in dem sie diese Ziele erreichen können.

Häufig fehlt es genau an diesen Zielvorgaben. Ältere Führungskräfte am Ende ihrer Karriere, scheuen den Aufwand, sich mit der digitalen Zukunft zu beschäftigen. Der Schaden für das Unternehmen ist immens – mit fatalen Folgen.

Appell

Lassen sie die Ausreden sein und stellen sie sich den Tatsachen. Die digitale Infrastruktur entwickelt sich weiter und sie werden sie entsprechend nutzen können. Bereiten sie sich heute schon darauf vor. Anstatt zu überlegen, was wohl passieren wird, wenn sie auf den Zug der Digitalisierung aufspringen, denken sie daran, was wohl passieren wird, wenn sie es nicht tun. Kann sich ihr Unternehmen dies leisten?
Schaffen Sie eine Unternehmenskultur, die eine dauerhafte und nachhaltige Veränderung im Unternehmen unterstützt, denn die Digitalisierung wird das Unternehmen dauerhaft verändern.

 

So können Connected Cars funktionieren

Verbraucher erwarten schon lange mehr von ihren Autos, als nur von A nach B zu fahren. Sie wollen digitale Fahrassistenten, ein Navigationssystem und Verkehrsnachrichten in Echtzeit. Laut McKinsey will bereits jeder zehnte Autobesitzer nicht auf einen Internetzugang in ihrem Wagen verzichten. Angefangen bei Kartenmaterial für die Navigation über aktuelle Verkehrsnachrichten wie Staus, Audiostreaming via Spotify bis hin zu autonom fahrenden Autos, sogenannten Connected Cars – Automobilhersteller und Zulieferer müssen also künftig immer mehr vernetzte Services bereitstellen. Und sie profitieren von dieser Entwicklung: Der prognostizierte weltweite Umsatz mit Technologien im Bereich Connected Cars soll auf bis zu knapp 156 Milliarden US-Dollar im Jahr 2022 steigen.

Mehr Services und Automatisierung im Auto

Seit April müssen neue Automodelle außerdem einen weiteren Service bieten: Sie sind verpflichtet, über ein automatisches Notrufsystem zu verfügen, den sogenannten eCall-Button. Dieser soll für schnelle Hilfe im Falle eines Unfalls sorgen. Die Autos werden dazu mit einem Satelliten-Empfänger und einer SIM-Karte versehen. Stellt das Fahrzeug einen schweren Unfall fest, etwa über die Airbag-Sensoren, löst es autonom einen Alarm aus. Dieser wird an die nächstgelegene Notrufzentrale weitergeleitet, die europaweit unter der einheitlichen Nummer 112 erreichbar ist. Das Auto übermittelt zudem einen Datensatz an die Leitstelle, der die genaue Position, die Fahrtrichtung, insbesondere auf Autobahnen wichtig, den Fahrzeugtyp, die Schwere des Unfalls sowie die Anzahl der Insassen enthält. Gleichzeitig wird eine Sprachverbindung aufgebaut. Die EU erhofft sich durch die flächendeckende Einführung eine Menge: So soll die Reaktionszeit nach Unfällen in ländlichen Gebieten um bis zu 50, in Städten um bis zu 40 Prozent verkürzt werden.

Entwicklungen wie der eCall-Button zeigen deutlich: zunehmend mehr Prozesse im Auto werden maschinengesteuert und automatisiert. Im Rahmen von Connected-Cars-Konzepten geht dieser Schritt noch weiter. Hier werden Fahrzeuge und Dienste, wie Entertainment oder autonom sprachgesteuerte Assistenzsysteme, über das „Internet der Dinge“ (IoT) verbunden. Doch dies stellt einige Herausforderung an die Netze dar.

Zu lange Latenzzeiten und schlechter Internet-Empfang

Physikalische Netze kommen bereits heute an ihre Grenzen. Sie sind durch die drastisch zunehmende Anzahl smarter Geräte und Autos – künftig muss jede Funkzelle 50.000 Endgeräte versorgen – überfordert. Der Grund dafür: Das Datenaufkommen steigt gewaltig. Daten zur Position und Zustand des Autos, Verkehrsdaten oder Informationen zur Wartung – all diese Daten müssen von den Netzen in Echtzeit verarbeitet werden. Das ist jedoch besonders in ländlichen Regionen ein Problem. Selbst mit einer guten LTE-Verbindung sind die heute erreichten Latenzzeiten noch viel zu lang, um IoT-Anwendungen wie die von Connected Cars zu unterstützen.

Und auch Fahrten ins Ausland können problematisch sein. Denn häufig geben Netzanbieter keine Garantie, dass im Ausland die gleiche Bandbreite zur Verfügung steht wie hierzulande. Von Herstellern angebotene Services wie Audiostreaming könnten also außer Landes möglicherweise nicht verfügbar sein.

Die Lösung für dieses Problem, nämlich 5G, ist zumindest in Europa noch nicht in Sicht. Zwar testet die Telekom bereits eine Übertragung von 5G am Hamburger Hafen und in Berlin. Doch eine Verbreitung wird hierzulande mindestens noch bis 2020 auf sich warten lassen. Erst Anfang 2019 soll die Versteigerung der Frequenzen für 5G durch Bundesregierung und Bundesnetzagentur erfolgen. Unternehmen müssen sich also überlegen, wie sie IoT-Services heute schon zuverlässig anbieten können.

 Edge Computing und LTE Cat M1 als vorläufige Alternativen zu 5G

Eine Möglichkeit, Latenzzeiten zu verkürzen, ist Edge Computing. Bei Edge Computing werden Daten dezentralisiert und am Rand des Netzwerks verarbeitet. Sie werden also nicht erst zu einem Rechenzentrum oder der Cloud und anschließend wieder zurück transferiert, sondern genau dort analysiert und verwertet, wo sie auch produziert werden. Auf diese Weise können Latenzzeiten stark verkürzt werden.

Aber auch eine Variante des LTE, das sogenannte LTE Cat M1, könnte die Kommunikation von Fahrzeugen verbessern. LTE Cat M1 ist eine LPWA‑Luftschnittstelle (Low‑Power Wide‑Area), mit der s ich IoT- und Machine-to-Machine‑Geräte verbinden lassen, bei denen mittlere Datenraten erreicht werden sollen (375 kbit/s Upload- und Download‑Geschwindigkeiten im Halbduplexbetrieb). Die Technologie ermöglicht außerdem längere Batterie‑Lebenszyklen und größere Reichweite verglichen mit Standard‑Mobilfunktechnologien wie 2G oder 3G. Vor allem im ländlichen Bereich wäre dies sehr hilfreich. Bisher wird die Technologie bei Connected Cars allerdings noch nicht angewandt, sondern eher bei Gadgets wie Trackern und weiteren IoT-Anwendungen. Es mangelt also noch an der entsprechenden Kommerzialisierung.

Datenaustausch überwachen und priorisieren

Damit digitale Fahrzeug-Services über Edge Computing und LTE Cat M1 allerdings richtig umgesetzt werden können, muss die Konnektivität des Netzwerks stets flächendeckend vorhanden sein – und das zuverlässig. Bei Edge Computing ist sicherzustellen, dass der Datenverkehr kontinuierlich on the egde verarbeitet, genormt und in Beziehung gesetzt werden kann. Dazu müssen Unternehmen genau wissen, wo welche Daten in ihrem Netz(werk) ausgetauscht werden. Egal, wie komplex die Infrastruktur ist – eine Ende-zu-Ende-Sicht in alle Prozesse ist zwingend erforderlich.

Diese Einsicht ist ebenfalls wichtig, um Daten priorisieren zu können. Wird beispielsweise über den eCall ein Notruf abgesetzt, muss sichergestellt werden, dass dieser auch beim Empfänger, also der Leitstelle ankommt, und im Zweifel im Netz Vorrang vor anderem Traffic erhält. Häufig werden Emergency-Technologien deswegen separat überwacht.

Servicequalität und Sicherheit sind erfolgskritische Faktoren

Und Sicherheit ist gerade beim autonomen Fahren ein kritischerer Faktor. Sind dann bestimmte Daten oder Dienste nicht verfügbar, kann es nicht nur zur Servicebeeinträchtigung kommen, sondern gar schlimmstenfalls zu Unfällen. Doch bis vernetzte Autos im Massenmarkt Fuß gefasst haben, wird es noch ein paar Jahre dauern. Das liegt unter anderem an den noch fehlenden technischen Standards. Doch Autohersteller können das Warten auf die ersehnte 5G-Technologie verkürzen. Etwa, indem sie heute schon damit anfangen, die Infrastruktur im Auto und ihre Netze auf den 5G-Einsatz vorzubereiten.

 

 

KI und Datenanalyse im Mittelstand – chancenlos oder vielversprechend?

Laut Beratungsunternehmen PwC soll das deutsche Bruttoinlandsprodukt mit Hilfe Künstlicher Intelligenz bis zum Jahr 2030 um 430 Milliarden Euro steigen. Weltweit wird ein Anstieg um 15,7 Billionen Dollar vorhergesagt. Eine Prognose, die gerade für Unternehmen eine starke Aussagekraft hat. Denn wer erfolgreich sein und bleiben möchte, sollte laut aktuell weit verbreiteter Meinung die Chancen der Anwendung nicht verpassen. Gerade kleine und mittlere Unternehme trauen sich aber häufig nicht zu, bei diesen datengetriebenen Technologie-Trends mit großen Konzernen mithalten zu können. Denn in einer Zeit, in der Daten als Gold bezeichnet werden, bleibt gerade für mittelständische Firmen häufig die Frage bestehen: Wie „Big“ müssen denn unsere Daten sein? Laut Wikipedia-Definition bezeichnet der Begriff Big Data „Datenmengen, welche beispielsweise zu groß, zu komplex zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.“ Diese Definition trifft eigentlich auf fast alle Unternehmen zu – unabhängig von der Größe. Und eine manuelle Auswertung der Datenmengen führt in den meisten Fällen schlichtweg zu veralteten Reportings und etlichen überflüssigen Stunden Arbeitsaufwand.

Gilt für eine erfolgreiche Datenanalyse „mehr ist mehr“?

Trotzdem glauben gerade kleine und mittelständische Unternehmen noch häufig, dass sie nicht ausreichend Daten generieren, um von einer automatischen Analyse wirklich zu profitieren. Oft mangelt es den Unternehmen aber nicht an Daten, sondern primär an einem schlüssigen Datenmodell. Die richtige Aufbereitung und sinnvolle Zusammenführung verschiedener Datenquellen ist wichtig, um Daten als Entscheidungsgrundlage nutzen zu können. So variieren die Datenmengen und deren Qualität je nach Unternehmen und Unternehmensgröße zwar stark, die aus den Daten gewonnenen Erkenntnisse können aber gleichermaßen aussagekräftig für den jeweiligen Unternehmenserfolg sein. Risiken und Chancen werden durch eine zielgerichtete Datenanalyse auch für kleine und mittelständische Unternehmen frühzeitig sichtbar und Potenziale können dementsprechend genutzt werden.

Der nächste Schritt in Richtung Digitalisierung

Den Unternehmen steht folglich eine qualitative Entscheidungsgrundlage zur Verfügung, die manuelle Auswertungsverfahren nicht liefern können.

Beispielsweise konnte die Firma Piller, Hersteller von kundenspezifischen Gebläsen und Kompressoren für die Prozessindustrie, durch die Analyse historischer Daten aus der Fertigung in kürzester Zeit Zukaufteile identifizieren, deren Liefer- und Wiederbeschaffungszeiten besonders lang sind.. Ein weiteres Ergebnis dieser Schwachstellenanalyse war, dass die Gehäuse-Montage mehrere Wochen beanspruchte. Als Gegenmaßnahme konnte der Maschinenbauer eine Taktstraße einführen und die Montagezeit auf eine Woche reduzieren.

Basierend auf einer intelligenten Datenanalyse können außerdem intelligente Anwendungen wie Machine Learning ansetzen. Das wird ebenfalls an einem Beispiel aus der Produktion deutlich: Eine gezielt eingesetzte Datenanalyse könnte hier aufzeigen, dass die eingeplanten Vorgabewerte wie Wiederbeschaffungs- oder Arbeitsgangzeiten nicht der Realität entsprechen. So kann es beispielsweise sein, dass für einen bestimmten Arbeitsgang auf einer Maschine seit vielen Jahren 300 Minuten eingeplant werden. In der Realität dauert der Arbeitsgang jedoch nur 100 Minuten. Solche Zeitpuffer führen zu hohen Inaktivitätszeiten der Maschinen und Ineffizienz. Viele Projekte mit dem eigentlichen Ziel, die Produktionsplanung und deren Termintreue zu verbessern, setzen daher oft eine detaillierte Datenanalyse voraus, bei der die Qualität der Daten bestimmt wird.

Durch Machine-Learning-Algorithmen können die Vorgabewerte sehr genau vorausgesagt und die darauf basierende Produktionsplanung zunehmend optimiert werden. Mit Hilfe Künstlicher Intelligenz kann die Maschine „lernen“, welche Werte realistisch sind. Die Prognosegenauigkeit kann sich hierdurch bis um bis zu 60 Prozent verbessern.

Fazit: Sie haben die Grundlage. Starten Sie die Digitalisierung!

Unternehmen können unabhängig von ihrer Größe Prozesse mit Hilfe neuer Technologien automatisieren und optimieren. Schon kleine Unternehmen besitzen ausreichend Daten für die effiziente Anwendung Künstlicher Intelligenz. Jedoch gehen die Erfolgschancen und Wettbewerbsvorteile ohne eine zielführende Datenaufbereitung und -strategie im Datendschungel unter. Das Ziel bei Data Analytics sollte sein, bessere Kenntnisse über Prozesse oder Kunden zu gewinnen und deren Entwicklung prognostizieren zu können, um so insgesamt effizienter zu handeln. Außerdem können auf diesen „sauberen“ Daten nicht nur strategisch richtige Entscheidungen getroffen werden, sondern auch Anwendungen der Künstlichen Intelligenz anschließen. Durch eine sichere und sinnvolle Anwendung von Data Analytics und Künstlicher Intelligenz sind kleine und mittelständische Unternehmen zum jetzigen Zeitpunkt ihrer Konkurrenz einen großen Schritt voraus.