NGFW: Neue Dimensionen der Netzwerksicherheit

Unternehmen sind heute durch verteilte Organisationsstrukturen gekennzeichnet: Es gibt häufig viele verschiedene Standorte, Firmenangehörige sowie Freelancer arbeiten flexibel in unterschiedlichen Büros, im Home-Office oder mobil. Dafür muss eine hohe Netzwerk-Konnektivität gewährleistet werden. Auch Interaktive Software-as-a-Service (SaaS)-Applikationen wie beispielsweise Office 365 erfordern äußerst schnelle, performante Verbindungen mit geringen Latenzzeiten.

Auch Bedrohungen aus dem Cyberspace stellen immer neue Anforderungen an die Netzwerksicherheit. Ransomware und Spionage-Software, welche über Exploits Zugang zum Unternehmensnetzwerk erhalten, beeinträchtigen die Funktionsweise von Netzwerkdiensten. Eine noch höhere Gefahr geht von sogenannten Evasions aus. Dabei handelt es sich um getarnte Exploits, welche den Netzwerkverkehr verschleiern, so dass die Übertragungsprozesse nicht zweifelsfrei erkannt werden können. Angriffe durch bestehende Signaturen und andere grundlegende Funktionen lassen sich so nur schwer stoppen.

Traditionelle Netzwerk-Security-Lösungen helfen hier nicht mehr weiter. Sie sind nicht in der Lage, eine ausreichende Verfügbarkeit von Daten und Anwendungen über verschiedenste Geräte, Netze und Zugriffspunkte hinweg zu gewährleisten. Zudem sind sie extrem anfällig gegenüber modernen Angriffsvarianten und lassen sich kaum skalieren und damit nur schwer an die spezifischen Anforderungen im Unternehmen anpassen.

Um diese Herausforderungen erfolgreich zu stemmen, müssen die Firmennetzwerke hinsichtlich Konnektivität, Sicherheit sowie Web- und Cloud-Fähigkeit in ein ganzheitliches Gesamtkonzept eingebunden werden. Moderne Next-Generation-Firewall-Lösungen (NGFW) sind in der Lage, Tausende von Firewalls, IPSs, VPNs und SD-WANs in nur wenigen Minuten über eine zentrale Konsole zu installieren und in Betrieb zu nehmen. Dabei lässt sich das System bedarfsgerecht skalieren und individuell an das Wachstum der jeweiligen physischen und virtuellen Unternehmensnetzwerke anpassen. Dies ermöglicht das Management hocheffizienter Prozesse in verteilten Firmennetzwerken. So sind alle Daten und Anwendungen in der gesamten IT-Infrastruktur verlässlich geschützt – egal ob im Rechenzentrum, an den verschiedenen Firmenstandorten oder in der Cloud.

NGFW bietet Anwendern umfassende Transparenz und einen 360-Grad-Blick auf die gesamte Netzwerk-Architektur. Neben der Verringerung der Komplexität können die Netzwerkkosten gesenkt, Ausfallzeiten um bis zu 50 Prozent reduziert und IT-Risiken signifikant verringert werden.

P.S.: Zum Thema „Smarte Produktionsanlagen sicher betreiben“ findet bei uns ein kostenfreies Webinar statt. Hier geht’s zur Anmeldung.

Veröffentlichen von Standortdaten

Wenn ein Standort für das Veröffentlichen in AD konfiguriert ist, können Clients über die Active Directory-Veröffentlichung gefunden werden. Dazu wird eine LDAP-Abfrage an einen globalen Katalogserver gestellt.

Sie müssen das Active Directory-Schema für System Center Configuration Manager in allen Gesamtstrukturen erweitern, in denen Sie Standortdaten veröffentlichen wollen.  Danach können Sie die Veröffentlichung durchführen:

  1. Klicken Sie in der Configuration Manager-Konsole auf „Verwaltung“.
  2. Erweitern Sie Standortkonfiguration, und klicken Sie auf „Standorte“.
  3. Wählen Sie den Standort aus, dessen Standortdaten veröffentlicht werden sollen.
  4. Klicken Sie auf der Registerkarte „Startseite“ in der Gruppe „Eigenschaften“ auf „Eigenschaften“.
  5. Wählen Sie auf der Registerkarte „Veröffentlichen“ die Gesamtstrukturen aus, in denen dieser Standort Standortdaten veröffentlichen soll.

 

Klicken Sie danach im Bereich „Verwaltung“ auf „Hierarchiekonfiguration\Active Directory-Gesamtstrukturen“. Wenn bereits eine Active Directory-Gesamtstrukturermittlung ausgeführt wurde, sind die Gesamtstrukturen hier zu sehen. Rufen Sie für die gefundene Gesamtstruktur die Eigenschaften auf.

Auf der Registerkarte „Allgemein“ können Sie einige Einstellungen vornehmen, zum Beispiel, ob die Standorte in Active Directory sowie die Subnetze erkannt werden sollen. Auch das zugreifende Benutzerkonto kann hier ausgewählt werden.

Auf der Registerkarte „Veröffentlichen“ wählen Sie die SCCM-Standorte aus, die in Active Directory veröffentlicht werden sollen.

 

Standby-Server mit manueller Umschaltung

 

Dadurch lassen sich alle notwendigen Maßnahmen in einer Batchdatei zusammenfassen. Die Ausführung erfolgt manuell oder per geplanten Task. Mit der Batchdatei ist es möglich, die Sicherung des aktiven Servers auf den Standby-DHCP-Server zu übertragen, und das regelmäßig. Die Batchdatei verwendet dazu die Option „export“ von „Netsh“. So lassen sich alle aktuellen Konfigurationen und aktuellen DHCP-Leases erfassen und auf den Backup-DHCP-Server kopieren.

Der zweite DHCP-Server ist in Active Directory nicht autorisiert, vergibt also keine IP-Adressen an die Clients, bis Sie entsprechende Konfigurationen vornehmen. Fällt der primäre Server aus, muss dessen Autorisierung nur noch aufgehoben und der Datenaustausch deaktiviert werden. Im Gegenzug autorisieren Sie den Backupserver, der mit der aktuellsten Konfiguration mit seiner Arbeit beginnt und IP-Adressen verteilt:

Netsh
Dhcp
Server 
Export all

 

Industrie 4.0 zum Anfassen

Seit der Firmengründung 2010 verzeichnet die Firma aus dem hessischen Limburg an der Lahn ein kontinuierliches Wachstum und mittlerweile sind die EMS-Experten auch im Joint Development Manufacturing (JDM) tätig. In dieser Funktion bauen sie für ihre Kunden aus Industrie, Automobilbranche sowie Medizin- und Sicherheitstechnik maßgeschneiderte Prototypen und übernehmen später auf Wunsch die Serienproduktion.

Das Unternehmen engagiert sich außerdem im Verein Smart Electronic Factory e.V. (SEF). Dort entstehende Konzepte und Szenarien werden im eigenen Unternehmen umgesetzt – unter anderem durch die Kombination intelligenter Technologien mit Lean-Management-Prozessen. Die ERP-Komplettlösung Proalpha kann hierbei als Schaltzentrale der intelligenten Fabrik fungieren.

Einheitliche Plattform für alle Prozesse

„Die Vorgänger-ERP-Lösung hielt den gestiegenen Anforderungen nicht stand und stieß immer mehr an ihre Grenzen”, erinnert sich Geschäftsführer Gerd Ohl. Deshalb wurde nach einer einheitlichen Plattform gesucht, die alle Prozesse entlang der gesamten Wertschöpfungskette steuern kann: vom Einkauf und der Materialwirtschaft über die Produktion und den Vertrieb bis hin zum Finanz- und Rechnungswesen. Gleichzeitig sollte das neue ERP-System das künftige Wachstum im In- und Ausland flexibel unterstützen.

Laut Georgios Giantsios, Geschäftsführer bei Limtronik, lassen sich mit dem neuen ERP-Komplettsystem heute sämtliche Geschäftsprozesse effizient aufeinander abstimmen und bedarfsgerecht steuern, automatisieren und kontrollieren. Dazu tragen unter anderem das integrierte Workflow Management und das Dokumenten Management System (DMS) bei.

In der Produktion stellt die Multiressourcenplanung Advanced Planning and Scheduling (APS) sicher, dass Material, Fertigungsanlagen und Personal optimal eingesetzt werden können. In den verschiedenen Unternehmensbereichen gewährleisten zudem die Business-Intelligence-Cockpits eine hohe Transparenz. „Dadurch haben wir jederzeit den kompletten Überblick über alle wichtigen Zahlen und können schnell die richtigen Entscheidungen treffen”, unterstreicht Gerd Ohl.

Lückenlose Traceability als Wettbewerbsvorteil

Ein ausschlaggebender Punkt bei der Entscheidung war auch die nahtlose Integration mit dem Manufacturing Execution System (MES) von Itac. Denn dieses bildet die Brücke zwischen Produktions- und Planungsebene und ermöglicht unter anderem die lückenlose Rückverfolgbarkeit der verwendeten Bauteile.

Diese Traceability ist eine der größten Herausforderungen für die EMS-Branche. Alle Produkte, alle verwendeten Leiterplatten und die darauf befindlichen Bauteile müssen umfassend rückverfolgt werden können. Wenn später Mängel auftreten, lässt sich die Fehlerquelle damit schnell eingrenzen.

In der Medizintechnik ist Rückverfolgbarkeit sogar gesetzlich vorgeschrieben. Andere Branchen – zum Beispiel die Automobilindustrie – wollen damit bei Reklamationen etwaige Rückrufaktionen nur für die wirklich betroffenen Fahrzeuge starten. „Wer eine lückenlose Traceability nachweisen kann, hat einen klaren Wettbewerbsvorteil”, so Giantsios.

Bei Limtronik werden deshalb sämtliche Zulieferteile beim Wareneingang über einen speziellen Wareneingangstisch gezogen. Dadurch gelangen die notwendigen Traceability-Daten zuerst in das Materialwirtschaftsmodul und dann automatisch in das MES. Pro Verpackungseinheit wird eine eindeutige Nummer erzeugt, die neben anderen Informationen auf einem Etikett steht. Das Etikett wird auf das Gebinde des Bauteils geklebt. In der Fertigung erfasst dann das MES, wo diese Komponenten genau verbaut wurden.

So ist die Lösung in der Lage, auf unterschiedliche Traceability-Anforderungen der Kunden zu reagieren, etwa mit eigenen Seriennummern, der Erfassung geometrischer Daten oder der Bündelung von Baugruppen. Zukünftig sollen im Zuge dieses Industrie-4.0-Konzepts die Auftraggeber mit Limtronik vernetzt werden. Über einen abgesicherten Zugang gelangen sie dann an die entsprechenden Daten im ERP-System. Bei Feldausfällen oder im Servicefall kann dann anhand der Seriennummer festgestellt werden, welche Fehler welche Ursache haben.

Mit Data Mining Fehler vorausschauend erkennen

Die häufigsten Fehler in der Leiterplattenbestückung sind Zinnschluss, ungenaue Positionierung, das Fehlen eines Bauteils und der berüchtigte Tombstone-Effekt. Dieser tritt beim sogenannten Reflow-Löten von elektronischen Bauteilen auf, die sich währenddessen auf der Leiterplatte einseitig aufstellen. Die nach oben stehende Seite ist dann nicht mehr elektrisch kontaktiert, das Bauteil wirkt wie ein Grabstein. Deshalb der englische Name „Tombstone“. Um hier wirksam gegensteuern zu können, plant das hessische Unternehmen als nächsten großen Schritt in Richtung Industrie 4.0 ein Datamining-Projekt. „Wir streben einen intelligenten Big-Data-Analytics-Regelkreis an, in dem Qualitäts-, Prozess- und Maschinendaten stetig analysiert werden“, erläutert Gerd Ohl. Damit sollen die Qualität weiter gesteigert und die Liefertreue verbessert werden. „Längerfristiges Ziel ist eine produktionsspezifische Vorhersage von Wartungsintervallen für unsere Fertigungsanlagen, die mithilfe eines Algorithmus gesteuert wird“, betont Ohl.

Denn mit dieser vorausschauenden Wartung (Predictive Maintenance) lässt sich sicherstellen, dass der laufende Produktionsvorgang möglichst wenig bis gar nicht unterbrochen werden muss. „Solche Industrie-4.0-Szenarien mit einem flexiblen ERP-System wie Proalpha umzusetzen“, so Gerd Ohl, „macht sich schnell bezahlt.“ Um etwa den Tombstone-Effekt nachträglich zu beheben, fallen Kosten von rund sechs Euro je Leiterplatte an. „In einer Vorserienfertigung kann das bereits Ausgaben von über 30.000 Euro bedeuten“, rechnet der Geschäftsführer vor. In bestimmten Fällen potenzieren sich die Kosten leicht auch auf das 10-Fache. Ziel muss daher sein, derartige Produktionsfehler von vornherein zu vermeiden, beziehungsweise zu minimieren.

Dieses Szenario zur Qualitätssteigerung in der Produktion stieß auch auf dem nationalen IT-Gipfel 2017 der Bundesregierung auf große Resonanz. „Es lässt sich einfach auf andere Branchen übertragen und kann im Idealfall durchaus als Standardanwendung für mittelständische Fertigungsbetriebe etabliert werden“, hofft Gerd Ohl.

Limtronik sei auf dem Weg zur Industrie 4.0 inzwischen bei der Version 3.8 angelangt und habe für die nächsten Jahre bereits eine Reihe weiterer Digitalisierungsprojekte definiert. „Am Ende werden in unserer Fabrik Maschinen stehen, die sich selbst steuern“, blickt der Geschäftsführer in die Zukunft.

 

Smart Cities – Urbane Probleme in den Griff bekommen

Sinnvoll angewendet kann Big Data hier wirksam unterstützen. Daten sammeln allein reicht nicht aus, die Flut an Informationen muss auch nutzenbringend ausgewertet werden.

Denn Ballungsräume kommen an ihre Grenzen, sei es durch den zunehmenden Verkehr, die Luftverschmutzung oder die Bevölkerungsdichte – bei gleichbleibender innerstädtischer Fläche. Derzeit lebt ungefähr 50 Prozent der Weltbevölkerung in Städten, Prognosen für 2050 sprechen sogar von rund 70 Prozent. Dies bringt besonders für die Stadtplanung erhebliche Herausforderungen mit sich. Die Erfassung, Analyse und Nutzung von Daten spielt bei der urbanen Problemlösung eine große Rolle. Doch wie lassen sich Städte mit Hilfe dieser Daten zu lebenswerteren Räumen gestalten? Und wie werden die Daten gewonnen?

Am Beginn der Datengewinnung steht die Sammlung von Informationen, beispielsweiser mittels verschiedener optischer und nicht-visueller Sensoren. Dies geschieht personenunabhängig, also anonymisiert. Im nächsten Schritt werden die neu erworbenen mit historischen Daten aus den unterschiedlichsten Bereichen gebündelt und vernetzt. Dieser Datenpool wird dann als Grundlage für Analysen verwendet. Die Daten eines einzelnen Menschen sind für sich genommen nicht relevant, erst in der Masse werden sie für die Stadtverwaltung und -entwicklung interessant und finden bereits Anwendung für verschiedenste Bereiche in der intelligenten Stadt.

Ein besonders wichtiger Sensor für die Datengewinnung und -verarbeitung ist die Netzwerk-Kamera. Zu den Möglichkeiten der digitalen Technologie einige Beispiele:

Intelligente Verkehrsplanung

So erfassen und analysieren Kameras heute mittels Sensoren und Software beispielsweise den Verkehrsfluss. Besonders an Verkehrsknotenpunkten oder zentralen Umschlagplätzen im öffentlichen Nahverkehr gilt es, durch Datenanalyse präventiv auf erhöhte Frequenzen zu reagieren.

Im Verkehr ist durch integrierte Sensoren beispielsweise das Zählen von Fahrzeugen, die Erfassung der Durchschnittsgeschwindigkeit und Fahrspurauslastung oder eine Fahrzeugklassifizierung möglich. Auch können Wetterfaktoren wie starke Regen- oder Schneefälle einbezogen werden. Die Stadtverwaltung kann sich somit früh auf Verkehrsstaus einstellen, die Situation anhand von Videoanalysen überprüfen, nötige Einsätze überwachen und Reaktionszeiten verkürzen.

Um den städtischen Verkehr zu optimieren, muss auch die Fahrzeuganzahl massiv gesenkt werden. Die intelligente Verwaltung von Parkmöglichkeiten und die Förderung von Car- und Bike-Sharing sind dabei wichtige Schritte – sie können ebenfalls über IP-Videotechnik realisiert werden. Durch Kameraerfassung und die gleichzeitige Vernetzung werden verfügbare Fahrzeuge oder Parkplätze in Echtzeit erkannt und sind sofort einsatzbereit.

Datenbasierter Umweltschutz

Netzwerk-Kameras mit speziellen Sensoren können Umweltparameter wie Luftqualität, Konzentration von Gasen wie CO2, Temperatur, Luftfeuchtigkeit oder Wasserqualität messen und diese mit der zugehörigen Software anschließend auch auswerten. Mit einer speziellen Technologie zur Niederschlagserkennung kann sogar die Intensität von Regentropfen oder Schnee mittels Echtzeitbildern gemessen werden. Die verschiedenen Datensätze liefern wichtige Informationen über die Luftbeschaffenheit, die Schadstoffbelastung oder Wetterverhältnisse und werden für eine effiziente Stadtentwicklung, Verkehrsplanung, Umweltschutz oder Präventionsmaßnahmen eingesetzt.

Auch der Müll nimmt in wachsenden Städten zu, wird mit Hilfe von intelligenten, vernetzten Sammelsystemen aber zumindest schneller entfernt. Transportwege für die Abfallentsorgungsbetriebe werden kürzer. Müllcontainer sind dafür beispielsweise mit Sensoren ausgestattet, die den Abfallentsorgungsunternehmen den Füllstand signalisieren. Das lässt eine Anpassung an aktuelle Bedürfnisse oder saisonale Abweichungen zu und ist effizient.

Zudem kann die Straßenbeleuchtung in intelligenten Städten auf den tatsächlichen Bedarf abgestimmt werden. Die Bewegungsanalyse in den Kameras erkennt, wann, ob und wie viele Personen oder Fahrzeuge sich in der zu beleuchtenden Gegend befinden und passt die Lichtverhältnisse von Straßen oder öffentlichen Plätzen dementsprechend an.

Höhere Sicherheit

In Städten geht mit wachsender Bevölkerungszahl oftmals auch eine Steigerung der Kriminalitätsrate einher. Um Sicherheit zu gewährleisten, ist das Zusammenspiel von Video, Audio und Analyse essentiell. Besonders bei großen Menschenansammlungen. Mittels Videoanalyse können die Anzahl der Personen in einer Menschenmenge erfasst, das Verhalten der Masse analysiert und dabei Abweichungen sofort erkannt werden. So können schwierige Situationen oder Probleme verhindert werden, noch bevor sie entstehen.

Die Stadt Tel Aviv nimmt eine Vorreiterrolle bei der datenbasierten Stadtverwaltung ein. Die Verantwortlichen haben nach einer neuen und effizienten Lösung gesucht, die Kriminalitätsrate zu senken und den Bewohnern ein nachhaltiges Gefühl von Sicherheit zu geben. Dabei sollen die Bewohner und ihr Eigentum einerseits bestmöglich geschützt, das Lebensgefühl und die Freiheit andererseits aber nicht eingeschränkt werden. Aktuell sind bereits hunderte Netzwerk-Kameras in Tel Aviv installiert, die mit einem offenen System von Axis in den Bereichen Sicherheit oder Verkehrsoptimierung arbeiten.

Avi David, Manager Control and Command Center bei der Stadt Tel Aviv, sagt: „Smart Cities sind die Zukunft, das steht außer Frage. Wir haben damit bereits den Grundstein für eine intelligente und vernetzte Stadt gelegt.“

Machine Learning im Edge mit dem Internet der Dinge

In der Praxis wollen Anwender ihre IoT-Dienste jedoch auch im Edge – außerhalb der Cloud – zum Beispiel in ihren Produktionsstätten einsetzen. Dafür bietet sich der Einsatz von Spezialsoftware an. Bei dieser handelt es sich um Anwendungen, mit denen auf sichere Weise lokale Datenverarbeitungs-, Messaging-, Caching- und Synchronisierungsvorgänge für verbundene Geräte im Edge durchgeführt werden können. Zu den Funktionen der Software zählt ein lokaler Message Broker, mit dem IoT-Geräte kommunizieren können – auch dann, wenn keine Internet-Verbindung besteht. Außerdem ist die Datenverarbeitung im Edge unabhängig von der Cloud. Auch die Event-basierte Ausführung von Code ist denkbar, ohne dass sich der Benutzer um die darunterliegende Infrastruktur kümmern muss.

Eine weitere Funktion, die die Arbeit im IoT Umfeld erleichtert: Maschinelle Lerninterferenzen können auf IoT-Edge-Geräte heruntergeladen und so auch ohne Cloud-Konnektivität ausgeführt werden. Damit kann Machine Learning nun auch im Edge und unabhängig von einer Internet-Verbindung verwendet werden. Die Machine-Learning-Modelle werden in der Cloud mit einer verwalteten Plattform von Entwicklern oder Datenwissenschaftlern erzeugt und können dann von dort direkt auf die Spezialsoftware heruntergeladen werden. So wird es möglich, weitere Dienste im Edge auszuführen, Voraussagen noch schneller zu treffen und an die eigenen Anforderungen angepasste Lösungen zu entwickeln, etwa zur Bilderkennung.

Ein Beispiel dafür liefert die japanische Firma Yanmar. Sie hat ein intelligentes Gewächshaus entwickelt, in dem die Spezialsoftware AWS Greengrass zum Einsatz kommt. Um bessere Erträge von Tomatenpflanzen zu erreichen, wird dabei die Gewächshausumgebung technologieunterstützt optimiert. Dazu werden in jedem Gewächshaus bis zu zwölf Kameras installiert und die Pflanzen regelmäßig fotografiert. Yanmar plant, Machine-Learning-Algorithmen zu verwenden, um die Pflanzenwachstumsphasen (nach Höhe, Anzahl der Blätter, Anzahl der Blüten und Früchte) automatisiert zu erkennen. Der Pflegebedarf der Pflanzen wird dadurch deutlich und Bewässerung sowie Temperatur können angepasst werden.

Digitale Doppelgänger und das Produktionssystem 4.0

Der Bezug auf das 3-D-Modell des Produktes ist im Kontext des Digitalen Zwillings das vorherrschende Beispiel. Darauf aufbauend dann Anwendungen der virtuellen oder erweiterten Realität für Instandhaltung und Service. Dabei liegen, wie bei einem Eisberg, 90 % der Daten und Prozesse, die einen Digitalen Zwilling repräsentieren, häufig nicht im Blick der Beteiligten. Wie sieht also eine ganzheitliche Perspektive über Wertschöpfungsstufen und Systemgrenzen hinweg aus?

Entgegen dem Eisberg ist eine typische Eigenschaft des Digitalen Zwillings, dass er mit zunehmendem Alter – in unserem Fall Lebenszyklus – immer umfangreicher wird und durch neue Daten an „Masse“ gewinnt. Die Historie der Daten macht ihn immer wertvoller und ist letztlich die Voraussetzung für neue digitale Anwendungen und Geschäftsmodelle. Die versprochenen Wettbewerbsvorteile und Effizienzgewinne einer Smart Factory werden ohne ein integriertes Management des Digitalen Zwillings nicht zu erreichen sein.

Gefangen im Silo der Systeme

Betrachtet man stark vereinfacht Design -> Make -> Service als Wertschöpfungsstufen, so stehen auf jeder Stufe entsprechende IT-Systeme bereit. Im Bereich Design die CAD/PLM-Systeme, im Make ein ERP und MES sowie im Service die Instandhaltungssysteme. Entlang dieser Kette werden eigene Datenmodelle und Instanzen von Digitalen Zwillingen in den IT-Systemen erzeugt. Trotz aller Bemühungen um offene Standards dominieren viele herstellerspezifische Formate und Varianten, so dass, insbesondere beim Übergang von einer Stufe auf die andere, viele Daten verloren gehen oder manuelle Datenpflege betrieben wird. Diese Art der IT-technischen Verschwendung galt als unvermeidlich. Da auch organisatorisch Grenzen übersprungen werden, fühlte sich jede Abteilung in ihren Grenzen ganz komfortabel. Viele gut gemeinte Digitalisierungsprojekte fügen jetzt mit Cloud- und IoT-Systemen eine schnell wachsende Schatten-IT hinzu, die die Vielfalt inkompatibler Digitaler Zwillinge schnell unübersehbar werden lässt.

Die Rolle im Produktionssystem 4.0

Produktionssysteme wurden über viele Jahre nach Lean-Prinzipien optimiert und funktionieren weitgehend ohne Digitalen Zwilling. Der Fokus lag auf dem ununterbrochenen, getakteten, verschwendungsfreien Produkt- und Materialfluss. Papier (z.B. der Laufzettel) ist dabei immer noch der Träger aller wesentlichen Informationen, auch wenn punktuell beispielsweise CNC-Systeme unterstützen. Die typischen Tätigkeiten in der Arbeitsvorbereitung, Produktion und Service wie das Aufbereiten der Auftragsdaten, das Ausdrucken und Verteilen der Auftragsdokumente, das Erfassen von Daten in IT-Systeme – all dies sind typische Vorgänge, die nicht wertschöpfend sind.

Das Produktionssystem 4.0 ist durch die Fähigkeit gekennzeichnet, dem Kunden trotz schwankenden Bedarfs individuelle Produkte  mit minimaler Durchlaufzeit bereitzustellen. Takt und Band verlieren an Bedeutung und werden durch flexible und modulare Produktionsmodule ersetzt. Typische Designmerkmale eines Produktionssystems 4.0 sind:

  1. Durchlaufzeit „Same Day“ für alle Produkte
  2. Rüstzeit „Null“
  3. Flexible Produktionsmodule auf denen „jedes“ Produkt gefertigt werden kann
  4. Papierlose Produktion
  5. Keine ungeplanten Stillstände und Störungen

Diese extremen Prinzipien zeigen den Weg auf, um die Effizienzgewinne der Zukunft erreichen zu können. Wertschöpfungssteigerungen von 30 bis 50 % der Gesamtleistung werden in diversen Studien als Potenzial ausgewiesen. Diese Ziele werden aber nur erreicht, wenn der Digitale Zwilling ein integraler Bestandteil und Kern des Produktionssystems 4.0 by Design ist. Er ist der wesentliche Schlüssel der Optimierung und des Effizienzgewinns.

Welche Design-Prinzipien gelten für den Digitalen Zwilling, um diese Ziele zu erreichen?

  1. Es braucht einen Digitalen Zwilling für das Produkt.
  2. Es braucht einen Digitalen Zwilling für die Produktionsanlage.
  3. Es braucht ein kompatibles Datenformat zwischen Anlagen- und Produktmodell, welches den Produktionsprozess digital abbilden kann (Thing-Core-Model).
  4. Stammdaten, egal ob produkt- oder anlagenspezifisch, müssen standardisiert, zentral gepflegt werden bzw. synchronisiert werden.
  5. Über alle Wertschöpfungsstufen ist der Digitale Zwilling wiederzuverwenden (ReUse) und mit Daten anzureichern (Add) – Add- & ReUse-Prinzip.
  6. Digitale Zwillinge müssen über Grenzen des Unternehmens hinaus, das heißt zwischen Herstellern, Betreibern und Servicepartnern im Netzwerk, über ein offenes Thing-Modell austauschbar und erweiterbar sein.

Werden diese Prinzipien des integrierten Digitalen Zwillings als zentrales Designelement in der Unternehmensarchitektur angewendet, können alle Prozesse entlang der Wertschöpfung verschwendungsfrei aufgebaut werden. Daten, die einmal erstellt wurden, stehen nachfolgenden Schritten zur Verfügung und können für Prozesse und Applikationen genutzt werden. Um dieses Ziel zu erreichen, ist ein konsequentes, interdisziplinäres Prozess- und Stammdatenmanagement in der Organisation als Kultur zu entwickeln.

Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess

Abbildung 1: Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess (Quelle: Trebing+Himstedt)

Wertschöpfung ohne Verschwendung

Sind die Grundregeln des Umgangs mit dem Digitalen Zwilling verstanden, erschließen sich zahlreiche Potenziale, um die Verschwendung auf nahe Null zu reduzieren.

Beispiel papierlose Produktion und elektronische Werkerführung. Bei der automatisierten oder manuellen Montage benötigt es neben der Stückliste immer eine spezifische Arbeits- beziehungsweise Prüfanweisung. Heute werden die Anweisungen pro Produktvariante manuell in einem Editor erstellt, ausgedruckt oder als PDF am Terminal bereitgestellt. Alle Daten liegen in der Regel aber bereits elektronisch vor und können nur nicht automatisiert zusammengeführt werden. Nutzt man die Idee des Digitalen Zwillings, werden die Konstruktionsdaten (z.B. PLM) mit den ERP-Daten integriert und das MES wird der Nutzer der Daten für die Arbeitsanweisungen, zum Beispiel für die schrittgenaue Darstellung mit 3-D-Modell und Animation.

Zusätzlich werden für Werkzeuge oder Prüfstände Maschinenparameter benötigt. Diese können am Digitalen Zwilling des Produktes im ERP gepflegt werden, ans MES weitergeleitet und dann auf Basis offener Standards wie OPC UA technisch in Echtzeit an die Maschine übertragen werden. Auch hier entfällt die doppelte Datenpflege und Verteilung.

Der Digitale Zwilling wird im MES angereichert - as-built, Beispiel SAP ME

Abbildung 2: Der Digitale Zwilling wird im MES angereichert – as-built, Beispiel SAP ME (Quelle: Trebing+Himstedt)

Ein Beispiel aus dem Bereich Instandhaltung ist der häufig genannte Anwendungsfall visueller Wartungsanweisungen mit Hilfe von Augmented Reality. Hier erhält der Instandhalter, sobald das Bauteil mit einem QR- Code identifiziert ist, Informationen zu Zustand und Wartung eingeblendet.

Nutzt man auch hier das entlang des Lebenszyklus angereicherte Datenset des Digitalen Zwillings, kann man das 3-D Modell und die Strukturinformationen aus der Geburtsphase des Objektes (CAD, PLM) (As-Designed), dann aus dem ERP und MES die Stücklisten und Komponenteninformationen (As-Built) und zum Schluss die Wartungshistorie (As-Maintained) sowie die Betriebsdaten (z.B. IoT-Real-Time-Performance-Daten) heranziehen. Alles basierend auf dem Thing-Core-Modell, über Systemgrenzen hinweg und nach dem Add- & ReUse-Prinzip für den Digitalen Zwilling. Dieser Anwendungsfall zeigt, dass der Nutzen am Ende der Wertschöpfung immer größer wird. Kann man aber nicht auf einen integrierten Prozess zurückgreifen, wird der Aufwand für die Einführung eines solchen Prozesses immer höher. In diesem Anwendungsfall wird auch die Notwendigkeit von unternehmensübergreifenden Asset-Netzwerken deutlich, da der Digitale Zwilling die Unternehmensgrenze des Herstellers verlassen hat und der Betreiber die Daten nutzen möchte. Ist dieser Austausch nicht möglich, müsste der Betreiber das gleiche Modell nochmals aufwendig erstellen und pflegen, ohne dass insgesamt ein Mehrwert entsteht.

 

Der Digitale Zwilling im Asset-Netzwerk - Beispiel SAP AIN

Abbildung 3: Der Digitale Zwilling im Asset-Netzwerk – Beispiel SAP AIN (Quelle: Trebing+Himstedt)

Diese beiden Beispiele sind nur ein kleiner Ausschnitt von Anwendungsfällen, die den Digitalen Zwilling benötigen. Die smarte Fabrik gelingt nur mit dem Management des Digitalen Zwillings in seiner Vielfalt über den gesamten Lebenszyklus hinweg. Der Weg über viele kleine schlanke IT-Systeme lässt das Maß der Verschwendung nur anwachsen und führt zur Inflexibilität. Leider scheint die Vielfalt der Apps und die versprochene schnelle Einführung vielen Akteure sehr verlockend. Aber an einem integrierten, leistungsstarken Backend (Digital Core) kommt kein Unternehmen vorbei. Auf diesem Backend aufbauend kann die Welt der Apps durchaus leicht und produktiv genutzt werden. Spätestens bei datengetriebenen Geschäftsmodellen, die eine nutzungsorientierte Vergütung (Pay-per-use) anstreben, ist der Digitale Zwilling eine zwingende Voraussetzung.

Datenfehler in der Supply Chain automatisch erkennen und korrigieren

Auch wenn die Supply-Chain-Planung immer mehr automatisiert wird, ist es für die meisten Disponenten schwierig, die Hände vom Lenkrad zu nehmen und die Technologie die Arbeit machen zu lassen. Allerdings stimmen die meisten Planer wohl darin überein, dass ein Job, den sie gerne an die KI delegieren würden, die Datenbereinigung ist. Die Datenqualität ist auch in der Supply-Chain-Planung ausschlaggebend für den Erfolg. Die Aufarbeitung schlechter Daten, das Erfassen und Korrigieren von Datenfehlern wird nicht selten mit viel manuellem Aufwand von Planungsteams betrieben.

Fehler, Fehler, überall Fehler

Denn Supply-Chain-Datenfehler können in Beschreibungen, Identifikatoren, Klassifizierungscodes, Steuerungsvariablen und an vielen anderen Stellen gefunden werden. Fehler können das Ergebnis falscher menschlicher Eingaben, falscher Beziehungen zwischen Datenelementen und Datensätzen, einer falschen Ausgabe von statistischen Optimierern, mangelhafter EDI-Übertragungen und anderer Ursachen sein. Und da die Daten der Lieferkette miteinander verbunden sind, kann ein Fehler in einem Feld schnell zu Fehlern in einem anderen Feld führen.

Supply-Chain-Fehler können auch sehr subtil sein, wenn es um obskure Anwendungsdaten geht, die nicht regelmäßig überprüft werden. Für jeden bekannten Fehlertyp gibt es zwangsläufig Hunderte von unbekannten Typen, und für jeden bekannten Fehler kann es Tausende von anderen geben, die so lange unentdeckt bleiben, bis sie Probleme verursachen.

Angesichts der Tatsache, dass die Supply Chain gerade dabei ist, sich zum Netzwerk der Netzwerke zu entwickeln, werden Datenfehler künftig immer häufiger zutage treten. Ihre Auswirkungen werden im gesamten Unternehmen und noch darüber hinaus stärker spürbar sein.

Von der Unmöglichkeit, manuell Fehler in komplexen Lieferketten zu finden

In einer großen Lieferkette ist es nicht möglich, einzelne Fehler mit traditionellen Ansätzen zu finden und auszumerzen. Selbst der erfahrenste Planer kann nur noch einen Bruchteil der vorhandenen Anomalien finden. Die Erstellung einer ausreichend großen Stichprobe von Beispielfällen ist ein sehr zeitaufwendiger Prozess. Es gibt einfach zu viele Daten, als dass ein manueller Ansatz in einer großen oder komplexen Lieferkette sinnvoll wäre.

Die Grenzen prädiktiver Modelle

Wenn ein gewisser Grad an Automatisierung heutzutage in der Datenbereinigung eingesetzt wird, dann sind das prädiktive Modelle. Aber da es sich dabei meist um mathematische Funktionen handelt, können sie zwar deutlich machen, dass sie einen Datensatz für einen Ausreißer halten, aber nicht erklären, warum. Dies macht es, besonders in einer dynamischen Supply-Chain-Umgebung, schwierig, Ausreißer zu verstehen, zu verwalten oder zu ändern.

Wie KI Abhilfe schaffen kann

Einen besseren Ansatz verfolgt die sogenannte sich selbst korrigierende Supply Chain, die Künstliche Intelligenz einsetzt, um Fehler in Supply-Chain-Daten automatisch zu finden und zu beheben. Das schließt auch vergangene Datenfehler ein. Zudem werden Methoden des maschinellen Lernens eingesetzt, durch die das Modell sein Wissen darüber, wie man solche Fehler erkennt und korrigiert erweitert. Dieses wird genutzt, um aktuell auftretende Datenfehler zu korrigieren, bevor sie sich negativ auf Produktion oder Prozesse auswirken können.

Bei diesem Ansatz zur Korrektur von Supply-Chain-Daten schauen Experten nicht auf Hunderte oder Tausende von verdächtigen Datensätzen. Sie untersuchen nur eine Handvoll Regeln, die alle Anomalien in den Daten qualifizieren. Wird nur eine Anomalie-Regel entfernt, können so automatisch Tausende korrespondierende tatsächliche Anomalien beseitigt werden.

Die sich selbst korrigierende Supply Chain

Der Ansatz der sich selbst korrigierenden Supply Chain nutzt Live-Daten in Supply-Chain-Anwendungen und -Workflows vom Materialeinsatz bis zur Produktverteilung. Das Wissen, die Erfahrung und die Kompetenz von Planern und anderen Experten wird auf höchst effiziente und effektive Weise verwendet. Im Grunde genommen gleicht dieser Ansatz einem intelligenten Assistenten, der den Planern hilft, ihre alltäglichen Aufgaben effektiver zu erledigen.

 

Die sich selbst korrigierende Supply Chain ist ein dreistufiger Prozess:

  1. Das Modell findet Beispiele für Anomalien in historischen Daten und erstellt Regeln für natürliche Sprachtypen, die dann von einem Fachplaner oder IT-Datenbankexperten überprüft werden.
  2. Verdächtige Datensätze, die vorher bereits markiert wurden, werden genutzt, um das logische Modell zur Korrektur der Datenfehler zu erstellen.
  3. Das Modell prüft automatisch und kontinuierlich neue Daten und findet und ersetzt fehlerhafte Datensätze im Produktionssystem.

 

Der Einsatz von KI in der Supply-Chain-Planung hilft dabei, die Fehlerbereinigung zu automatisieren. Anstatt die Daten der Lieferkette selbst zu bereinigen, lassen die Planer diese mühselige Arbeit von der KI erledigen und können sich auf die Aufgaben konzentrieren, bei denen sie ihr Wissen und die menschliche Intelligenz besser einsetzen können.

 

Cisco Webex Zusammenbruch durch ein Skriptverursacht

Webex wurde relativ schnell wieder in Funktion gesetzt. Es dauerte bei Webex Teams aber länger als erwartet:

„die laufenden Datenwiederherstellungsaufgaben wurden pünktlich abgeschlossen und alle Datenwiederherstellungsaktivitäten sind abgeschlossen“, aber „einige Benutzer haben weiterhin Probleme beim Zugriff auf und Senden von Nachrichten an bestimmte Orte“, wobei die Korrekturen noch nicht abgeschlossen sind.“

Cisco vermeldet dazu:

Die Dienstunterbrechung war das Ergebnis eines automatisierten Skripts, das auf unserer Webex Teams-Plattform ausgeführt wurde und die virtuellen Maschinen, die den Dienst hosten, löschte. Dies war ein Prozessproblem, kein technisches Problem. Wir untersuchen weiterhin die Ursachen für die Ausführung des Skripts, sind jedoch zuversichtlich, dass es sich um einen Einzelfall handelt und dass Prozesse vorhanden sind, um ein Wiederauftreten zu verhindern.

Wir gehen davon aus, dass ein vollständiger Untersuchungsbericht zur Verfügung gestellt wird, sobald Cisco herausgefunden hat, wie das Skript ausgelöst wurde.

 

Adobe, Microsoft und SAP arbeiten mit Open Data Initiative zusammen

Jedes Unternehmen besitzt und behält die vollständige, direkte Kontrolle über alle seine Daten.
Kunden können KI-gesteuerte Geschäftsprozesse in die Lage versetzen, aus einheitlichen Verhaltens- und Betriebsdaten Erkenntnisse und Informationen abzuleiten.
Ein breites Partner-Ökosystem sollt in der Lage sein, ein offenes und erweiterbares Datenmodell zur Erweiterung der Lösung zu nutzen.

„Zusammen mit Adobe und SAP machen wir einen ersten, entscheidenden Schritt, um Unternehmen zu einem Kunden- und Geschäftsverständnis zu verhelfen, das noch nie zuvor möglich war“, sagte Satya Nadella, CEO von Microsoft.

„Unternehmen haben überall die Möglichkeit, KI-gestützte digitale Feedbackschleifen für vorausschauende Leistung, automatisierte Arbeitsabläufe und letztlich verbesserte Geschäftsergebnisse aufzubauen.“

Durch die Initiativen werden die Unternehmen einen gemeinsamen Ansatz und eine Reihe von Ressourcen für die Nutzer bereitstellen. Die Unternehmen hoffen, dass diese Lösungen Datensilos beseitigen, Daten regeln und Datenschutz- und Sicherheitsinitiativen unterstützen werden. Darüber hinaus werden die Unternehmen künstliche Intelligenz nutzen, um fortschrittliche Analysen und Echtzeit-Insights zu liefern.

Im Rahmen der Open Data Initiatives werden Microsoft, Adobe und SAP auch an der Verbesserung der Interoperabilität und des Datenaustauschs zwischen Adobe Experience Cloud, Adobe Experience Platform, Microsoft Dynamics 365 und SAP C/4HANA und S/4HANA arbeiten.

Weitere Schwerpunkte der Initiative sind die Möglichkeit, Silodaten zu harmonisieren, Daten bidirektional zu verschieben, datengestützte digitale Feedback-Looks zu erstellen und intelligente Anwendungen zu entwickeln und zu übernehmen.

„Microsoft, Adobe und SAP wissen, dass die Kundenerfahrung kein Gespräch mehr über das Vertriebsmanagement ist“, sagte Bill McDermott, CEO von SAP.

„CEOs brechen die Silos des Status quo auf, damit sie alle Mitarbeiter in ihren Unternehmen dazu bringen können, sich auf die Betreuung von Mitarbeitern außerhalb ihrer Unternehmen zu konzentrieren. Mit der Open Data Initiative unterstützen wir Unternehmen dabei, mit einer echten Sichtweise auf den Kunden zu arbeiten.“