Machine Learning im Edge mit dem Internet der Dinge

In der Praxis wollen Anwender ihre IoT-Dienste jedoch auch im Edge, außerhalb der Cloud, zum Beispiel in ihren Produktionsstätten einsetzen. Dafür bietet sich zum Beispiel der Einsatz von AWS Greengrass an. Dabei handelt es sich um eine Software, mit der auf sichere Weise lokale Datenverarbeitungs-, Messaging-, Caching- und Synchronisierungsvorgänge für verbundene Geräte im Edge durchgeführt werden können. Zu den Funktionen der Software zählt ein lokaler Message Broker, mit dem IoT-Geräte kommunizieren können, auch dann, wenn keine Internet-Verbindung besteht. Außerdem ist die Datenverarbeitung im Edge, unabhängig von der Cloud. Auch die Event-basierte Ausführung von Code ist denkbar, ohne dass sich der Benutzer um die darunterliegende Infrastruktur kümmern muss.

Eine weitere Funktion, die die Arbeit im IoT Umfeld erleichtert: Maschinelle Lerninterferenzen können auf IoT-Edge-Geräte heruntergeladen und so auch ohne Cloud-Konnektivität ausgeführte werden. Damit kann Machine Learning nun auch im Edge und unabhängig von einer Internet-Verbindung verwendet werden. Die Machine-Learning-Modelle werden in der Cloud mit einer verwalteten Plattform von Entwicklern oder Datenwissenschaftlern erzeugt und können dann von dort direkt auf AWS Greengrass heruntergeladen werden. So wird es möglich, weitere Dienste im Edge auszuführen, Voraussagen noch schneller zu treffen und an die eigenen Anforderungen angepasste Lösungen zu entwickeln, etwa zur Bilderkennung.

Ein Beispiel dafür liefert die japanische Firma Yanmar. Sie hat ein intelligentes Gewächshaus entwickelt, in dem AWS Greengrass zum Einsatz kommt. Um bessere Erträge von Tomatenpflanzen zu erreichen, wird dabei die Gewächshausumgebung technologieunterstützt optimiert. Dazu werden in jedem Gewächshaus bis zu zwölf Kameras installiert und die Pflanzen regelmäßig fotografiert. Yanmar plant, Machine-Learning-Algorithmen zu verwenden, um die Pflanzenwachstumsphasen (nach Höhe, Anzahl der Blätter, Anzahl der Blüten und Früchte) automatisiert zu erkennen. Der Pflegebedarf der Pflanzen wird dadurch deutlich und Bewässerung sowie Temperatur können angepasst werden.

Digitale Doppelgänger und das Produktionssystem 4.0

Der Bezug auf das 3-D-Modell des Produktes ist im Kontext des Digitalen Zwillings das vorherrschende Beispiel. Darauf aufbauend dann Anwendungen der virtuellen oder erweiterten Realität für Instandhaltung und Service. Dabei liegen, wie bei einem Eisberg, 90 % der Daten und Prozesse, die einen Digitalen Zwilling repräsentieren, häufig nicht im Blick der Beteiligten. Wie sieht also eine ganzheitliche Perspektive über Wertschöpfungsstufen und Systemgrenzen hinweg aus?

Entgegen dem Eisberg ist eine typische Eigenschaft des Digitalen Zwillings, dass er mit zunehmendem Alter – in unserem Fall Lebenszyklus – immer umfangreicher wird und durch neue Daten an „Masse“ gewinnt. Die Historie der Daten macht ihn immer wertvoller und ist letztlich die Voraussetzung für neue digitale Anwendungen und Geschäftsmodelle. Die versprochenen Wettbewerbsvorteile und Effizienzgewinne einer Smart Factory werden ohne ein integriertes Management des Digitalen Zwillings nicht zu erreichen sein.

Gefangen im Silo der Systeme

Betrachtet man stark vereinfacht Design -> Make -> Service als Wertschöpfungsstufen, so stehen auf jeder Stufe entsprechende IT-Systeme bereit. Im Bereich Design die CAD/PLM-Systeme, im Make ein ERP und MES sowie im Service die Instandhaltungssysteme. Entlang dieser Kette werden eigene Datenmodelle und Instanzen von Digitalen Zwillingen in den IT-Systemen erzeugt. Trotz aller Bemühungen um offene Standards dominieren viele herstellerspezifische Formate und Varianten, so dass, insbesondere beim Übergang von einer Stufe auf die andere, viele Daten verloren gehen oder manuelle Datenpflege betrieben wird. Diese Art der IT-technischen Verschwendung galt als unvermeidlich. Da auch organisatorisch Grenzen übersprungen werden, fühlte sich jede Abteilung in ihren Grenzen ganz komfortabel. Viele gut gemeinte Digitalisierungsprojekte fügen jetzt mit Cloud- und IoT-Systemen eine schnell wachsende Schatten-IT hinzu, die die Vielfalt inkompatibler Digitaler Zwillinge schnell unübersehbar werden lässt.

Die Rolle im Produktionssystem 4.0

Produktionssysteme wurden über viele Jahre nach Lean-Prinzipien optimiert und funktionieren weitgehend ohne Digitalen Zwilling. Der Fokus lag auf dem ununterbrochenen, getakteten, verschwendungsfreien Produkt- und Materialfluss. Papier (z.B. der Laufzettel) ist dabei immer noch der Träger aller wesentlichen Informationen, auch wenn punktuell beispielsweise CNC-Systeme unterstützen. Die typischen Tätigkeiten in der Arbeitsvorbereitung, Produktion und Service wie das Aufbereiten der Auftragsdaten, das Ausdrucken und Verteilen der Auftragsdokumente, das Erfassen von Daten in IT-Systeme – all dies sind typische Vorgänge, die nicht wertschöpfend sind.

Das Produktionssystem 4.0 ist durch die Fähigkeit gekennzeichnet, dem Kunden trotz schwankenden Bedarfs individuelle Produkte  mit minimaler Durchlaufzeit bereitzustellen. Takt und Band verlieren an Bedeutung und werden durch flexible und modulare Produktionsmodule ersetzt. Typische Designmerkmale eines Produktionssystems 4.0 sind:

  1. Durchlaufzeit „Same Day“ für alle Produkte
  2. Rüstzeit „Null“
  3. Flexible Produktionsmodule auf denen „jedes“ Produkt gefertigt werden kann
  4. Papierlose Produktion
  5. Keine ungeplanten Stillstände und Störungen

Diese extremen Prinzipien zeigen den Weg auf, um die Effizienzgewinne der Zukunft erreichen zu können. Wertschöpfungssteigerungen von 30 bis 50 % der Gesamtleistung werden in diversen Studien als Potenzial ausgewiesen. Diese Ziele werden aber nur erreicht, wenn der Digitale Zwilling ein integraler Bestandteil und Kern des Produktionssystems 4.0 by Design ist. Er ist der wesentliche Schlüssel der Optimierung und des Effizienzgewinns.

Welche Design-Prinzipien gelten für den Digitalen Zwilling, um diese Ziele zu erreichen?

  1. Es braucht einen Digitalen Zwilling für das Produkt.
  2. Es braucht einen Digitalen Zwilling für die Produktionsanlage.
  3. Es braucht ein kompatibles Datenformat zwischen Anlagen- und Produktmodell, welches den Produktionsprozess digital abbilden kann (Thing-Core-Model).
  4. Stammdaten, egal ob produkt- oder anlagenspezifisch, müssen standardisiert, zentral gepflegt werden bzw. synchronisiert werden.
  5. Über alle Wertschöpfungsstufen ist der Digitale Zwilling wiederzuverwenden (ReUse) und mit Daten anzureichern (Add) – Add- & ReUse-Prinzip.
  6. Digitale Zwillinge müssen über Grenzen des Unternehmens hinaus, das heißt zwischen Herstellern, Betreibern und Servicepartnern im Netzwerk, über ein offenes Thing-Modell austauschbar und erweiterbar sein.

Werden diese Prinzipien des integrierten Digitalen Zwillings als zentrales Designelement in der Unternehmensarchitektur angewendet, können alle Prozesse entlang der Wertschöpfung verschwendungsfrei aufgebaut werden. Daten, die einmal erstellt wurden, stehen nachfolgenden Schritten zur Verfügung und können für Prozesse und Applikationen genutzt werden. Um dieses Ziel zu erreichen, ist ein konsequentes, interdisziplinäres Prozess- und Stammdatenmanagement in der Organisation als Kultur zu entwickeln.

Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess

Abbildung 1: Digitaler Zwilling Add- und ReUse-Prinzip über den Wertschöpfungsprozess (Quelle: Trebing+Himstedt)

Wertschöpfung ohne Verschwendung

Sind die Grundregeln des Umgangs mit dem Digitalen Zwilling verstanden, erschließen sich zahlreiche Potenziale, um die Verschwendung auf nahe Null zu reduzieren.

Beispiel papierlose Produktion und elektronische Werkerführung. Bei der automatisierten oder manuellen Montage benötigt es neben der Stückliste immer eine spezifische Arbeits- beziehungsweise Prüfanweisung. Heute werden die Anweisungen pro Produktvariante manuell in einem Editor erstellt, ausgedruckt oder als PDF am Terminal bereitgestellt. Alle Daten liegen in der Regel aber bereits elektronisch vor und können nur nicht automatisiert zusammengeführt werden. Nutzt man die Idee des Digitalen Zwillings, werden die Konstruktionsdaten (z.B. PLM) mit den ERP-Daten integriert und das MES wird der Nutzer der Daten für die Arbeitsanweisungen, zum Beispiel für die schrittgenaue Darstellung mit 3-D-Modell und Animation.

Zusätzlich werden für Werkzeuge oder Prüfstände Maschinenparameter benötigt. Diese können am Digitalen Zwilling des Produktes im ERP gepflegt werden, ans MES weitergeleitet und dann auf Basis offener Standards wie OPC UA technisch in Echtzeit an die Maschine übertragen werden. Auch hier entfällt die doppelte Datenpflege und Verteilung.

Der Digitale Zwilling wird im MES angereichert - as-built, Beispiel SAP ME

Abbildung 2: Der Digitale Zwilling wird im MES angereichert – as-built, Beispiel SAP ME (Quelle: Trebing+Himstedt)

Ein Beispiel aus dem Bereich Instandhaltung ist der häufig genannte Anwendungsfall visueller Wartungsanweisungen mit Hilfe von Augmented Reality. Hier erhält der Instandhalter, sobald das Bauteil mit einem QR- Code identifiziert ist, Informationen zu Zustand und Wartung eingeblendet.

Nutzt man auch hier das entlang des Lebenszyklus angereicherte Datenset des Digitalen Zwillings, kann man das 3-D Modell und die Strukturinformationen aus der Geburtsphase des Objektes (CAD, PLM) (As-Designed), dann aus dem ERP und MES die Stücklisten und Komponenteninformationen (As-Built) und zum Schluss die Wartungshistorie (As-Maintained) sowie die Betriebsdaten (z.B. IoT-Real-Time-Performance-Daten) heranziehen. Alles basierend auf dem Thing-Core-Modell, über Systemgrenzen hinweg und nach dem Add- & ReUse-Prinzip für den Digitalen Zwilling. Dieser Anwendungsfall zeigt, dass der Nutzen am Ende der Wertschöpfung immer größer wird. Kann man aber nicht auf einen integrierten Prozess zurückgreifen, wird der Aufwand für die Einführung eines solchen Prozesses immer höher. In diesem Anwendungsfall wird auch die Notwendigkeit von unternehmensübergreifenden Asset-Netzwerken deutlich, da der Digitale Zwilling die Unternehmensgrenze des Herstellers verlassen hat und der Betreiber die Daten nutzen möchte. Ist dieser Austausch nicht möglich, müsste der Betreiber das gleiche Modell nochmals aufwendig erstellen und pflegen, ohne dass insgesamt ein Mehrwert entsteht.

 

Der Digitale Zwilling im Asset-Netzwerk - Beispiel SAP AIN

Abbildung 3: Der Digitale Zwilling im Asset-Netzwerk – Beispiel SAP AIN (Quelle: Trebing+Himstedt)

Diese beiden Beispiele sind nur ein kleiner Ausschnitt von Anwendungsfällen, die den Digitalen Zwilling benötigen. Die smarte Fabrik gelingt nur mit dem Management des Digitalen Zwillings in seiner Vielfalt über den gesamten Lebenszyklus hinweg. Der Weg über viele kleine schlanke IT-Systeme lässt das Maß der Verschwendung nur anwachsen und führt zur Inflexibilität. Leider scheint die Vielfalt der Apps und die versprochene schnelle Einführung vielen Akteure sehr verlockend. Aber an einem integrierten, leistungsstarken Backend (Digital Core) kommt kein Unternehmen vorbei. Auf diesem Backend aufbauend kann die Welt der Apps durchaus leicht und produktiv genutzt werden. Spätestens bei datengetriebenen Geschäftsmodellen, die eine nutzungsorientierte Vergütung (Pay-per-use) anstreben, ist der Digitale Zwilling eine zwingende Voraussetzung.

Datenfehler in der Supply Chain automatisch erkennen und korrigieren

Auch wenn die Supply-Chain-Planung immer mehr automatisiert wird, ist es für die meisten Disponenten schwierig, die Hände vom Lenkrad zu nehmen und die Technologie die Arbeit machen zu lassen. Allerdings stimmen die meisten Planer wohl darin überein, dass ein Job, den sie gerne an die KI delegieren würden, die Datenbereinigung ist. Die Datenqualität ist auch in der Supply-Chain-Planung ausschlaggebend für den Erfolg. Die Aufarbeitung schlechter Daten, das Erfassen und Korrigieren von Datenfehlern wird nicht selten mit viel manuellem Aufwand von Planungsteams betrieben.

Fehler, Fehler, überall Fehler

Denn Supply-Chain-Datenfehler können in Beschreibungen, Identifikatoren, Klassifizierungscodes, Steuerungsvariablen und an vielen anderen Stellen gefunden werden. Fehler können das Ergebnis falscher menschlicher Eingaben, falscher Beziehungen zwischen Datenelementen und Datensätzen, einer falschen Ausgabe von statistischen Optimierern, mangelhafter EDI-Übertragungen und anderer Ursachen sein. Und da die Daten der Lieferkette miteinander verbunden sind, kann ein Fehler in einem Feld schnell zu Fehlern in einem anderen Feld führen.

Supply-Chain-Fehler können auch sehr subtil sein, wenn es um obskure Anwendungsdaten geht, die nicht regelmäßig überprüft werden. Für jeden bekannten Fehlertyp gibt es zwangsläufig Hunderte von unbekannten Typen, und für jeden bekannten Fehler kann es Tausende von anderen geben, die so lange unentdeckt bleiben, bis sie Probleme verursachen.

Angesichts der Tatsache, dass die Supply Chain gerade dabei ist, sich zum Netzwerk der Netzwerke zu entwickeln, werden Datenfehler künftig immer häufiger zutage treten. Ihre Auswirkungen werden im gesamten Unternehmen und noch darüber hinaus stärker spürbar sein.

Von der Unmöglichkeit, manuell Fehler in komplexen Lieferketten zu finden

In einer großen Lieferkette ist es nicht möglich, einzelne Fehler mit traditionellen Ansätzen zu finden und auszumerzen. Selbst der erfahrenste Planer kann nur noch einen Bruchteil der vorhandenen Anomalien finden. Die Erstellung einer ausreichend großen Stichprobe von Beispielfällen ist ein sehr zeitaufwendiger Prozess. Es gibt einfach zu viele Daten, als dass ein manueller Ansatz in einer großen oder komplexen Lieferkette sinnvoll wäre.

Die Grenzen prädiktiver Modelle

Wenn ein gewisser Grad an Automatisierung heutzutage in der Datenbereinigung eingesetzt wird, dann sind das prädiktive Modelle. Aber da es sich dabei meist um mathematische Funktionen handelt, können sie zwar deutlich machen, dass sie einen Datensatz für einen Ausreißer halten, aber nicht erklären, warum. Dies macht es, besonders in einer dynamischen Supply-Chain-Umgebung, schwierig, Ausreißer zu verstehen, zu verwalten oder zu ändern.

Wie KI Abhilfe schaffen kann

Einen besseren Ansatz verfolgt die sogenannte sich selbst korrigierende Supply Chain, die Künstliche Intelligenz einsetzt, um Fehler in Supply-Chain-Daten automatisch zu finden und zu beheben. Das schließt auch vergangene Datenfehler ein. Zudem werden Methoden des maschinellen Lernens eingesetzt, durch die das Modell sein Wissen darüber, wie man solche Fehler erkennt und korrigiert erweitert. Dieses wird genutzt, um aktuell auftretende Datenfehler zu korrigieren, bevor sie sich negativ auf Produktion oder Prozesse auswirken können.

Bei diesem Ansatz zur Korrektur von Supply-Chain-Daten schauen Experten nicht auf Hunderte oder Tausende von verdächtigen Datensätzen. Sie untersuchen nur eine Handvoll Regeln, die alle Anomalien in den Daten qualifizieren. Wird nur eine Anomalie-Regel entfernt, können so automatisch Tausende korrespondierende tatsächliche Anomalien beseitigt werden.

Die sich selbst korrigierende Supply Chain

Der Ansatz der sich selbst korrigierenden Supply Chain nutzt Live-Daten in Supply-Chain-Anwendungen und -Workflows vom Materialeinsatz bis zur Produktverteilung. Das Wissen, die Erfahrung und die Kompetenz von Planern und anderen Experten wird auf höchst effiziente und effektive Weise verwendet. Im Grunde genommen gleicht dieser Ansatz einem intelligenten Assistenten, der den Planern hilft, ihre alltäglichen Aufgaben effektiver zu erledigen.

 

Die sich selbst korrigierende Supply Chain ist ein dreistufiger Prozess:

  1. Das Modell findet Beispiele für Anomalien in historischen Daten und erstellt Regeln für natürliche Sprachtypen, die dann von einem Fachplaner oder IT-Datenbankexperten überprüft werden.
  2. Verdächtige Datensätze, die vorher bereits markiert wurden, werden genutzt, um das logische Modell zur Korrektur der Datenfehler zu erstellen.
  3. Das Modell prüft automatisch und kontinuierlich neue Daten und findet und ersetzt fehlerhafte Datensätze im Produktionssystem.

 

Der Einsatz von KI in der Supply-Chain-Planung hilft dabei, die Fehlerbereinigung zu automatisieren. Anstatt die Daten der Lieferkette selbst zu bereinigen, lassen die Planer diese mühselige Arbeit von der KI erledigen und können sich auf die Aufgaben konzentrieren, bei denen sie ihr Wissen und die menschliche Intelligenz besser einsetzen können.

 

IIoT-Plattformen im Überblick – Plattformen der größten Anbieter und plattformunabhängige Anwendung von elunic

Die bekanntesten Anbieter von Plattformen im Bereich IIoT sind von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch Dataface nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten Plattformen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen wie AWS, Microsoft Azure und Google Cloud Platform bieten schon ein großes und umfangreiches Set an Werkzeugen an, welches den Start im Bereich IIoT erleichtert.

Im Überblick:
AWS:

Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services AWS. Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen an. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.

Azure:

Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich.

Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.

Google Cloud Platform:

Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.

Plattformunabhängige Anwendung: Dataface

Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme

AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden.

Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things (IIoT) einsteigen.

 

Cisco Webex Zusammenbruch durch ein Skriptverursacht

Webex wurde relativ schnell wieder in Funktion gesetzt. Es dauerte bei Webex Teams aber länger als erwartet:

„die laufenden Datenwiederherstellungsaufgaben wurden pünktlich abgeschlossen und alle Datenwiederherstellungsaktivitäten sind abgeschlossen“, aber „einige Benutzer haben weiterhin Probleme beim Zugriff auf und Senden von Nachrichten an bestimmte Orte“, wobei die Korrekturen noch nicht abgeschlossen sind.“

Cisco vermeldet dazu:

Die Dienstunterbrechung war das Ergebnis eines automatisierten Skripts, das auf unserer Webex Teams-Plattform ausgeführt wurde und die virtuellen Maschinen, die den Dienst hosten, löschte. Dies war ein Prozessproblem, kein technisches Problem. Wir untersuchen weiterhin die Ursachen für die Ausführung des Skripts, sind jedoch zuversichtlich, dass es sich um einen Einzelfall handelt und dass Prozesse vorhanden sind, um ein Wiederauftreten zu verhindern.

Wir gehen davon aus, dass ein vollständiger Untersuchungsbericht zur Verfügung gestellt wird, sobald Cisco herausgefunden hat, wie das Skript ausgelöst wurde.

 

Adobe, Microsoft und SAP arbeiten mit Open Data Initiative zusammen

Jedes Unternehmen besitzt und behält die vollständige, direkte Kontrolle über alle seine Daten.
Kunden können KI-gesteuerte Geschäftsprozesse in die Lage versetzen, aus einheitlichen Verhaltens- und Betriebsdaten Erkenntnisse und Informationen abzuleiten.
Ein breites Partner-Ökosystem sollt in der Lage sein, ein offenes und erweiterbares Datenmodell zur Erweiterung der Lösung zu nutzen.

„Zusammen mit Adobe und SAP machen wir einen ersten, entscheidenden Schritt, um Unternehmen zu einem Kunden- und Geschäftsverständnis zu verhelfen, das noch nie zuvor möglich war“, sagte Satya Nadella, CEO von Microsoft.

„Unternehmen haben überall die Möglichkeit, KI-gestützte digitale Feedbackschleifen für vorausschauende Leistung, automatisierte Arbeitsabläufe und letztlich verbesserte Geschäftsergebnisse aufzubauen.“

Durch die Initiativen werden die Unternehmen einen gemeinsamen Ansatz und eine Reihe von Ressourcen für die Nutzer bereitstellen. Die Unternehmen hoffen, dass diese Lösungen Datensilos beseitigen, Daten regeln und Datenschutz- und Sicherheitsinitiativen unterstützen werden. Darüber hinaus werden die Unternehmen künstliche Intelligenz nutzen, um fortschrittliche Analysen und Echtzeit-Insights zu liefern.

Im Rahmen der Open Data Initiatives werden Microsoft, Adobe und SAP auch an der Verbesserung der Interoperabilität und des Datenaustauschs zwischen Adobe Experience Cloud, Adobe Experience Platform, Microsoft Dynamics 365 und SAP C/4HANA und S/4HANA arbeiten.

Weitere Schwerpunkte der Initiative sind die Möglichkeit, Silodaten zu harmonisieren, Daten bidirektional zu verschieben, datengestützte digitale Feedback-Looks zu erstellen und intelligente Anwendungen zu entwickeln und zu übernehmen.

„Microsoft, Adobe und SAP wissen, dass die Kundenerfahrung kein Gespräch mehr über das Vertriebsmanagement ist“, sagte Bill McDermott, CEO von SAP.

„CEOs brechen die Silos des Status quo auf, damit sie alle Mitarbeiter in ihren Unternehmen dazu bringen können, sich auf die Betreuung von Mitarbeitern außerhalb ihrer Unternehmen zu konzentrieren. Mit der Open Data Initiative unterstützen wir Unternehmen dabei, mit einer echten Sichtweise auf den Kunden zu arbeiten.“

Drei Erkenntnisse zur Künstlichen Intelligenz

KI ist bereits überall. Auch wenn wir es jetzt nicht KI nennen.

Um zur Arbeit zu gelangen, nutzen viele den Zug oder die U-Bahn. Am Bahnhof entscheidet kein menschliches Gehirn darüber, auf welchem Bahnsteig der Zug ankommt oder wie die anderen Züge geleitet werden müssen, um einen Zusammenstoß zu verhindern. Die Gestaltung eines effektiven und fehlerfreien Zeitplans – sowohl beim Fern- als auch Nahverkehr – liegt schon lange in den Händen einer künstlichen Intelligenz.  Die Abfahrtszeiten werden nicht von einem Menschen berechnet, sondern von Computern.

In Nürnberg gibt es bereits die ersten fahrerlosen U-Bahnen. „RUBIN“ heißt das Projekt von Siemens Mobility, in dem seit 2010 zwei Linien vollständig automatisch fahren, ohne einen Fahrer und ohne jegliche Unfälle. Bei solchen Umstellungen wird häufig befürchtet, dass sie zu massiven Entlassungen von Fahrern führen. Aber zumindest in diesem Fall hat die KI keine Jobs „gestohlen“. 120 vormalige Zugführer arbeiten nun im Kunden- und Systemdienst. Sie stellen sicher, dass der Betrieb reibungslos läuft.

KI-Entwicklung ist nicht linear, sondern exponentiell.

Menschen tendieren dazu, aufgrund vergangener Erlebnisse oder Entwicklungen Vorhersagen über die Zukunft zu machen. Vor 70.000 Jahren gab es die sogenannte kognitive Revolution, bei der wir Menschen Sprachen, Kulturen und Gedankensysteme entwickelten. Dies machte uns zur vorherrschenden Spezies auf dem Planeten. Aber zwischen den großen Meilensteinen der menschlichen Geschichte – dem ersten kontrollierten Feuer, der ersten Schrift, den Katalogisierungssystemen – lagen recht lange Zeitspannen.

Betrachten wir diese Entwicklung und übertragen diese Erfahrungen auf die Zukunft – der Weg, den KI noch vor sich hat –, dann wird eines deutlich:  Auch wenn die ersten Schritte bereits getan sind, blicken wir noch immer auf einen steilen Berg, den es zu erklimmen gilt.

Wenn KI zur Superintelligenz  wird, kann alles passieren.

Viele Menschen halten eine ASI (Artificial Superintelligence) für eine smarte KI, die mehr als schnell rechnet und nur eine Sekunde für eine Aufgabe benötigt, für die Menschen einen ganzen Tag bräuchten. Bei der ASI geht es jedoch nicht um die Quantität, sondern mehr um die „Qualität der Intelligenz“. Was die menschliche von der tierischen Intelligenz unterscheidet, ist nicht die Geschwindigkeit des Denkens, sondern die Struktur unserer Gehirne und unsere Fähigkeit, komplexe Ideen zu entwickeln. Eine ASI wird etwas vollkommen Neues sein – etwas, das uns eventuell überlegen sein wird. Und wenn wir die Konsequenz bedenken, dass eine superintelligente KI in der Lage sein könnte, verbesserte Versionen von sich selbst herzustellen, dann wäre deren Wirkung nicht mehr länger vorhersehbar. Ob ASI den Menschen dann überhaupt noch braucht?

 

 

Business Intelligence für die Fertigung – der Microsoft-Ansatz

Sind Kundenbefragungen schon Schnee von gestern?

Unternehmen orientieren sich selbstverständlich an der aktuellen Kundennachfrage – soweit sie ihnen bekannt ist! Doch aus Umfragen, einfachen Verkaufsstatistiken und dem (oft durchaus richtigen) Bauchgefühl der Vertriebsmitarbeiter entsteht kein objektives, individuelles Bild über die gegenwärtigen Bedarfe der Kunden – weder hinlänglich schnell, noch umfassend genug und auch nicht zu jeder gewünschten Zeit. Zudem sind fundierte Vorhersagen zu künftigen Bedürfnissen oder dem Kundenverhalten, wenn dieses oder jenes Ereignis eintritt, so kaum möglich. Auch ist der heutige Kunde digital und mobil. Er kann jederzeit und überall auf jegliche Informationen zugreifen. Und so erwartet er auch von einem Unternehmen einen Rundum-Service – optimale Betreuung zu jeder Zeit, an jedem Ort.

In den Kunden hineinblicken

Um die Kundenbeziehung bestmöglich zu gestalten, muss man seinen Kunden also zunächst erst einmal genau kennen. Welchen Bedarf hat er wirklich? Wann benötigt er welche Information? Was bestimmt seine Entscheidungen? Diese kundenspezifischen Daten sind zentral zu erfassen. Aus ihrer Analyse leiten sich dann passgenaue Maßnahmen ab, die das Verhältnis zum Kunden positiv beeinflussen. Glücklicherweise stehen den Unternehmen elektronische Helfer zur Seite, die die vorhandenen Kundendaten analysieren, sie mit Daten weiterer Systeme verknüpfen und dem Unternehmen zu jedem seiner Kunden, zu jeder Zeit, über jedes Produkt, zu jedem Standort usw. entsprechende Erkenntnisse liefern. Und sind die Analyseergebnisse noch so gut grafisch aufbereitet, dass sie auf einen Blick zu erfassen sind, dann kann man jedem Kunden in Echtzeit die für ihn optimale Betreuung angedeihen lassen und hinsichtlich Produktentwicklung, Service-Angeboten oder Marketingaktionen die richtigen Weichen stellen.

Das CRM-System – Die Basis für jedes Kundenverständnis

Der Nutzen eines umfassenden Customer Relationship Managements ist allgemein anerkannt. Dennoch verwenden laut einer aktuellen Nutzerstudie von Capterra nur rund ein Viertel der deutschen KMUs professionelle CRM-Software. Der überwiegende Teil greift bei der Kundenverwaltung und -pflege auf manuelle Tools wie Excel, E-Mail-Programme und Google Sheets zurück. Eine klare Mehrheit der deutschen KMUs, die derzeit kein CRM-System nutzen, ist allerdings daran interessiert, das zu ändern. Damit stehen sie nicht allein: Laut Gartner waren CRM-Systeme im vergangenen Jahr weltweit die umsatzstärkste Sparte im Software-Markt, und es ist 2018 mit weiteren zweistelligen Zuwachsraten zu rechnen. Zu den international führenden Anbietern für CRM-Software zählt Microsoft mit seinem Microsoft Dynamics 365.

Die Produktvielfalt des Branchenprimus

Dynamics 365 als hauseigenes Produkt von Microsoft lässt sich natürlich bestens mit anderen MS-Produkten kombinieren. Die Programme verstehen sich, sind quasi aus einem Guss. Möchte man das CRM-System beispielweise mit Outlook oder dem Berufs-Netzwerk von LinkedIn verzahnen, so ist MS Dynamics 365 die erste Wahl. Für den Nutzer besonders komfortabel: eine einheitliche Oberfläche aller Microsoft-Produkte. Außerdem punktet Microsoft mit einer sehr leistungsstarken Vertriebsautomatisierung und verschiedenen passenden Business-Intelligence-Tools, mit denen sich die im CRM-System erfassten Daten auswerten lassen, auch in Verbindung mit Daten aus anderen Quellen. Eines dieser Tools ist Power BI.

Ein Bild sagt mehr als tausend Worte

Viele Menschen sind visuell orientiert. Grafiken eignen sich daher sehr gut, um Ergebnisse zu veranschaulichen. Ein besonders performantes System zur Visualisierung und zum Dashbording ist Power BI von Microsoft. Dahinter verbirgt sich ein ganzer Strauß von Daten-Analyse-Tools, mit denen sich beispielsweise KPIs anschaulich darstellen lassen. Der Anwender kann die Daten mit nur einem Mausklick filtern, das Ergebnis erscheint sofort als Grafik. Filter helfen dabei, neue Zusammenhänge zu finden und Trends abzulesen. Der Nutzer kann zudem seine eigene, intuitiv bedienbare Dashbord-Funktionalität erstellen, was sich positiv hinsichtlich Handling und Akzeptanz auswirkt. Einmal in die vorhandene IT-Landschaft integriert, sollte man die volle Leistungsfähigkeit von Power BI ausschöpfen und Daten aus weiteren Quellen in die Analyse einbeziehen. Das könnten Daten aus PPS- und Geotracking-Systemen, physikalische Messwerte oder Informationen eines Analytic-Tools für die Webseite sein.

Einblicke für das Management

Im Produktionssektor kann beispielsweise eine Pareto-Analyse dem Management anzeigen, welches die häufigsten Ursachen für Probleme sind. Das quasi per Knopfdruck erzeugte Pareto-Diagramm macht sofort klar, wo der größte Engpass im Fertigungsprozess liegt. Dies lässt sich bei Bedarf auch unkompliziert und schnell auf einzelne Produkte, Standorte oder Kundenbranchen herunterbrechen. Ein weiteres, in Industrieunternehmen verbreitetes Einsatzgebiet für Power BI ist das Qualitätsmanagement. Die Datenanalyse liefert im Handumdrehen umfassende Informationen über Kundenreklamationen, wenn gewünscht aufgesplittet nach Abteilung oder Produkt. Mit diesem Wissen wird die Unternehmensleitung umgehend Gegenmaßnahmen in die Wege leiten, was letztlich im Interesse des Kunden ist. Überdies wird es der Kundenpflege in der Regel förderlich sein, den Kunden zeitnah zu informieren, sobald ein Qualitätsmangel abgestellt wurde, eventuell flankiert von geeigneten Vertriebsaktionen, etwa einem Rabattangebot.

Den Kunden nie aus den Augen verlieren

Seinen Kunden im Blick zu haben, ist gut – seinen Kunden stets, mit möglichst geringem Aufwand und ganz genau im Blick zu haben, ist besser. Power BI erlaubt es, Kundendaten optimal zu nutzen und zu analysieren. Die Ergebnisse dienen dazu, Prozesse insbesondere beim Customer Engagement zu steuern, und sie sorgen dafür, dass ein Unternehmen im Hinblick auf die Kundenwünsche auf dem Laufenden bleibt und ihn optimal betreuen kann.

Microsoft veröffentlicht Azure DevOps

Die Lösung umfasst Azure-Pipelines, Azure Boards, Azure Artifacts, Azure Repos und Azure Test Plans.

„In Zusammenarbeit mit unseren Kunden und Entwicklern auf der ganzen Welt ist klar, dass DevOps für den Erfolg eines Teams immer wichtiger wird. Azure DevOps erfasst über 15 Jahre Investitionen und Erfahrungen bei der Bereitstellung von Tools zur Unterstützung von Softwareentwicklungsteams. Im letzten Monat nutzten über 80.000 interne Microsoft-Benutzer und Tausende unserer Kunden, in kleinen und großen Teams, diese Dienste, um Produkte an Sie zu versenden“, schrieb Jamie Cool, Director of Program Management bei Azure DevOps, in einem Beitrag (https://azure.microsoft.com/en-in/blog/introducing-azure-devops).

Azure Pipelines wurde entwickelt, um bei CI/CD-Initiativen zu helfen und arbeitet mit jeder Sprache, Plattform oder Cloud.

Azure Boards bietet Tracking-Funktionen, Kanban-Boards, Backlogs, Team-Dashboards und kundenspezifische Berichtsfunktionen.

Azure Artifacts bietet Maven-, npm- und NuGet-Paketfeeds.

Azure Repos beinhaltet unbegrenzt Cloud gehostete private Git-Repos. Schließlich ist Azure Test Plans eine geplante und explorative Testlösung.

„Jeder Azure DevOps-Dienst ist offen und erweiterbar. Sie eignen sich hervorragend für jede Art von Anwendung, unabhängig von Framework, Plattform oder Cloud. Sie können zusammen für eine vollständige DevOps-Lösung oder mit anderen Diensten verwendet werden.  Sie können Azure Pipeline verwenden, um einen Node Service aus einem Repo in GitHub zu erstellen und zu testen. Auch das anschließende Implementieren in einem Container in AWS ist möglich. Azure DevOps unterstützt sowohl öffentliche als auch private Cloud-Konfigurationen“, schreibt Cool.

Nach Angaben des Unternehmens stellt Azure DevOps eine Weiterentwicklung der Visual Studio Team Services von Microsoft dar. VSTS-Benutzer werden ohne Funktionsverlust auf Azure DevOps aktualisiert.

„Die durchgängige Rückverfolgbarkeit und Integration, die das Markenzeichen von VSTS war, ist vorhanden. Azure DevOps Dienste funktionieren hervorragend zusammen. Heute beginnt eine Transformation“, erklärte Cool.

Cloudera und Hortonworks fusionieren zu einer Datenplattform der nächsten Generation

Die Unternehmen sind überzeugt, dass diese Fusion eine Datenplattform der nächsten Generation ermöglicht. Diese umfasst Multi-Cloud, On-Premises und  Edge-Netzwerke. Die Hoffnung dabei ist, den Standard für hybrides Cloud-Datenmanagement zu setzen und die Kundenakzeptanz, die Community-Entwicklung und das Engagement der Partner zu beschleunigen.

„Unsere Geschäfte sind sehr komplementär und strategisch“, sagte Tom Reilly, CEO von Cloudera. „Durch die Zusammenführung der Investitionen von Hortonworks in das End-to-End-Datenmanagement mit den Investitionen von Cloudera in Data Warehousing und Machine Learning werden wir die branchenweit erste Enterprise Data Cloud vom Edge zur KI liefern. Diese Vision wird es unseren Unternehmen ermöglichen, unser gemeinsames Engagement für den Erfolg ihrer Kunden bei der digitalen Transformation voranzutreiben.“

Weitere Vorteile der Fusion sind, dass die Unternehmen in der Lage sein werden, ergänzende Angebote wie Hortonworks DataFlow und Cloudera Data Science Workbench anzubieten. Die fusionierten Unternehmen werden auch in der Lage sein, die Partnerschaften mit Anbietern von Public Clouds und Systemintegratoren zu verbessern, erklärten sie.

„Gemeinsam sind wir gut positioniert, um weiter zu wachsen und im Wettbewerb in den Märkten Streaming und IoT, Data Management, Data Warehousing, Machine Learning/AI und Hybrid Cloud zu bestehen. Wichtig ist, dass wir in der Lage sein werden, ein breiteres Angebot anzubieten, das es unseren Kunden ermöglicht, den Wert ihrer Daten zu nutzen“, sagte Rob Bearden, CEO von Hortonworks.

 

BAM – CMS Blog