Alle Beiträge von Benjamin Ullrich

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.

Digitale Transformation – agil einsteigen ins IIoT

Aktuell sucht sich die deutsche Wirtschaft ihren Weg in die Industrie 4.0. Allerdings hat der Mittelstand immer noch große Probleme, die richtigen Schritte zu machen. Das zeigt eine Studie der Unternehmensberatung McKinsey: Nur jeder zweite Mittelständler sieht in der Digitalisierung eine Chance. Dabei prognostiziert McKinsey eine zusätzliche Wertschöpfung von 126 Milliarden Euro für deutsche Unternehmen bis 2025 bei konsequenter Digitalisierung[1]. So können Unternehmen mit Innovationsfreude und Mut schnell Wettbewerbsvorteile erzielen, die anderen laufen Gefahr, abgehängt zu werden. Um dem aus dem Weg zu gehen und den Anschluss nicht zu verlieren, muss die Industrie jetzt erste Schritte planen und sich für neue Prozesse zur Integration des IIoT öffnen. Dabei ist es für Unternehmen entscheidend, inwieweit sie in der Lage sind, agile Strukturen aufzubauen und so – zumindest in Teilen – wieder zum Startup zu werden.

Agile Transformation erfordert Umdenken

Da beim Eintritt ins IIoT agile Strukturen besonders wichtig sind, müssen Unternehmen zunächst umdenken. Denn bei IIoT-Projekten sollte nicht der Return of Investment an erster Stelle stehen, sondern die Innovationsbereitschaft. Das heißt, es geht nicht um eine ausführliche und womöglich anstrengende Planung, sondern um den Entdeckergeist. Schritt für Schritt wird in einem kreativen Prozess das Geschäftsmodell entwickelt. Hierfür ist beispielsweise die Arbeitstechnik „Sprint“ hilfreich. Das vom Wagniskapital-Finanzierungsunternehmen Google Ventures entwickelte Verfahren soll Unternehmen helfen, in nur fünf Tagen selbst kritische Probleme zu lösen. Bevor die Herausforderung „Einstieg ins IIoT“ angegangen werden kann, muss zunächst ein flexibles Team gebildet werden, das erste Schritte plant und kleine Ziele erarbeitet, die im Anschluss überprüft werden. So wird zu Anfang ein vorläufiger Prototyp entwickelt, der als zusätzlicher Ideengeber dienen soll. Danach beginnt die „Serienfertigung“ – so zumindest die Theorie.

Allerdings sieht es in der Praxis oftmals anders aus: Anstelle eines agilen Prozesses, welcher Richtungswechsel erlaubt, ja diese sogar ausdrücklich wünscht, werden einmal eingeschlagene Wege sehr selten wieder verlassen. So besteht die Gefahr, sich zu früh an eine Vorgehensweise und damit an einen Partner oder auch an eine bestimmte IIoT-Plattform zu binden. Die IIoT-Entwicklung zeichnet sich jedoch gerade dadurch aus, dass sich Modelle immer wieder verändern. Entscheidet man sich beispielsweise zu schnell für eine Plattform und legt sich auf diese fest, könnte es sich herausstellen, dass die gewählte Technologie weniger zukunftsfähig ist als zunächst gedacht. Dadurch werden Prozesse schnell statisch. Deshalb sollte man zu Beginn eher auf individuelle Lösungen setzen, etwa auf eine Microservice-Architektur, in welcher einzelne Services später ausgetauscht oder erweitert werden und so immer auf die aktuellen Bedürfnisse und Gegebenheiten angepasst werden können.

Agilität entlang der gesamten Wertschöpfungskette

Allerdings reicht es auch nicht mehr aus, für ein einzelnes Projekt agil zu sein. Letztendlich muss die gesamte Arbeitsweise innerhalb eines Unternehmens transformiert werden. Dadurch entsteht eine Geschwindigkeit, die die Wettbewerbsfähigkeit des Unternehmens hochhält. Nicht nur große Softwarefirmen wie Google und Amazon stehen vor diesen Herausforderungen, auch die Industrie muss diese Arbeitsweise annehmen und verinnerlichen, um kundenorientiert arbeiten zu können. Bisher wurden Projekte in der Industrie nach bestimmten Anforderungen geplant. Anschließend entwickelten die Techniker zwei bis drei Jahre lang, oftmals ohne sich zwischendurch umfassendes Feedback einzuholen und eventuelle Anpassungen vorzunehmen. Mittlerweile erwarten Kunden allerdings, dass ihr Feedback schnell aufgenommen und umgesetzt wird. Das bedeutet: Agilität wird auch immer mehr zur Anforderung an die Industrie, die sich dadurch entscheidende Wettbewerbsvorteile verschaffen kann.

 

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.

 

Schneller Einstieg in das Industrial Internet of Things (IIoT)

Gerade in der Verpackungsindustrie besteht großer Bedarf, die Produktionsrichtlinien durch digitale Services aufzuwerten, um sich so von der Konkurrenz abzuheben. Aber auch die Getränke- und Nahrungsmittelindustrie, der Bereich Automotive sowie die Papier- und Druckindustrie profitieren von einer solchen Anwendung: Die Arbeit innerhalb dieser Bereiche wird durch die digitalen Helfer einfacher und effizienter gestaltet. All das bietet elunic mit seiner IIoT-Anwendung Dataface, die das Unternehmen auf der diesjährigen Fachmesse für Verpackungen FachPack vorstellt.

Digitaler Zwilling & Co. – IIoT anschaulich erleben
Anhand der Live-Demo ihrer IIoT-Anwendung Dataface ermöglicht elunic dem Besucher viele spannende Einblicke in die Welt der Industrie 4.0. So zeigt etwa ein Digitaler Zwilling das virtuelle Abbild einer Industrie-Produktions-Anlage. Der Bereich der künstlichen Intelligenz wird durch Predictive-Maintenance-Meldungen und die Anwendung von Machine-Learning-Algorithmen abgedeckt. Zudem werden die Gesamtanlageneffektivität OEE sowie weitere KPIs, wie beispielsweise die Produktionsgeschwindigkeit oder die Anzahl der anstehenden Aufgaben, berechnet und dargestellt. Die Live-Demo zeigt ebenfalls, wie die Rechte für komplette Anlagen, einzelne Maschinen sowie Personen oder Gruppen verwaltet werden. Ein integrierter Shop ermöglicht die automatische Nachbestellung von Ersatzteilen. All diese Dienste werden von elunic als Microservices in die Anwendung integriert. „Die Architektur von Dataface ist so aufgebaut, dass auch große Datenmengen aus dem Maschinenumfeld verarbeitet werden; die Microservice-Architektur ermöglicht den Austausch bzw. die Weiterentwicklung einzelner Komponenten. Die Applikation lässt sich sowohl in Cloud-Services wie AWS, als auch in On-Premise-Lösungen integrieren. Durch diese Cloudunabhängigkeit ist ein schneller Einstieg ins IIoT möglich“, erklärt Benjamin Ullrich, Gründer und Geschäftsführer von elunic.

Produktionsanlage in Dataface
Vom Digitalen Zwilling bis zur A.I. & Predictive Maintenance
Mit ihrer Anwendung zeigt elunic nicht nur, wie Unternehmen flexibel und unabhängig in den Bereich IIoT einsteigen; innerhalb der Live-Demo stellt das Unternehmen auch seine einzelnen Leistungen als Module vor. Diese decken folgende Bereiche ab: „Digitale Services & Digitaler Zwilling“, „Asset Management & Equipment Efficiency“, „A.I. & Predictive Maintenance“, „Big Data / Visualisierung“, „Digitalisierung industrieller Prozesse“ sowie „Machine 2 Machine payments“. Die Applikation zeigt alle relevanten Kennzahlen einer Maschine oder Anlage an, wie beispielsweise OEE, und wertet diese aus.

Wir freuen uns darauf, Sie auf der FachPack an unserem Stand zu begrüßen und Ihnen unser Leistungsspektrum vorzustellen.

Microservices als Wunderwaffe im Industrial Internet of Things

Microservices können das Leben spürbar erleichtern. Dabei handelt es sich um von der Oberfläche oder Technologie losgelöste kleine Dienste, die einzelne Aufgaben innerhalb eines Systems übernehmen – beispielsweise das Sammeln der Daten einer Maschine. Außerdem kann die Software modulartig aufgebaut und flexibel angepasst werden. Für die Implementierung in die bestehende Technologie müssen nur wenige Voraussetzungen erfüllt sein. Mit Microservices gelingt so ein schneller und agiler Start ins IIoT.

Eine Software-Architektur, die auf vielen kleinen abgeschlossenen Services basiert, wird als Microservice-Architektur bezeichnet. Ein Microservice stellt so eine Teilfunktion eines größeren Systems dar. Die Architektur teilt dabei ein Softwaresystem in eine Vielzahl einzelner, kleiner und unabhängiger Services auf – losgelöst von der Oberfläche oder der Technologie. Dabei bieten Microservices auch in ihrer Anwendung Unabhängigkeit: Im Gegensatz dazu würde eine monolithische Software, also eine Software, die alle Funktionen zentralisiert in sich vereint, Abhängigkeit von einer speziellen Plattform, Programmiersprache, Protokollen oder auch von einem Unternehmen erzeugen. Die Entwicklung basiert hierbei auf einer Plattform oder Technologie.

Ein Microservice ist immer in sich abgeschlossen und kann auf Basis einer beliebigen Technologie erstellt werden. Hierbei übernimmt jeder einzelne Service kleinere Aufgaben.

Benutzeroberfläche IoT-Microservices

Kleine Services, große Leistungen

Um die einzelnen Herausforderungen im Bereich IIoT meistern zu können, benötigen Unternehmen verschiedene Services: Das User- und Rechte-Management innerhalb aller Services eines Systems wird beispielsweise mithilfe eines Authentifizierungs- und Autorisierungs-Service verwaltet. Der Gateway-Service übernimmt das Sammeln aller Daten innerhalb einer Maschine, bündelt sie und gibt diese anschließend an den Data Lake weiter. Um die hier gesammelten Daten zur Verfügung zu stellen, wird ein Datenaufbereitungs-Service eingesetzt. Er verdichtet die Daten aus dem Data Lake beispielsweise über ein Data Warehouse und stellt diese aggregiert zur Verfügung. Um Ausfälle vorhersagen zu können, wird wiederum ein Predictive-Maintenance-Service eingesetzt. Dieser analysiert die Daten einer Maschine, teilweise in Echtzeit, und weist so frühzeitig auf Störungen hin. Die gesammelten Werte werden mithilfe des GUI-Service für den Nutzer anschließend dargestellt, etwa auf der Nutzeroberfläche eines Smartphones. Microservices erfüllen generell nicht mehrere Funktionen gleichzeitig, sondern spezialisieren sich auf eine Aufgabe.

Flexibler Einsatz von Microservices

Grundsätzlich können Microservices in allen Branchen und Bereichen eingesetzt werden, da es sich um eine losgelöste Software-Architektur handelt. Sie ist im Gegensatz zur monolithischen Software eine Bereicherung für das Unternehmen.

Hier ein Beispiel: Eine Getränkeabfüllanlage wird mit einer Condition Monitoring Software betrieben, die monolithisch in Java, beispielsweise von der Monolith AG, implementiert worden ist. Dabei treten allerdings Probleme auf: Wenn für diese Anlage eine Tablet-App entwickelt werden soll, kann ohne Authentifizierungs-Service kein Zugriff auf die User-Vergabe erfolgen. Damit dies möglich wird, muss man den Monolithen erst anpassen. Soll dann noch zusätzlich ein Algorithmus geschrieben werden, der die Abfüllgeschwindigkeit analysiert, muss dieser ebenfalls direkt an die Maschine angebunden sein. Dazu wird eine Schnittstelle zum Monolithen benötigt, die normalerweise nicht vorhanden ist, da es meistens keinen einzelnen Service für die Datenhaltung gibt. Um diese Herausforderungen zu lösen, muss das Unternehmen nun entweder die Monolith AG beauftragen (Lock-In Effekt) oder die Verantwortlichen wenden sich an eine Agentur, die in Java entwickeln kann. Doch die Programmierer der Agentur müssen sich zunächst in das monolithische System einarbeiten, was natürlich einen größeren Zeitaufwand und somit hohe Kosten bedeutet.

Sind aber für die Abfüllanlage definierte Microservices verwendet worden, kann jede beliebige Firma beauftragt werden, unter der Voraussetzung, dass die Schnittstelle bekannt ist. Das Unternehmen bleibt so weitgehend unabhängig und flexibel. Denn der modulare Aufbau ermöglicht eine flexible Anpassung der Software an die aktuellen Bedürfnisse. Aus diesem Grund ist der Einsatz von Microservices für ein Unternehmen kosteneffizient und zeitsparend.

Minimale Voraussetzungen für den Einsatz von Microservices

Die einzige Voraussetzung zur Implementierung eines Microservice ist, dass die Schnittstelle zur Kommunikation mit anderen Systemen zuvor definiert wurde. Da ein Microservice immer in sich abgeschlossen ist, kann dieser auf Basis einer beliebigen Technologie erstellt werden. Weitere Unabhängigkeit von anderen Systemen gewährleisten Microservices durch die eigene Datenhaltung.

Roboterarme in einem Automobilwerk

Da sie nur einen möglichst überschaubaren Bereich abdecken, können sie zudem einfach ersetzt oder neu gebaut werden: Beispielsweise kann ein SCRUM-Team einen Service innerhalb von einem Monat ohne Probleme entwickeln. Weiterhin ist es wichtig, dass Microservices horizontal skalierbar sind; sie können also einfach durch zusätzliche Rechenkapazität unendlich skaliert werden, ohne dass eine Software-Anpassung notwendig ist. Ebenfalls sollten Logging, Monitoring und Sicherheits-Methoden implementiert sein, um den Status insgesamt beobachtbar und sicher zu machen.

Grundsätzlich steht der Nutzen für die Anwender bei einem Microservice im Fokus. Deshalb ist bei der Implementierung darauf zu achten, so früh wie möglich eine benutzbare Version zu liefern, die iterativ verbessert werden kann. Nach der Implementierung können Microservices unabhängig vom gesamten System nachträglich angepasst, erweitert oder auch ersetzt werden.

Die Umsetzung dazu sollte in einem kleinen Team erfolgen. Nach SCRUM ist das üblicherweise eine maximale Personenanzahl von sieben Mitgliedern. Auch die Dauer der Umsetzung sollte überschaubar sein und nicht mehr als ein bis zwei Monate in Anspruch nehmen.

Unabhängigkeit im IIoT

Microservices garantieren Unabhängigkeit von einzelnen Technologien oder Plattformen. Gerade im Bereich Industrial Internet of Things (IIoT) ist diese wichtig, da bisher wenige Standards oder Plattformen etabliert sind und Unternehmen somit flexibel und unabhängig auf Entwicklungen reagieren müssen.

Besonders Microservices bieten dabei die Möglichkeit für modulare und individuell skalierbare Applikationen. So bleiben die Grundprinzipien einer guten Plattform wie Skalierbarkeit, Connectivity, Datenstandardisierung & Datenmanagement, Datenvisualisierung, Device und Service Management, externe Schnittstellen, Entwicklungsunterstützung sowie Sicherheitsfeatures intakt, sodass die Agilität des Unternehmens erhalten bleibt.