Alle Beiträge von Norbert Meierhöfer

Realistische Erwartungen an das IIoT

Das Industrial Internet of Things (IIoT) ist für die meisten Unternehmen nach wie vor Neuland. Die Erwartungshaltung ist hoch, verspricht die umfassende Automatisierung, Konnektivität und Analytik doch ein Plus an Effizienz und damit Chancen auf Gewinnsteigerung und Kostenminimierung. Anwender, die zum ersten Mal in Richtung IIoT aufbrechen, erwarten dabei häufig ähnliche Vorteile und Verbesserungen wie durch Manufacturing Execution Systeme (MES). Die Wunschvorstellung: 100.000 im Sekundentakt erfasste Sensordaten und IIoT-Edge-Geräte, die über massive Skalierbarkeit und endlose Rechenleistung verfügen und die Daten in die Cloud übertragen.

Diese Vorstellung mag nicht ganz falsch sein, kann jedoch in einigen Fällen zu Enttäuschungen und Fehleinschätzungen führen. Nicht jedes Edge-Gerät bietet automatisch die nötige Bandbreite oder die Funktionen, um Daten wunschgemäß zu verarbeiten. Wie effizient und sinnvoll IIoT-Anwendungen tatsächlich sind, hängt immer von mehreren Faktoren ab und unterscheidet sich von Fall zu Fall. Selbst wenn die passende Edge-Hardware für ausreichend Konnektivität ausgewählt wurde, können trotzdem Einschränkungen in Bezug auf das Datenvolumen und Häufigkeit der Datenübermittlung auftreten.

Kostenfaktor und Sicherheit IIoT

Bei der Umsetzung eines industriellen IoT-Projekts ist es wichtig, genaue Informationen zu den betreffenden Edge-Geräten, Industrieprotokollen, Sensoren und Netzwerken vorliegen zu haben. Insbesondere betrifft das auch die Kosten jedes einzelnen IIoT-Bausteins. Edge-Geräte verfügen in der Regel über eine Vielzahl von Features, die mit unterschiedlichen Kosten verbunden sind. Dabei reicht die Spannweite von einigen Hundert bis zu Tausenden von Euros. Hinzu kommen hohe Netznutzungsentgelte – zum Beispiel für die Übertragung per Mobilfunk oder Satellit– sowie durch Kosten für die Datenspeicherung in der Cloud. Letztendlich ist das Ziel von IIoT-Projekten zwar die Optimierung der maximalen Wertschöpfung. Doch zunächst ist dabei immer auch mit Kosten zu rechnen.

Der Umgang mit den hohen Erwartungen ist ein wichtiger Aspekt eines jeden IIoT-Projekts. Ein mobiles Edge-Gerät mit niedrigem Stromverbrauch und geringen Onboard-Ressourcen ist schlichtweg nicht darauf ausgelegt, die Daten von 10.000 Sensoren in die Cloud zu übertragen. Realistischer ist es hier entweder das Datenvolumen auf 100 Sensordaten zu reduzieren oder ausreichende Ressourcen an der Schnittstelle zwischen Sensoren und Cloud zur Verfügung zu stellen, – einschließlich der nötigen Bandbreite für das Netzwerk.

Neben Kosten ist auch das Thema Sicherheit zu berücksichtigen. Eine absolute Garantie gibt es hier nicht, lediglich Best-in-Class Practices und bewährte Sicherheitsmaßnahmen. Sicheres IIoT kann als Kombination von zuverlässiger Hardware + Software + Installation + sicherer Kommunikationsprozesse verstanden werden. Sind in einem IIOT-Projekt diese Vorgaben erfüllt, lässt sich das Sicherheitsrisiko zumindest auf ein Mindestmaß reduzieren.

Die passende Anwendung

Grundlegendes Know-how in der Prozessinstrumentierung ist die Voraussetzung dafür, um die richtige Entscheidung bei der Auswahl der Geräte, Sensoren und Anwendungen treffen zu können. Dabei muss von vorherein klar definiert sein, welche Aufgaben durch den Einsatz von IIoT gelöst werden sollen. Klare Zielvorgaben erleichtern es, die passende Anwendung auszuwählen und gleichzeitig Anforderungen hinsichtlich des Prozessbetriebs, der Wartung und der IT-Teams im Unternehmen zu erfüllen. Nicht alle gesammelten Daten aus Edge-Geräten sind relevant für die geschäftlichen Anforderungen und rechtfertigen ein IIoT-Projekt.

IIoT-Anwendungen sind für komplexe Aufgaben konzipiert, um eine große Menge an Prozessdaten-Variablen und ihren Beziehungen untereinander zu verarbeiten und nutzbar zu machen. Gefragt sind Big Data Tools und hohe Rechenleistung. Es ist das Einsatzgebiet von Künstlicher Intelligenz, multivariater Analyse, Mustererkennung, Ereigniserkennung und maschinellem Lernen. Sämtliche Systeme und Anlagen für IIoT aufzurüsten, hilft Unternehmen nicht zum Durchbruch.

Vielmehr sollte die ausgewählte Lösung auf die spezifischen Anforderungen der Anlage und der Prozesse zugeschnitten sein (zum Beispiel kontinuierliche oder Batch). Soll beispielsweise ein Qualitätsproblem eines Assets behoben werden, sind mit hoher Wahrscheinlichkeit multivariate Analysetools notwendig. Handelt es sich um die Implementation von vorausschauender Wartung und Fehlerfrüherkennung mit dynamischen Modellen, empfiehlt sich eine Applikation für Maschinelles Lernen.

IIoT-Deployment

Auch in Sachen IIoT-Deployment gilt es, eine Vielzahl von Fragen zu beantworten: Soll die Anwendung cloudbasiert arbeiten oder On-Premise? Benötigt die Lösung High-Speed-Computing mit geringer Latenzzeit, um die Appplikation näher an das Edge-Gerät zu bringen? Und wie wirken sich die damit verbundenen Kosten auf das Return on Investment (ROI) aus?

Mit der Wahl der richtigen Konnektivität, der richtigen Sensoren und der richtigen Anwendung unter Berücksichtigung aller Kosten ist ein erster wichtiger Schritt in Richtung IIoT getan. Doch sollten Unternehmen sich bewusst sein, dass die Auswahl an Lösungen und Technologien in allen Bereichen von Tag zu Tag wächst. Umso wichtiger ist es, bei allen Vorteilen und Möglichkeiten des IIoTs realistische Erwartungen vorzugeben, die sich innerhalb der eigenen Unternehmensstrategie umsetzen lassen.

 

 

Beispiel Prozessindustrie: 5 Grundpfeiler für den Erfolg digitaler Projekte

Eine Bohrinsel vor der Küste verfügt heute über 1 Million Mal mehr Rechenleistung als Apollo 11 auf dem Flug zum Mond. Bei der Flugzeuggesellschaft Virgin Atlantic entsteht pro Flugstunde ein halbes Terabyte an Daten. Und die Software in modernen Fahrzeugen enthält zwischen 80 und 100 Millionen Codezeilen. Zu betonen, dass die Digitalisierung unsere Welt maßgeblich verändert scheint angesichts solcher Zahlen fast schon überflüssig. Allein in der Prozessindustrie sind laut einer Umfrage von AspenTech 38% der Anlagenbetreiber davon überzeugt, in den nächsten zwei Jahren eine deutliche Rendite ihrer digitalen Investitionen zu sehen.

Die Rechenleistung ist vorhanden, die Datenmenge wächst täglich und neue KI- und Machine Learning-Technologien erreichen einen Reifegrad, der ihren Einsatz in der Praxis nicht mehr in den Bereich Science Fiction einordnet. Was bedeutet das jedoch tatsächlich für die Wettbewerbsfähigkeit von Unternehmen? Für Hersteller und Anlagenbetreiber empfiehlt es sich hier, einen Schritt zurück zu gehen und Herausforderungen wie Chancen anhand einiger zentraler Faktoren zu betrachten. 

  1. Bestehende Technologien maximal ausschöpfen

Es ist wenig sinnvoll bestehende Prozesse und Systeme wahllos auszutauschen und zu verändern. Vielmehr sollten Unternehmen genau prüfen, welche Assets sich in die bestehende digitale Infrastruktur einfügen lassen und welche es zu ersetzen gilt. Planungs- und Dispositionssysteme, Data-Historians, APC-Lösungen (Advanced Process Control-Lösungen), präzise Anlagenmodellierung und Ertragskalkulationen verlieren mit der Digitalisierung nicht einfach ihre Berechtigung, sondern können als wertvolles und zentrales Fundament für innovative Erweiterungen dienen.

  1. Reifegrad des Unternehmens verstehen und berücksichtigen

Digitale Transformation findet nicht ohne einschneidende organisatorische Veränderungen statt, insbesondere wenn sie die Zusammenarbeit zwischen operativen Teams vereinfachen soll. Idealerweise unterstützen neue Technologien die Mitarbeiter dabei, schneller fundierte Entscheidungen zu treffen. In der Realität sind es jedoch viele Betriebsteams gewohnt isoliert innerhalb ihres eignen Arbeitsbereichs zu handeln. Bis eine Organisation reif genug ist, um in einem neuen, vernetzten und digitalen Umfeld erfolgreich zu sein, kann es dauern. Daher ist es von Vorteil schrittweise vorzugehen – sowohl technologisch als auch organisatorisch.

  1. Nüchterner Blick auf Vorteile und Risiken

Technologieinvestitionen verlangen einen klaren Fokus auf den tatsächlichen Nutzen, die Amortisierung und die Rendite. Für Führungskräfte bedeutet dies eine intensive Auseinandersetzung mit Anwendungsfällen und Fallstudien, die darlegen wie sich bestimmte Technologien sinnvoll für den jeweiligen Bereich einsetzen lassen und inwiefern sie tatsächlich operatives Wachstum ermöglichen.

  1. Zentrale Erfolgskriterien definieren

Die wichtigsten Leistungsparametern sind bekannt: Hohe Flexibilität und Agilität hinsichtlich Produktzuführung und -ausführung, Zuverlässigkeit und Verfügbarkeit, eine Optimierung des Energieverbrauchs und übergreifende Kostenführerschaft. Es braucht klare Zielpunkte sowie eine kontinuierliche Ausrichtung und Überprüfung von Projekten hinsichtlich festgelegter und aufeinander abgestimmter Erfolgsmetriken.

  1. Mitarbeiter fördern und weiterentwickeln

Der Einsatz von neuen Technologien setzt neues Know-how voraus, verlangt aber gleichzeitig langjährige Erfahrung und technische – oft betriebsspezifische – Kompetenz. Viele Hersteller entscheiden sich hier, technische Teams auszulagern, um dadurch die Betriebsfunktionen schlank zu halten. Auch hier gilt es abzuwägen, denn verlässt man sich zu sehr auf externe Experten, besteht die Gefahr, den zentralen Vorteil eigener Fachkräfte für technische Ressourcen im Unternehmen zu verlieren.

Beispiele für digitale Projekte in der Prozessindustrie

In der Prozessindustrie gibt es genügend Beispiele, wie Unternehmen im Downstream-Bereich durch gezielte digitale Projekte signifikante Ergebnisse umsetzen konnten. So integrierte der Betreiber einer Erdölraffinerie in Alaska (Nort Slope) eine digitale Anlagenmodellierung, die Echtzeitdaten nutzt und so auf die Minute genau optimierte Bedienanweisungen liefert. Innerhalb von nur einer Woche stieg der Umsatz des Unternehmens um über 1 Million US-Dollar. Ähnlich vielversprechend sind die ersten Anwendungsfälle von Predictive und Prescriptive Analytics. Eine LNG-Firma im Golf von Mexiko nutzt auf Machine Learning basierende Instandhaltung, um frühzeitig Störungen oder Ausfälle ihrer Kompressoren zu erkennen und zu verhindern. Das Ergebnis: Kosten für Ausfallzeiten und Wartung konnten um mehrere Millionen US-Dollar pro Jahr reduziert werden – bei gleichzeitig erhöhter Anlagenverfügbarkeit.

Das sind die Bereiche, in denen die digitale Transformation für Hersteller und Anlagenbetreiber unbestreitbar neue Chancen eröffnet, agilere Geschäftsmodelle ermöglicht und langfristig die Wettbewerbsfähigkeit sichert.

An Data Science führt kein Weg vorbei

5.000 Aussteller, 210.000 Besucher, 5,5 Millionen Kontakte – die Bilanz der weltweit größten Industriemesse ist durchweg positiv. Dabei setzt sich auch ein Trend der vergangenen Jahre fort: Der Anteil an Anbieter und Dienstleister aus der klassischen IT-Branche wächst kontinuierlich. Die digitale Fabrik und ihre industriellen Softwarelösungen haben sich endgültig zu einem zentralen Kern der Messe entwickelt. Oder wie Bitkom-Präsident Achim Berg es auf den Punkt bringt: „Soviel IT hatten wir noch nie auf einer Hannover Messe.“

Dazu passt auch, dass Hannover in diesem Jahr mit dem Leitthema „Integrated Industry – Connect and Collaborate“ an den Start gegangen ist. IIoT, Automation, Künstliche Intelligenz, Predictive Maintenance und Vernetzung sind dabei längst nicht mehr nur Buzzwords, sondern fanden sich auf der diesjährigen Agenda in allen Bereichen – in der Energietechnik (E-Mobilität), der Supply Chain (Smart Supply) und der Logistik (Logistik 4.0). Selbst die Robotik kann erst mit der Vernetzung zwischen Mensch, Maschine und IT ihr volles Potential ausschöpfen. Kein Wunder also, dass im Vergleich zum Vorjahr beispielsweise die belegte Fläche der „Digital Factory“ um 50 Prozent gewachsen ist. Unter einem Dach konnten Besucher die digitale Transformation der Industrie als Gesamtsystem erleben und einen Querschnitt technischer Innovation entlang der gesamten industriellen Wertschöpfungskette einsehen. Im Kern greifen die neuen Technologien auf ein und dieselbe Disziplin zurück: Data Science.

Klassisches Grundrezept: Daten, Daten, Daten

Das Sammeln und Analysieren von Datensätzen, um Prozesse zu überwachen, frühzeitig Handlungsbedarf auf System- und Anlagenebene zu erkennen und so Betriebszeit und Leistung zu maximieren, ist für die Betreiber nicht wirklich neu. In der Prozessindustrie kam Data Science bereits in den späten 70er Jahren zum Einsatz, als große Unternehmen damit begannen, ihre Anlagensteuerungssysteme von analog auf digital umzustellen. Erstmals erfassten Tausende Sensoren innerhalb der Anlage minuten- bis sekundengenaue Daten, die für Entwicklung von übergeordneten Anwendungen wie APC (Advanced Process Control) genutzt wurden, um die Effizienz der Anlagen bis an ihre Grenzen auszulasten.

Diese historischen Daten sind noch immer von Wert, nämlich als Grundlage für eine neue Form des Asset Performance Management, das tiefe Einblicke in die Anlagenprozesse erlaubt und damit Ausfälle, Störungen und Stillstandzeiten vorhersehbar macht. Wartung und Instandhaltung stellen nämlich im Zeitalter von Digitalisierung und Data Science nicht länger eine unkalkulierbare und unkontrollierbare Kostenstelle dar. Vielmehr eröffnen sie unter dem Stichwort Predictive and Prescriptive Maintenance ab sofort echten Mehrwert für Anlagenbetreiber.

Die Chancen sind enorm: Allein in der Instandhaltung können Betreiber durch vorausschauende Lösungen finanzielle Einbußen von insgesamt 1 Mrd. US-Dollar verhindern. Data Analytics und Maschinelles Lernen verhelfen hier zu einem technologischen Durchbruch – jedoch nur wenn sie mit der branchenspezifischen Expertise über Betriebsabläufe und Verfahrenstechniken kombiniert wird und sich die in der Cloud bereitgestellten Rechen- und Speicherkapazität mittels High-Performance-Computing und Data Lakes zu Nutze macht.

Einfacher Zugang zu komplexen Technologien

Die Vertrautheit mit diesen „neuen“ Technologien auf Seiten der Mitarbeiter ist dabei in den letzten Jahren gestiegen. Dazu haben auch die einfache Handhabung von komplexen Anwendungen und die immer höhere Rechenleistung beigetragen. Eine neue Generation von Entwicklern verschiebt die Grenzen weiter nach oben – auch weil KI, Cloud und Big Data verstärkt in bekannten Consumer- und Back-Office-Anwendungen zum Einsatz kommen und so Teil unseres täglichen Lebens geworden sind.

Für IT-Dienstleister und Softwareanbieter im Bereich Industrie 4.0 stellt sich damit eine wesentliche Aufgabe: Ihnen muss es gelingen, Data Science-Funktionalitäten in ihre Produkte zu integrieren und  Kunden ein einfach zu bedienendes und effektives Tool an die Hand zu geben, das ihnen den Zugang zu neuen Technologien vereinfacht. Die nahtlose Integration von Analytik und Data Science bietet dann  Vorteile über alle Bereiche hinweg – vom Design über den Betrieb bis hin zur Wartung.

Ohne solche intelligenten IT-Plattformen und Softwarelösungen bleibt Industrie 4.0 nur ein Schlagwort. Die Hannover Messe und der wachsende Schwerpunkt auf IT und digitale Vernetzung haben das klar zu verstehen gegeben. Der rege Zulauf aus der IT-Branche und die Nachfrage auf Seiten von Anlagenbetreibern und Herstellern wird daher auch in den nächsten Jahren nicht versiegen, sondern aller Voraussicht nach zunehmen. Data Science ist in diesem Zusammenhang der auschlaggebende Erfolgsfaktor für alle Unternehmen, um sich langfristig an die Spitze der nächsten industriellen Revolution zu setzen.

 

Schluss mit Stillstandszeiten

20 Mrd. US-Dollar – so hoch sind nach einer Studie von ARC Advisory Group die weltweit jährlichen Verluste in der Prozessindustrie, die durch ungeplante Stillstandszeiten entstehen. Die Unternehmen investieren massiv in entsprechende Lösungen. Das Problem ist jedoch grundsätzlich: Noch immer werden zwar verschleiß- und altersbedingte Betriebsstörungen behandelt, nicht jedoch prozessbedingte Betriebsstörungen, die über 80% der ungeplanten Stillstandszeiten verursachen und dann auftreten, wenn Anlagen weit über reguläre Sicherheits- und Auslegungsgrenzwerte betrieben werden. Hier fehlt vielen Betreibern noch der nötige Einblick in die Betriebsabläufe.

Predictive und Prescriptive Analytics

Eine neue Form des Asset Performance Management (APM) ist gefragt. Statt nur zu reagieren, müssen Betriebsabläufe vorausschauend geplant und durchgeführt werden. Denn was nützt ein hoher Grad an Optimierung in Industrieanlagen, wenn eine Anlage oder Maschine ausfällt, die Produktion unterbrochen wird, die Qualität beeinträchtigt ist und festgelegte Termine nicht eingehalten werden können. Instandhaltung und Zuverlässigkeit der Anlagen rücken daher immer stärker in den Mittelpunkt.

Richtig umgesetzt bietet APM einen umfassenden und ganzheitlichen Ansatz zur Optimierung von Produktionsanlagen während des gesamten Lebenszyklus – von der Anfangsinvestition über den laufenden Betrieb bis hin zur endgültigen Außerbetriebnahme. Dabei geht Anlagenoptimierung weit über die Prozessoptimierung hinaus und verbindet Anlagedaten, Grundprinzipien, empirische Modelle und Prozesskenntnisse für erweiterte Analysefunktionen. Unternehmen gewinnen so einen detaillierten Einblick in Prozesse, können Ausfälle vorhersagen (Predictive) und vorab Maßnahmen festlegen (Prescriptive), um Störungen zu vermeiden und deren Auswirkungen zu entschärfen. Das verschafft den Betreibern über den ganzen Lebenszyklus der Anlage hinweg einen nachhaltigen Wettbewerbsvorteil.

Machine Learning

Machine Learning spielt für die Früherkennung von Anlagenausfällen eine immer stärkere Rolle. Entsprechende Anwendungen laufen nahezu eigenständig ab und erlernen Verhaltensmuster, basierend auf den digitalen Daten, die von Sensoren in der Anlage und Maschinen erfasst und übermittelt werden. Diese fortschrittlichen Technologien lernen permanent und passen sich bei Änderungen der Betriebsbedingungen den neuen Signalmustern automatisch an – mit minimalem Ressourcenbedarf. Erlernte Fehlersignaturen wirken wie ein Impfstoff für die Maschinen, sodass derselbe Zustand nicht erneut auftritt. Außerdem werden die erlernten Signaturen auf ähnliche Maschinen übertragen, um zu verhindern, dass diese beeinträchtigt werden.

Wie Machine Learning in der Praxis bereits erfolgreich eingesetzt wird zeigt das Beispiel eines nordamerikanischen Energiekonzerns. Reparaturen und Umsatzausfälle aufgrund wiederholter Defekte bei Elektrotauchpumpen kosteten dem Unternehmen mehr als eine 1 Million US-Dollar. Um das Problem zu lösen, erlernte eine Anwendung mit Maschinenlernfunktion das Verhalten der 18 Pumpen. Die Software erkannte bei einer Pumpe eine frühzeitig eintretende Gehäuseundichtigkeit, die zu einem Zwischenfall mit Umweltschäden führte. Die Anwendung der Fehlersignatur auf die übrigen Pumpen ermöglichte eine frühzeitige Warnung, sodass rechtzeitig Maßnahmen eingeleitet und weitere Zwischenfälle verhindert werden konnten.

Das Industrial Internet of Things treibt die Anlagenoptimierung weiter voran. Cloud-Computing, anschauliche Visualisierungstools und ein hohes Maß an Mobilität vereinfachen es, die wachsende Menge an Anlage-, Betriebs- und Prozessdaten effektiv zu nutzen und so einen besseren und anlageübergreifenden Einblick in Betriebsabläufe zu gewinnen. Die Folge sind bessere und fundiertere Entscheidungen sowie eine vorausschauende und proaktive Planung des Anlagenbetriebs. Dabei hat eine konstante und langfristige Optimierung von Anlagen-Assets nicht nur Folgen für die Entwicklung, den Betrieb und die Instandhaltung, sondern kann in komplexen und kapitalintensiven Industriezweigen für das gesamte Unternehmen unerwartete Vorteile bergen.