Alle Beiträge von Thomas Holm

Smart Factory – Die Produktion der Zukunft

Es ist unbestritten, dass das Thema Smart Production vor dem Hintergrund des zunehmenden internationalen Wettbewerbs an Bedeutung gewinnt. Damit Deutschland künftig ein attraktiver Standort für produzierende Unternehmen bleibt, müssen diese in der Lage sein profitabel zu produzieren. Produkte nach Losgröße 1 ohne wesentliche Steigerung der Fertigungskosten zu produzieren wird für Unternehmen daher künftig ein Indikator für die Smart Factory sein. Über den Erfolg bestimmt dann neben der Wandlungsfähigkeit der Produktion ein hoher Vernetzungsgrad entlang der gesamten Wertschöpfungskette – bis zum Endprodukt. Wie das konkret umgesetzt wird, hängt maßgeblich von den bestehenden Rahmenbedingungen ab. Klar ist, die Smart Factory lässt sich nicht als Lösung überstülpen, viel mehr muss die smarte Version einer bestehenden Produktion so individuell sein, wie es die Prozesse eines produzierenden Unternehmens selbst sind.

Individuelle Ideen für die Produktion von Morgen

Vor der Überlegung, wie Industrie 4.0 technologisch in die bestehende Produktion gebracht wird, muss also die Überlegung stehen, welche Methoden, Ideen oder Ansätze zu einer Verbesserung des bestehenden, individuellen Produktionsprozesses führen können. Diese Verbesserung kann darin liegen, ressourceneffizienter zu produzieren, Doppelaufwendungen entlang des Planungsprozesses zu vermeiden um damit das Anlagenengineering deutlich zu verkürzen. Für Maschinen- und Anlagenbauer könnten etwa Vorteile daraus resultieren eine projektierte Anlage beim Kunden zu beobachten und durch Sammeln und Auswerten von Daten und Information aus dem Lifecycle Rückschlüsse für die eigene Entwicklung zu ziehen oder dem Kunden Empfehlungen zum aktuellen Betrieb der Anlage an die Hand zu geben.

Erst messen dann lenken

In welcher Methode auch immer die Transformation von der bestehenden zur smarten Fabrik liegen könnten – sie alle setzen die Vernetzung bestehender Prozesse und Abläufe voraus. In vertikaler Richtung, vom Leitsystem in die Feldebene also, ebenso wie in horizontaler Ausrichtung, nämlich über die unterschiedlichen Schritte einer Wertschöpfung hinweg. Heute steht einer solch vollständigen Vernetzung häufig noch der Umstand entgegen, dass Daten nicht durchgängig generiert und genutzt werden. Sowohl bei der vertikalen Integration – insbesondere aber bei der horizontalen Integration entlang der Wertschöpfungskette, existieren diverse Modell- und Systembrüche, die es schwierig machen, Daten sinnvoll miteinander in Kombination zu bringen. In der Regel setzt jeder Industrie 4.0-Ansatz darum zuerst voraus, Daten zu erfassen und sie zu digitalisieren. Dieser Schritt ist es also, der den zentralen Gedanken von Industrie 4.0 ermöglicht: Das Sammeln, Vernetzten und Auswerten von Daten aus dem Produktionsprozess, um diese so gewinnbringend zu verwerten, dass ein nachhaltiger Mehrwert für das Unternehmen entsteht.

Datentransparenz für die Smart Factory

Wesentlichen Kriterien, die eine jede Smart Factory darum charakterisieren sind diejenigen, die das Messen, Vernetzen und Auswerten von Daten ermöglichen:

  • Sensorik in allen Ebenen bis hinunter zum Produkt und in das Produkt hinein
  • Vernetzung aller Komponenten und Internetanbindung
  • Maximale IT-Sicherheit

Der erste Schritt auf diesem Weg ist die Transparenz über alle Produktions- und Anlagendaten. Nur wenn die Daten zu Informationen verdichtet, miteinander in Beziehung gebracht und geeignet aufbereitet werden, können Maßnahmen eigenleitet werden, die die Prozesse verbessern. Damit dies gelingt, müssen Sensoren produkt- und produktionsrelevante Daten in der Feldebene erfassen. Sie müssen dazu in der Anlagenarchitektur berücksichtigt oder dem Produkt mitgegeben werden – beispielsweise in Form eines RFID-Chips. Für produktionsrelevante Daten, die von Sensoren an Maschinen und Anlagen erfasst werden, besteht die Herausforderung weniger im Sammeln der Daten, als darin, die Daten sicher und fehlerfrei von der Feldebene in eine übergeordnete Ebene zu bringen – ein MES (Manufacturing Execution System) beispielsweise oder eine Cloud. Doch wie gelingt das?

Flexible Automatisierungslösungen

Einen entscheidenden Beitrag leisten hier Automatisierungslösungen wie das modulare WAGO I-/O-System 750, das mit über 500 verschiedenen Modulen eine passende Lösung für nahezu jeden Anwendungsbereich bietet – so können Signale von der Feldebene immer zuverlässig eingesammelt und weiterverarbeitet werden. Ergänzt durch die Controller-Familie PFC von WAGO können verschiedene Schnittstellen und Feldbusse wie OPC-UA, CANopen, PROFIBUS DP, DeviceNet und Modbus-TCP herstellerunabhängig genutzt werden. Auch Lösungen unter Einsatz von IoT-Protokollen, wie MQTT befinden sich im Leistungsportfolio. Entsprechend sind die WAGO-Controller auch als skalierbare Knotenpunkte und Gateways bei bereits bestehenden Automatisierungssystemen einsetzbar, ohne in den eigentlichen Automatisierungsprozess einzugreifen – die Daten werden parallel abgegriffen und können dann an eine übergeordnete Ebene geschickt werden: an ein MES oder ebenso an eine Cloud.

Sicherheit geht vor

In diesem Zusammenhang klingen die mit einer Cloudanbindung verbundenen Vorteile vielversprechend: Cloud-Lösungen sind flexibel, skalierbar, überzeugen durch eine hohe Verfügbarkeit und die Möglichkeit des zentralen Zugriffs. Sie lassen sich ebenfalls nutzen, um große Datenmengen bequem zu managen. Dass die Cloud in Deutschland dennoch nicht die Akzeptanz findet, die sich vermuten ließe, hat viel mit dem Gesichtspunkt der IT-Security und des Knowhow-Schutzes zu tun, die vor allem dann ablehnend bewertet werden wenn es darum geht, geschäftskritische Daten in der Cloud vorzuhalten. Wer die Vorteile einer Cloud nutzen möchte, sollte die dazu erforderlichen Maßnahmen mitdenken, die in Sachen IT-Sicherheit getroffen werden müssen. Sicherheit lässt sich nicht allein durch den Zukauf bestimmter technischer Komponenten gewährleisten, sondern kann nur als maßgeschneiderte Lösung, also als „Security by Design“ erreicht werden. Am Ende des Tages muss das System ganzheitlich betrachtet und bewertet werden. Das gilt insbesondere für alle Außengrenzen und Schnittstellen zu Fremdsystemen und kann nur durch eine strategische Aufbereitung erreicht werden. Dafür ist „Defense in Depth“ eine Voraussetzung. Security lässt sich nicht „überstülpen“, sondern erfordert auf die jeweiligen Schutzziele angepasste Sicherheitsstrategien.

Daten gewinnbringend nutzen

Anwendungen zur Datenanalyse spielen eine entscheidende Rolle, um in der entstandenen Datenflut nicht unterzugehen. Werden Sie richtig eingesetzt und nutzen sie die individuell relevanten KPIs einer Produktion, kann der bestehende Prozess elementar verbessert werden – etwa mit Blick auf den Faktor Zeit, Ressource oder Energie. Und so ist auf dem Weg zur Smart Factory bereits mehr getan als der erste Schritt.

Sicher verschlüsselt – auch auf dem letzten Meter

In Zeiten von Industrie 4.0 und Industrial Internet of Things (IIOT) setzen Automatisierungslösungen vermehrt auf offene und vernetzte Systemarchitekturen von Standardkomponenten. Angestrebte Produktivitätssteigerungen werden schließlich erst durch den transparenten Zugriff auf die Produktionsdaten möglich. Doch Wartung, Service und gesetzliche Dokumentationspflichten komplexer Systeme können oder sollen oft nicht durch Personal vor Ort geleistet werden – ein Fernzugriff wird notwendig. Die dadurch entstehende Vernetzung funktionaler Einheiten resultiert in gesteigerten Sicherheitsanforderungen. Das gilt nicht nur für räumlich begrenzte Industrieanlagen, sondern ebenso für verteilte Anlagen der Energietechnik.

Wachsende Anforderungen

Vor diesem Hintergrund sind Automatisierungssysteme mehr denn je den „Gefahren“ der IT-Welt ausgesetzt – jede Sicherheitslücke kann fatale folgen für Unternehmen und Mitarbeiter haben. Um dieser Gemengelage Herr zu werden, hat die deutsche Bundesregierung im Sommer letzten Jahres ein IT-Sicherheitsgesetzt verabschiedet, das sich vor allem an die Betreiber kritischer Infrastruktur (KRITIS) richtet. Es schreibt neben regelmäßigen Sicherheitsaudits auch die Meldung von IT-Sicherheitsvorfällen an das Bundesamt für Sicherheit in der Informationstechnik (BSI) vor. Darüber hinaus definieren die IT-Grundschutzkataloge mögliche Szenarien und Schutzmaßnahmen, basierend auf der ISO 27002. Auf diesen bauen wiederum die verschiedenen branchenspezifischen Richtlinien und Empfehlungen auf, die Unternehmen verpflichten, die Vertraulichkeit, Integrität, Authentizität und Verfügbarkeit von Daten zu gewährleisten. Diese Regelungen erhöhen auch die Anforderungen an die Hersteller von Automatisierungstechnik und stellen sie vor neue Herausforderungen.

Ganzheitliche Sicherheit

Um eine sichere Systemarchitektur aufzubauen, gilt es daher, drei verschiedene grundlegende Prinzipien zu beachten. Das „Defense-in-Depth“-Konzept beruht etwa darauf, Sicherheitslösungen zu staffeln oder zu schichten, sodass im Fall der Umgehung einer Schicht eine andere weiterhin Schutz gewährleistet. Durch das „Minimal-Need-To-Know“-Prinzip werden Anwendern und Prozessen nur die maximal erforderlichen Rechte zugewiesen. Das „Redundanzprinzip“ wiederum setzt auf Technologien, die sicherstellen sollen, dass der Ausfall einzelner Komponenten nicht die Sicherheitsfunktionen beeinträchtigt. Auch sollen die Auswirkungen eines uneingeschränkten Anforderns von Systemressourcen minimiert werden. Konkrete technische sowie organisatorische Maßnahmen sind dabei unter anderem die dauerhafte Grundsicherung und Systemhärtung mittels „Patch-Management“ (Update-Fähigkeit) sowie die Langzeitverfügbarkeit der Betriebssysteme. Die Verschlüsselung sensibler Daten (SSL/TLS) bei Speicherung und Übertragung ist ebenso Voraussetzung wie eine entsprechende Netzwerkkonzeption (Segmentierung/Firewall/VPN). Eine sichere Standardkonfiguration und Benutzerauthentifizierung sowie die Vergabe von Benutzerrollen sind ebenfalls Bestandteil des Anforderungskatalogs. Diese Maßnahmen und Prozesse werden typischerweise regelmäßig in Audits überprüft.

Adäquate Lösungen

Bereits heute erfüllt WAGO so alle relevanten Richtlinien im Bereich IT-Security und sogar eine Vielzahl der Vorgaben aus dem BDEW-White-Paper für Anwendungen im Bereich der Energie- und Wasserversorgung, die zur sogenannten „Kritischen Infrastruktur“ (KRITIS) zählen.

Die Controllerfamilie PFC100 & 200 von WAGO tragen diesen Entwicklungen Rechnung. Sie zeichnen sich durch ein plattformübergreifendes Realtime-Linux aus, das als Open-Source-Betriebssystem langzeitverfügbar, skalierbar und updatefähig ist und Tools wie Rsync, Fail2Ban sowie Virenscanner unterstützt. Es können außerdem verschiedene Schnittstellen und Feldbusse wie CANopen, PROFIBUS DP, DeviceNet und Modbus-TCP herstellerunabhängig bedient werden. Natürlich gibt es je nach Einsatz und Risikoanalyse auch unterschiedlich hohe Anforderungen an das Niveau einer Sicherheitslösung. Die WAGO-PFC-Familie ist in jedem Fall für die Umsetzung der aktuell höchsten Sicherheitsanforderungen gemäß ISO 27002 aufgestellt. Sie bietet Onboard-VPN-Funktionalität basierend auf dem sogenannten Strongswan-Package, einer sicheren Kommunikationslösung für Linux®-Betriebssysteme. Darüber hinaus können die Daten bereits im Controller mittels SSL/TLS-1.2-Verschlüsselung (Secure Sockets Layer/Transport Layer Security) verschlüsselt werden. Einen VPN-Tunnel baut dieser dann direkt über IPsec oder OpenVPN auf und überträgt die Daten z. B. in die Cloud. Während IPsec auf Betriebssystemebene bzw. Layer 3 des OSI-Schichtenmodells verschlüsselt, sorgt OpenVPN auf der Anwendungsebene (Layer 5) für Datenintegrität. So entstehen abhör- und manipulationssichere Kommunikationsverbindungen zwischen den Controllern und den Netzzugangspunkten. Auch ein vorgeschalteter VPN-Router ist nicht mehr erforderlich. Bei der Kommunikation mit einem PFC100 oder 200 kann eine verschlüsselte LAN/WAN-Verbindung aufgebaut werden, deren Inhalt nur die beiden Endpunkte verstehen können. Verbindungen werden nur nach erfolgter Authentifizierung aufgebaut. Mit Pre-Shared-Key kommt ein Verschlüsselungsverfahren zum Einsatz, bei dem die Schlüssel vor der Kommunikation beiden Teilnehmern bekannt sein müssen. Dieses Verfahren hat den Vorteil, dass es einfach zu realisieren ist.

Überzeugend vielseitig

Die Controller der PFC-Familie sind darüber hinaus auch als skalierbare Knotenpunkten einsetzbar, die bei bereits bestehenden Automatisierungssystemen nachgerüstet werden können, ohne in den eigentlichen Automatisierungsprozess einzugreifen – die Daten werden parallel abgegriffen und können z. B. per MQTT oder OPC UA in die Cloud gesendet werden. Der Anwender ist auf diese Weise in der Lage, Anlagen adaptiv und vorbeugend zu überwachen. Anlagenbetreiber haben dank Cloud-Fähigkeit die Möglichkeit, stets den Überblick über ihre Produktionsanlagen zu behalten und die Prozesse Schritt für Schritt zu optimieren. Mit geringem Aufwand können so komplexe Prozesse nicht nur erfasst und z. B. per Smartphone oder Tablet visualisiert werden, sondern auch mit Analyseverfahren aus dem Big-Data-Umfeld optimiert werden.

Echter Mehrwert

Um in der entstandenen Datenflut nicht unterzugehen, spielen Data-Analytics-Tools eine entscheidende Rolle. Sie sind mit Hilfe der auf Feldebene erfassten Daten in der Lage, Anlagen- und somit Produktionsausfälle im Sinne einer Predictive Maintenance vorherzusagen, indem sie beispielsweise den Verschleiß bestimmter Maschinenkomponenten berechnen. Kostspielige Anlagenausfälle werden auf diese Weise minimiert. In der Zukunft kann eine solche Anwendung dank Data-Analytics etwa voraussagen, dass ein bestimmtes Teil in der Produktionsanlage in drei Monaten ausgetauscht werden muss. Das übergeordnete Automatisierungssystem erkennt dann, um welches Teil es sich handelt, fragt beim Hersteller die aktuelle Lieferzeit an und bestellt das Ersatzteil voll automatisiert. Besonders in Anwendungsfällen, in denen Anlagen kontinuierlich betrieben werden, besitzt eine solche Entwicklung große Relevanz – etwa in automatisierten Fertigungsstraßen in der Automobilindustrie oder in der Prozess- und Lebensmittelindustrie.

IT-Security neu denken

Ganzheitliche Automatisierungslösungen werden in Zukunft also über Funktionen verfügen müssen, die über bloße Automatisierungsfähigkeiten hinausgehen. Schließlich besteht der Kern des „Industrial Internet of Things“-Gedanken darin, Daten gewinnbringend zu verwerten und einen nachhaltigen Mehrwert für das Unternehmen zu generieren. Wer aber dieses Ziel erreichen möchte, sollte die dazu erforderlichen Maßnahmen mitdenken, die in Sachen IT-Sicherheit getroffen werden müssen. Für den Transport digitaler Daten von der Feldebene in eine Cloud müssen die bestehenden Sicherheitsmechanismen intelligent angewandt werden, nicht zuletzt, wenn Cloud-Anbindungen als Ergänzung zum bestehenden Automatisierungssystem an einem Gros der Schutzmechanismen vorbeikommunizieren, die – ganz im Sinne von „Defense in Depth“-Lösungen – einmal eingerichtet worden sind: wie etwa Zugangskontrollen, Berechtigungskonzepte und Firewalls. Um Schaden vom Unternehmen abzuwenden und Wettbewerbsvorteile zu erlangen, ist es unerlässlich, dass Daten zu jeder Zeit sicher ausgetauscht und verwahrt werden. Dies gelingt zukünftig nur durch ein umfassendes IT-Sicherheitskonzept, das den individuellen Anforderungen des Unternehmens im Sinne eines „Security by Design“-Prinzips entspricht – das gilt sowohl für Prozesse im Unternahmen, als auch in der Produktion.

Auf dem Weg zur wandlungsfähigen Produktion

Produktionseinheiten, die sich ad-hoc vernetzen, um im Verbund einen Produktionsauftrag zu bearbeiten, sind ein zentrales Industrie 4.0-Szenario. Aus gutem Grund: Der Wunsch nach individuellen Gütern führt zu einer höheren Variantenvielfalt – teilweise bis zur Fertigung von individualisierten Produkten; die globale Verfügbarkeit von Waren sorgt für schwankende Auftragseingänge und sich regional verschiebende Absatzmärkte; und kürzere Produktlebenszyklen reduzieren sowohl die Entwicklungszeit als auch die schlussendlichen Lieferfristen. Um selbst wettbewerbsfähig bleiben zu können, müssen produzierende Unternehmen diesen Veränderungen Rechnung tragen. Heutige Produktionssysteme sind dazu jedoch nicht in der Lage.

Um dem Industrie 4.0-Szenario der vernetzen, intelligenten und sich selbststeuernden Produktion näher zu kommen, müssen die am Produktionsverbund beteiligten Einheiten (technische Ressourcen) zum einen wandlungsfähig sein, sodass sie sich an variierende Produktionsprozesse anpassen lassen, zum anderen müssen sie geeignet digital beschrieben werden, um als Ressource mit den produktionsrelevanten Prozess- und Produktdaten abgeglichen werden zu können.

Wandlungsfähige Produktionssysteme

Wandlungsfähige Produktionssysteme lassen sich auf Basis modularer Produktionsanlagen realisieren. Bei diesem Gestaltungsparadigma werden Module unterschiedlicher Funktion an eine Infrastruktur (Backbone) gekoppelt. Durch An- und Abkoppeln der Module kann der Produktionsprozess schnell und flexibel an den jeweiligen Bedarf angepasst werden.

Die Möglichkeiten, die sich durch das „Zerschneiden“ heutiger monolithischer Anlagen in Module ergeben, sind vielfältig: Modulare Anlagen verkürzen das grundlegende Anlagen-Engineering, indem sie Planung und Entwicklungsprozess einer Anlage in ein projektunabhängiges Modul-Engineering einerseits und ein zeitkritisches Anlagen-Engineering andererseits auftrennen. Sie erlauben die einfache Variation der Produktionsmenge, indem baugleiche Module in parallelen Produktionssträngen eingesetzt werden. Dies erlaubt auch auf ein Skale-Up der Prozesse aus dem Labor über das Technikum bis hin zu industriellen Produktionsprozessen zu verzichten, weil der einmal im Labor entwickelte Prozess durch ein Numbering-up auf industrielle Produktionsmengen angepasst werden kann. Auf Basis modularer Produktionsanlagen können Produktionsmengen schnell an lokale Marktgegebenheiten oder auf politische Veränderungen im Produktionsland angepasst werden. Entweder durch die Verlagerung einzelner Module oder aber durch den Transfer einer gesamten Produktionsanlage. Und schlussendlich erlauben sie Test, Einfahren und Abnahme am F&E Standort durchzuführen, um die Anlage dann an den eigentlichen Produktionsstandort zu versenden – ohne entsprechend geschulte Ingenieure am Produktionsstandort vorhalten zu müssen.

Automatisierung modularer Anlagen

Klar ist, dass solche modularen Produktionsanlagen hohe Anforderungen an die Automatisierungstechnik stellen. Sollen unterschiedliche oder gleichartige Module in einen Backbone gekoppelt, schnell wieder entfernt oder ausgetauscht werden, ist dies mit heutigen Prozessleitsystemen nur sehr bedingt möglich – zu unflexibel sind deren Programmier- und Visualisierungsumgebungen. Erforderlich ist eine Automatisierungsmethodik, die so modular ist, wie die Anlage selbst. Im Idealfall sollte das virtuelle Abbild der Produktionsanlage innerhalb des Prozessleitsystems immer der physikalischen Wirklichkeit entsprechen. Kommt ein neues Modul hinzu sollte dies ohne zusätzlichen Programmieraufwand im Prozessleitsystem abzubilden und sofort nutzbar sein – ganz im Sinne eines Plug-and-Produce. Keine Frage: Eine solche Anlagenarchitektur  erfordert einen neuen Ansatz für die Automatisierung von Anlagen – nämlich den, einer dezentralen Verarbeitungsintelligenz. Diesem Ansatz hat sich WAGO zusammen mit der TU Dresden und der Helmut-Schmidt Universität Hamburg gewidmet und im November 2014 DIMA (Dezentrale Intelligenz für Modulare Anlagen) präsentiert.

DIMA verlagert große Teile der Steuerungs- und Regelungsintelligenz in die Module. Diese stellen ihre intendierte Funktion als Dienst zur Verfügung, welcher durch andere Kommunikationsteilnehmer über eine vereinheitlichte Schnittstelle abgerufen werden kann. Die Integration der autarken Anlagenmodule erfolgt über ein in DIMA definiertes Datenmodell, welches auf einer diensteorientierten Architektur basiert.

Digitale Beschreibung

Der Vorgang der Bekanntgabe der Dienste und Bedienbilder basiert nicht auf proprietären Lösungen, sondern auf einer neuen Beschreibungsmethodik – dem Module Type Package (MTP). Es dient als digitale Beschreibung eines Anlagenmoduls und beinhaltet alle Informationen, die zur Einbindung des Moduls in die Anlage und zu seiner Bedienung erforderlich sind. Das umfasst die Beschreibung der Dienstleistung, die Variablen, die genutzte Kommunikationstechnologie für die Kommunikation zwischen der Prozessführungsebene und der Modul-SPS, eine Beschreibung der Bedienoberflächen des Moduls und zusätzliche Dokumente, wie beispielsweise die Dokumentation. Damit ist es möglich, ein für das anlagenweite Automatisierungssystem gänzlich unbekanntes Modul innerhalb weniger Minuten einzubinden.

Die Modellierung dieser Fähigkeitsbeschreibung ist der Kern von DIMA. Die Prozessfunktion des Moduls (wie zum Beispiel Reagieren eines Reaktormoduls) wird in Form eines Service oder Dienstes, also einer geschlossenen Funktion modelliert, die lediglich über seine standardisierte Schnittstelle angesprochen wird. Die Prozessführungsebene wird damit zum Dienstenutzer. Die Orchestrierung der Dienste, aller an den Backbone angeschlossenen und durch einen MTP bekanntgemachten Module, erfolgt im Engineering-Werkzeug der Prozessführungsebene. Die Abarbeitung des für diese Dienstleistung erforderlichen Programmcodes erfolgt allerdings im Modul.

Zur NAMUR-Hauptsitzung im November 2014 hat WAGO den DIMA-Ansatz vorgestellt. Im Frühjahr 2015 entschied sich die NAMUR den DIMA-Ansatz von WAGO zu übernehmen und gemeinsam mit dem ZVEI weiterzuentwickeln. 2016 arbeiten mehr als 30 Unternehmen in verschiedenen Verbänden an der Standardisierung des Module Type Packages. Ziel ist es, das von WAGO vorgestellte MTP in den Bereichen Prozessführung, Visualisierung, Alarmmanagement und Diagnose zu standardisieren. Parallel dazu hat WAGO das DIMA-Konzept weiterentwickelt und prototypisch umgesetzt. Mit dem dazu entwickelten Anlagendemonstrator konnte WAGO nicht nur beweisen, dass der MTP eines Moduls vollständig aus dem Programmcode einer SPS heraus erzeugt werden kann, sondern,  dass  durch Einlesen des MTP in ein Prozessleitsystem ein Modultausch in weniger als 2:30 min möglich ist.