Die Arbeitsgemeinschaft Additive Manufacturing im VDMA wird ideeller Träger der formnext

Die formnext powered by tct und die Arbeitsgemeinschaft Additive Manufacturing (AG AM) im VDMA (Verband Deutscher Maschinen- und Anlagenbau) haben eine Partnerschaft vereinbart. Die AG AM wird künftig die ideelle Trägerschaft der Fachmesse übernehmen. Durch die Zusammenarbeit baut die formnext ihr fachliches Know-how entlang der relevanten Prozessketten im Bereich Additive Manufacturing und weiterer Zukunftsfelder industrieller Fertigungstechnologien zielgerichtet aus. Die Messe findet vom 14. – 17.11. 2017 in Frankfurt am Main statt.

Kooperation setzt neue Impulse

Wichtige Themenbereiche der Kooperation sind unter anderem Aus- und Weiterbildung, der Wissenstransfer sowie die Weiterentwicklung von Technologien, Anwendungsverfahren, Normen und Standards.

„Wir stehen bereits seit 2015 in engem Kontakt mit der AG AM im VDMA und haben in den intensiven Gesprächen eine große Bandbreite von Potentialen für die gemeinsame Zusammenarbeit entdeckt“, so Sascha F. Wenzler, Bereichsleiter formnext beim Veranstalter Mesago Messe Frankfurt GmbH.

Kernpunkt ist dabei unter anderem, den Einsatz Additiver Technologien in der industriellen Produktion weiter zu fördern und neue Anwendungsbereiche zu erschließen.

„Die formnext powered by tct bietet uns die führende internationale Plattform, auf der die Weltelite Additiver Technologien und modernster Fertigungsverfahren auf internationale Entscheider vielfältigster Anwenderindustrien trifft“, sagt Dr.-Ing. Markus Heering, Geschäftsführer der AG AM im VDMA.

Für den VDMA und die Mitglieder der Arbeitsgemeinschaft Additive Manufacturing eröffnen sich durch die Trägerschaft große Möglichkeiten zur Entwicklung und Hebung weiterer Potentiale, die sich durch den Einsatz dieser Technologien für den Maschinen- und Anlagenbau und darüber hinaus ergeben.

AG AM mit Messestand auf der formnext 2017 vertreten

Die Kooperation mit dem VDMA wird bereits auf der formnext 2017 sichtbar sein. Die AG AM plant auf einem eigenen Messestand prominente Anwendungsbeispiele aus dem Bereich der Additiven Fertigung zu präsentieren. Das Ziel ist, auf der formnext branchenübergreifend potentielle Anwender und Entwicklungspartner aus der Industrie zusammenzubringen.

Weitere Informationen sind online unter formnext.de zu finden.

Logos (formnext /  AG AM im VDMA)

Arbeitsgemeinschaft Additive Manufacturing im VDMA e.V.

Ethernet TSN läutet eine neue Ära der industriellen Kommunikation ein

Die Vorteile einer Verwendung von Ethernet TSN liegen auf der Hand: es kann über Standard Hardware mit integrierter Echtzeitfähigkeit eingesetzt werden, was in niedrigen Kosten und einem breiten Hersteller- und Produktangebot resultiert. Darüber hinaus ermöglicht der TSN-Standard die Konvergenz von Produktions- und IT-Netzwerken, d.h. Echtzeitkommunikation und normale Ethernet-Kommunikation können über einen einheitlichen Netzwerkstandard übertragen werden. Dies stellt eine ideale Basis für die Umsetzung von Industrie 4.0 und IIoT-Konzepten dar.

Evolution der Feldbus-Systeme

Mit der Verfügbarkeit von Ethernet TSN wird auch die Evolution der Feldbussysteme fortgeschrieben.

Feldbusse der 1. Generation wurden für spezifische Anforderungen und Aufgaben konzipiert. So wurde Sercos als Antriebsbus entwickelt, um die analoge +/- 10V Antriebsschnittstelle abzulösen. Profibus, Interbus oder auch Devicenet wurden als Feldbusse für die E/A-Kommunikation entwickelt. Und Ethernet wurde zum damaligen Zeitpunkt nicht auf der Feldebene eingesetzt, sondern lediglich um Maschinen in übergeordnete IT-Systeme einzubinden.

Bild 1: Evolution der Feldbus-Systeme (Quelle: Sercos)

Feldbussysteme der 2. Generation zeichnen sich dadurch aus, dass sie allesamt auf Ethernet basieren und somit eine sehr viel höhere Bandbreite zur Verfügung haben. Allerdings benötigen sie zur korrekten Funktionsweise und zur Erreichung einer entsprechenden Übertragungs- und Echtzeitperformance eine spezielle Hardwareunterstützung. Damit sind diese Systeme nicht konform zu den Standards IEEE 802.1 und 802.3, wodurch die vertikale und horizontale Integration mit Ethernet nicht optimal umgesetzt werden kann. Erschwerend kommt hinzu, dass die meisten Echtzeit-Ethernet-Protokolle in einer gemeinsamen Netzwerk-Infrastruktur nicht koexistieren können, ohne dass die Performance und Echtzeitcharakteristik beeinträchtigt wird. Verschiedene Echtzeit-Ethernet-Lösungen nutzen die Netzwerkinfrastruktur sogar exklusiv, so dass andere Protokolle über das jeweils unterlagerte Echtzeit-Protokoll getunnelt werden müssen (siehe Bild 2a). Allerdings setzt dies ein laufendes bzw. funktionierendes Echtzeit-Protokoll voraus, um mit den Geräten überhaupt kommunizieren zu können. Einen anderen Ansatz verfolgen Echtzeit-Ethernet-Lösungen, die eine Koexistenz mit anderen Ethernet-Protokollen unterstützen. Dabei können andere Protokolle sowohl mit als auch ohne das jeweilige Echtzeit-Protokoll genutzt werden (siehe Bild 2b). Vertreter dieser Echtzeit-Ethernet-Lösungen sind z.B. Sercos III und Profinet IRT.

Bild 2: Echtzeit-Ethernet Schnittstellen im Vergleich (Quelle: Sercos)

Ethernet TSN läutet nun die 3. Feldbusgeneration ein. Denn diese Technologie erlaubt erstmals in der über 40-jährigen Geschichte von Ethernet eine zeitgesteuerte und deterministische Übertragung von echtzeitkritischen Nachrichten über Standard Ethernet Hardware (Bild 3c). Ethernet TSN nutzt dafür das Prinzip eines Zeitschlitzverfahrens, welches Sercos schon seit über 25 Jahren für die Echtzeitkommunikation verwendet. Da bei Ethernet TSN Echtzeitkommunikation und normale Ethernet-Kommunikation über einen einheitlichen Netzwerkstandard übertragen werden können, ergeben sich zukunftsweisende Lösungsansätze um Produktions- und IT-Netzwerke zusammenzuführen.

Sercos III im Kontext von Ethernet TSN

Das Übertragungsverfahren von Sercos basiert seit der Einführung der ersten Generation (Sercos I) im Jahre 1990 auf einem Zeitschlitzverfahren und einer zyklischen Kommunikation. Sercos III unterstützt nicht nur die Übertragung von Echtzeittelegrammen im sogenannten Echtzeit-Kanal, sondern erlaubt außerdem die Übertragung beliebiger anderer Ethernet-Protokolle im sogenannten UC-Kanal (siehe Bild 3 oben).

Bild 3: Übertragungsverfahren von Sercos III im Kontext von Ethernet TSN (Quelle: Sercos)

Ethernet TSN besitzt alle Eigenschaften und Mechanismen, um das Sercos Übertragungsverfahren mit Standard Ethernet Hardware umzusetzen bzw. nachzubilden. Die Basis von Ethernet TSN ist der Standard IEEE 802.1Q, welcher die Aufteilung physikalischer Netzwerke in mehrere logisch getrennte, priorisierte virtuelle Netze spezifiziert. Mit verschiedenen Sub-Standards werden darauf aufbauend ergänzende Features spezifiziert, die im Folgenden erläutert und in den Kontext des Übertragungsverfahrens von Sercos gebracht werden (siehe Bild 3 unten).

  1. Zeitsynchronisation: Alle Netzwerkteilnehmer haben ein gemeinsames Verständnis der Zeit.
    Dazu greift Ethernet TSN auf Mechanismen aus IEEE 802.1ASrev IEEE 1588 zurück. Das darin beschriebene Protokoll zur Zeitsynchronisation (PTP=Precision Time Protocol) definiert, wie räumlich verteilte Echtzeituhren untereinander synchronisiert werden.
  2. Zeitschlitzverfahren: Synchrone Zeitschlitze erlauben die Übertragung verschiedener Traffic-Klassen und eine zeitgesteuerte Datenübertragung. Ethernet TSN nutzt dafür den Substandard IEEE 802.1Qbv (Enhancements for scheduled traffic).
  3. Scheduling und Traffic Shaping: Alle teilnehmenden Geräte arbeiten bei der Bearbeitung und Weiterleitung von Netzwerkpaketen nach den gleichen Regeln. Ethernet TSN nutzt dafür den Substandard IEEE 802.1Qcc (Stream Reservation).
  4. Frame Preemption: Telegramme können unterbrochen werden und später fortgesetzt werden. Ethernet nutzt dafür den Substandard IEEE 802.1Qbu (Frame Preemption).

Ein Blick in die Digitale Fabrik im Jahr 2022

„Die Digitale Fabrik 2022 in Deutschland“, so lautet das Thema einer aktuellen PwC-Studie, die sich mit der Digitalisierung in Unternehmen in Deutschland beschäftigt. Die PwC-Berater sagen einen massiven Ausbau von digitalen Fabriken auf dem deutschen Markt voraus und sehen die vernetzte Sensorik und 3D-Druck als die wichtigsten Schlüsseltechnologien.

Stephen Dyson, Leiter Strategy, Innovation und Product Development von Proto Labs kommentiert die Studie: „Industrie 4.0 und die digitale Fertigung sind zwei wesentliche Konzepte, die eine neue Art des Datenaustauschs während des gesamten Produktlebenszyklus beschreiben. Mehr als alle anderen industriellen Revolutionen zuvor hat diese das größte Potenzial, nicht nur die Industrie, sondern auch unsere Lebensweise grundlegend zu verändern. Durch die Umsetzung der digitalen Fertigung und den Einsatz von Robotik und Automatisierung eröffnen sich ganz neue Chancen. Die Welt von Industrie 4.0 kennt extrem kurze Durchlaufzeiten, bedarfsorientierte Produktion und kundenspezifische Massenproduktion und bietet Herstellern – unabhängig von ihrer Größe – eine Chance, auf globaler Ebene wettbewerbsfähig zu sein.

Die Experten von PwC sehen 3D-Druck als einen Schlüsselfaktor, dessen Einsatz in Unternehmen sich in den kommenden 5 Jahren mehr als verdoppeln wird (18 Prozent heute, 38 Prozent im Jahr 2020[1]). Das wundert uns nicht, denn wir sehen schon heute die zahlreichen Vorteile. Mit 3D-Druck können Stillstandzeiten vermieden, neue Wege in Produktion und Entwicklung gegangen werden und das mit einer Vielzahl unterschiedlichster Materialien und in einer Schnelligkeit, die aktuell kaum zu übertreffen ist.“

[1] http://www.pwc.de/de/digitale-transformation/digital-factories-2020-shaping-the-future-of-manufacturing.pdf

Exchange-Prozesse untersuchen

Process Explorer von Sysinternalskönnen Sie sich direkt bei Microsoft herunterladen. 

Sie können sich entweder die ZIP-Datei herunterladen, oder das Tool, wie übrigens jedes andere Tool von Sysinternals, auch direkt über den Browser starten. Dazu verwenden Sie die URL http://live.sysinternals.com/procexp.exe.

Fahren Sie mit der Maus über einen Prozess, zeigt Process Explorer an, welche aktuellen Dienste oder Anwendungen von dieser Instanz der svchost.exe abhängen. So können Sie recht schnell aufschlüsseln welcher Prozess für die Last verantwortlich ist.

Über den Befehl tasklist /svc in der Eingabeaufforderung können Sie sich ebenfalls anzeigen lassen, welche Anwendungen auf svchost.exe zurückgreifen. Alternativ können Sie die mit svchost.exe verbundenen Dienste auch im Task-Manager anzeigen lassen. Gehen Sie dazu folgendermaßen vor:

  1. Öffnen Sie den Task-Manager
  2. Holen Sie die Registerkarte Details in den Vordergrund.
  3. Klicken Sie mit der rechten Maustaste auf eine Instanz von exe und klicken Sie dann auf Zu Dienst(en) wechseln. Die dem betreffenden Prozess zugeordneten Dienste werden auf der Registerkarte Dienste hervorgehoben.
  4. Finden Sie einen Prozess außerhalb von Exchange, dann beenden Sie diesen um zu testen, ob Exchange wieder ordnungsgemäß funktioniert.

Keine unnötigen Anmeldungen mit Administratorkonten

Besteht für eine Arbeitsstation der Verdacht, dass diese kompromittiert oder unsicher ist, dann sollten sich Administratoren keinesfalls mit dem Administrator-Konto am System anmelden. Generell ist es durchaus sinnvoll eine Anmeldung an Rechnern zu vermeiden, die eine Verbindung mit dem Internet hat. Daher sollten die Arbeitsstationen der Administratoren, mit denen die Verwaltung der Umgebung erfolgt, keine Anbindung an das Internet erhalten.

Generell sollten Administratoren natürlich ohnehin nicht standardmäßig mit Administrator-Konten, arbeiten, sondern mit ganz normalen Benutzerkonten. Die Verwaltung der Umgebung sollte an speziellen Arbeitsstationen durchgeführt werden, die ausschließlich nur der Verwaltung dienen. Die Funktion „Anmelden als…“ ist in sicheren Umgebungen nicht empfehlenswert, da die Anmeldedaten auf dem Rechner zwischengespeichert werden. Besonders abgesicherte Administrator-Arbeitsstationen sollten daher nur zur Verwaltung verwendet werden. Die Arbeitsstationen der Administratoren sollten wiederum nur zur normalen Arbeit verwendet werden, nicht zur Verwaltung.

Industrie 4.0 und das Industrial Internet of Things (IIoT) – eine Einordnung

In Unternehmen ist das Interesse am Internet of Things (IoT) aktuell enorm. Verantwortliche beschäftigt die Frage, wie sich damit Prozesse innerhalb und über verschiedene Organisationen hinweg optimieren lassen. Zwar zirkulieren zahlreiche verschiedene IoT-Definitionen, doch geht es letztlich immer darum, Dinge smarter zu machen, indem sie miteinander kommunizieren. Im Mittelpunkt stehen die Sensoren. Sie sind eingebettet in die Geräte, sammeln Daten über Anwender und entlang der Wertschöpfungskette. Das definiert unser Produktverständnis neu, weil auch neue Geschäftsmodelle denkbar werden. Unternehmen verstehen Verbraucher wesentlich besser und können deutlich effizienter über den gesamten Leistungsprozess agieren.

Dieses Potenzial sorgt dafür, dass IoT immer mehr in den Fokus der Industrie rückt. Fertigungsunternehmen haben sogar eine speziell auf ihr Umfeld zugeschnittene Variante von IoT geprägt: das Industrial Internet of Things (IIoT). Diese Bezeichnung subsummiert Begriffe wie Smart Factories, Extreme Automation oder Industrieroboter und ermöglicht eine klare Abgrenzung zur IoT-Welt der Endkonsumenten. Dieser Paradigmenwechsel in der Fertigungsbranche wird auch als vierte industrielle Revolution beziehungsweise Industrie 4.0 bezeichnet. Fälschlicherweise werden die Begriffe „Industrie 4.0“ und „IIoT“ häufig synonym genutzt, obwohl sie sich in bestimmten Nuancen unterscheiden. Es gilt, diese Abweichungen zu verstehen.

Revolution in der Fertigung


Industrie 4.0 wurde als Hightech-Strategie von der Bundesregierung ins Leben gerufen und durch die Deutsche Akademie für Technikwissenschaften (acatech) maßgeblich geprägt, um die Computerisierung in der industriellen Produktion voranzutreiben. Diese Initiative leitete den Wandel von einer zentralisierten hin zur dezentralisierten Fertigungsbranche ein – Industrie 4.0 integriert nun das IoT, Daten und Dienstleistungen1. Anders ausgedrückt: Die Industrie 4.0 macht sich cyber-physische Systeme zunutze und erschafft Netzwerke, in denen verbundene Geräte miteinander kommunizieren.

IIoT hingegen ist der konkrete Gebrauch von IoT-Technologien über Industriegrenzen hinweg. Im Bereich der Fertigung etwa treibt das IIoT große Innovationssprünge voran. Airbus nutzt beispielsweise das IIoT, um ein cyber-physisches System ins Leben zu rufen, in dem Mitarbeiter Aufgaben aufnehmen und die Informationen an Roboter zur Fertigstellung weitergeben können. In der Praxis bedeutet das zum Beispiel, Flugzeuge mit Tablets oder Smart Glasses zu scannen und darüber verschiedene Spezifikationen zu bestimmen, etwa, welche Schraube ein Roboter für die Montage verwenden soll2. Weitere Anwendungsbeispiele für das IIoT finden sich in Smart Factories, der sogenannten Präzisionslandwirtschaft (Precision Farming) oder der proaktiven Geräteüberwachung.

Interessanterweise führen IIoT-Innovationen auch zu völlig neuen Einsatzgebieten. Hierzu zählt die Tele-Robotik, bei der sich halbautonome Maschinen von Menschen über eine virtuelle Schnittstelle fernsteuern lassen. IIoT-fähige Unternehmen können diese Tele-Roboter etwa für Aufgaben einsetzen, die in gefährlichen Umgebungen ausgeführt werden müssen: für die Inspektion von Unterwasser-Pipelines, die Wartung von Hochspannungsleitungen oder die Stilllegung von Chemiefabriken.    

Early Adopter profitieren


Industrie 4.0 setzt also ganz konkret im Bereich der Fertigung auf IIoT-Technologien. Dank Automatisierung und des Austauschs von Daten können Fertigungsunternehmen ihre Entscheidungen dezentral fällen, Informationstransparenz gewährleisten, die technische Unterstützung zwischen Maschinen und Menschen fördern und ein interoperables Umfeld schaffen3. Letztlich erhoffen sie sich davon Wettbewerbsvorteile: Laut einer Forbes-Studie aus 2016 rechnen 86 Prozent der befragten Unternehmen, mit Industrie 4.0 höhere Umsätze und Gewinne bei weniger Kosten zu erwirtschaften4.

In naher Zukunft wird Industrie 4.0 zudem das Realität werden lassen, was McKinsey als „Supply Chain 4.0“ bezeichnet. In einem kürzlich veröffentlichten Bericht wird erörtert, wie in der Konsumgüterindustrie die Lieferkette 4.0 automatisierte Fabriken ermöglicht, in denen Maschinen Informationen über Produktionskapazitäten liefern, Kunden über mobile Portale Lieferorte ändern können sowie vorausschauender Versand und Drohnenlieferungen möglich werden5.

So entwickeln sich das IIoT und Industrie 4.0 für Fertigungsunternehmen zu wichtigen Meilensteinen für die digitale Transformation. Early Adopter ernten bereits heute die Früchte ihrer frühen Bestrebungen: Sie sind produktiver, haben weniger Kosten, dafür zufriedenere Kunden und Mitarbeiter, die sich im digitalen Umfeld zuhause fühlen. Die Möglichkeiten sind endlos – sicher ist, dass sich die Branche ändert. Sie wird zukünftig smarter sein.


Quellen

  1. German Trade & Invest, page 6
    https://www.gtai.de/GTAI/Content/EN/Invest/_SharedDocs/Downloads/GTAI/Brochures/Industries/industrie4.0-smart-manufacturing-for-the-future-en.pdf
  1. Internet of business, October 2016
    https://internetofbusiness.com/9-examples-manufacturers-iiot/
  1. What everyone must know about Industry 4.0, Forbes, June 2016
    https://www.forbes.com/sites/bernardmarr/2016/06/20/what-everyone-must-know-about-industry-4-0/#1fdfc7b1795f
  1. Industry 4.0 Is Enabling A New Era Of Manufacturing Intelligence And Analytics
    https://www.forbes.com/sites/louiscolumbus/2016/08/07/industry-4-0-is-enabling-a-new-era-of-manufacturing-intelligence-and-analytics/#743d62527ad9
  1. Supply Chain 4.0 in consumer goods, McKinsey, April 2017
    http://www.mckinsey.com/industries/consumer-packaged-goods/our-insights/supply-chain-4-0-in-consumer-goods

 

IoT-Sicherheit endlich auf dem Vormarsch

Gemäß dem Internet of Things Cybersecurity Act 2017 müssen die Anbieter sicherstellen, dass sämtliche IoT-Geräte gepatcht werden können, keine einprogrammierten und nicht änderbaren Passwörter enthalten sowie frei von allen bekannten Sicherheitslücken und Schwachstellen sind.

Der dem US-Senat vorliegende Gesetzesvorschlag stellt einen positiven Schritt in Richtung der dringend benötigten Sicherheitsstandards für vernetzte Geräte dar. Indem die Anbieter dazu verpflichtet werden, alle Sicherheitslücken in ihren Systemen offenzulegen und gleichzeitig zu erklären, warum sie ihr Produkt für sicher halten,  werden die Software-Entwickler dazu gezwungen, dem Thema IoT-Sicherheit noch mehr Aufmerksamkeit zu schenken. Diese Herangehensweise macht letztlich einen Security-by-Design-Ansatz stark, was wesentlich effektiver ist, als im Nachhinein ständig an allen Ecken und Enden nachzurüsten – ein Vorgehen, das für unsere schnelllebige Zeit jedoch typisch ist.

Jetzt bleibt nur zu hoffen, dass Gesetze wie der Internet of Things Cybersecurity Act 2017 auch in allen anderen Ländern und insbesondere in Europa Einzug halten, um den IoT-Markt flächendeckend auf der ganzen Welt sicherer zu machen und grenzenloses Vertrauen zu schaffen. Schon heute kämpfen Organisationen wie die Europäische Agentur für Netz- und Informationssicherheit (ENISA) für eine effektive Sicherheitskultur. Nichtsdestotrotz wäre ein Gesetz, das Anbieter von Rechtswegen her zur Sicherheit verpflichtet, die bestmögliche Sicherheitsmaßnahme überhaupt.

Den Fokus auf primäre Sicherheitsmaßnahmen wie Passwort Management zu richten, ist sicherlich ein guter Ausgangspunkt. Dennoch wäre es hilfreich, wenn zukünftige Gesetze auch tiefgreifendere Sicherheitsmaßnahmen wie etwa Code-Härtung miteinbeziehen würden, um Manipulationen an der Software vernetzter Geräte oder auch Reverse Engineering zu böswilligen Zwecken zu unterbinden. Dabei sollte es keine Rolle spielen, ob die zu schützenden IoT-Devices im Regierungsumfeld eingesetzt werden oder sonst wo.

IoT-Doping für den Einzelhandel

Ob die IT bei geringen Beständen automatisch Ware nachbestellt oder Unternehmen den Weg eines Kleidungsstücks von der Produktion bis zum Ladentisch im Detail nachvollziehen – IoT- Lösungen haben längst Einzug in klassische Handelsunternehmen gehalten. Die Tendenz ist weiter steigend, wie die aktuelle „Zebra 2017 Retail Vision Studie“ (http://online.zebra.com/Retail_Vision_Study_US) zeigt, in der weltweit rund 1.700 Entscheider aus dem Handel befragt wurden. Danach planen 70 Prozent aller Händler innerhalb der nächsten fünf Jahre Investitionen in das Internet der Dinge. Sie erhoffen sich dadurch nicht nur einen besseren Einblick in die Supply Chain oder weniger Regallücken, sondern wollen außerdem Kundenpräferenzen ermitteln, um dadurch ihre Produktauswahl zu verbessern.

Black Box Kundenverhalten

Um das Sortiment auf die Wünsche der Kunden hin zu optimieren, benötigen Händler jedoch detaillierte Informationen über das Verhalten und die Laufwege des Kunden – bisher noch eine große Herausforderung. Denn Händler mit Ladenlokalen wissen im Gegensatz zu ihren Online-Wettbewerbern in der Regel nicht, wie die Kunden sich im Laden orientieren, wie viel Zeit sie in jedem Gang verbringen und wo sich „heiße Zonen” und „blinde Flecken” befinden.  Heute versuchen stationäre Händler häufig noch, „Flow-Maps“ der Kundenbewegungen auf Basis von Befragungen durchzuführen. Diese Vorgehensweise ist zeitaufwändig, kostspielig und liefert Ergebnisse, die für das Erkennen von Trends und die Erstellung von Modellen nicht ausreichen. Im Endeffekt verlassen sich Einzelhändler dann lieber auf ihr Bauchgefühl und ihre Erfahrung.

„Seit Jahrzehnten sind solche Läden wie eine „Black-Box“, in die Käufer eintreten und sich dort für eine nicht messbare Zeitspanne umsehen“, sagt Jorge García Bueno, CEO von Shoppermotion. „Einziges Ergebnis ist der Kassenbeleg, der für einen Verkauf steht.“ Online-Shops können dagegen genau nachvollziehen, was ein Käufer angesehen hat, welche Produkte er gut fand und welche nicht und wie viel Zeit er vor dem endgültigen Kauf mit dem Einkaufen verbracht hat. Konversionsraten von Werbung und Click-Through-Raten helfen dem Online-Händler, neben anderen Variablen, strategische Entscheidungen zu treffen.

Den Kunden in Echtzeit beobachten

Das spanische Unternehmen Shoppermotion hat deshalb eine Lösung entwickelt, die es über Grundrisse  und Analysen ermöglicht, das Verhalten von Kunden und ihre Wege im Laden zu verstehen. Dazu werden in den Geschäften kleine Beacons an Einkaufswagen und -körben angebracht. Diese Beacons senden sekündlich ein Signal an Bluetooth-Sensoren in der Decke, um dem Kunden im Laden zu folgen. Die Sensoren erfassen das Kundenverhalten in Echtzeit – in welchen Gängen sie einkaufen, aus welcher Richtung sie in den Gang kommen und sogar, wie lange sie sich vor verschiedenen Waren aufhalten. Damit können Händler den Weg jedes Kunden im Laden nachvollziehen und gleichzeitig den Datenschutz gewährleisten.

„Shoppermotion verändert das Offline-Marketing im Ladenlokal so wie Google Analytics bei seinem Erscheinen 2005 das Online-Marketing für Webseiten verändert hat”, ist Bueno überzeugt. „Mit der Intelligenz dieser Plattform konnte einer unserer Kunden durch Änderungen am Aufbau seiner Läden seinen Umsatz in einer Kategorie um fast 10 Prozent steigern. Gleichzeitig stieg die Verweilzeit um 1,3 Minuten.” Alle Informationen aus den Besuchen im Laden sind über ein Analyse-Dashboard abrufbar. Händler können dort auch den Rückgang des Verkehrs in jedem Gang oder die Verkehrsflüsse im ganzen Laden messen und sogar vorhersagen, wann es zu einem Stau in der Kassenzone kommt. Die Technologie lässt sich außerdem von Marken nutzen, die den Erfolg von Werbeaktionen in einzelnen Gängen vergleichen oder feststellen möchten, wann sich bestimmte Marketingkampagnen im Laden lohnen.

Darüber hinaus lassen sich einzelne Ladenlokale miteinander vergleichen oder zu Testzwecken in verschiedenenen Läden Waren auf andere Weise präsentieren und dann die Ergebnisse auswerten. Auch kann anhand der Analysen festgestellt werden, ob Shop-Manager Vorgaben korrekt ausgeführt haben, beispielsweise für die Platzierung einzelner Artikel. Regionalmanager bekommen durch die Auswertungen die Möglichkeit, Optimierungen im Großen, aber auch auf der Ebene einzelner Shops durchzuführen, ohne zuviel Zeit für Fahrten zwischen den Ladenlokalen zu verschwenden. Bei ihren regelmäßigen Besuchen vor Ort haben sie dann mit den Daten und Analysen die Möglichkeit, Gespräche erheblich effizienter zu führen.

Intelligente Datenplattform im Hintergrund

Um die große Menge an übertragenen Sensordaten zu erfassen, abzubilden und zu analysieren, die bei jedem Ladenbesuch anfallen, greift das Unternehmen auf Cloudera Enterprise zurück. Die Hadoop-basierende Plattform analysiert Millionen von Routen im Laden und die Stops in jedem Gang und hilft Händlern damit, Einkaufsmuster und -trends zu verstehen und Modelle für Verbesserungen im Laden vorzuschlagen. „Cloudera stellt uns eine durchgehende, moderne Plattform zum Machine Learning und branchenweit führenden Support zu Verfügung“, so Marco Doncel, CTO von Shoppermotion. „Das spart uns Zeit und Aufwand bei der Wartung und Konfiguration, so dass wir uns auf das Wichtigste konzentrieren können – unseren Kunden einen höheren Nutzen zu verschaffen und ihnen dabei zu helfen, das Einkaufserlebnis zu verändern.”

Auf die Bedeutung einer soliden technischen Plattform für den Erfolg des Einzelhandels im IoT weist auch ein Strategiepapier von Accenture hin („The Internet of Things: Revolutionizing the Retail Industry“, https://www.accenture.com/us-en/insight-internet-things-revolutionizing-retail-industry).  Danach werden IT-Teams die bestehenden IT-Investitionen in Schlüsselbereichen deutlich ausbauen müssen, um die Vorteile der im Bereich IoT generierten Daten nutzen zu können. Zu diesen Bereichen zählen Big Data/ Analytics, die technischen Infrastrukturen in den Geschäften und die Applikationen.

IKEA & Co. setzen bereits auf IoT und Big Data

Der Einzelhandel hat erkannt, dass die Nutzung von Big Data wichtig oder sogar kritisch für den künftigen Erfolg ist, weil sie Wege zu Innovationen und Diffenzierungsmerkmalen gegenüber dem Wettbewerb aufzeigt. Laut der eingangs erwähnten Zebra-Studie stehen im Handel bis 2021 bei rund drei Viertel aller Befragten Investitionen in den Bereichen Warenkorb-Analyse, Kundensegmentierung sowie zentralisierte Kundendaten und -intelligenz ganz oben auf der Prioritätenliste. Doch mit der Umsetzung hat erst ein Teil der Unternehmen begonnen.

„So langsam sehen wir den Einsatz des IoT auch in echten Anwendungen, von der Optimierung von Industriebetrieben bis zu vernetzten Fahrzeugen und Predictive Maintenance. Shoppermotion hat mit der Verarbeitung von Big Data und Machine-Learning-Analysen eine IoT-Lösung geschaffen, wie sie bisher nicht möglich war, um die Handelsbranche aufzubrechen“, so David Pieterse, Vice President EMEA, bei Cloudera. „Sie greifen auf Daten zu, die bisher nicht zugänglich waren, und nutzen sie, um für Kunden das Einkaufserlebnis zu verbessern und neue Marktchancen für Einzelhändler zu eröffnen. Die Handelsbranche wird durch diese innovative Anwendung des IoT für immer verändert.” Zu den Unternehmen, die die Lösung bereits aktiv nutzen, zählen unter anderem IKEA, Unilever sowie die Lebensmittelketten FMart und Carrefour.

5 goldene Regeln zur Einführung eines APS-Systems

APS-Lösungen gibt es zwar nicht wie Sand am Meer, dennoch kann sich die Auswahl des passenden Systems wie die Suche nach der Nadel im Heuhaufen gestalten. Gibt es keinen Masterplan zur Evaluierung und zum Praxiseinsatz, so besteht die Gefahr, sich in der Anfangsphase zu verzetteln.

DUALIS hat daher 5 goldene Regeln zur Einführung einer APS-Lösung aufgestellt:

1. Drum prüfe, wer sich ewig bindet …

Der Erfolg beim Einsatz eines APS-System steht und fällt damit, wie gut es zu den Anforderungen des Unternehmens passt. Daher sollte viel Zeit in die Evaluierungsphase investiert werden. Empfehlenswert ist jedoch keine Standardausschreibung – diese sollte höchstens eingesetzt werden, um grob zu selektieren und Reaktionsfähigkeit sowie Verständnis der Anbieter zum Thema Planung und Fertigungsleitstand zu testen.

Viel wichtiger ist es jedoch, die Auswahl an den eigenen Prozessen und Restriktionen in der Planung zu orientieren. Gute Systemhersteller bieten eine Prüfung der eigenen Daten an (z.B. mit einem integrierten Konsistenztest in der Software), um fehlende Daten für ein bestimmtes Planungsziel zu ermitteln.

Die Kür ist eine Vorab-Modellierung des Planungsmodells mit den eigenen Daten aus dem ERP- und/oder MES, damit bestimmte Use-Cases direkt an den Daten untersucht und deren Umsetzung definiert werden kann. Das fördert für alle Beteiligten das Verständnis der Möglichkeiten, die ein APS-System bieten kann, und zeigt gleichzeitig die Grenzen auf, an denen das intelligente Eingreifen und Interagieren der Planer gefragt ist.

2. Der Planer ist das Zünglein an der Waage

Die späteren Nutzer des neuen APS-Systems – nämlich die Planer – sollten von Anfang an in den Auswahl- und Ideenfindungsprozess einbezogen werden. Sind diese initial in alle Überlegungen eingebunden, steigert dies die Akzeptanz auf ihrer Seite. Zudem wird das Verständnis gefördert und Zweifel werden eliminiert. Denn oftmals wollen die Planer an ihren Praxis-erprobten Vorgehensweisen festhalten. Das Verständnis, das ein System ihre Vorgehensweisen tatsächlich auch abbilden kann und damit ihre tägliche Arbeit um ein Vielfaches erleichtert, erfordert ein Umdenken. Dieser Prozess benötigt auf allen Seiten aber auch Geduld und Verständnis für den Blickwinkel der Planer. Die langjährige Erfahrung und das wertvolle Wissen der Planer ist dabei essenziell – denn dies gilt es schließlich, im System abzubilden bzw. zu systematisieren. Ein APS hat nicht das Ersetzen von Know-how-Trägern zum Ziel, sondern bildet mit diesen eine sinnvolle Symbiose und unterstützt deren tägliche und immer komplexer werdende Arbeit.

3. Planung ist Chefsache

Sind die Planer motiviert, ist das bereits mehr als die halbe Miete. Jedoch muss auch derjenige dahinterstehen, der letztlich die Miete zahlt: die Geschäftsleitung. Diese sollte sich eindeutig zum Thema APS und dessen Notwendigkeit für Wachstum und Wettbewerbs­fähigkeit committen. Halbherzig ein APS-System einführen, wird in der Praxis nicht funktionieren. Die Einführung muss mit Bedacht und der erforderlichen Zeit stattfinden. Die Projekt­verantwortlichen sollten daher unbedingt die nötigen Zeitfenster und die Rückendeckung der Geschäftsleitung erhalten.

4. Ein Projekt der kleinen Schritte

Wenn alle Grundsteine intern gelegt sind, sollte ein realistischer Projektplan erstellt werden. Dieser sollte mehrere Einführungsmeilensteine beinhalten (nicht gleich die eierlegende Wollmilch­sau). Dabei sollte so realistisch wie möglich geplant werden, ohne die eigenen Möglichkeiten zu überschätzen. Oftmals fehlen wesentliche Daten für die Planung, die erst über einen bestimmten Zeitraum analysiert und dann systematisiert werden müssen. Weiterhin ist es wichtig, die Ziele zu definieren, mit denen man zu Anfang die größten Benefits erzielen kann. Dafür ist die Unterstützung erfahrenere Berater auf Seiten des Systemanbieters unabdingbar. Denn das übergeordnete Ziel „wir möchten besser und effizienter planen können“ muss dann heruntergebrochen und in kleine Teilabschnitte zerlegt werden. Diese gilt es dann, mit den Aufgaben des Anwenderunternehmens und des Systemanbieters anzureichern. Hilfreich ist es hier auch, möglichst zu abstrahieren, bevor spezielle Planungsrestriktionen vielleicht entwicklungstechnisch gelöst werden. Das bedeutet, es ist in jedem Fall sinnvoll, zunächst den verfügbaren Systemstandard auszuschöpfen, bevor kostenintensive Weiterentwicklungen angestoßen werden.

5. Im Gespräch mit anderen Anwendern

Ein Kriterium, das für den Systemanbieter spricht, ist das „Zusammenbringen“ von Anwendern. Dies zeigt sich darin, ob zu Beginn von Herstellerseite auch Referenzbesuche angeboten werden bzw. regelmäßige Kunden-Events organisiert werden. Der rege Austausch zwischen den Anwendern unterstützt den erfolgreichen Einsatz des Systems. Es werden eigene Fehler minimiert, man bekommt weitere oder neue Anregungen zur Lösung, Fragestellungen lassen sich klären und zudem erhält der Systemanbieter wertvollen Input für seine eigene Weiterentwicklung des APS-Systems.

Automated Service-Based Testing is the Key to High-Quality

IoT Needs a Different Perspective on Testing

The scale of IoT is large — probably larger than most embedded manufactures have previously coped with. Moreover, individual devices are just part of a larger whole that consists of many varieties and types of devices. IoT’s promise is in the services it provides and the conglomeration of many „things“ into something of value to the enterprise. It is important to deal with this scale in both (1) device („things“) requirements, and (2) the value it adds to the whole automation („services“) in the software development lifecycle, in order to meet cost, schedule, and time-to-market constraints. Testing, in particular, must scale to expected operational environment, plus provide support for critical non-functional requirements such as performance and security.

The Internet of Services needs automation

Automation in the software development process becomes critical as the scale of the IoT implementation rises. Security and non-functional requirements become more important as connectivity and scale increases. Service-based automated testing becomes critical during integration and system testing phases, while also enabling testing for security, stability, and performance.

Let’s take a look at Parasoft’s depth and breadth in test automation, as shown in Figure 1, as it applies to each phase of the SDLC. The key takeaway is how each solution complements the other and scales as the product grows. Unit testing is complemented by static and run-time analysis. During integration, unit testing progresses to API and service testing tools, which then progress to service virtualization.

Parasoft

Most developers are familiar with some aspects of test automation; however, many are not thinking in terms of services or services-based testing and virtualization. As the paradigm shifts from “things” to “services,” the benefit of service-based testing becomes more apparent.

Risk and Cost Reduction with Service Based Testing in IoT

As a product progresses through the development process into integration, testing becomes more complicated and expensive. This is also the stage that many critical bugs are found, including security and performance issues not detectable at the unit level. A big risk is the availability of testing staff, labs, and hardware resources.

The solution here is automation. Automation provides a way to increase testing productivity, repeatability, and scope of system testing. An automated, services-based approach to testing is critical for the success of a newly-developed IoT device.

Benefits include the following:

  • Increased Testing Productivity

    Automation can assist in the generation of service-based tests, and testing loads that are repeatable and extensible. Runtime analysis tools are run alongside live tests to detect and trace errors. Defects are more easily caught and fixed than with manual testing. Once a fix is made, automation provides easy regression tests. Repeating tests as part of a continuous testing, agile, or iterative development process is supported.

  • Removing hardware resource bottlenecks   

    One of the biggest issues in test scheduling is the availability of dependent components. These may be other devices on the network, or higher level functions in the IoT network. Simulating these dependencies removes testing bottleneck while making an entire virtual lab available on every tester and developer’s desktop.

  • Scaling to current and future needs

    As system integration progresses, the scope of testing increases to include more and more dependent components. Scalability is key in IoT systems, since the device under test is expected to perform in a highly-complex environment. During the device’s lifecycle environment, complexity will increase, and automated testing must scale with the product.

  • Practical and realistic performance and security testing

    Development teams do what they can to test performance and security during integration, but without automation, it’s often time-consuming and expensive to set up realistic scenarios in the lab. A services-oriented approach provides a framework for specifying and verifying performance and testing security. 

Beyond Functional Test: Security and Performance

A pure functional test isn’t enough to bring a device to market. Non-functional requirements such as security and performance are critical, but are some of the hardest characteristics to test for. A device that has poor performance or poor security simply isn’t competitive, but meeting time-to-market constraints and properly testing performance and security is a serious challenge for IoT devices. Service orientation provides a common way to specify requirements (e.g. performance on a per-service bases) and for testing security (e.g. attacks exploiting exposed services and APIs).

Performance and Load Testing

Performance and security requirements are likely to be expressed in terms of a quality-of-service statement. For example, an HVAC system might be required to maintain building temperature to 75 degrees within two hours based on a 5-degree difference in outside temperature, reporting current temperature every 10 seconds. If designing a thermostat for this product, you can test the functionality at the individual level and perhaps the performance too. However, if a deployed system consists of hundreds of thermostats, performance of the device is just a small part of a complex network of other devices.

Security Testing

Security requirements are often system-level and vague. In the HVAC system example, a thermostat might be required not to fail under heavy network loads. A denial-of-service attack relies on flooding the target with heavy traffic, sometimes with malformed packets. Penetration and fuzz testing is used in these cases to make sure devices can withstand a hostile network environment. Scalability available in a virtual environment exceeds what’s possible with real hardware.  

Service Virtualization

The next logical step for automated service-based testing is virtualization. A complete virtual environment is possible by simulating all dependent components plus a full suite of test stimuli. The benefit of service virtualization is not just realistic and repeatable test environments but the ability to duplicate and deploy at will thus creating a “virtual lab” — a lab that’s just as effective as the real thing but at a fraction of the cost.

Conclusion

Test automation, in general, is critical to meeting IoT product goals such as time-to-market and budget. A service-based approach increases testing productivity, and allows for highly-repeatable and scalable tests for performance and security, along with the ability to build virtual test environments. As the complexity of IoT devices and their deployment environment grows, the need for scalable, service-level testing becomes more compelling.