Mit Standards zu besserer Software

Beinahe jede Branche hat Standards entwickelt, um über sichere und zuverlässige Software zu verfügen. Je kritischer der Einsatzbereich, desto strenger sind die Normen. Und desto größer ist der Aufwand, bis aus dem Entwicklungsprojekt ein marktreifes Produkt entsteht. Kritische Infrastrukturen, Flugzeuge, Automobile oder medizinische Geräte verlangen von den Entwicklern besondere Prozesse und Dokumentationen, bevor die Device in der Praxis eingesetzt werden darf. Je mehr Embedded Devices die Geschäftsmodelle und das Leben jedes Einzelnen bestimmen, desto wichtiger wird es auch außerhalb der hochkritischen Bereiche, eine hohe Software-Qualität sicherzustellen. In vielen Einzelbereichen kann die Überprüfung der Software auf Einhaltung der Normen und Standards automatisiert werden, etwa bei der Code-Analyse. Diese Möglichkeiten sollten genutzt werden, um Time-to-Market und Entwicklungskosten zu minimieren.

DO-178 C

CodeSonar erlaubt durch Visualisierung einen anderen Blick auf den Code, mit dem sich viele potenzielle Probleme frühzeitig erkennen lassen. (Quelle: Grammatech)

Mit die vielleicht strengsten Vorgaben hat die Avionik-Norm DO-178C (Software Considerations in Airborne Systems and Equipment Certification), die von EUROCAE komplett als ED-12C übernommen wurde. In Kapitel 6 befasst sich der Standard mit dem Verifizierungsprozess für Software. Einige der in den Kapiteln 6.3 und 6.4 aufgestellten Forderungen können mit geeigneten Tools wie GrammaTech CodeSonar weitgehend automatisiert und ohne große Aufwände überwacht werden. So etwa bei der unter Punkt 6.3.3 in DO-178 aufgestellten Forderung, dass sichergestellt sein muss, dass es keinen Konflikt zwischen der Software-Architektur und den High-Level-Anforderungen geben darf. Dabei werden besonders Funktionen wie Partitionierungsschemata hervorgehoben. Indem die Architektur durch das Analyse-Tool visualisiert wird, können die Entwickler interaktiv die Struktur der Software untersuchen. Die APIs von CodeSonar erlauben es zudem, automatisierte und individuell angepasste Checks zu integrieren.

Eine weitere Forderung in DO-178 ist, dass Partitionen isoliert sein müssen und Speicherlecks zu verhindern sind. Diese Anforderung sollte eigentlich in jedem Entwicklungsprojekt Standard sein. Um dieses auch zu gewährleisten, müssen sowohl der Daten- als auch der Control-Fluss exakt in allen möglichen Zuständen des Programms nachvollzogen werden. Unter anderem sollten sich dabei folgende Fragen beantworten lassen:

  • Können Daten aus Bereich A die Verarbeitung in Bereich B beeinflussen?
  • Gibt es einen Ausführungspfad zwischen Bereich C und Bereich D?
  • Welches sind die Caller der Funktion F?

Ein Analyse-Tool kann die Partitionssicherheit automatisch analysieren und zudem bei möglichen Problemen wichtige Lösungshinweise geben.

Neben diesen beiden Beispielen enthält die Avionik-Norm noch zahlreiche weitere Vorgaben, wie Software in einem hochkritischen Bereich sicher gestaltet werden kann. Für die meisten Entwicklungsprojekte ist es unsinnig, sich komplett an einem derart strengen Standard zu orientieren. Man sollte ihn vielmehr als Sammlung von Hinweisen betrachten: Welche davon auf das jeweilige Unternehmen und Entwicklungsprojekt passen, sollte im Vorfeld bereits evaluiert werden, um die Möglichkeiten zur Automatisierung bei der statischen Analyse optimal zu nutzen.

MISRA-C

Ganz ähnlich verhält es sich mit dem weit verbreiteten Standard MISRA-C, der aus dem Automotive-Bereich stammt und auch vor allem dort zum Einsatz kommt. Bei MISRA-C geht es weniger darum, Fehler zu verhindern, sondern um einen Regelsatz für die Entwicklung zur Verfügung zu stellen. Die Richtlinien befassen sich zum Beispiel mit dem Umgang mit Sprachkonstrukten, die nicht eindeutig definiert sind und so bei verschiedenen Compilern zu verschiedenen Ergebnissen führen können. Um die Einhaltung zu gewährleisten, setzt MISRA-C unter anderem den Einsatz von statischer Analyse voraus.

Einige der Regeln in MISRA-C sind im Rahmen einer automatischen Analyse einfach umzusetzen. Diese Regeln werden im Standard als „Decidable“ (Entscheidbar) bezeichnet, hier kann eine eindeutige Falsch/Richtig-Entscheidung getroffen werden. Das Verbot von Trigraphen, also der mit ?? beginnenden Drei-Zeichen-Ketten, gehört zu dieser Kategorie. Diesen Teil des Standards grundsätzlich in die eigene Entwicklung zu übernehmen, ist auf jeden Fall sinnvoll. Etwas komplexer wird es bei den als „System“ bezeichneten Regeln von MISRA-C, da hierbei mehrere Elemente des Codes gleichzeitig betrachtet werden müssen. Darunter fällt zum Beispiel die Forderung, das externe Identifier immer unterscheidbar sein müssen. Auch diese Regel ist zwar entscheidbar, aber nur, wenn das Analyse-Tool alle Code-Bereiche durchforstet und die gefundenen Identifier vergleicht. Manuell ist das kaum zu leisten, auch die Automatisierung dieser Prüfung gestaltet sich ziemlich schwierig. In der Praxis hat es sich als sehr effektiv erwiesen, das Analyse-Tool mit dem Build-System als vertrauenswürdige Quelle zu integrieren. Dann können auch diese Checks ohne größere Hürden in den eigenen Entwicklungsstandard übernommen werden.

Allerdings verfügt MISRA-C auch über Regeln, deren Einhaltung als „unentscheidbar“ bezeichnet wird. Es wird hierbei davon ausgegangen, dass es keine Methode gibt, die Einhaltung der jeweiligen Regel zu verifizieren oder zu falsifizieren. Das Verbot von direkten oder indirekten Rekursionen gehört in diese Kategorie. Um hierfür einen Checker zur automatischen Analyse zu entwickeln, muss man die Balance zwischen False Postives und False Negatives finden, um zu sinnvollen Ergebnissen zu gelangen. Hier gilt es, die einzelnen Regeln für die eigene Software-Entwicklung zu priorisieren. Denn nur sehr ausgereifte Analyse-Tools können hier wirkliche Hilfestellung bieten.

DIN EN 50128

Auch die DIN EN 50128 befasst sich mit der Entwicklung sicherer Software und kann, obwohl sie eigentlich für den Eisenbahnverkehr entwickelt wurde, in vielen Projekten Anregungen bieten. Die Norm ist im Kern eine Spezialversion der recht allgemeinen EN 61508. DIN EN 50128 bezieht sich zum Teil explizit auf MISRA-C und fordert neben Modularität komponenten-, struktur- und objektorientierte Programmierung. Der Einsatz eines Tools zur statischen Analyse ist explizit vorgesehen. Konkrete Forderungen umfassen zum Beispiel eine Begrenzung der Komplexität von Funktionen und Methoden, den Verzicht auf dynamische Variablen oder die Analyse von Steuer- und Datenfluss. Alle diese Faktoren können unter Verwendung von CodeSonar automatisiert abgebildet und somit relativ einfach in den eigenen Entwicklungsprozess integriert werden.

Die Fülle an Normen und Standards hat sicher ihre Berechtigung, doch verstellt sie auch gerne den Blick auf das Wesentliche: Allen Vorgaben gemein sind Best Practices, wie Software sicherer und zuverlässiger gemacht werden kann. Das ist zum einen im Interesse der Kunden und Anwender. Es ist aber auch im ureigensten Interesse der eigenen Unternehmen. Eine enge Anlehnung an diese Standards sorgt für transparente Prozesse, eine dokumentierte Vorgehensweise und klare, interne Regeln für die Entwicklung. Eine schnellere Time-to-Market, geringere Wartungsaufwände und Folgekosten sowie zufriedene Kunden sind der Lohn dieser Mühe.

M2M Summit zieht nach Köln zur StartupCon

Die M2M Alliance ist eine Kooperation mit StartupCon eingegangen, Europas größter Tageskonferenz für Start-ups und Innovation. Die 11. Auflage des M2M Summits findet nun am 11. Oktober 2017 in der LANXESS Arena in Köln statt. Auf 80.000 Quadratmetern erhalten Besucher des M2M Summits hier einen einzigartigen Überblick über die neuesten M2M- und IoT-Entwicklungen – sowie Zugang zur StartupCon. Die Veranstaltung ist dafür bekannt, Investoren und Unternehmen aus einer Vielzahl von Branchen anzuziehen.

„Die Kooperation mit StartupCon ermöglicht es uns, unseren Ausstellern, Partnern und Referenten eine einmalige Gelegenheit zu bieten, sich einem großen und innovativen Publikum zu präsentieren“, sagt Dr. Andreas Fink, Vorsitzender der M2M Alliance, die den M2M Summit organisiert. „Unsere etablierte Konferenz und Ausstellung für M2M-Kommunikation und das Internet of Things ist nun Teil eines erstklassigen und einzigartigen Programms für Unternehmer. Die Teilnehmer der beiden Events profitieren von neuen Kontakten und weiterer Leadgenerierung.“ Alle Besitzer eines M2M Summit Tickets haben Zugang zu den StartupCon-Aktivitäten wie Konferenz, Ausstellung, Pitches, Workshops und VR-Kinos.

„M2M-Technologie und das Internet of Things sind wichtige Themen für Start-ups und traditionelle Unternehmen“, sagt Ralf Brüstle, Organisator von StartupCon. „Dank unserer Kooperation mit der M2M Alliance können Teilnehmer und Besucher von StartupCon nun die neuesten M2M- und IoT-Entwicklungen unter einem Dach sehen und aus erster Hand erleben. Das dürfte zu noch mehr Innovationen sowie neuen Geschäftsmöglichkeiten führen.“

Innerhalb der LANXESS Arena wird es eine eigene Ausstellungsfläche der M2M Alliance sowie einen Konferenzsaal mit den neuesten Technologietrends rund um M2M und IoT geben. Referenten von IBM, thyssenkrupp und SigFox werden ihr Wissen sowie die neuesten Entwicklungen präsentieren. Der von Prof. Axel Sikora organisierte Akademische Tag wird ebenfalls Teil des M2M Summits sein. Darüber hinaus werden Forschungsprojekte zu den neuesten M2M- und IoT-Technologien sowie Innovationen vorgestellt und diskutiert.

Wie bereits auf dem M2M Summit 2016 haben junge Unternehmen die Möglichkeit, ihre Ideen und Lösungen für M2M- und IoT-Technologien in Form eines Pitches zu präsentieren. Dieser Start-up Pitch wird von der M2M Alliance organisiert. Der Sieger erhält eine Wildcard und darf seinen Pitch ein weiteres Mal live präsentieren – dann  auf der Bühne in der StartupCon Arena – mit der Chance auf einen Pitch in San Francisco, wo es 1 Million US Dollar zu gewinnen gibt.

StartupCity Cologne

Im Innenraum der Arena findet die StartupCity Cologne statt. Die rund 500 nationalen und internationalen Early Stage-Startups präsentieren sich hier mit vielfältigen Konzepten aus den Bereichen Mobility, Technology, Finance, Insurance, Commerce, Life Science, Lifestyle sowie Services und stehen den Interessenten Rede und Antwort. Parallel dazu gewähren rund 200 Top-Referenten auf fünf Bühnen Einblicke in deren Leben als Unternehmer und berichten von den aktuellsten Entwicklungen.

StartupExpo

Im Umlauf der Arena findet die StartupExpo statt. Hier dreht sich alles um führende Unternehmen und Growth Startups. Mehr als 100 Aussteller geben Einblicke in neue Entwicklungen und diskutieren mit den Teilnehmern erfolgsversprechende Strategien sowie Partnerschaften rund um den voranschreitenden digitalen Wandel.

One-On-One Pitches, Talks, Workshops und ein Hackathon

Die 50 Logen der LANXESS Arena stehen für Pitches zur Verfügung. Junge Gründer haben hier die Möglichkeit ihre Ideen und Geschäftsmodelle den mehr als 300 Investoren vorzustellen. Zusätzlich stehen 20 Table Talks, 30 Workshops, vier VR-Kinos sowie ein Hackathon und ein spektakulärer Drohnen-Parkour auf dem Programm von Europas größter Tageskonferenz.

Neue Ticket-Preise

Tickets für die M2M Alliance Konferenz und Ausstellung sowie die 4. StartupCon am 11. Oktober 2017 in der Kölner LANXESS Arena gibt es für interessierte Gründer – inklusive aller Vorträge und Workshops – ab 19 € (Studenten) bis 69 €. Investoren zahlen 199 € für den Zugang zu allen Vorträgen sowie Workshops und der StartupExpo. Unternehmer können für 249 € das komplette Angebot der Veranstaltung nutzen. Tickets sowie weitere Informationen gibt es auf www.m2m-summit.com und www.startupcon.de.

WSUS mit der PowerShell verwalten

Die Steuerung von WSUS nehmen Sie mit folgenden CMDlets vor:

  • Add-WsusComputer– Fügt einen angebundenen PC einer bestimmte WSUS-Gruppe hinzu.
  • Approve-WsusUpdate– Gibt Updates frei
  • Deny-WsusUpdate– Verweigert Updates
  • Get-WsusClassification– Zeigt alle verfügbaren Klassifikationen an, die aktuell verfügbar sind
  • Get-WsusComputer– Zeigt WSUS-Clients/ und -Computer an. Geben Sie den Befehl ein, sehen Sie auf einen Blick die angebundenen Clientcomputer, deren Betriebssystem und den Zeitpunkt der letzten Statusübermittlung.
  • Get-WsusProduct– Zeigt eine Liste aller Produkte auf dem WSUS an, für die der Server Patches bereithält.
  • Get-WsusServer– Zeigt alle WSUS-Server im Netzwerk an
  • Get-WsusUpdate– Zeigt Informationen zu Updates an
  • Invoke-WsusServerCleanup– Startet den Aufräumevorgang
  • Set-WsusClassification– Fügt Klassifikationen zu WSUS hinzu
  • Set-WsusProduct– Fügt Produkte zu WSUS hinzu
  • Set-WsusServerSynchronization– Steuert die WSUS-Synchronisierung

Windows-Updates in der Eingabeaufforderung und PowerShell steuern

Wusa.exe <MSU-Datei des Patches> /quiet /norestart

Die Option /quiet installiert ohne Rückmeldung, durch die Option /norestart startet der Computer auch dann nicht neu, wenn der Patch das fordert. Mit der Option /uninstall können Sie Updates deinstallieren:

Wusa.exe /uninstall /kb:<Knowledgebase-Nummer des Patches>

In der Eingabeaufforderung können Sie auch in Windows 10 und Windows Server 2016 die installierten Updates anzeigen lassen. Dazu wird der Befehl wmic qfe verwendet. 

Auch in der PowerShell lassen sich die installierten Updates anzeigen. Dazu wird das CMDlet get-hotfix verwendet.

Das CMDlet kann aber nicht nur Updates des lokalen Rechners anzeigen, sondern auch Updates, die auf Rechnern im Netzwerk installiert sind:

Get-hotfix -computername <Name des Rechners>

Intelligente Produkte durch IoT

Es wird kaum noch ein Produkt angekündigt oder der Öffentlichkeit präsentiert, welches nicht das Prädikat „Smart“ oder „Intelligent“ trägt. Durch die zunehmende Digitalisierung werden von Haushaltsgeräten, über medizinische Geräte bis hin zu industriellen Anlagen verschiedenste Bereiche mit Kommunikationstechnologie ausgestattet. Unter der Bezeichnung Internet-of-Things, kurz IoT, lassen sich diese Ansätze bündeln. Dabei bezieht sich das Werteversprechen von intelligenten Geräten häufig auf drei Anwendungsgebiete.

Digitalisierte Produkte ermöglichen innovative Geschäftsmodelle

In verschiedenen Industrien kann beobachtet werden, welchen Einfluss IoT auf Produktstrategien ausübt. Unternehmen, welche bis vor kurzem noch vom Produktverkauf lebten, wechseln verstärkt auf Dienstleistungen und as-a-Service-Modelle. Somit erwirbt ein Kunde nicht mehr das Produkt selbst, sondern hat die Möglichkeit, eine Leistung bedarfsgerecht in Anspruch zu nehmen.

In der Luftfahrt ist dies bereits gängige Praxis. Statt Flugzeugturbinen werden dort schon längst Flugstunden verkauft. Ähnliche Modelle finden sich nun auch bei Herstellern von Kompressoren, welche Druckluft verkaufen oder bei Schweißrobotern, welche nach geleisteten Schweißpunkten abgerechnet werden.

Verbesserung der Gerätenutzung und des Ressourceneinsatzes

Insbesondere im industriellen Bereich, wo kapitalintensive Anlagen und Maschinen betrieben werden, spielt die Prozessoptimierung auf Basis der tatsächlichen Nutzung eine wesentliche Rolle. Predictive Maintenance ist dabei einer der hauptsächlichen Anwendungsfälle, welcher durch IoT ermöglicht wird. Dabei werden durch die Auswertung des Nutzungsverhaltens mittels maschinellen Lernens aufkommende Störungen früher erkannt. Mit diesen Einsichten können aus teuren ungeplanten Stillständen geplante Stillstände gemacht werden. Die schlussendlichen Effekte sind die Einsparung von Kosten und das Vermeiden von Produktionsausfällen.

So arbeiten die Unternehmen Schaeffler und IBM zusammen, um die weltweiten Produktionsstandorte von Schaeffler zu optimieren. Beispielsweise soll das Verhalten von Werkzeugmaschinen überwacht werden, um ungeplante Ausfälle im Fertigungsprozess vorherzusagen und rechtzeitig durch Instandhaltungsmaßnahmen zu verhindern. Das Ziel ist dabei die Steigerung der Gesamtanlageneffektivität (GAE/OEE).

Individuelle Kundenerlebnisse

Das dritte Werteversprechen, mit dem Fokus auf das Business-to-Consumer Umfeld, ist die Schaffung von individuellen Kundenerlebnissen. Möglich wird dies durch die direkte Verbindung zum Endkunden über IoT-fähige Produkte. Durch kontinuierliches Feedback der Kunden können personalisierte Empfehlungen zur Produktnutzung ausgesprochen und komplementäre Dienstleistungen angeboten werden. Dabei steht die Verbesserung der Kundenzufriedenheit im Mittelpunkt.

Anforderungen an eine IoT-Plattform

Im Kern der drei Ansätze geht es um das Verbinden eines Gerätes oder einer Anlage mit einer zentralen IoT-Plattform. Dabei ist die Grundlage die sichere Datenübertragung, welche über bestimmte Protokolle und Mechanismen gewährleistet werden kann. Eine weitere Anforderung ist das Speichern und Archivieren von großen Datenmengen. Je nach Gerät und Anwendungsfall kann das tägliche Datenvolumen pro Gerät mehrere Gigabyte betragen. Kostengünstige und skalierbare Speichertechnologien sind daher ein Muss für eine IoT-Plattform. Zusätzlich spielt die Analyse der Daten eine große Rolle. Verfahren aus der Statistik, dem maschinellen Lernen und der künstlichen Intelligenz helfen, bisher unbekannte Muster und Trends zu identifizieren, was wiederum die Voraussetzung für Predictive Maintenance ist.

Die Erweiterbarkeit durch zusätzliche Funktionen – wie etwa kognitive Dienste – ist ebenfalls ein entscheidendes Kriterium. Dadurch lassen sich bereits heute schon selbstlernende Applikationen aufbauen, welche mittels natürlicher Sprache interagieren können. Die folgende Darstellung führt die Funktionen einer modernen IoT-Plattform am Beispiel von IBM IoT for Connected Products auf.

Der Weg für IoT führt häufig in die Cloud

Durch die vielfältigen funktionalen Anforderungen, weitreichende und flexible Konnektivität, Speichern und Auswerten großer Datenmengen, sowie die nicht-funktionalen Anforderungen, wie etwa Skalierbarkeit, Sicherheitsmechanismen und Erweiterbarkeit, bietet die Cloud ein ideales Zuhause für IoT-Plattformen.

Insbesondere Software-as-a-Service, kurz SaaS, ist ein für IoT-Plattformen geeignetes Konzept. Neben der reduzierten technischen Komplexität zählen auch die niedrigen Anfangskosten zu den Vorteilen von SaaS-Lösungen. So muss man nicht im Voraus viel in neue Hard- und Software investieren. Es kann pragmatisch ein IoT-Ansatz ausprobiert und bei entsprechendem Erfolg erweitert werden. Dadurch wird ein gesundes Wachstum mit der Wertschöpfung einer IoT-Plattform erzielt.

OpenShift Container Platform 3.6

Red Hat OpenShift Container Platform 3.6 ist die jüngste Version von Red Hats, auf Kubernetes 1.6 und integrierter Docker-Runtime basierenden Container Application Platform für den Unternehmenseinsatz.

Die PaaS erlaubt es Nutzern auf Basis von Docker und Kubernetes, schnell und einfach Applikationen und Services in Hybrid- und Multi-Cloud-Umgebungen konsistent bereit zu stellen.

PCI-DSS-Leitfaden

Neu in OpenShift Container Platform ist unter anderem auch ein Leitfaden zur Anwendung von PCI-DSS (Payment Card Industrie) mit detaillierten Netzwerkrichtlinien. Die Funktion adressiert Unternehmen, die Kreditkarteninformationen verarbeiten, speichern und übertragen müssen. Im Prinzip erläutert der Leitfadem, wie sich die Anforderungen des Payment Card Industry Data Security Standard mit Applikationen in Red Hat OpenShift Container Platform umsetzen lassen.

Ferner unterstützt die Plattform jetzt bis zu 2000 Nodes und 250 Pods pro Node, statt vorher 1000 Nodes. Weitere neue Features sorgen für mehr Sicherheit im Host-System und in der Container-Infrastruktur. So lassen sich Container mit vertrauliche Informationen verschlüsseln und signieren, also sicher auf einem Backend-Speichersystem ablegen. Ferner lässt sich in der neuen Version der Einsatz von Signaturen, etwa bei Bildinhalten, verpflichtend machen.

NetworkPolicy

Darüber hinaus zeigt Red Hat in einer Vorschau die Erweiterungen der NetworkPolicy. NetworkPolicies können detailliert festlegen, wie Applikationen miteinander kommunizieren und welche Netzwerkressourcen sie bereitstellen. So können Anwender schon beim Bereitstellen von Services definieren, wer eine bestimmte Applikation im Netzwerk nutzen darf.

Container Native Storage

Mit dem auf Gluster Storage basierenden Container Native Storage stellt Red Hat zudem einen hochverfügbaren Speicher bereit, der sich wahlweise über die OpenShift Registry aber auch als direkt einsetzbarer persistenter Speicher bei der Erstinstallation von OpenShift einsetzen lässt. Nutzer können so kurzlebige, in Container gepackte Anwendungen auf dem gleichen System mit persistentem Storage verwenden, was letztendlich Ressourcen einspart.

Hat Service Broker und Service Catalog

Sollen Unternehmen Anwendungen über Public- und Private-Cloud-Services und physischen Ressourcen hinweg nutzen können, muss die unterliegende Plattform die Konsistenz dieser Anwendungen gewährleisten und zudem dafür sorgen, dass die den Applikationen zugrunde liegenden Services von vielen Plattformen aus zugänglich sein.
In Openshift 3.6 sorgen eine Reihe neuer Funktionen dafür, dass diese Services leicht auffindbar und einsetzbar sind, z. B. mit Hilfe der ebenfalls als Preview eingestuften Features Service Broker und Service Catalog. Sie unterstützen Nutzer beim Provisionieren und Einbinden von Services in ihre OpenShift-Applikationen, wobei es egal ist, ob die Services im eigenen Rechenzentrum oder in der Cloud laufen.

Mit Hilfe des Service Catalogs lassen sich dann Endpunkte (Broker), welche die verschiedenen Services verwalten, über OpenShift oder Kubernetes konsumieren.

Zudem ermöglicht der ebenfalls als Vorschau klassifizierte OpenShift Template Broker Anwendern, OpenShift Templates über die Benutzeroberfläche des neuen Service Catalogs auszuwählen und in Multi-Container-Application Services von OpenShift zu verwenden. So steht z. B. der ebenfalls als Preview der Ansible Playbook Broker zur Verfügung. Er erlaubt Anwendern, Ansible Playbooks in Application Services von OpenShift einzufügen und Applikationen zu verknüpfen.

Die praktische Umsetzung der REFA-Lehre in 4.0

Eine moderne Produktion noch moderner gestalten

Bereits in der Vergangenheit wurden beim Hamburger Klimaspezialisten STULZ  umfangreiche Maßnahmen getroffen, um die hohen Qualitätsstandards in der Produktion abzusichern. So fällt schon beim Betreten der Schaltschrankfertigung die unerwartete Stille auf. „Unsere E-Vorfertigung hat den Geräuschpegel einer Bibliothek“, erklärte Betriebsleiter Panknin und fügte hinzu: „Neben organisatorischen Maßnahmen im Produktionsprozess hat die Reduzierung der Geräuschkulisse dazu geführt, dass nahezu alle Verdrahtungspunkte ordnungsgemäß gesetzt werden.“ Mit Augmented Reality solle nun der Weg zur Null-Fehler-Produktion beschritten werden. Für die Umsetzung wurde die ebenfalls in Hamburg ansässige attenio GmbH ins Boot geholt.

Hoher Zeitaufwand durch Informationsbeschaffung

 Die Ausgangssituation in der Elektro-Vorfertigung skizzierte Abteilungsleiter Laackmann: „Jeder Mitarbeiter platziert im Monat rund 13.000 Verdrahtungspunkte. Konzentrationsschwächen können wir uns hier nicht erlauben.“ Besonders bei komplexen Anfertigungen gelte es, Fehler unbedingt zu vermeiden. Außerdem entstehe ein Zeitaufwand dadurch, dass die Monteure immer wieder auf Schaltplänen ermitteln müssten, was zu tun sei. „Die Pläne liegen zwar digital und in Papierform vor, aber das Vorgehen kann noch immer verbessert werden. „Wir suchen daher stets nach innovativen Lösungen, um diese Prozesse zu optimieren“, sagte Laackmann und fügte hinzu, die neue Technologie solle genau dies ermöglichen.

Wie der Prozess momentan läuft

Aktuell generiert der Vertrieb eine Kundenanforderung. Aus einem Maximal-Schaltplan und den Anforderungen des Auftraggebers werden die Informationen für den Monteur in Form von PDF-Dateien und ausgedruckten Papieren bereitgestellt. In Zukunft soll eine Digitalisierung diesen Prozess vereinfachen und nur noch aktuell prozessrelevante Informationen digital zur Verfügung stellen.

Am Arbeitsplatz des Monteurs befinden sich in Griffweite Behälter mit den unterschiedlichen Bauteilen für den Schaltkasten (im Bild links und auch rechts). Der zu bestückende Kasten steht in ergonomisch angepasster Schräglage direkt vor dem Mitarbeiter. Auf einem beweglichen Touch-Screen in Kopfhöhe (Bild oben rechts) sieht der Monteur genau, welches Teil er wo hinsetzen muss. Das hilft bei der Fehlerreduktion.

Auf der rechten Bildschirm-Seite ist eine Teile-Liste, die der Monteur Stück für Stück abarbeitet. Tippt er auf das Element, das er einbauen möchte, wird es in der virtuellen Darstellung des Schaltschranks an der richtigen Stelle eingeblendet. Er nimmt das reale Stück aus dem Behälter und setzt es ein. Diese Handlung wird zeitgleich auf dem Bildschirm dargestellt. Zu sehen sind der durch eine Kamera gefilmte Unterarm und die Hand des Monteurs mit dem Baustein. Er setzt diesen ein. Verschwindet das gefilmte Teil unter dem grafisch dargestellten, ist es passend eingesetzt.

Was sich durch das neue System verbessert

attenio-Mitgründer Titov beschrieb den Nutzen, den alle Beteiligten durch die Neuerung generieren möchten: „Es wird viel Zeit eingespart, da auf dem Display alles Schritt für Schritt mit nur den relevanten Informationen eingeblendet wird.“ Außerdem reduziere sich die Fehlerhäufigkeit dadurch, dass der Mitarbeiter sofort ein sichtbares Feedback bekomme, ob das Teil richtig platziert sei. Halata: „In einer für die Zukunft geplanten Weiterentwicklung soll das System auch bei Einsetzungsfehlern eine akustische oder visuelle Rückmeldung geben.“

Datenerhebung – Analyse – Auswertung: Vorüberlegungen zum Projekt

 Betriebsleiter Panknin erläuterte, welche Überlegungen zu dieser Industrie 4.0-Innovation führten. „Wir sehen in der optimierten Informations-Bereitstellung das Potenzial, mögliche Fehlerquellen dauerhaft zu beseitigen.“ Denn selbst kleinste Abweichungen in der Fertigung könnten Komplikationen und Verzögerungen nach sich ziehen, ergänzte Projektleiter Petschke. Der Industrial Engineer präzisierte: „Ob der Schaltschrank unseren hohen Qualitätsansprüchen genügt, merken wir erst in der Endkontrolle des fertigen Klimageräts. Denn jedes Stück wird kundenindividuell gefertigt, so dass eine Überprüfung direkt nach der Montage nicht möglich ist.“

Je später Fehler entdeckt werden, desto teurer wird es

Dass ein Fehler umso mehr kostet, je später er entdeckt wird, ist eine zentrale Erkenntnis der REFA-Lehre. Gunnar Grimm, Vorsitzender REFA-Regionalverband Nord: „Um gegen Fehler anzugehen, müssen zunächst Daten erhoben und analysiert werden.“ Und Panknin, ausgebildeter REFA- Ingenieur, fügte hinzu: „Genau dies haben wir bei STULZ über einen längeren Zeitraum hinweg getan und wertvolle Rückschlüsse daraus gezogen.“

Ergonomische Aspekte werden ebenfalls berücksichtigt

Petschke nahm Bezug auf einen weiteren Aspekt, der zu Ablenkung und gemäß REFA zu Fehlern führt: unergonomisch eingerichtete, starre Arbeitsplätze. Diese rufen Haltungsfehler sowie weitere gesundheitliche Folgeerscheinungen hervor. „Aus diesem Grund können unsere Mitarbeiter ihre Arbeitsplätze selbst einstellen, was die Höhe und genaue Position aller Elemente betrifft.“ Zimmermann kommentierte: „Ein kleinerer Mensch kann durch diese Flexibilität an derselben Stelle ebenso bequem arbeiten wie ein größerer.“

Auch Ausweitung des Augmented-Reality-Systems zukünftig denkbar

Was die Zeitplanung für das Augmented-Reality-Projekt betrifft, befindet sich das System bis Ende des Jahrs in der Testphase. Bis dahin können noch Anpassungen vorgenommen werden. Ende 2018 sollen dann alle Arbeitsplätze in der E-Vorfertigung so eingerichtet sein. Panknin: „Wenn alles nach Wunsch läuft, ist auch die Umstrukturierung anderer Arbeitsbereiche in dieser Weise denkbar.“

Looking for smart combinations of 3D printing technology: purmundus challenge at formnext 2017

Looking for smart combinations of 3D printing technology: purmundus challenge at formnext 2017

The purmundus challenge 2017 now has a theme: “Fusion – 3D printing intelligently combined”. This competition is once again teaming up with formnext powered by tct to invite the creative minds out there to enrich our lives with their ideas for innovative 3D-printed products. The purmundus challenge is geared toward designers, engineers, and programmers, including those from universities, design agencies and studios, start-ups, and SMEs.

A new challenge: making everyday opposites attract

This year’s competition is looking for innovative models that use 3D printing to present new possibilities in our high-tech daily lives and bring them closer to reality through more “human” applications.

Here, the main hurdle facing those who enter the purmundus challenge 2017 will be coming up with sensible ways to combine seemingly averse material characteristics and methods – analog and digital, additive and subtractive, hard and soft, and so on.

Meanwhile, an international Jury (comprising market experts representatives from prominent industrial companies and Research institutes) will be evaluating more than just the complexity and versatility of each Submission; the main criteria will also include design, relevance, level of Innovation, and economic and social potential. The purmundus challenge 2017 also encourages those interested to submit procedures and materials that have not yet broken through, are currently still undergoing research, or have not yet been invented. 

The submission deadline is 30 September 2017.

Attractive prizes await

At the next formnext exhibition and conference (14 –17 November 2017) in Frankfurt am Main, the year’s competition entries will be on display in the purmundus challenge area. The 2017 awards, which include a total of € 6,000 in cash and other attractive prizes, will then be presented at a ceremony scheduled for 16 November. Rounding out the purmundus challenge will be this year’s audience prize, the winner of which will be determined over the course of formnext 2017 by its attendees.

Outstanding value for visitors and exhibitors

For formnext visitors and exhibitors alike, the purmundus challenge offers exciting ideas and insights into how the creative use of new technologies can shape our future and usher in long-term improvements in our daily lives. The participants and the innovations they present thus provide inspiration for the development of new products and market concepts based on additive manufacturing methods.

To learn more about this competition and access a direct link to submit your idea, please visit formnext.com/purmundus_challenge.

» About formnext

» About Mesago

» About TCT

» About the Working Group Additive Manufacturing (honorary sponsor)

 

3D-Druck intelligent kombinieren: purmundus challenge auf der formnext 2017

3D-Druck intelligent kombinieren: purmundus challenge auf der formnext 2017

„Fusion – 3D-Druck intelligent kombiniert“ ist das Thema der purmundus challenge 2017. Die purmundus challenge und die formnext powered by tct laden kreative Köpfe ein, unser Leben mit ihren Produktideen aus dem Bereich 3D-Druck zu bereichern. Ansprechen soll dieser zukunftsweisende Wettbewerb Designer, Ingenieure und Programmierer, zum Beispiel aus Konstruktionsbüros, Designstudios, Hochschulen sowie kleine bis mittelständische Unternehmen und Start-ups.

Neue Herausforderung: Gegensatzpaare aus dem Alltag vereinen

Gesucht werden innovative Entwürfe, die mit Hilfe des 3D-Drucks neue Chancen für unseren hoch technologisierten Alltag aufzeigen und diesen durch „menschlichere“ Anwendungen noch realer und erfahrbarer werden lassen.

Die große Herausforderung für Teilnehmer der diesjährigen purmundus challenge besteht darin, gegensätzliche Materialeigenschaften und Methoden sinnvoll zu kombinieren: Ob analog und digital, additiv und subtraktiv oder hart und weich etc.

Eine internationale Jury, unter anderem bestehend aus Vertretern namhafter Industrieunternehmen, Forschungseinrichtungen und Marktexperten, bewertet nicht nur nach Vielschichtigkeit und Ambivalenz des Entwurfs. Die Experten richten ihren Fokus auch auf das wirtschaftliche und gesellschaftliche Potenzial, die Gestaltung, die Relevanz sowie den Innovationsgrad. Willkommen sind bei der purmundus challenge 2017 zudem Verfahren und Materialien, die sich bislang nicht durchgesetzt haben, sich aktuell im Forschungsstadium befinden oder erst noch erfunden werden müssen.

Der Einsendeschluss ist der 30.09.2017.

Attraktive Preise zu gewinnen

Im Rahmen der formnext, die vom 14. bis 17.11. 2017 in Frankfurt am Main stattfindet, werden die Einreichungen auf der purmundus challenge-Fläche zu sehen sein und am 16.11.2017 feierlich prämiert. Neben Geldpreisen in Höhe von insgesamt 6.000 Euro erhalten die Gewinner auch attraktive Sachpreise. Ein Publikumspreis, der über die Messetage von den Besuchern der formnext 2017 gewählt wird, rundet die purmundus challenge ab.

Mehrwehrt für Besucher und Aussteller

Besucher und Aussteller der formnext erhalten mit der purmundus challenge spannende Einblicke und Ideen, wie neue Technologien und deren kreativer Einsatz unsere Zukunft mitgestalten und langfristig unser Leben positiv verändern kann. Damit bieten die Teilnehmer und ihre Exponate Inspiration für die Entwicklung neuer Produkte und Marktkonzepte unter Nutzung Additiver Fertigungsmethoden.

Weitere Informationen über den Wettbewerb und der direkte Link zur Einreichung der Ideen sind online unter formnext.de/purmundus-challenge zu finden.

» Über die formnext

» Über Mesago

» Über TCT

» Über die AG Additive Manufacturing im VDMA e. V.

IoT – Bin ich schon drin?

Das Ziel ist klar, manchmal – manchmal auch nicht. Hauptsache irgendetwas mit „Industrie 4.0“, was und wie ist egal. So kommt einem so manche Strategie zur digitalen Transformation vor. Dabei bietet eine richtig umgesetzte Unternehmensausrichtung zur smarten Fabrik viel Potenzial und auf dem Weg dorthin schon so einige tief hängende Früchte. Also zugreifen! – Beispiel: vorausschauende Wartung.

In der „finalen“ Industrie 4.0 fertigen wir auf Kundenwunsch in Losgröße 1, die Maschinen und Materialien koordinieren sich dafür selbständig und wir haben die volle Transparenz und Flexibilität, die wir für eine smarte Produktion benötigen. Doch der Weg dorthin ist lang und steinig und das Ergebnis wird sicherlich nicht ganz so rosarot aussehen wie eingangs geschildert. Leider sind diese Unwägbarkeiten oftmals ein Grund dafür, dass entsprechende Projekte nicht, oder nur zögerlich angegangen werden.

Dabei können auf dem Weg in die Industrie 4.0 schon zahlreiche Vorteile realisiert und genutzt werden, die helfen, die Akzeptanz zu erhöhen und Investitionen schneller zu amortisieren. Ganz so, wie beim autonomen Autofahren. Schon heute helfen uns im „connected Car“ Sensoren die Spur zu halten und einzuparken. All das, was in einem Gesamtsystem zum autonomen Fahren benötigt wird.

Vier Phasen der Entwicklung

Teilen wir den Entwicklungsstand zu einer vollvernetzten, optimierten Produktion in vier Phasen auf und betrachten die zunehmenden Vorteile und den Nutzen auf diesem Weg.

Phase 1: Sichtbarkeit umsetzen

Phase 2: Transparenz schaffen

Phase 3: Prognosefähigkeit sicherstellen

Phase 4: Adaptierbarkeit nutzen

Abbildung 1: Nutzen auf dem Weg zur Industrie 4.0 (vgl. acatech) Abbildung 1: Nutzen auf dem Weg zur Industrie 4.0 (vgl. acatech), Quelle: Trebing + Himstedt

In der Phase eins geht es zunächst einmal darum, einen digitalen Schatten, also ein Abbild, der Produktion herzustellen. Dieses Abbild verschafft in erster Linie Sichtbarkeit, um zu überblicken, was gerade (in Echtzeit!) überhaupt passiert. Das können ganz kleine Teilprojekte sein. Zum Beispiel eine Anlage, die nicht nur an der Signallampe anzeigt, dass sie eine Störung hat. Stattdessen wird im Andon-Board oder Hallencockpit des Meisters die Maschine rot. Sofort wird am Arbeitsplatz des Meisters das Problem sichtbar – nicht erst, wenn er in der Werkshalle steht und die Ampel auch im Blick hat. Die Anbindung von Maschinensignalen für eine Zustandsüberwachung (Condition Monitoring) ist zu meist recht einfach. In der Regel reicht eine SPS und eine OPC-Verbindung aus, um die Signale abzugreifen. Im SAP-Umfeld bietet der SAP Plant Connectivity (SAP PCo) eine Möglichkeit der universellen Maschinenanbindung mit einem OPC UA Server. Ein anderes Beispiel wäre ein Dashboard, welches den Auftragsstatus anzeigt und den Fortschritt visualisiert. Gutteile werden unmittelbar elektronisch an das ERP zurückgemeldet und gleichzeitig visualisiert ein Bildschirm an der Anlage wie viel noch zur Auftragserfüllung oder zum Schichtziel fehlt. Auch im Qualitätsmanagement sind digitalisierte Prozesse hilfreich. So können Arbeitsschritte und Testergebnisse im Hintergrund vollautomatisch mitprotokolliert und überwacht werden. Sollten Werte außerhalb der Norm oder Arbeitsschritte nicht durchgeführt worden sein, wird ein Werkstück automatisch für die nächste Arbeitsstation gesperrt und es wird z. B. letztendlich kein Versandetikett für den Druck freigegeben. Damit kann kein fehlerhaftes Produkt versehentlich beim Kunden landen.

Im Beispiel der vorausschauenden Wartung wäre ein Remote Monitoring der Komponente, Maschine oder Anlage ein Einstiegsszenario. Realisiert wird dies mittels Sensoren, die die reine Verfügbarkeit anzeigen (Maschine läuft / läuft nicht) bzw. bereits relevante Parameter wie Temperatur oder Vibration überwachen und die Daten an eine zentrale Stelle senden.

Remote Monitoring von Maschinen mit SAP Predictive Maintenance Abbildung 2: Remote Monitoring von Maschinen mit SAP Predictive Maintenance, Quelle: Trebing + Himstedt

Überblick und Transparenz

Die zentrale Stelle leitet bereits die Phase zwei ein. Die gesendeten Sensordaten können sehr schnell zu Massendaten (Big Data) anwachsen. Um den Überblick zu behalten und Transparenz zu schaffen, muss ein zentraler Punkt der Wahrheit geschaffen werden. Das bedeutet nicht, unterschiedliche Datenbanken mit verschiedenen Interpretations­möglichkeiten zu haben, sondern quasi die nicht aggregierten (also nicht bereits zusammengefassten) Stammdaten, auf der alle weiteren Auswertungen basieren, zu verwenden. Alleine diese Tatsache wird im Unternehmen schon Doppelarbeit vermeiden und Entscheidungen beschleunigen, da kein Datenabgleich mehr notwendig ist. Die Geschwindigkeitsvorteile einer In-Memory-Datenbank wie der SAP HANA erlauben auch, auf die vorherige Aggregation von Daten zu verzichten. Dies führt ebenfalls zu schnelleren Entscheidungen, da nicht zunächst eine Nacht vorher eine „Datenlauf“ stattfinden muss. Die Auswertung der historischen Daten wird helfen zu verstehen, warum etwas passiert ist und z. B. durch einen kontinuierlichen Verbesserungsprozess (KVP) Fehler zukünftig zu vermeiden.

In unserem Predictive-Maintenance-Beispiel können die historischen Monitoring-Daten analysiert und visualisiert werden, um zu verstehen, warum eine Maschine ausgefallen ist. Steigt zum Beispiel eine Temperatur vor einem Ausfall stark an, können die Gründe dafür analysiert werden.

Temperaturverlauf bis zur Maschinenstörung zur Mustererkennung Abbildung 3: Temperaturverlauf bis zur Maschinenstörung zur Mustererkennung, Quelle: Trebing + Himstedt

Gegebenenfalls kann die Instandhaltung betroffene Teile zukünftig präventiv austauschen oder ab einer bestimmten (Durchschnitts-)Temperatur wird eine Alarmmeldung generiert. Lassen sich auf dieser Basis Muster erkennen, können aus dieser „Maschinenlernumgebung“ Verhaltensweisen analysiert und für zukünftig vergleichbare Situationen Vorhersagen getroffen werden. Also in etwa, bei dieser Temperatur und der Vibration ist in 80 % der Fälle die Maschine in drei Tagen ausgefallen. Und schon befinden wir uns in Phase drei, der Prognosefähigkeit.

Optimierte Planung durch Prognosefähigkeit

Durch Predictive Services sind wir in der Lage, mit bestimmter Wahrscheinlichkeit Vorhersagen über Zustandsänderungen in der Zukunft zu machen. Der Vorteil ist, dass man auf gewisse Situationen besser vorbereitet ist und dieser Kenntnisstand bereits in der Planung optimiert genutzt werden kann. Es passieren weniger Ausfallzeiten und die Wartung findet nur dann statt, wenn es sein soll / muss. Sie kann darüber hinaus in Zeiten passieren, die weniger oder gar nicht produktionsrelevant sind.

Ein Studie[1] hat gezeigt, dass durch den Einsatz von Predictive Maintenance die Wartungskosten um 30 % und die Ausfallzeiten um 70 % gesenkt werden konnten.

Studien zeigen Vorteile der vorausschauenden Wartung Abbildung 4: Studien zeigen Vorteile der vorausschauenden Wartung, Quelle: Trebing + Himstedt

Ein entscheidender Faktor ist hier die Mustererkennung. Für die Maschinenlernumgebung ist eine intelligente Sensorik und Vernetzung notwendig.

Entscheidungsbaum über historische Daten zur Mustererkennung Abbildung 5: Entscheidungsbaum über historische Daten zur Mustererkennung, Quelle: Trebing + Himstedt

Über die erfassten Daten (Big Data) kann dann mittels Analytics eine automatisierte Mustererkennung laufen. Oder man bedient sich entsprechender Analyse-Experten (Data Analyst) am Markt, um wiederkehrende Mustererkennung zu betreiben. In einer smart vernetzten Produktion mit intelligenten Maschinen ist es auch vorstellbar, dass Komponenten selbst – mit Hilfe eines digitalen Produktdatenblattes – gleich eigene Muster (Fingerprint) mitliefern, die z. B. zu bekannten Fehlern führen. SAP bietet mit dem Asset Intelligent Network (AIN) basierend auf der SAP HANA Cloud Platform (HCP) dafür bereits heute eine entsprechende Cloud-Datenbanklösung.

Big Data wird zu Smart Data

Dann sind wir schon fast in der finalen Industrie 4.0 Phase 4 angekommen. Die Sensoren melden die Daten, die Vernetzung transportiert die Daten an die richtige Stelle und mit intelligenten Algorithmen wird aus Big Data endlich Smart Data. Somit ist die Basis für eine autonome oder teilautonome Produktion gelegt. In unserem Beispiel kann der Instandhaltungsplan unter Einbezug der Sensoren und Mustererkennung und unter Berücksichtigung der Auftragslage in Echtzeit automatisch optimiert werden. Vor Ort wird dem Instandhalter dann auf dem Tablet oder in der Datenbrille die Arbeitsanweisung angezeigt und die Durchführung kontrolliert. Nach Abschluss der Arbeiten meldet sich die Anlage wieder selbständig zum Dienst!

Viele Unternehmen sind somit schon drin, auf dem richtigen Weg zur smarten Fabrik und wissen es vielleicht noch gar nicht. Wenn man eine Vision hat, ist es auch gar nicht mehr schwierig die richtigen Entscheidungen heute zu treffen, um die Vision in kleinen Schritten umzusetzen und schon jetzt davon zu profitieren. Groß denken, klein starten! Wichtig ist: gehen Sie jetzt den nächsten kleinen Schritt, bevor Ihr Wettbewerber es macht. Frei nach dem Motto: „Ein kleiner Schritt für Ihr Unternehmen, aber ein großer Schritt für die smarte Zukunft.“

Weitere Informationen zu Predictive Maintenance & Service mit SAP unter www.t-h.de/pdms

[1] Studie des Weltwirtschaftsforums und des Beratungsunternehmens Accenture