Gabriel-Chemie: Wie Produktions- und Abfüllprozesse digitalisiert werden können

Sitzschalen im Fußballstadion in den Vereinsfarben und mit perfektem Flammschutz. Autoteile, die sich nicht statisch aufladen und keine Gerüche absondern. Lebensmittelverpackungen mit einer integrierten Sauerstoffbarriere zum Schutz des verderblichen Inhalts. Überall, wo heute Kunststoffe eingesetzt werden, sind ganz spezielle Materialeigenschaften gefragt. Möglich machen das Masterbatches der Gabriel-Chemie Group. Bei Masterbatches handelt es sich um eine Art Konzentrat in Granulatform, das die Kunden von Gabriel-Chemie später dem natürlichen Kunststoff, dem sogenannten Rohpolymer, zufügen.

Zehntausende von individuellen Rezepturen

„Wir führen eine hohe Anzahl von Rohmaterialien. Diese müssen wir über einen ziemlich vereinheitlichten Fertigungsprozess zu einem individuellen Produkt zusammenführen, für das es meist sehr spezielle Kundenanforderungen gibt“, erläutert Helmut König, Chief Technical Officer (CTO) der Gabriel-Chemie Group. Dazu gibt es bereits Zehntausende von Rezepturen, auf die in der Fertigung zurückgegriffen werden kann. Sie sind das „Betriebsgeheimnis“ des Familienunternehmens.

Um einen derart komplexen Produktionsprozess optimal steuern und abbilden zu können, hat sich der österreichische Mittelständler bereits 1999 für eine ERP-Komplettlösung entschieden. Damit startete Gabriel-Chemie auch seinen Weg in Richtung Industrie 4.0. „Allerdings hat das damals natürlich noch niemand so genannt“, erinnert sich IT-Leiter Fritz Bauer. Doch die Ziele wie niedrigere Kosten, bessere Qualität, kürzere Lieferfristen und höhere Kundenzufriedenheit durch weitgehende Automatisierung der Abläufe galten bereits um die Jahrtausendwende. Und die zentrale Planungs- und Steuereinheit spielt damals wie heute die Hauptrolle.

ERP unterstützt komplexen Produktionsprozess

Den Anfang der intelligenten Fabrik machte ein grafischer Leitstand, den Gabriel-Chemie auf Pro Alpha-Basis entwickelte. Dann wurde die Siemens-Prozessleittechnik mit dem ERP-System an mehreren Stellen gekoppelt. Etwa bei der Mess-, Steuer- und Regeltechnik für das Bereitstellen des Grundpolymers und das Einwiegen der pulverförmigen Pigmente und Additive. „Heute sprechen all unsere Anlagen in Echtzeit mit der Software“, unterstreicht Helmut König.

Ausgangspunkt für die Herstellung der individuellen Masterbatches sind diverse Silos, in denen die wichtigsten Kunststoffe (Rohpolymere) vorrätig gehalten und über Rohrleitungen zu den einzelnen Wiege- und Mischplätzen befördert werden. Jedem Silo ist auf dem Bildschirm des grafischen Leitstands eine Nummer zugeordnet, die dem Lagerplatz im ERP-Modul Materialwirtschaft entspricht. Außerdem werden dort die Rohr- und Schlauchnummern angezeigt, die zu einem passenden Wiege- und Mischplatz führen.

Nachdem Silos und Rohre miteinander gekoppelt sind, kann der Verwiegevorgang gestartet werden. Dabei wird entsprechend der im ERP gespeicherten Rezeptur die benötigte Sollmenge des Kunststoffs automatisch an eine Waage übergeben. Das ERP-System gibt auch vor, welcher Wiegevorgang mit welcher Waage zu erfolgen hat. Die Waagen besitzen unterschiedliche Toleranzgrenzen, je nachdem, wie fein dosiert die Zugaben sein müssen. Dies sichert die Qualität und Reproduzierbarkeit der Farbmischungen und Endprodukte ab. Ist das Rohpolymer dann in der richtigen Menge in den Mischbehälter abgelassen, finden sofort die entsprechenden Lagerbuchungen im ERP-System statt. Nachdem die für die jeweilige Mischanlage geplanten Produktionsaufträge auf dem sogenannten Waagen-Cockpit ausgewählt worden sind, ist auf dem Display die jeweils aktuelle Stücklistenversion der Rezeptur zu sehen. Die benötigten Pigmente und Additive, die dem Rohpolymer zugefügt werden müssen, sind dort bereits in der entsprechenden Menge und in der richtigen Reihenfolge zu sehen und können Schritt für Schritt fehlerfrei dosiert werden. Gleichzeitig wird auch hier die eingewogene Menge im ERP abgebucht. Danach erfolgt der Mischvorgang und anschließend kann das kundenindividuelle Masterbatch in Säcke abgefüllt werden.

„Unsere exakten Wiege- und Mischprozesse sind ISO-zertifiziert. Das hat für unsere Kunden den Vorteil, bestimmte Bereiche ihrer eigenen Wareneingangskontrolle entfallen zu lassen und dadurch eigene Prozesskosten zu sparen“, sagt ein stolzer Fritz Bauer. Für Gabriel-Chemie ist das ein klarer Vorteil im Wettbewerb, denn diesen Service können nicht alle Konkurrenten bieten.

Schritt für Schritt zur intelligenten Fabrik

Nachdem das Masterbatch in die Säcke abgefüllt ist, setzt das jüngste Projekt auf dem Weg zur intelligenten Fabrik an. Das fertig gemischte Granulat wird in Paletten zum Kunden geliefert, die Plastiksäcke sind darauf gestapelt. Dabei muss die Logistik mit ganz unterschiedlichen Verpackungswünschen zurechtkommen. 

Das fängt mit einer variablen Anzahl von Säcken bei jedem Auftrag an und hört bei spezifischen Kunden-Etiketten und verschiedenen „Paletten-Schlichtmustern“ noch lange nicht auf. Letztere sind die vom ERP-System berechneten Vorschläge für das platzsparende Beladen der Paletten, wodurch ein späteres Umschichten beim Transport zum Kunden überflüssig wird.

„Intelligentes Produktgedächtnis“ mit Strichcode

Um einen weitgehend automatisierten Ablauf zu gewährleisten, wurde eine der bestehenden Palettierlinien um einen Etikettendrucker und einen Sensor erweitert, der die Palettenhöhe ermittelt. Über eine Kopplung mit dem ERP-System findet der Austausch der benötigten Informationen statt.

Die für einen Auftrag zu palettierenden Säcke sind mit einem Strichcode versehen. Sie laufen von der Abfüllstation über ein Förderband zu der automatisierten Palettierlinie, wo der Code erfasst wird. Das im ERP-System gespeicherte „intelligente Produktgedächtnis“ bestimmt daraus nun das optimale Schlichtmuster. Es ergibt sich aus dem Sackgewicht, der Schüttdichte und dem vorgesehenen Palettengewicht.

Der Palettierroboter erhält diese Information und kann nun mit dem Stapeln der Säcke beginnen. Zum Schluss wird die komplette Palette automatisch in Folie eingewickelt, mit einem Etikett versehen und in der Materialwirtschaft verbucht. Gleichzeit löst das ERP-System einen Transportauftrag zum Befördern der Ware in das Hochregallager aus. Dort soll in Zukunft mithilfe der vom integrierten Sensor ermittelten Palettenhöhe automatisch ein optimaler Lagerplatz ermittelt werden.

Durchgängige Digitalisierung zahlt sich aus

Die durchgängige Digitalisierung bei Gabriel-Chemie hat die Qualität der Masterbatches deutlich verbessert und die Fertigungskosten um mindestens 20 bis 30 Prozent reduziert. Gleichzeitig sind die Lieferfristen durch die beschleunigten Abläufe um 70 Prozent kürzer geworden.

„Wir haben bisher etwa drei Viertel des Weges zur Smart Factory zurückgelegt“, bilanziert Helmut König. Weitere Projekte seien aber schon in Planung und sollen bis 2020 umgesetzt werden. Auch wenn noch einiges zu tun ist, schätzt der CTO, dass Gabriel-Chemie beim Thema Industrie 4.0 in seiner Branche bereits heute international ganz vorne mitspielt. Und das macht sich auch beim Umsatz bemerkbar: Während das Branchenwachstum bei durchschnittlich ein bis zwei Prozent liegt, verzeichnet der Mittelständler einen jährlichen Zuwachs von acht bis zwölf Prozent.

Wer war das? – Haftung für fehlerhafte Daten

Genau wie jedem klar ist, dass die Fahrt eines mit Super-Benzin betankten Dieselautos kein gutes Ende nehmen wird, bedarf es keiner großen Fantasie, um sich vorzustellen, dass fehlerhafte Daten ähnliches in der Industrie 4.0 bewirken können. Anders jedoch als beim Dieselauto, bei dem der falsche Treibstoff meist „nur“ den eigenen Motor schädigt, kommt es bei Industrie 4.0 auf Grund der unternehmensübergreifenden Wertschöpfungs- und Lieferketten häufig auch zu Auswirkungen auf weitere Beteiligte und deren Betriebsabläufe. Denkbar ist etwa das Szenario einer autonom handelnden Maschine, die wegen fehlerhafter Daten eine Überhitzungsgefahr annimmt und die Entscheidung trifft, die Produktion zu stoppen. Durch diesen Stopp kommt es zur Verzögerung der Lieferung an den Kunden, was bei dem Kunden wiederum zu einer Betriebsunterbrechung führt und dessen Folgeauftrag mit einem Dritten platzen lässt. Die Betroffenen werden sich dann naturgemäß die Frage stellen, ob, und wenn ja, wer für diese Schäden haftet.

Wer ist der Verursacher des Schadens?

Erste Voraussetzung der Haftung für einen Schaden ist nach deutschem Recht das Vorliegen eines menschlichen Verhaltens, das den Schaden verursacht hat. Resultiert der Schaden aus einer autonomen Handlung oder Entscheidung einer Maschine, ist darauf abzustellen, wer der Maschine hergestellt bzw. benutzt hat. Ohne dieses menschliche Verhalten hätte die Maschine keinen Schaden verursachen können. Rechtlich gesehen sind CPS daher nicht selbst Verursacher eines Schadens, sondern immer nur ihre Hersteller oder Benutzer.

Trifft den Verursacher ein Verschulden?

Die bloße Ermittlung eines Verursachers allein reicht allerdings regelmäßig noch nicht aus, um dessen Haftung zu bejahen. Erforderlich ist vielmehr, dass ihn ein Verschulden trifft, er also vorsätzlich oder fahrlässig gehandelt hat. Wichtiges Kriterium hierfür ist, ob die Handlung der Maschine aus Sicht des Verursachers vorhersehbar war. Bei nachweisbaren Hardwaremängeln, Fehlprogrammierungen oder Bedienfehlern lässt sich diese Frage leicht beantworten. Aber was ist zum Beispiel, wenn eine nach dem Stand der Technik korrekt lernende Maschine eine Fehlentscheidung trifft? Hier streiten sich die Gelehrten. Manche verneinen eine Vorhersehbarkeit in diesem Fall (vgl. Müller-Hengstenberg/Kirn, MMR 2014, S.311), andere sind der Auffassung, es sei generell vorhersehbar, dass lernfähige CPS in Ausnahmefällen eine Fehlentscheidung treffen könnten (vgl. Glees/Seelmann, Intelligente Agenten und das Recht, S.53). Es wird am Ende bei den Gerichten liegen, diese Frage zu beantworten bzw. Orientierungskriterien aufzustellen.

Für welche Schäden muss der Verursacher aufkommen?

Kann man dem Verursacher ein Verschulden nachweisen, muss er Schadensersatz leisten. Bei Schäden, die ein Vertragspartner des Verursachers erleidet, kommt in erster Linie ein vertragsrechtlicher Schadensersatz in Betracht, der nicht nur Personen- und Sachschäden, sondern auch Vermögensschäden umfassen kann, also finanzielle Nachteile wie der entgangene Gewinn des geplatzten Folgeauftrags. Hier kann die Schadensumme schnell ein beträchtliches Ausmaß erreichen. Zwar herrscht bei Verträgen grundsätzlich die Gestaltungsfreiheit, so dass sich gewisse Haftungsmilderungen vereinbaren lassen, dem sind jedoch Grenzen gesetzt. Wurde eine Vertragsklausel „für eine Vielzahl von Fällen vorformuliert“, gilt für sie das AGB-Recht. Bestimmte Regelungen lassen sich dann nicht wirksam vereinbaren, wie z.B. den Ausschluss der Haftung für Vorsatz oder grobe Fahrlässigkeit. Die Hürden dafür, dass eine Klausel dem AGB-Recht unterfällt, sind relativ niedrig. Es muss nicht der Verwender der AGB sein, der sie eigens vorformuliert hat und für eine Vielzahl von Verträgen nutzen will. Völlig ausreichend ist es, wenn er sich z.B. des Musters eines Verbandes bedient, oder sein Anwalt vorhat, die Klausel für weitere Mandanten zu nutzen.

Unabhängig von der Frage, ob der Geschädigte auf eine vertragliche Haftung zurückgreifen kann, kommen stets als weitere gesetzliche Schadensersatzansprüche die Produzenten- und Produkthaftung (§ 823 BGB bzw. § 1 ProdHaftG) in Betracht. Sie richten sich jeweils gegen den Hersteller, dessen Produkt den Schaden ausgelöst hat, greifen allerdings nur ein, wenn es sich um Schäden an Personen oder anderen Sachen handelt.

Schwierigkeiten bei der Ermittlung des Verursachers

Nicht selten scheitert die Haftung in der Industrie 4.0 daran, dass sich nicht mehr sicher feststellen lässt, welches Fehlverhalten zum Schaden geführt hat. Bereits in dem oben erwähnten einfachen Beispiel des Produktionsstopps wegen Überhitzungsgefahr sind als mögliche Fehlerquellen die Hardware, die Software, die Methodik oder ein falscher Betrieb denkbar. So könnte beispielsweise ein defekter Sensor die fehlerhaften Temperaturdaten erzeugt und an die Maschine übermittelt haben, die dann mit dem Produktionsstopp die an sich richtige Entscheidung traf. Möglich wäre zudem, dass die fehlerhaften Daten nicht auf einem Defekt des Sensors beruhen, sondern auf Anbindungsproblemen oder einem nicht ordnungsgemäßen Betrieb des Sensors. Ebenfalls vorstellbar wäre, dass gar keine fehlerhaften Daten erzeugt, sondern richtige Daten von der Maschine nur methodisch fehlerhaft ausgewertet werden und es deshalb zu der fehlerhaften Entscheidung kommt. In Betracht kommt auch eine Vermischung der vorgenannten Konstellationen, was den Sachverhalt dann zwangsläufig noch komplexer macht.

Dokumentieren und regeln

Im Falle eines Schadens wird es daher meist nicht lange dauern, bis Streit darüber ausbricht, wer der Verursacher ist. Es sollte deshalb großen Wert auf eine rechtssichere Dokumentation gelegt werden, z.B. durch die Generierung der Logfiles, so dass sich Systemzugänge, Systeminteraktionen, Prozess- und Datenveränderungen, sowohl durch Maschinen als auch Personen, protokollieren und nachvollziehen lassen. Ratsam ist zudem, sich vertraglich – natürlich unter Berücksichtigung möglicher Geheimhaltungsinteressen – Informationen über die Methodik bzw. Algorithmen der CPS zusichern zu lassen sowie Anzeigepflichten bei möglichen Veränderungen durch den Hersteller/Dienstleister vorzusehen. Auch sollten die Parteien bereits zu Beginn der Zusammenarbeit genügend Sorgfalt darauf verwenden, ihre Risiko- und Verantwortungsbereiche festzulegen bzw. abzugrenzen, so dass im Falle eines Schadenseintritts (mehr) Klarheit über den Verursacher besteht.

Prüfpunkte verstehen

Liegen für eine VM zum Beispiel die drei Prüfpunkte „Prüfpunkt 1“, „Prüfpunkt 2“ und „Prüfpunkt 3“ vor, und bauen die drei Prüfpunkte aufeinander auf, können Sie jederzeit zu „Prüfpunkt 2“ zurück wechseln, und die Daten von „Prüfpunkt 3“ löschen. Dazu klicken Sie mit der rechten Maustaste auf „Prüfpunkt 2“ und wählen „Anwenden“ aus dem Menü.

Die aktive Markierung „Jetzt“ des virtuellen Servers zeigt den Status des virtuellen Servers an. Durch das Anwenden von „Prüfpunkt 2“ wird das „Jetzt“ vor „Prüfpunkt 3“ geschoben. Sie können „Prüfpunkt 3“ jetzt löschen, wenn Sie diesen nicht mehr benötigen. Durch das Löschen wird er nicht mehr mit dem virtuellen Server zusammengeführt, da sich der Status „Jetzt“ über dem Prüfpunkt befindet.

Löschen Sie „Prüfpunkt 3“ ohne, dass Sie „Prüfpunkt 2“ anwenden, werden alle Änderungen aus „Prüfpunkt 3“ in „Prüfpunkt 2 übertragen. Erst dann löscht der Server „Prüfpunkt 3“.

Prüfpunkte können Sie auch in der PowerShell löschen. Wollen Sie zum Beispiel Snapshots einer bestimmten VM löschen, nutzen Sie den Namen, auf Wunsch auch mit Platzhalter:

Get-VM TestVM | Remove-VMSnapshot -Name Experiment*

Sie können Snapshots aber auch auf Basis der Erstellungszeit löschen. Wollen Sie alle Snapshots entfernen, die älter als 90 Tage sind, verwenden Sie:

Get-VMSnapshot -VMName TestVM | Where-Object {$_.CreationTime -lt (Get-Date).AddDays(-90) } | Remove-VMSnapshot

Verwalten der Snapshots von virtuellen Servern

  • Einstellungen — Hierüber rufen Sie die Einstellungen des virtuellen Computers auf, zu dem dieser Snapshot gehört. Es handelt es sich dabei um die Einstellungen, die zum Zeitpunkt des Erstellens gültig waren. Haben Sie Einstellungen nach dem Erstellen des Snapshots geändert, sind diese an dieser Stelle nicht zu sehen. Auf diese Weise schützen Sie auch die Einstellungen von virtuellen Servern.
  • Anwenden — Wählen Sie diese Option aus, setzt der Assistent den virtuellen Computer wieder auf den Stand zurück, an dem Sie diesen Snapshot erstellt haben. Vorher erscheint aber ein Abfragefenster, das Sie auf die Folgen hinweist. Außerdem können Sie vorher noch mal einen aktuellen Snapshot erstellen. Dieser sichert dann den aktuellen Zustand. Im Gegensatz zum Zurücksetzen über das Kontextmenü der VM können Sie hier nicht nur den letzten Snapshot verwenden, sondern beliebige Snapshots.

Diesen Befehl können Sie auch in der PowerShell durchführen. In diesem Fall verwenden Sie:

 Restore-VMSnapshot -VMName <Name der VM> -Name <Name des Prüfpunkts>

Die Daten des Prüfpunktes bleiben auf der Festplatte erhalten. Diese werden nur dann entfernt, wenn Sie einen Prüfpunkt nicht anwenden, sondern löschen. Wollen Sie zum Beispiel für alle VMs auf einem Host den aktuellsten Prüfpunkt anwenden, verwenden Sie das CMDlet:

Get-VM | Foreach-Object { $_ | Get-VMSnapshot | Sort CreationTime | Select -Last 1 | Restore-VMSnapshot -Confirm:$false }

  • Exportieren – Beim Exportieren von virtuellen Servern in Windows Server 2016 können Sie auch Snapshots berücksichtigen. Über das Kontextmenü eines Prüfpunktes können Sie einen virtuellen Server mit dem Stand des Snapshots exportieren und auf anderen Servern wieder importieren.
  • Umbenennen — Mit dieser Option weisen Sie dem Snapshot einen anderen Namen zu. Hyper-V verwendet als Namen normalerweise das Datum und die Uhrzeit. Über diesen Menübefehl können Sie zum Beispiel noch Informationen hinzufügen, warum Sie den Snapshot erstellt haben.
  • Prüfpunkt löschen — Löscht den Snapshot und die dazugehörigen Daten vom Server und überführt die notwendigen Daten in die produktive Festplatte. Die Zusammenhänge erklären wir im nächsten Abschnitt. Beim Löschen eines Snapshots gehen daher keine Daten verloren, sondern Änderungen, die Sie seit dem Erstellen des Snapshots durchgeführt haben, werden in die virtuelle Festplatte des Servers geschrieben und anschließend wird der Snapshot und seine differenzierende Festplatte gelöscht (.avdx). In Windows Server 2008 R2 ist dazu ein Neustart notwendig, Windows Server 2016 beherrscht diesen Vorgang auch online. Das heißt, der virtuelle Server kann weiter in Betrieb sein.
  • Prüfpunkt-Unterstrukturlöschen — Diese Option löscht den aktuellen Snapshot sowie alle Prüfpunkte, die Sie nach dem Snapshot erstellt haben und auf diesen aufbauen. Der Vorgang ist ähnlich zu Prüfpunkt löschen, führt aber alle zusammengehörigen Snapshots zusammen.

Wie agile Methoden die Prozesse im Vertrieb optimieren können

Kurz gesagt: In der Produktion, der Entwicklung und in der IT wird bereits länger mit agilen Methoden wie Scrum, Kanban, Design Thinking oder Lean & Co. gearbeitet. Ein Trugschluss dabei ist, dass damit Produkte schneller entwickelt oder die Materialwirtschaft optimiert werden kann. Das kann ein Nebeneffekt sein, die Möglichkeiten gehen jedoch weit darüber hinaus.

Es geht z.B. auch darum, den Grad der Selbst-Organisation zu steigern oder die Marktleistung noch stärker auf Bedürfnisse der Kunden auszurichten. Das ist mittlerweile anerkannter Standard. Aus dieser Arbeits- und Denkweise ergibt sich oft eine abteilungs- oder bereichsübergreifende Zusammenarbeit. Damit kann das in der Organisation vorhandene Wissen wesentlich besser genutzt werden.

Erstaunlich in der Praxis ist, dass solche Erkenntnisse bisher fast folgenlos am Vertrieb und an vertriebs-nahen Funktionen wie z.B. Marketing, Produkte-Management, Projektleitung, Service und HR vorbei gegangen sind. Erstaunlich ist auch, wie wenig der Arbeitszeit des Vertriebs tatsächlich dem Kunden zu Gute kommt. Es sind meist <30%. Dabei sollte doch eigentlich genau dort im Dialog mit den Kunden Innovation entstehen.

Man hat dafür jedoch oft im Tagesgeschäft keine Zeit. Man muss Anfragen innerhalb der vorgegebenen Zeit abarbeiten, Firmen-Präsentationen halten, Produkte verkaufen und Umsatz und Deckungsbeiträge erzielen, die vorgegebene Anzahl Besuche im CRM-System dokumentieren, Berichte über verlorene Projekte an die Vorgesetzten schreiben und gegen Ende des Quartals den Forecast erstellen.

Organisatorisch ist man (zu) oft in Produkt-Silos organisiert und arbeitet noch wie vor Jahrzehnten wasserfall-artig sequentiell. Man sucht Fach-Spezialisten für einen bestimmten Bereich aus und misst Bereiche nach unterschiedlichsten Kennzahlen. Projektleiter und Service-Verantwortliche sind Kostenstellen und selten bereits bei einer Konzept-Erstellung, geschweige denn bei einem Kundenkontakt einbezogen.

Potentielle Kunden aus dem Industrie 4.0 / IoT-Umfeld wollen bereichsübergreifende Prozesse und Wertschöpfungsketten optimieren oder Wertschöpfungs-Netzwerke installieren. Es verwundert nicht, dass Anbieter mit der oben geschilderten Ausgangslage bei diesen Kunden Mühe haben. Hier besteht massiv Handlungsbedarf.

Erfolgskritisch vorgehen – aktuelle Chancen nutzen

Wirksame, robuste Prozesse berücksichtigen nicht nur die konkret eigenen Aktivitäten einer Abteilung sondern auch vor- und nachgelagerte Funktionen und Prozesse. Bei der Optimierung von Prozessen zeigen sich klare Korrelationen und Erfolgsfaktoren. 

Meist beginnt man dabei in einem Bereich mit der Optimierung – zum Beispiel mit Trainings. Ein gut gemachtes Training am richtigen Ort nach einer seriösen Analyse der Ausgangslage kann bereits zu verblüffenden Resultaten führen. Trotzdem ist aus der Erfahrung heraus in diesen Fällen, in denen man sich auf die Wissensvermittlung in einer einzigen Abteilung beschränkt, der nachhaltige Nutzen eindeutig am geringsten.

Eine weitere Steigerung ist möglich, wenn die Wissensvermittlung mit einem Ziel verknüpft, relevant und messbar gemacht werden kann und sich in den Prozessen niederschlägt. Die besten Kennzahlen sind nicht statisch wie z.B. im Vertrieb die Abschlussquote, Dauer der Verkaufszyklen, Kosten zu Umsatz, Deckungsbeitrag sondern messen eine Entwicklung über eine längere Zeit. Alleine die Tatsache, dass eine Tätigkeit messbar gemacht und mit Hilfe von Kennzahlen optimiert werden kann, führt oft zu signifikanten und nachhaltigen Verbesserungen.

Noch interessanter wird es, so bald vor- und nachgelagerte Funktionen und Prozesse mit einbezogen werden. Dann schließt sich der Kreis zu den agilen Methoden. Aus dieser Arbeits- und Denkweise ergibt sich oft eine abteilungs- oder bereichsübergreifende Zusammenarbeit. Damit kann das in der Organisation vorhandene Wissen wesentlich besser genutzt und sichergestellt werden, dass die in einem Schritt potentiell erzielte Wertschöpfung auch realisiert werden kann und nicht im System an einem anderen Ort wieder verloren geht. 

Beispiele und Kennzahlen aus der Praxis:

Bei Kunden wurden nach der Optimierung des Vertriebs oft im nächsten Schritt durch die Projektleiter und die Service-Verantwortlichen systematisch die Nachkalkulationen aus dem Projektgeschäft und die Nachverkaufsquoten verglichen.

Darüber hinaus wurden in Workshops bei den besten und den schwächsten Fällen die ausgeführten Abläufe verglichen. Dabei haben sich verblüffende Korrelationen gezeigt:

  • Die profitabelsten Fälle waren eindeutig diese, in denen Projektleiter, Produktemanager und Service-Verantwortliche bereits rechtzeitig d.h. oft bereits im Verkaufsprozess bei Neukunden in Scrum-Sprints oder bei Bestandeskunden in Retrospektiven mit einbezogen waren oder sogar selber die Akquise einer Verkaufschance durch Happiness-Checks und Backlog Groomings zu UpSelling oder CrossSelling genutzt haben.  Hier wurden oft bei Kunden Themen angestossen, die vorher nicht bekannt waren und nicht ausgeschrieben worden sind und bereits bei der Konzeption relevante Services und Feinheiten der Implementierung im Sinne einer Gesamtlösung mit angeboten. In diesen Fällen hat der Vertrieb diese Differenzierungsmerkmale als User Stories nutzen können. Interessant war dabei, dass in diesen Fällen die Abschlussquoten markant höher waren (in einem konkreten Fall messbar von 45% auf 75%)
  • In den schwächsten Fällen hat sich eindeutig gezeigt, dass isoliert „in den Silos“ gearbeitet worden ist und dadurch der beim Abschluss des Projekts kalkulierte Deckungsbeitrag oft zu einem grossen Teil nicht real realisiert werden konnte und deshalb verloren gegangen ist. Ungeplante Projekt-Risiken, Change Requests und Claims traten markant öfter auf. Die Kunden- und Mitarbeiterzufriedenheit und die Nachverkaufsquoten waren messbar tiefer.
  • Bei einer vergleichbaren Ausgangslage hat z.B. ein Projekt einen DB1 von 25’600.- und ein anderes einen DB 1 von 84’300.- erbracht. Solche Differenzen haben sich skaliert bei allen Projekt-Grössen gezeigt.

Wer das Geschäftspotential mit IoT / Industrie 4.0 heben möchte, tut gut daran, diese Erkenntnisse zu berücksichtigen.

Erfahrungsaustausch ist jederzeit möglich und erwünscht

Kartellabsprachen in der Logistik – Ein existenzgefährdendes Risiko

Harter Preiskampf und weiter steigende Anforderungen der Stakeholder – angesichts dessen wünschen sich die Akteure der Transport- und Logistikbranche manchmal schlichtweg, zaubern zu können. Denn es wird immer schwerer, Kundenversprechen wie „just in time“ zu halten und dabei wettbewerbsfähig zu bleiben. Unlautere Maßnahmen wie Kartellabsprachen wirken gerade dann besonders verlockend. Doch sie haben schwerwiegende Folgen.

„Kartellstrafen für neun Reedereien“, „Luftfracht: 776 Millionen Strafe für Kartell“, „Kartellstrafe gegen Car Carrier“, „Verdacht auf Bunker-Kartell“ oder „Linienreedereien geraten ins Visier der US-Kartellwächter“: Die Medienberichte erwecken den Anschein, dass Absprachen in der Transport- und Logistikbranche fast zum Tagesgeschäft gehören. Was vielfach über lange Jahre gut ging, holt etliche Beteiligte jetzt ein. Während die Bußgelder für andere Fehltritte vergleichsweise moderat erscheinen, drohen bei kartellrechtlichen Vergehen Zahlungen von bis zu 10 Prozent des Konzernumsatzes. Im schlimmsten Fall setzen Unternehmen also ihre eigene Existenz aufs Spiel. Mitunter geschieht dies unbewusst durch kartellrechtlich bedenkliches Verhalten gegenüber Wettbewerbern oder Lieferanten und Abnehmern sowie durch den Missbrauch ihrer marktbeherrschenden Stellung.

Neben beträchtlichen Bußgeldern drohen Reputationsschäden und Schadensersatzforderungen. Wie im sogenannten Lkw-Kartell: Ende 2017 verklagten knapp 3.200 Unternehmen die Kartellanten, um Schadensersatzansprüche von mehr als 500 Millionen Euro geltend zu machen. Wenige Tage zuvor reichten die Deutsche Bahn, die Bundeswehr sowie weitere 40 Unternehmen ebenfalls Klage ein, u. a. gegen MAN und Daimler. Somit spielt die kartellrechtliche Compliance zu Recht eine immer zentralere Rolle innerhalb der Unternehmen; sie ist eines der Top-Themen von Geschäftsführern.

Verbotenes Verhalten in einer Risikobranche

Grundsätzlich hat die Transport- und Logistikbranche mit ihrer komplexen Struktur und dezentralen Organisation eine besonders hohe innere Kriminalitätsrate. Das heißt, die Wahrscheinlichkeit ist groß, von einem Kartell geschädigt worden zu sein oder künftig geschädigt zu werden. Laut Bundeskartellamt führen die Absprachen zu überhöhten Preisen, nämlich um etwa 15 Prozent. Dabei sind internationale Absprachen, an denen Anbieter aus mehreren Ländern beteiligt sind, in der Regel schädlicher als rein nationale Kartelle. International liegt der durchschnittliche kartellbedingte Preisanstieg bei etwa 18 Prozent.

Zu Lande, zu Wasser und in der Luft: Überall kann es dubiose Abmachungen geben, das zeigen aktuelle Beispiele. Im Containertransport in den Seehäfen Hamburg, Bremen und Bremerhaven wurden illegale Preisabsprachen unter Wettbewerbern aufgedeckt. Ein „Stauzuschlag“ machte hier stutzig: Nachdem diese Gebühr von mehreren Unternehmen gemeinsam angekündigt worden war, kamen die Ermittler dem dahinterliegenden Kartell auf die Schliche. Auch einige Luftfrachtdienste wollten dem Preisverfall entgegenwirken, indem sie Kerosin- und Sicherheitszuschläge abstimmten.

Anfang 2017 erschienen FBI-Fahnder ohne Voranmeldung beim Treffen des „Box Club“, der die Spitzen der weltweiten Top-Reedereien versammelt. Den Vorstandschefs überreichten sie Schreiben, die über Ermittlungen wegen des Verdachts auf unerlaubte Preisabsprachen informierten.

Wer auffliegt, verliert nicht nur Geld

Diese Verfahren machen deutlich, wie gefährdet die Transportbranche ist. Zwangsläufig führen die enge Vernetzung der Marktteilnehmer untereinander und der hohe Zeit- und Kostendruck zu einem erhöhten kartell- und wettbewerbsrechtlichen Risiko – einem Risiko, das vielfach unterschätzt wird. Nicht nur die Öffentlichkeit ist in Sachen Compliance zunehmend sensibel geworden, auch die Rechtslage hat sich verschärft. Wettbewerbsbehörden wollen Schadensersatzansprüche privatrechtlich durchsetzen. Unternehmenswerte sind durch Geldbußen, Gewinnabschöpfung und massive Reputationsschäden bedroht.

Wer durch das wettbewerbswidrige Verhalten eines Kartells benachteiligt wurde, kann auf Schadensersatz klagen. Millionenzahlungen drohen, ebenso wie der Ausschluss von öffentlichen Aufträgen. Schützen kann sich nur, wer nachweislich angemessene Maßnahmen gegen derartige Praktiken ergreift. Die vielfältigen Möglichkeiten sollten zur jeweiligen Branche, Unternehmenskultur und Unternehmensgröße passen: Dazu gehören meist eine gezielte Risikoanalyse, die Schulung von Mitarbeitern, klare Warn- und Kontrollsysteme sowie Kartellrechts-Audits. Täter müssen mit unternehmensinternen Konsequenzen rechnen.

Effektive Compliance-Maßnahmen und verständliche Regelwerke helfen dabei, Verstöße zu verhindern. Kommt es dennoch dazu, bilden sie die Grundlage, um Vorgänge schneller aufklären und abstellen zu können. Wird die Beteiligung des Unternehmens an einem Kartell durch solche Maßnahmen verhindert bzw. gestoppt, lassen sich oftmals ein millionenschweres Bußgeldrisiko, ein erheblicher Imageschaden und eine empfindliche Schadensersatzhaftung vermeiden. Um Schaden vom Unternehmen fernzuhalten, ist also ein angemessenes Compliance-System nicht nur eine Option, sondern eine Verpflichtung.

Darüber hinaus belohnt die Bonusregelung des Bundeskartellamtes wirksame unternehmensinterne Kontroll- und Aufklärungsmechanismen. Das frühzeitige Entdecken bzw. Aufklären eines Verstoßes durch solche unternehmensinternen Mechanismen spart zudem viel Geld: Es kann zu einem völligen Erlass oder einer Reduktion von bis zu 50 Prozent der Geldbuße führen. Trotzdem darf dabei nicht ausgeblendet werden, dass die zivilrechtlichen Ansprüche der Geschädigten wie im Lkw-Kartell um ein Vielfaches höher sein können. Daher empfiehlt sich, den Fokus auf die Vermeidung solcher Verstöße zu legen. In vielen Fällen war den Beteiligten nicht klar, dass ihr Tun und Handeln illegal war. Denn das komplexe Kartellrecht erscheint vielen Mitarbeitern fast undurchdringlich. Hier kommt gerade auch den Compliance-Trainings eine Schlüsselrolle zu.

Verstöße wird es weiter geben

Der Preis- wie auch der Konsolidierungsdruck halten Logistiker und Transporteure auf Trab. In diesem Umfeld geht es darum, Unternehmenswerte vor Schäden zu schützen. Vergehen wie systematische Kartellabsprachen sind nicht nur ein finanzielles Risiko, auch die Reputation eines Unternehmens wird stark geschädigt. Mit Blick auf die aktuellen nationalen wie auch internationalen Verfahren ist anzunehmen, dass auch künftig illegale Absprachen in der Transport- und Logistikbranche aufgedeckt werden. Nur wer frühzeitig ein wirksames Compliance-System mit einem Fokus auf den richtigen Risikobereichen implementiert – gestützt von Führungskultur und regelmäßigen Schulungen –, kann sich vor Strafzahlungen, Rufschädigung und dem Ausschluss von öffentlichen Aufträgen schützen.

Industrie 4.0 – In 4 Schritten zur Handlungsstrategie

Spätestens seit der CEBIT 2015 ist der Bekanntheitsgrad von Industrie 4.0 als der 4ten industriellen Revolution in Deutschland groß. Oft wird darunter aber nur die nächste Stufe der Automatisierung in der Fabrik verstanden. Besser gerecht wird man dem Thema, wenn man unter Industrie 4.0 den Einzug des Internets in die Geschäftsprozesse und Geschäftsmodelle und die damit einhergehende Digitalisierung versteht. Untersuchungen zeigen, dass der Bekanntheitsgrad von Industrie 4.0 zwar hoch ist, aber die Umsetzung von Elementen zu Industrie 4.0 besonders im Mittelstand sehr zögerlich verläuft. Ein Konzept zur Vorgehensweise fehlt.

Der Arbeitskreis Industrie 4.0 im AWF-Ausschuss für Wirtschaftliche Fertigung – widmet sich mit seinen Teilnehmern den verschiedensten Fragestellungen zum Komplex Industrie 4.0. Die ca. 20 Arbeitskreis-Mitglieder aus bekannten deutschen Unternehmen[1] kommen 4 Mal jährlich bei den Teilnehmer-Unternehmen zusammen und bearbeiten Themenstellungen zu Industrie 4.0. Beim einem dieser Arbeitskreis-Treffen stand die Entwicklung einer Vorgehensweise im Mittelpunkt (vgl. Abb. 1).

Abb. 1 Das AWF-Modell, Schritte 1 und 2 (Quelle: Sames )

 

Im Folgenden soll das AWF-Modell näher erläutert werden.

1. Ermittlung des Ist-Zustands

Das Modell sieht vor, dass zunächst der Ausgangszustand im Hinblick auf Industrie 4.0/ Digitalisierung im Unternehmen ermittelt wird. Als geeignetes Tool dazu wird ein Reifegradmodell verwendet, das auf dem Produkt– und Produktions-zentrierten Werkzeugkasten Industrie 4.0 des VDMA[1] basiert. Dieses wurde an der Technischen Hochschule Mittelhessen um die Aspekte Organisation und Mitarbeiter erweitert. Zu jedem Aspekt gibt es mehrere besonders relevante Merkmale, z.B. die Abwicklung von Kundenaufträgen. Diese können in unterschiedlichen Ausprägungsstufen vorliegen. Der Grad der Digitalisierung resp. Industrie 4.0 steigt von links nach rechts an. Ein Ausschnitt aus dem Reifegradmodell wird in Abb. 2 wiedergegeben. Wichtig ist aber der Hinweis, dass nicht zwangsweise als Zielsetzung das Erreichen der höchsten Ausprägungsstufe sinnvoll ist.

Abb. 2: Auszug aus dem Reifegradmodell (Quelle: Sames )

 

Die Ermittlung des Ist-Zustands kann dabei beliebig detailliert werden. Das Reifegradmodell lässt sich für Produktbereiche, für Produktlinien, oder auch auf unterschiedliche Sparten oder Bereiche eines Unternehmens anwenden. Auf die inhaltliche Ausgestaltung des Reifegradmodells soll hier nicht weiter eingegangen werden. Das Reifegradmodell wurde im AWF-Arbeitskreis mehrfach erfolgreich eingesetzt, und hat nach Aussagen der Mitglieder eine sehr gute Ordnungsstruktur in das komplexe Thema Industrie 4.0 gebracht.

Um die vorhandene Ausprägung eines Merkmals festzustellen, sind entsprechende Checklisten als Arbeitshilfen abzuleiten. Sie sollen Antwort geben, wie ein Vorgang läuft, welche Hilfsmittel verwendet werden, welche Fehler im Ausgangszustand zu bemängeln sind, welche Standards verwendet werden etc. Um die notwendige neutrale Sicht bei der Ermittlung des Ist-Zustands zu behalten, sieht das AWF-Modell vor, dass ein neutraler Auditor, gerne auch ein Externer, zu Rate gezogen wird. Die Ermittlung des Ist-Zustands setzt ebenso voraus, dass ein Verantwortlicher der zu betrachtenden Organisationseinheit zur Verfügung steht. Wichtig ist ein unkomplizierter Zugriff auf weitere Experten des jeweiligen Unternehmensbereichs.

2. Bestimmung relevanter Handlungsfelder

Welche Ausprägung im Reifegradmodell ist aber für die Zukunft des Unternehmens sinnvoll? Das AWF-Modell sieht dazu vor, dass die Megatrends, die auf das Unternehmen wirken, analysiert werden. Solche Megatrends können z. B. der sich aufgrund der Demografie abzeichnende Fachkräfte-Mangel sein, Veränderungen in Energiepreisen, Paradigmen-Wandel bei den Kunden, etc. Basierend auf dieser Analyse können anhand der Checkliste potentielle Handlungsfelder identifiziert werden. Die Detaillierungsebene ist wieder unternehmensindividuell festzulegen. So können bestimmte Geschäftsfelder, Produkte oder Produktgruppen, aber auch Leistungen des Unternehmens differenziert betrachtet werden.

3. Definition Soll-Zustand (s. Abb. 3)

Industrie 4.0 darf bei den Unternehmen kein Selbstzweck sein. Vielmehr muss der Soll-Zustand im Einklang mit der Unternehmensstrategie stehen. Auch kann mit Industrie 4.0/ Digitalisierung vieles gemacht werden. Doch im Vordergrund muss die Relevanz für das Unternehmen stehen. Dazu sind die Kosten, der Nutzen, notwendige Ressourcen, aber auch die finanziellen Möglichkeiten des Unternehmens zu beachten. Besonders Prozesse, die fehlerhaft ablaufen, sehr personalintensiv sind, also sogenannte Pain Points, sind dabei zu beachten. Das AWF-Modell sieht vor, dass der Soll-Zustand in Workshops mit Vertretern des Unternehmens festgelegt wird. Es ist zu überlegen, ob das Einschalten eines Beraters notwendige Impulse geben kann.

Abb. 3: Das AWF-Modell, Schritte 3 und 4 (Quelle: Sames )

 

4. Entwicklung Digitalisierungs-Strategie

Aus dem Soll-Zustand gemäß des Reifegradmodells wird schließlich die Digitalisierungs-Strategie abgeleitet. Anhand der Bewertungen von Kosten/Nutzen, Dringlichkeit oder anderen Kriterien, lässt sich eine Reihenfolge von Projekten ableiten. Diese bilden dann die Roadmap für das Unternehmen.

[1] AWF-Arbeitskreis Industrie 4.0: Siemens AG, Wolf, Arconic, Hekatron, Rittal, Biotronik, CE-SYS Vision, E.G.O., Hottinger Baldwin, Bender, IPOL, Elabo, sense-IT, Braas Monier, IFESCA, Carl Geringhoff, incovia, Technische Hochschule Mittelhessen

[2] VDMA Leitfaden Industrie 4.0, 2015, S. 11-16

Erfolgreiche Projekte durch MISRA-Konformität

Die von der Motor Industry Software Reliability Association (MISRA) herausgegebenen „Richtlinien zur Nutzung der C-Sprache in kritischen Systemen” (Guidelines for the use of the C language in critical systems), auch bekannt unter der Bezeichnung MISRA C 2012, definieren eine Teilmenge der C-Sprache. Deren Zweck ist die Minimierung potenzieller Fehler und Sicherheitslücken, die zum Versagen von Programmen oder zu gravierenden Fehlern führen können. Obwohl ursprünglich für KFZ-Systeme gedacht, haben viele weitere Industriezweige die Richtlinien für die Verwendung in sicherheitskritischen Systemen übernommen. In allen Fällen stellt die Feststellung der Konformität eine komplexe und zeitaufwändige Aufgabe dar.

Auf dem Markt gibt es zahlreiche Tools, die melden, ob ein Code eine bestimmte Richtlinie verletzt. Allerdings vereinfachen nur wenige Werkzeuge den Report- und Dokumentationsprozess, der zum Nachweis der Konformität notwendig ist. Auf die Rationalisierung des gesamten Vorgangs des Erzielens, der Dokumentierung und der Beibehaltung der MISRA-Konformität über den gesamten Produkt-Lebenszyklus zielt unsere Reporting- und Analytics-Plattform (DTP) ab. Sie sorgt für Automatisierung und Hilfestellung – zusätzlich zu unserem Prüf-Tool C/++test für C und C++. Dieser Beitrag erläutert genauer, wie man diese Tools gemeinsam nutzen kann, damit die MISRA-Konformität weniger Kopfzerbrechen bereitet.

Leitlinien auf dem steinigen Weg zur MISRA-Konformität

Konformität ist eine binäre Größe: Ein Code ist entweder konform oder er ist es nicht. Die MISRA-Richtlinien verlangen, dass der Code vollumfänglich den Direktiven und Regeln des Standards entspricht. Diese uneingeschränkte Konformität zu erreichen, ist deshalb bei einem großen und komplexen Projekt kein einfaches Unterfangen. Verschärft wird die Herausforderung dadurch, dass viele Beziehungen zwischen Anbieter und Kunde den Nachweis der Einhaltung des Standards per Dokumentation voraussetzen.

Um deutlicher zu machen, wie bei der Umsetzung der MISRA-Codierrichtlinien vorzugehen ist, veröffentlichte die MISRA im Jahr 2016 die Compliance Guidelines als Hilfestellung für Entwicklungsunternehmen. Damit dieser Prozess des Erreichens und Dokumentieren der Konformität durch Automatisierung vereinfacht werden kann, wird Folgendes benötigt:

  • Übergeordnete Echtzeit-Ansichten des gesamten Projektstatus, um sicherzustellen, dass die Konformität von Grund auf in den Entwicklungsprozess einbezogen wird.
  • Automatisiertes Erstellen von Reports, die den MISRA-Konformitätsrichtlinien entsprechen (z. B. MISRA Compliance:2016), um den Aufwand zum Erstellen der unterstützenden Dokumentation zu verringern.
  • Schnelle und einfache Arbeitsabläufe zur Untersuchung von Regelverletzungen und zur Priorisierung von Abhilfemaßnahmen für ein rationelleres Vorgehen mit dem Ziel, das Projekt in Richtung Konformität ‚auf Kurs‘ zu bringen.

Im Hinblick auf diese Richtlinien wurde die Reporting- und Analytics-Plattform DTP zur Individualisierung und Erweiterung von Installationen des Prüf-Tools C/++test entwickelt. Intelligente Analysen sollen den Beteiligten ein vertieftes Verständnis der Testabdeckung und der durch Änderungen entstehenden Risiken vermitteln. Für den MISRA-Standard vereinfacht DTP das Erreichen, Durchsetzen und Dokumentieren der Konformität, während gleichzeitig Funktionalität, Performance und Sicherheit geboten werden.

Das MISRA Compliance Dashboard

Eine wichtige Größe ist der aktuelle Konformitäts-Status eines Projekts, ebenso wie die verschiedenen detaillierteren Aspekte bei der Messung der Konformität. DTP wartet mit einem umfassenden MISRA Compliance Dashboard auf, das eine Sofort-Evaluierung des jeweiligen Projekts ermöglicht. Diese übergeordnete Darstellung ist für Manager und Entwickler gleichermaßen wichtig. Während die Manager auf einen Blick ein leicht verständliches Bild von der Konformität erhalten, erhalten Entwicklern eine Ausgangsbasis, von der aus sie weiter in Richtung Konformität voranschreiten und ihre Maßnahmen priorisieren können.

Bild 1: Beispiel des MISRA Compliance Dashboard von DTP (Bild: Parasoft)

Das MISRA Compliance Pack

Zusätzlich zum MISRA Compliance Dashboard bietet Parasoft ein komplettes Compliance Pack, das speziell auf die Konformitäts-Dokumentationsanforderungen der MISRA-Richtlinien zugeschnitten ist. Das MISRA Compliance Pack for DTP übernimmt die automatisierte Dokumentation gemäß den MISRA Compliance:2016-Richtlinien und verringert den Arbeits- und Zeitaufwand erheblich, der beim Nachweis der Konformität für eine Zertifizierungsstelle entsteht. Die Bestandteile sind nachfolgend aufgezählt.

1. Der Guideline Enforcement Plan

Der MISRA Guideline Enforcement Plan zeigt auf, wie die einzelnen MISRA-Richtlinien verifiziert werden. In den meisten Fällen bedeutet das die Verknüpfung zwischen einer MISRA-Direktive oder -Regel und der/den zugehörigen Codeanalyse-Regel(n) oder DTP-Funktion. Dazu das folgende Beispiel:

Bild 2: Beispiel eines Reports des MISRA Guideline Enforcement Plan von DTP (Bild: Parasoft)

2. Der Guideline Re-Categorization Plan

Der MISRA Guideline Re-Categorization Plan hat das Ziel, die vereinbarte Bedeutung der Richtlinien im Rahmen der Beziehung zwischen Anbieter und Kunde zu kommunizieren. Das Dokument zeigt, wie die einzelnen Richtlinien für das laufende Projekt kategorisiert werden. Verbindliche und notwendige Richtlinien lassen sich nicht herabstufen, jedoch kann in einem Projekt entschieden werden, notwendige oder beratende Richtlinien auf eine striktere Stufe anzuheben. Man kann auch beschließen, Richtlinien mit beratender Funktion ganz wegzulassen, sodass sie für die Konformität nicht notwendig sind. Hier ein Beispiel für einen Re-Categorization Plan:

Bild 3: Beispiel eines MISRA Guideline Re-Categorization Plan-Reports von DTP (Bild: Parasoft)

3. Deviations Report

Der MISRA Deviations Report dokumentiert die Abweichungen von Richtlinien mitsamt der entsprechenden Begründung. Wann immer eine Regelverletzung erkannt, aber toleriert wird, ist eine Dokumentation im Deviations Report erforderlich. In den meisten Fällen handelt es sich dabei um von der Code-Analyse gemeldete, aber unterdrückte Fehler. Auch zu diesem Report hier ein Beispiel:

Bild 4: Beispiel eines MISRA Deviations Report von DTP (Bild: Parasoft)

4. Die Guidelines Compliance Summary

Die Compliance Summary ist die primäre Aufzeichnung der Konformität des gesamten Projekts. Dieser Report dokumentiert den Konformitäts-Status jeder einzelnen Richtlinie mitsamt etwaigen Abweichungen (Deviations) und Neueinordnungen (Re-Categorizations). Dazu dieses Beispiel:

Bild 5: Beispiel eines MISRA Compliance Reports von DTP (Bild: Parasoft)

Der richtige Kurs in Richtung Konformität

Wird Quellcode auf MISRA-Konformität untersucht, deckt die statische Analyse die meisten Regelverletzungen auf. So dürften in einem umfangreichen Projekt zu Beginn zunächst große Mengen an Fehlern gemeldet werden. Es kommt darauf an, diese vielen Fehler schnell und effizient abzuhandeln. Der DTP Violations Explorer ist das entscheidende Werkzeug, mit dem die gemeldeten Fehler navigiert, evaluiert, priorisiert und für die Behebung zugewiesen werden. Stellt sich eine bei der statischen Analyse entdeckte Regelverletzung als valide heraus, ist aber entweder zu rechtfertigen, wird als harmlos angesehen oder ist nicht zutreffend, kann der Entwickler den Fehler unterdrücken – dann wird eine Abweichung (Deviation) dokumentiert. Diese Abweichungen werden an jede nächsthöhere Stufe des Projekts weitergemeldet und gelangen so zum Dashboard und zur Konformitäts-Dokumentation. Die folgende Abbildung zeigt ein Beispiel des Violation Explorers:

Bild 6. Beispiel einer im Violation Explorer von DTP untersuchten Regelverletzung (Bild: Parasoft)

Durchsetzung, Konformität und Rückverfolgbarkeit

Somit stellt der MISRA-Standard bei der Entwicklung sicherheitskritischer Software einen umfassenden Bestand an Richtlinien zur Verfügung, die Schutz vor Sicherheitslücken und Programmausfällen bieten.  Allerdings können die Anwendung dieser Richtlinien und der Nachweis der Konformität übermäßig viel Aufwand verursachen. Darum ist die Rationalisierung dieses Prozesses entscheidend für eine termingerechte Ablieferung der Software.

Um sich bei dieser Arbeit durch Software unterstützen zu lassen, haben Entwickler folgende Möglichkeiten:

  • Nutzung von C/C++test zum Verifizieren der MISRA-Richtlinien mithilfe der statischen Codeanalyse nach jedem Software-Build, sodass die Einhaltung der Richtlinien Tag für Tag durchgesetzt wird.
  • Erstellen von übergeordneten Übersichten und detaillierten Reports, die sich schnell aus dem MISRA Compliance Pack von DTP generieren lassen, für den effizienten Nachweis der Konformität.
  • Einsatz von DTP auch zur Rückverfolgbarkeit der Projektanforderungen zu den Tests. Dies ist eine wichtige Forderung nicht nur von MISRA, sondern auch der Sicherheitsstandards.

Die Unterstützung der MISRA-Konformität über den gesamten Lebenszyklus hinweg ist wichtig für die fortlaufende Durchsetzung und Rückverfolgbarkeit. Das Automatisieren der Dokumentation gemäß den MISRA Compliance 2016-Richtlinien ist wiederum entscheidend zur Vermeidung von unnötigem Zeitaufwand und Frustrationen beim Umgang mit dieser Richtlinie.

IoT im Rennwagen

Das Projekt

Starkstrom Augsburg e.V. ist ein gemeinnütziger Verein zur Förderung studentischer Forschung rund um das Thema Elektromobilität. Seit der Gründung des Vereins im Jahr 2011 ist die Faszination ungebrochen. Inzwischen engagieren sich in einer Saison bis zu 100 Studierende aus allen Fakultäten der Hochschule Augsburg. Nach sechs elektrisch angetriebenen Rennwagen, von denen einer zu einem autonomen Fahrzeug umgebaut wurde, stellt sich das Team der Herausforderung die bestehende Technologie weiter zu verbessern, Zuverlässigkeit zu erhöhen und die Performance zu steigern. Um live auf alle relevanten Daten des Fahrzeugs zugreifen zu können wurde bisher ausschließlich auf WLAN gesetzt. Dieses lokal begrenzte System soll nun dahingehend verbessert werden, dass der Bolide sich ins LTE-Netz einbucht und den Zugriff auf den Logger über OpenVPN ermöglicht. Hierzu kommt ein Router von Net Module zum Einsatz.

 

Anforderungen

▪ Betrieb am Low-Voltage System mit 12- 16,8 V

▪ Einsatz von OpenVPN

▪ Unempfindlichkeit gegenüber Störungen durch den nahegelegenen Wechselrichter

▪ Geringes Gewicht

 

Lösung

Gemeinsam mit Net Module wurde der NB800 LTE & WLAN zusammen mit einer Coach-2L2WG Antenne ausgewählt. Dieser bietet die geforderten Funktionen bei leichtem Gewicht.

Durch die flache Bauform der Antenne ist es möglich, diese fast überall zu platzieren. Um die Aerodynamik des Wagens nicht zu stark zu beeinflussen soll die Antenne unter der vorderen Abdeckung oder im hinteren Flügel platziert werden. Zur Ermittlung, wie dünnes Carbon die Eigenschaften der Antenne verändert, erfolgen einige Tests.

Auch für die Weiterentwicklung steht Starkstrom mit Net Module im Kontakt, da für den autonomen Rennwagen, der zeitgleich entwickelt wird, eine Softwareerweiterung der Firmware benötigt wird. Diese Erweiterung soll nicht nur dem Team dienen, sondern auch weiteren Anwendern nutzen. Die Software soll Korrekturdaten für GPS aus dem Mobilfunknetz empfangen und an ein angeschlossenes Endgerät weiterreichen.

“Der Router von NetModule ermöglicht es uns nun live alle wichtigen Fahrzeugdaten abzurufen ohne dabei direkt neben dem Rennwagen stehen zu müssen.“ Stephan Ruber, Leiter Elektrotechnik (Bildquelle: Starkstrom Augsburg)

 

Die 5 größten Einflussbereiche des Internets der Dinge

2020 wird ein wichtiges Jahr für den technologischen Fortschritt: Das Mooresche Gesetz verliert seine Gültigkeit; Produktion und Speicherung von Solarenergie kommen ins Gleichgewicht; autonome Elektroautos bestimmen in zunehmendem Maße Transport und Verkehr.[1] Welche Bedeutung jenem Jahr zukommt, spiegelt sich auch in den Voraussagen vieler Analysten wider.

So werden im Internet der Dinge bis zu 50 Milliarden Geräte miteinander verbunden sein, wenn Cisco[2] mit seiner Schätzung richtig liegt. Darunter befinden sich dann laut Gartner über 250 Millionen[3] vernetzte Fahrzeuge. Mit einem geschätzten jährlichen Wachstum von 20 Prozent und einer Wertschöpfung von ungefähr 7,1 Billionen Dollar[4] kündigt sich hier eine Revolution an, die den Status Quo erschüttern wird. Die vielen Möglichkeiten und vor allem die clevere Nutzung der Daten aus vernetzten Dingen treiben diese Veränderungen voran. Hier sind die fünf Bereiche, in denen sich meiner Meinung nach die größten Auswirkungen zeigen werden.

1- Prädiktive Instandhaltung

Gerade anlagen- und ausrüstungslastige Organisationen, etwa in den Branchen Fertigung, Bergbau, Öl und Gas, wissen, wie wichtig eine ordnungsgemäße Wartung und Pflege der Maschinen ist. Doch eine solche Wartung beruht auf Erfahrungswerten der Vergangenheit; sie ist reaktiv, bringt unnötige Arbeiten und Kosten mit sich und kann trotzdem Maschinenausfälle nicht vermeiden. So schätzen Autohersteller die Kosten für ungeplante Auszeiten in Fertigungsanlagen pro Minute auf bis zu 22.000 Dollar bei einer Gesamthöhe mehrerer Millionen Dollar pro Vorfall.[5] 

Vernetzte und mit Sensoren ausgestattete Maschinen ermöglichen es, den Zustand der Ausrüstung kontinuierlich zu überwachen und mit Hilfe von Data Science- und Machine Learning-Modellen Hinweise auf Funktionsstörungen aufzuspüren, bevor der Schadensfall eintritt. So lassen sich nicht nur Ausfallzeiten um bis zu 50% reduzieren[6], sondern auch Ersatzteilbestellungen und -auslieferungen sowie die Verteilung von Personal und Ressourcen effizienter und effektiver gestalten.

2 – Vernetzte Fahrzeuge

Neben den oben erwähnten 250 Millionen vernetzten Autos auf den Straßen werden 2020 auch 75 Prozent aller produzierten Neuwagen über Internetkonnektivität verfügen.[7] Die Anzahl der Sensoren an einem Auto wird sich von derzeit 60 bis 100 auf 200 verdoppeln.

Neben der oben genannten prädiktiven Instandhaltung wird es daher noch viel mehr Anwendungsfälle auf dem Gebiet vernetzter Fahrzeuge geben, etwa soziale Navi-Tools wie Waze, die Informationen über den Verkehr in Echtzeit, bis hin zur Hilfe bei der Suche nach einem freien Parkplatz, liefern. Auch zum Thema Sicherheit, etwa Kollisionsvermeidung, Notruffunktionen und Vorwarnung bei Gefahr, gibt es bereits heute schon Ansätze.

Aber die Anwendungsfälle beschränken sich nicht auf das Fahrzeug selbst: Versicherungsgesellschaften können kontinuierliche Telematik nutzen, um auf der Grundlage des Fahrverhaltens und der individuellen Bedürfnissen des Fahrers eine maßgeschneiderte Absicherung und in hohem Maße personalisierte Produkte anzubieten. Behörden und Organisationen mit Sicherheitsaufgaben können Fahrzeugdaten in Verbindung mit anderen Informationen nutzen, um Verkehrsmuster zu verstehen, Risiken zu erkennen und diese Einsichten in die Stadtplanung miteinzubeziehen.

Die Firma Navistar[8] überwacht mit mittels IoT Schlüsseldaten von Tausenden Speditionslastwagen. Dadurch kann Navistar nicht nur die Anzahl außerplanmäßiger Reparaturen und Ausfallzeiten ihrer Fahrzeuge um 30 bis 40 Prozent reduzieren, sondern den Spediteuren auch zu geringeren Wartungskosten verhelfen: Diese betragen 0,03 Dollar pro Meile statt der branchenüblichen 0,12 bis 0,15 Dollar pro Meile.

3 – Smarte Infrastruktur

Ob als Smart City, Smart Lighting, Smarte Entsorgung oder ähnliches, im Bereich Infrastruktur geht es grundsätzlich um die Integration von Sensordaten mit Informationen aus der vernetzten Infrastruktur und anderen, oft externen, Datenquellen, wie Wetter oder Verkehrsdaten. Großstädte wie Barcelona, London, Singapur oder San Francisco sowie große Flughäfen testen bereits die Grenzen des Machbaren aus.

Aber auch im kleineren Rahmen gibt es erfindungsreiche Neuerungen. Milton Keynes[9], eine der am schnellsten wachsenden Städte im Vereinigten Königreich, hat zusammen mit BT Global Services eine Lösung entwickelt, die Verkehrsteilnehmer auf der Suche nach einer Parkmöglichkeit zu einem freien Platz leitet. Das spart der Stadt nicht nur Millionen Pfund, weil keine neuen Parkplätze gebaut und instand gehalten werden müssen, sondern verringert auch die Emissionen, weil die Parkplatzsuchenden gezielt zu einem Parkplatz geleitet werden.

4 – Vernetztes Gesundheitswesen

Die Hauptursache für Tod und Invalidität in den Vereinigten Staaten sind chronische Krankheiten wie Herzerkrankungen, Krebs, Typ-2-Diabetes oder Arthritis. Diese Krankheiten und ihre Begleiterscheinungen sind die am weitesten verbreiteten und vor allem kostenintensivsten Gesundheitsprobleme, die es zu lösen gilt. Eine der entscheidenden Maßnahmen für eine erfolgreiche Behandlung ist die häufige Überwachung der wichtigsten Gesundheitswerte eines Patienten. Das Problem ist, dass vermehrte Besuche von Krankenhäusern oder Testzentren den Lebensalltag des Patienten beeinträchtigen und die Kosten der Behandlung in die Höhe treiben.

Genau an dieser Stelle setzten IoT-Lösungen an. Ein chronisch kranker Patient könnte mit mehreren vernetzten IoT-Geräten, etwa einer Waage, einer Blutdruckmanschette und einem Armband, ausgestattet werden. Diese zeichnen kontinuierlich die wichtigsten Gesundheitswerte auf und senden die an eine auswertende Software-Lösung. Diese sammelt Daten von Tausenden Patienten und kann daher gefährliche Abweichungen durch Machine Learning selber entdecken und den zuständigen Arzt sowie den Patienten in Echtzeit warnen.

Bei der Parkinson-Krankheit standen der Forschung lange Zeit nur begrenzte Daten aus Feldstudien zur Verfügung. Klinische Untersuchungen lagen mehrere Monate auseinander, und Daten waren nicht objektiv, sondern basierten auf der Einschätzung bestimmter Symptome durch Einzelpersonen. Die Michael J. Fox Foundation hat mit Intel daran gearbeitet[10], Tausende von Parkinson-Patienten mit Wearables auszustatten, die über ein Mobiltelefon mehr als 300 Beobachtungen pro Sekunde zu Symptomen wie Bewegungsverlangsamung, Zittern oder Schlafqualität in die Cloud hochladen können. Diese steigende Datenmenge bietet Forschern die Möglichkeit, Muster zu erkennen und so eines Tages ein Heilmittel gegen die Krankheit zu entdecken.

5 – Vernetzte Produkte & Analysemethoden

Wie nutzen Kunden Produkte? Die Antwort auf diese Frage ist goldwert, denn sie hilft Unternehmen Produkte und Dienstleistungen zu verbessern und neue zu entwickeln. Doch diese Informationen zu sammeln und zeitnah darauf zu reagieren, stellt Unternehmen vor eine gewaltige Herausforderung. Bei den klassischen Umfragen werden Daten durch kostspielige und manchmal unzuverlässige, subjektive Interaktion gesammelt. Bis die Daten ausgewertet sind, ist es meist zu spät, die erlangten Einsichten noch in die laufenden Produktionszyklen einfließen zu lassen.

IoT-fähige Anwendungen und -Produkte dagegen verfügen über integrierte Analysefähigkeiten, mit deren Hilfe Organisationen erschließen können,  wie ihre Kunden ihre Produkte nutzen. So können Unternehmen schnell auf aktuelle Probleme reagieren, neue oder zusätzliche Funktionen in die Produkte integrieren sowie letztendlich das Kundenerlebnis positiv beeinflussen.

Die Firma GoPro[11] kann beispielsweise in Echtzeit herausfinden, welche Kunden welches Modell und welche Version ihrer Kameras zu welchem Zweck (Video, Standbild, Teilen auf Sozialen Medien, etc.) einsetzen. Das erlaubt ihnen, gezielt und zeitnah Produktverbesserungen und neue Produktfunktionen zu entwickeln.

Fazit

Dies sind nur fünf Bereiche, in denen das Internet der Dinge die Gesellschaft in den kommenden Jahren prägen wird. Aber damit ist das Potential von IoT noch nicht ausgeschöpft. Unternehmen sind sich über den Nutzen der IoT-Integration und der entsprechenden Daten einig: erhöhte Effizienz, verbesserte Produkte und Kundenerfahrungen, Entwicklung und Erschließung neuer Dienstleistungen und Geschäftsmodelle. Um davon profitieren zu können, reicht es nicht, IoT-Sensoren einfach nur zu verwenden, denn das würde lediglich eine Datenflut herbeiführen; viel wichtiger ist die Kontextualisierung der IoT-Daten, denn darin liegt der Schlüssel zu deren enormem Geschäftswert.

Was meinen Sie? Wo werden wir bis 2020 noch weitere einschneidende Veränderungen durch das Internet der Dinge sehen?

[1] Forbes, Why 2020 is shaping up to be a pivotal year,

[2] How the Next Evolution of the Internet Is Changing Everything

[3] Gartner Says By 2020, a Quarter Billion Connected Vehicles …

[4] Internet of Things market to hit $7.1 trillion by 2020

[5] The $22,000-Per-Minute Manufacturing Problem

[6] McKinsey, The internet of things – mapping the value beyond the hype,

[7] Giesecke & Devrient analysis as quote on IT Web

[8] Reducing Maintenance Costs up to 40 percent for Connected Vehicles

[9] Smart Parking in Milton Keynes

[10] Using Wearable Technology to Advance Parkinson’s Research

[11] How big data and analytics are fuelling the IoT revolution