Alle Beiträge von IoT Vogel

Das ist Winston – ein Mensch der sich als Roboter verkleidet hat. Warum? Weil IoT die Lücke zwischen virtueller und realer Welt schließen soll. [Zeichnung ist noch geklaut, aber wir kennen ja jemanden der gut Roboter zeichnen kann] Warum heißt Winston Winston? Der Hintergrund ist eher düster, aber bei RTL 2 und Apple hat es auch funktioniert. Winston Smith ist die Hauptfigur in George Orwells Roman „1984“, in der die Bevölkerung permanent mit „nicht abschaltbaren Geräten“ überwacht wird. Winston ist Teil des Systems, beginnt aber immer mehr zu Zweifeln, wird aber durch eine Gehirnwäsche wieder auf Kurs gebracht. Eine Steilvorlage für eine kritische und diskussionswürdige Auseinandersetzung mit dem Thema IoT.

Industrie 4.0 – In 4 Schritten zur Handlungsstrategie

Spätestens seit der CEBIT 2015 ist der Bekanntheitsgrad von Industrie 4.0 als der 4ten industriellen Revolution in Deutschland groß. Oft wird darunter aber nur die nächste Stufe der Automatisierung in der Fabrik verstanden. Besser gerecht wird man dem Thema, wenn man unter Industrie 4.0 den Einzug des Internets in die Geschäftsprozesse und Geschäftsmodelle und die damit einhergehende Digitalisierung versteht. Untersuchungen zeigen, dass der Bekanntheitsgrad von Industrie 4.0 zwar hoch ist, aber die Umsetzung von Elementen zu Industrie 4.0 besonders im Mittelstand sehr zögerlich verläuft. Ein Konzept zur Vorgehensweise fehlt.

Der Arbeitskreis Industrie 4.0 im AWF-Ausschuss für Wirtschaftliche Fertigung – widmet sich mit seinen Teilnehmern den verschiedensten Fragestellungen zum Komplex Industrie 4.0. Die ca. 20 Arbeitskreis-Mitglieder aus bekannten deutschen Unternehmen[1] kommen 4 Mal jährlich bei den Teilnehmer-Unternehmen zusammen und bearbeiten Themenstellungen zu Industrie 4.0. Beim einem dieser Arbeitskreis-Treffen stand die Entwicklung einer Vorgehensweise im Mittelpunkt (vgl. Abb. 1).

Abb. 1 Das AWF-Modell, Schritte 1 und 2 (Quelle: Sames )

 

Im Folgenden soll das AWF-Modell näher erläutert werden.

1. Ermittlung des Ist-Zustands

Das Modell sieht vor, dass zunächst der Ausgangszustand im Hinblick auf Industrie 4.0/ Digitalisierung im Unternehmen ermittelt wird. Als geeignetes Tool dazu wird ein Reifegradmodell verwendet, das auf dem Produkt– und Produktions-zentrierten Werkzeugkasten Industrie 4.0 des VDMA[1] basiert. Dieses wurde an der Technischen Hochschule Mittelhessen um die Aspekte Organisation und Mitarbeiter erweitert. Zu jedem Aspekt gibt es mehrere besonders relevante Merkmale, z.B. die Abwicklung von Kundenaufträgen. Diese können in unterschiedlichen Ausprägungsstufen vorliegen. Der Grad der Digitalisierung resp. Industrie 4.0 steigt von links nach rechts an. Ein Ausschnitt aus dem Reifegradmodell wird in Abb. 2 wiedergegeben. Wichtig ist aber der Hinweis, dass nicht zwangsweise als Zielsetzung das Erreichen der höchsten Ausprägungsstufe sinnvoll ist.

Abb. 2: Auszug aus dem Reifegradmodell (Quelle: Sames )

 

Die Ermittlung des Ist-Zustands kann dabei beliebig detailliert werden. Das Reifegradmodell lässt sich für Produktbereiche, für Produktlinien, oder auch auf unterschiedliche Sparten oder Bereiche eines Unternehmens anwenden. Auf die inhaltliche Ausgestaltung des Reifegradmodells soll hier nicht weiter eingegangen werden. Das Reifegradmodell wurde im AWF-Arbeitskreis mehrfach erfolgreich eingesetzt, und hat nach Aussagen der Mitglieder eine sehr gute Ordnungsstruktur in das komplexe Thema Industrie 4.0 gebracht.

Um die vorhandene Ausprägung eines Merkmals festzustellen, sind entsprechende Checklisten als Arbeitshilfen abzuleiten. Sie sollen Antwort geben, wie ein Vorgang läuft, welche Hilfsmittel verwendet werden, welche Fehler im Ausgangszustand zu bemängeln sind, welche Standards verwendet werden etc. Um die notwendige neutrale Sicht bei der Ermittlung des Ist-Zustands zu behalten, sieht das AWF-Modell vor, dass ein neutraler Auditor, gerne auch ein Externer, zu Rate gezogen wird. Die Ermittlung des Ist-Zustands setzt ebenso voraus, dass ein Verantwortlicher der zu betrachtenden Organisationseinheit zur Verfügung steht. Wichtig ist ein unkomplizierter Zugriff auf weitere Experten des jeweiligen Unternehmensbereichs.

2. Bestimmung relevanter Handlungsfelder

Welche Ausprägung im Reifegradmodell ist aber für die Zukunft des Unternehmens sinnvoll? Das AWF-Modell sieht dazu vor, dass die Megatrends, die auf das Unternehmen wirken, analysiert werden. Solche Megatrends können z. B. der sich aufgrund der Demografie abzeichnende Fachkräfte-Mangel sein, Veränderungen in Energiepreisen, Paradigmen-Wandel bei den Kunden, etc. Basierend auf dieser Analyse können anhand der Checkliste potentielle Handlungsfelder identifiziert werden. Die Detaillierungsebene ist wieder unternehmensindividuell festzulegen. So können bestimmte Geschäftsfelder, Produkte oder Produktgruppen, aber auch Leistungen des Unternehmens differenziert betrachtet werden.

3. Definition Soll-Zustand (s. Abb. 3)

Industrie 4.0 darf bei den Unternehmen kein Selbstzweck sein. Vielmehr muss der Soll-Zustand im Einklang mit der Unternehmensstrategie stehen. Auch kann mit Industrie 4.0/ Digitalisierung vieles gemacht werden. Doch im Vordergrund muss die Relevanz für das Unternehmen stehen. Dazu sind die Kosten, der Nutzen, notwendige Ressourcen, aber auch die finanziellen Möglichkeiten des Unternehmens zu beachten. Besonders Prozesse, die fehlerhaft ablaufen, sehr personalintensiv sind, also sogenannte Pain Points, sind dabei zu beachten. Das AWF-Modell sieht vor, dass der Soll-Zustand in Workshops mit Vertretern des Unternehmens festgelegt wird. Es ist zu überlegen, ob das Einschalten eines Beraters notwendige Impulse geben kann.

Abb. 3: Das AWF-Modell, Schritte 3 und 4 (Quelle: Sames )

 

4. Entwicklung Digitalisierungs-Strategie

Aus dem Soll-Zustand gemäß des Reifegradmodells wird schließlich die Digitalisierungs-Strategie abgeleitet. Anhand der Bewertungen von Kosten/Nutzen, Dringlichkeit oder anderen Kriterien, lässt sich eine Reihenfolge von Projekten ableiten. Diese bilden dann die Roadmap für das Unternehmen.

[1] AWF-Arbeitskreis Industrie 4.0: Siemens AG, Wolf, Arconic, Hekatron, Rittal, Biotronik, CE-SYS Vision, E.G.O., Hottinger Baldwin, Bender, IPOL, Elabo, sense-IT, Braas Monier, IFESCA, Carl Geringhoff, incovia, Technische Hochschule Mittelhessen

[2] VDMA Leitfaden Industrie 4.0, 2015, S. 11-16

Erfolgreiche Projekte durch MISRA-Konformität

Die von der Motor Industry Software Reliability Association (MISRA) herausgegebenen „Richtlinien zur Nutzung der C-Sprache in kritischen Systemen” (Guidelines for the use of the C language in critical systems), auch bekannt unter der Bezeichnung MISRA C 2012, definieren eine Teilmenge der C-Sprache. Deren Zweck ist die Minimierung potenzieller Fehler und Sicherheitslücken, die zum Versagen von Programmen oder zu gravierenden Fehlern führen können. Obwohl ursprünglich für KFZ-Systeme gedacht, haben viele weitere Industriezweige die Richtlinien für die Verwendung in sicherheitskritischen Systemen übernommen. In allen Fällen stellt die Feststellung der Konformität eine komplexe und zeitaufwändige Aufgabe dar.

Auf dem Markt gibt es zahlreiche Tools, die melden, ob ein Code eine bestimmte Richtlinie verletzt. Allerdings vereinfachen nur wenige Werkzeuge den Report- und Dokumentationsprozess, der zum Nachweis der Konformität notwendig ist. Auf die Rationalisierung des gesamten Vorgangs des Erzielens, der Dokumentierung und der Beibehaltung der MISRA-Konformität über den gesamten Produkt-Lebenszyklus zielt unsere Reporting- und Analytics-Plattform (DTP) ab. Sie sorgt für Automatisierung und Hilfestellung – zusätzlich zu unserem Prüf-Tool C/++test für C und C++. Dieser Beitrag erläutert genauer, wie man diese Tools gemeinsam nutzen kann, damit die MISRA-Konformität weniger Kopfzerbrechen bereitet.

Leitlinien auf dem steinigen Weg zur MISRA-Konformität

Konformität ist eine binäre Größe: Ein Code ist entweder konform oder er ist es nicht. Die MISRA-Richtlinien verlangen, dass der Code vollumfänglich den Direktiven und Regeln des Standards entspricht. Diese uneingeschränkte Konformität zu erreichen, ist deshalb bei einem großen und komplexen Projekt kein einfaches Unterfangen. Verschärft wird die Herausforderung dadurch, dass viele Beziehungen zwischen Anbieter und Kunde den Nachweis der Einhaltung des Standards per Dokumentation voraussetzen.

Um deutlicher zu machen, wie bei der Umsetzung der MISRA-Codierrichtlinien vorzugehen ist, veröffentlichte die MISRA im Jahr 2016 die Compliance Guidelines als Hilfestellung für Entwicklungsunternehmen. Damit dieser Prozess des Erreichens und Dokumentieren der Konformität durch Automatisierung vereinfacht werden kann, wird Folgendes benötigt:

  • Übergeordnete Echtzeit-Ansichten des gesamten Projektstatus, um sicherzustellen, dass die Konformität von Grund auf in den Entwicklungsprozess einbezogen wird.
  • Automatisiertes Erstellen von Reports, die den MISRA-Konformitätsrichtlinien entsprechen (z. B. MISRA Compliance:2016), um den Aufwand zum Erstellen der unterstützenden Dokumentation zu verringern.
  • Schnelle und einfache Arbeitsabläufe zur Untersuchung von Regelverletzungen und zur Priorisierung von Abhilfemaßnahmen für ein rationelleres Vorgehen mit dem Ziel, das Projekt in Richtung Konformität ‚auf Kurs‘ zu bringen.

Im Hinblick auf diese Richtlinien wurde die Reporting- und Analytics-Plattform DTP zur Individualisierung und Erweiterung von Installationen des Prüf-Tools C/++test entwickelt. Intelligente Analysen sollen den Beteiligten ein vertieftes Verständnis der Testabdeckung und der durch Änderungen entstehenden Risiken vermitteln. Für den MISRA-Standard vereinfacht DTP das Erreichen, Durchsetzen und Dokumentieren der Konformität, während gleichzeitig Funktionalität, Performance und Sicherheit geboten werden.

Das MISRA Compliance Dashboard

Eine wichtige Größe ist der aktuelle Konformitäts-Status eines Projekts, ebenso wie die verschiedenen detaillierteren Aspekte bei der Messung der Konformität. DTP wartet mit einem umfassenden MISRA Compliance Dashboard auf, das eine Sofort-Evaluierung des jeweiligen Projekts ermöglicht. Diese übergeordnete Darstellung ist für Manager und Entwickler gleichermaßen wichtig. Während die Manager auf einen Blick ein leicht verständliches Bild von der Konformität erhalten, erhalten Entwicklern eine Ausgangsbasis, von der aus sie weiter in Richtung Konformität voranschreiten und ihre Maßnahmen priorisieren können.

Bild 1: Beispiel des MISRA Compliance Dashboard von DTP (Bild: Parasoft)

Das MISRA Compliance Pack

Zusätzlich zum MISRA Compliance Dashboard bietet Parasoft ein komplettes Compliance Pack, das speziell auf die Konformitäts-Dokumentationsanforderungen der MISRA-Richtlinien zugeschnitten ist. Das MISRA Compliance Pack for DTP übernimmt die automatisierte Dokumentation gemäß den MISRA Compliance:2016-Richtlinien und verringert den Arbeits- und Zeitaufwand erheblich, der beim Nachweis der Konformität für eine Zertifizierungsstelle entsteht. Die Bestandteile sind nachfolgend aufgezählt.

1. Der Guideline Enforcement Plan

Der MISRA Guideline Enforcement Plan zeigt auf, wie die einzelnen MISRA-Richtlinien verifiziert werden. In den meisten Fällen bedeutet das die Verknüpfung zwischen einer MISRA-Direktive oder -Regel und der/den zugehörigen Codeanalyse-Regel(n) oder DTP-Funktion. Dazu das folgende Beispiel:

Bild 2: Beispiel eines Reports des MISRA Guideline Enforcement Plan von DTP (Bild: Parasoft)

2. Der Guideline Re-Categorization Plan

Der MISRA Guideline Re-Categorization Plan hat das Ziel, die vereinbarte Bedeutung der Richtlinien im Rahmen der Beziehung zwischen Anbieter und Kunde zu kommunizieren. Das Dokument zeigt, wie die einzelnen Richtlinien für das laufende Projekt kategorisiert werden. Verbindliche und notwendige Richtlinien lassen sich nicht herabstufen, jedoch kann in einem Projekt entschieden werden, notwendige oder beratende Richtlinien auf eine striktere Stufe anzuheben. Man kann auch beschließen, Richtlinien mit beratender Funktion ganz wegzulassen, sodass sie für die Konformität nicht notwendig sind. Hier ein Beispiel für einen Re-Categorization Plan:

Bild 3: Beispiel eines MISRA Guideline Re-Categorization Plan-Reports von DTP (Bild: Parasoft)

3. Deviations Report

Der MISRA Deviations Report dokumentiert die Abweichungen von Richtlinien mitsamt der entsprechenden Begründung. Wann immer eine Regelverletzung erkannt, aber toleriert wird, ist eine Dokumentation im Deviations Report erforderlich. In den meisten Fällen handelt es sich dabei um von der Code-Analyse gemeldete, aber unterdrückte Fehler. Auch zu diesem Report hier ein Beispiel:

Bild 4: Beispiel eines MISRA Deviations Report von DTP (Bild: Parasoft)

4. Die Guidelines Compliance Summary

Die Compliance Summary ist die primäre Aufzeichnung der Konformität des gesamten Projekts. Dieser Report dokumentiert den Konformitäts-Status jeder einzelnen Richtlinie mitsamt etwaigen Abweichungen (Deviations) und Neueinordnungen (Re-Categorizations). Dazu dieses Beispiel:

Bild 5: Beispiel eines MISRA Compliance Reports von DTP (Bild: Parasoft)

Der richtige Kurs in Richtung Konformität

Wird Quellcode auf MISRA-Konformität untersucht, deckt die statische Analyse die meisten Regelverletzungen auf. So dürften in einem umfangreichen Projekt zu Beginn zunächst große Mengen an Fehlern gemeldet werden. Es kommt darauf an, diese vielen Fehler schnell und effizient abzuhandeln. Der DTP Violations Explorer ist das entscheidende Werkzeug, mit dem die gemeldeten Fehler navigiert, evaluiert, priorisiert und für die Behebung zugewiesen werden. Stellt sich eine bei der statischen Analyse entdeckte Regelverletzung als valide heraus, ist aber entweder zu rechtfertigen, wird als harmlos angesehen oder ist nicht zutreffend, kann der Entwickler den Fehler unterdrücken – dann wird eine Abweichung (Deviation) dokumentiert. Diese Abweichungen werden an jede nächsthöhere Stufe des Projekts weitergemeldet und gelangen so zum Dashboard und zur Konformitäts-Dokumentation. Die folgende Abbildung zeigt ein Beispiel des Violation Explorers:

Bild 6. Beispiel einer im Violation Explorer von DTP untersuchten Regelverletzung (Bild: Parasoft)

Durchsetzung, Konformität und Rückverfolgbarkeit

Somit stellt der MISRA-Standard bei der Entwicklung sicherheitskritischer Software einen umfassenden Bestand an Richtlinien zur Verfügung, die Schutz vor Sicherheitslücken und Programmausfällen bieten.  Allerdings können die Anwendung dieser Richtlinien und der Nachweis der Konformität übermäßig viel Aufwand verursachen. Darum ist die Rationalisierung dieses Prozesses entscheidend für eine termingerechte Ablieferung der Software.

Um sich bei dieser Arbeit durch Software unterstützen zu lassen, haben Entwickler folgende Möglichkeiten:

  • Nutzung von C/C++test zum Verifizieren der MISRA-Richtlinien mithilfe der statischen Codeanalyse nach jedem Software-Build, sodass die Einhaltung der Richtlinien Tag für Tag durchgesetzt wird.
  • Erstellen von übergeordneten Übersichten und detaillierten Reports, die sich schnell aus dem MISRA Compliance Pack von DTP generieren lassen, für den effizienten Nachweis der Konformität.
  • Einsatz von DTP auch zur Rückverfolgbarkeit der Projektanforderungen zu den Tests. Dies ist eine wichtige Forderung nicht nur von MISRA, sondern auch der Sicherheitsstandards.

Die Unterstützung der MISRA-Konformität über den gesamten Lebenszyklus hinweg ist wichtig für die fortlaufende Durchsetzung und Rückverfolgbarkeit. Das Automatisieren der Dokumentation gemäß den MISRA Compliance 2016-Richtlinien ist wiederum entscheidend zur Vermeidung von unnötigem Zeitaufwand und Frustrationen beim Umgang mit dieser Richtlinie.

IoT im Rennwagen

Das Projekt

Starkstrom Augsburg e.V. ist ein gemeinnütziger Verein zur Förderung studentischer Forschung rund um das Thema Elektromobilität. Seit der Gründung des Vereins im Jahr 2011 ist die Faszination ungebrochen. Inzwischen engagieren sich in einer Saison bis zu 100 Studierende aus allen Fakultäten der Hochschule Augsburg. Nach sechs elektrisch angetriebenen Rennwagen, von denen einer zu einem autonomen Fahrzeug umgebaut wurde, stellt sich das Team der Herausforderung die bestehende Technologie weiter zu verbessern, Zuverlässigkeit zu erhöhen und die Performance zu steigern. Um live auf alle relevanten Daten des Fahrzeugs zugreifen zu können wurde bisher ausschließlich auf WLAN gesetzt. Dieses lokal begrenzte System soll nun dahingehend verbessert werden, dass der Bolide sich ins LTE-Netz einbucht und den Zugriff auf den Logger über OpenVPN ermöglicht. Hierzu kommt ein Router von Net Module zum Einsatz.

 

Anforderungen

▪ Betrieb am Low-Voltage System mit 12- 16,8 V

▪ Einsatz von OpenVPN

▪ Unempfindlichkeit gegenüber Störungen durch den nahegelegenen Wechselrichter

▪ Geringes Gewicht

 

Lösung

Gemeinsam mit Net Module wurde der NB800 LTE & WLAN zusammen mit einer Coach-2L2WG Antenne ausgewählt. Dieser bietet die geforderten Funktionen bei leichtem Gewicht.

Durch die flache Bauform der Antenne ist es möglich, diese fast überall zu platzieren. Um die Aerodynamik des Wagens nicht zu stark zu beeinflussen soll die Antenne unter der vorderen Abdeckung oder im hinteren Flügel platziert werden. Zur Ermittlung, wie dünnes Carbon die Eigenschaften der Antenne verändert, erfolgen einige Tests.

Auch für die Weiterentwicklung steht Starkstrom mit Net Module im Kontakt, da für den autonomen Rennwagen, der zeitgleich entwickelt wird, eine Softwareerweiterung der Firmware benötigt wird. Diese Erweiterung soll nicht nur dem Team dienen, sondern auch weiteren Anwendern nutzen. Die Software soll Korrekturdaten für GPS aus dem Mobilfunknetz empfangen und an ein angeschlossenes Endgerät weiterreichen.

“Der Router von NetModule ermöglicht es uns nun live alle wichtigen Fahrzeugdaten abzurufen ohne dabei direkt neben dem Rennwagen stehen zu müssen.“ Stephan Ruber, Leiter Elektrotechnik (Bildquelle: Starkstrom Augsburg)

 

Fünf Erfolgsfaktoren, um IoT-Projekte richtig umzusetzen

1. Praxis vor Theorie

Bei IoT-Projekten gilt vor allem: „Praxiserfahrung schlägt Theoriewissen.“ Wichtig ist also ein Partner, der Erfahrung aus ähnlichen Projekten einbringen und auch auf unvorhergesehene Herausforderungen flexibel reagieren kann. Standardtechnologien sind dazu oftmals besser geeignet, als innovative aber unausgereifte Ansätze. Denken Sie dabei auch an Ihre Kunden und Mitarbeiter, die noch lernen müssen, das neue System zu bedienen. Mit Standardtechnologien und einem erfahrenen IoT-Partner minimieren Sie Integrationsrisiken, beschleunigen die Projektumsetzung und schaffen Mehrwerte.

2. Das Ziel vor Augen

Haben Sie den richtigen IoT-Partner gefunden, vereinbaren Sie mit ihm ein klares Ziel und seien Sie sich über die Folgen im Klaren. Welchen konkreten Nutzen wollen Sie für Ihre Kunden erzielen und welche Prozesse in Ihrem Unternehmen sind davon betroffen? Auf Grundlage dieser Erkenntnisse entwickeln Sie ein Geschäftsmodell. Stimmen Sie sich mit dem Partner ab, er kann Sie dabei beraten, wie und mit welcher Architektur und Technologie der IoT-Datenfluss am besten verwaltet wird. Manchmal ergeben sich aus dem Geschäftsmodell selbst Anforderungen oder Prozesse für die IoT-Plattform, die eigentlich nicht zu deren klassischen Aufgaben gehören. Deshalb sollten Sie Ihren IoT-Dienstleister so früh wie möglich in das Projekt einbinden, um darauf reagieren zu können.

3. Menschliche und künstliche Intelligenz verbinden

Neue Technologien werden nicht von jedem gut angenommen. Dabei hängt der Erfolg Ihres IoT-Projektes maßgeblich von den Mitarbeitern ab. Die erfassten Datenströme müssen beobachtet, verstanden und vor allem interpretiert werden. Es ist eine Führungsaufgabe, den Mitarbeitern die Angst zu nehmen, dass neue Technologien sie ersetzen könnten, und aufzuzeigen, welche neuen Perspektiven durch das IoT-Projekt entstehen. Koppeln Sie daher menschliches Know-how und maschinelle Intelligenz. Umfassende Mitarbeiterschulungen und klare Zuständigkeiten schaffen mit der Zeit die nötige IoT-Kompetenz im Unternehmen.

4. Ein Schritt nach dem anderen

Investitionen in IoT-Projekte amortisieren sich im laufenden Betrieb. Fangen Sie also klein an und bauen Sie die IoT-Lösung nach und nach aus. Dabei sollten Sie ein hohes Augenmerk auf die einfache Bedienbarkeit legen. Eine theoretisch wirtschaftliche Plattform wird scheitern, wenn die relevanten Nutzer sie nur schwer handhaben können. Ein „Proof of Concept“ kann Auskunft über die technologische und die wirtschaftliche Machbarkeit geben.

5. Sich gegen Sicherheitsrisiken wappnen

Bei IoT-Projekten sollte das Thema Sicherheit höchste Priorität haben, denn gerade industrielle IoT-Geräte sind lukrative Ziele für Cyberkriminelle. Seriöse IoT-Dienstleister bringen deshalb eigene Security-Konzepte bereits beim Strategiegespräch ein. Grundsätzlich gilt: Je einfacher die Infrastruktur und je weniger Schnittstellen, desto weniger Schwachstellen gibt es.

Fazit

Mithilfe von IoT-Plattformen können Unternehmen heute sehr spezifische Herausforderungen hocheffizient lösen. Um die richtige Plattform zu finden, tasten sich viele Kunden mit kleinen IoT-Projekten voran. Das ist genau die richtige Strategie: Klein starten und Schritt für Schritt erweitern. Dabei gehören Geschäftsmodell und Technologie ebenso zusammen wie menschliches Know-how und maschinelle Intelligenz.

Vernetztes Expertenwissen für die digitale Zukunft

Der Begriff Internet der Dinge (IoT) ist zurzeit in aller Munde, dabei muss nicht jeder auch verstehen, wovon er da spricht. Nicht wenige Dienstleister versprechen ihren Kunden die IoT-Allroundlösung. Doch kein einzelner Anbieter ist in der Lage, die Lösungsvielfalt des IoT komplett abzudecken.

Informationen müssen heute jederzeit und auf jedem Gerät zugänglich sein. Das gilt natürlich besonders für den Service und Vertrieb, aber auch für die Kunden Ihres Unternehmens. Am wichtigsten dabei: die zielgenaue Ansprache. Hierzu benötigt man ein digital optimiertes Customer Relationship Management (CRM), das alle verfügbaren Kanäle für die Informationsgewinnung und -bereitstellung nutzt. In diesem Zusammenhang müssen auch die Möglichkeiten von Big Data, Predictive Analytics, Cloud-Lösungen und IoT erörtert werden.

Fokussieren Sie den Nutzen für Ihr Unternehmen

Erst das vernetzte Denken ermöglicht eine umfassende digitale Transformation. Ein einzelner Experte auf seinem Gebiet hat nie das vollständige Know-how, um alle Bereiche wie Sensorik, Cloud-IT-Lösungen und CRM zu erfassen. Vor allem mittelständische Unternehmen verfügen meist nicht über die internen Ressourcen, um sämtliche neuen Technologien zu verifizieren und ggf. umzusetzen. Hier hilft ein Digitalisierungspartner, der stets den Nutzen der Technologie für das Unternehmen im Blick hat.

Die digitale Wertschöpfungskette ist lang und komplex. Unzählige Dienstleister bieten zudem die verschiedensten Lösungen an und ständig werden diese um neue Features erweitert. Das Portfolio von großen Softwarekonzernen wie SAP und Microsoft übersteigt dabei bereits die Kompetenz eines kompletten Teams von Digitalisierungsexperten. Daher müssen sich Spezialisten aus den Bereichen Automatisierungstechnik und Betriebswirtschaft gemeinsam den digitalen Herausforderungen stellen.

Im ersten Schritt muss die Ausgangssituation im Unternehmen lückenlos erfasst werden. Im Anschluss ist ein strukturierter Maßnahmenplan erforderlich, der sich nicht nach den möglichen Technologien richten darf, sondern nach dem Nutzen für das Unternehmen. Da besonders der Mittelstand agil auf Marktveränderungen reagieren muss und sich keinen Rückstand erlauben darf, ist hier eine schnelle Lösungsfindung äußerst ratsam.

Die digitale Transformation ist unumgänglich

Am Markt kann nur bestehen, wer auf technologische Veränderungen schnell reagiert. Doch angesichts der Vielfalt an Technologiebereichen und deren stetiger Weiterentwicklung ist es für den einzelnen Experten und tatsächlich auch für ein ganzes Team unmöglich, den Überblick zu behalten. Um den Kundenerwartungen auch in Zukunft gerecht zu werden, sind neue Geschäftsmodelle unumgänglich. Damit individuelle Lösungen bestmöglich umgesetzt werden können, ist ein Zusammenschluss aller beteiligten Digitalisierungspartner nötig. Erst solche Allianzen schaffen die Voraussetzung für eine erfolgreiche Transformation.

Vor allem in der digitalen Welt ist der Kunde König. Produkte sollen möglichst passgenau auf seine Bedürfnisse zugeschnitten sein. Dieser Anspruch macht Technologien wie Big Data und Predictive Analytics zur Pflichtaufgabe. In der digitalisierten Geschäftswelt müssen Kundeninformationen dazu genutzt werden, neue Geschäftsmodelle zu entwickeln, um sich von der Konkurrenz abzugrenzen.

Die Stationen des digitalen Wertschöpfungskreislaufs

Tatsächlich lassen sich sämtliche Geschäftsbereiche im Unternehmen digitalisieren, was auch stets das Ziel sein sollte. Dabei dürfen die einzelnen Abteilungen nicht isoliert betrachtet, sondern müssen sinnvoll miteinander verknüpft werden. Die Leitung der Produktion sollte stets über die Vorgänge im Lager informiert sein, während der Service bspw. in der Lage sein muss, Produktdaten im CRM einem konkreten Kunden zuzuordnen, um einen proaktiven Service sicherzustellen.

Die Ziele der digitalen Wertschöpfungskette:

  • CRM optimieren
  • Enterprise Resource Planning (ERP) optimieren
  • Erkenntnisse bzgl. Kunde gewinnen
  • Field Service sicherstellen
  • Product Lifecycle Management (PLM) optimieren
  • Konstruktion an Kundenanforderungen anpassen

Was zeichnet den digitalen Wertschöpfungskreislauf aus?

Der Prozess im digitalen Wertschöpfungskreislauf beginnt mit Sensordaten, die über Sensoren in der Produktion erfasst werden, betriebswirtschaftlichen Daten und unstrukturierten Daten bspw. aus Social-Media-Kanälen. Im Anschluss geht es darum, die passenden Übertragungswege zu lokalisieren. Sollen die Daten auch für die Außendienstmitarbeiter mobil abrufbar sein, wäre bspw. LTE eine geeignete Übertragungstechnik. Von dort aus geht es in den Datenpool, idealerweise: eine Cloud. So können Daten überall und jederzeit abgerufen werden. Die darauffolgende Analyse bringt die Fülle an Daten in einen Zusammenhang, um sie für die Betrachter auf Dashboards darzustellen. Auf diese Weise lassen sich im letzten Schritt Optimierungspotenziale erkennen und in die Tat umsetzen.

Jetzt schließt sich der Kreis. Denn die optimierten Businessprozesse und neuen Einblicke in Kunden- und Unternehmensdaten lassen erahnen, welche Daten in Zukunft noch von Bedeutung sein werden. Wo müssen weitere Sensoren implementiert werden, um relevante Produktdaten zu erhalten? Mithilfe dieser Produktdaten können wiederum die Techniker einen besseren Service leisten. Dabei unterstützen sie zudem die Produktentwicklung dabei, wichtige Spezifikationen zu ergänzen.

CRM als Kern des digitalen Prozesses

Alle Stränge laufen im CRM zusammen, dem Mittelpunkt der Kundenkommunikation. Mit Digitalisierungsmaßnahmen lassen sich das CRM und damit die Kundenkommunikation wesentlich effizienter gestalten.

Die Ziele des CRM:

  • Verbesserte Kundenanalyse und Segmentierung
  • Customer Experience steigt
  • Datengetriebenes Field Service Management

Business-Applikationen, CRM und ERP wachsen mit Ihren Aufgaben. Auf diese Weise werden Sie dem hohen Kundenanspruch gerecht. Vertrieb, Marketing und Service brauchen neue Prozesse. Aber warum nutzen viele Unternehmen die ihnen gebotenen Möglichkeiten nicht? Meist scheitert die Integration am fehlenden Know-how der Mitarbeiter sowie an der Anpassung von IT, CRM und Unternehmensstrategie.

Das CRM ist und bleibt das zentrale Tool für die Pflege von Kundenbeziehungen. Nur durch eine Allianz aus Digitalisierungspartnern lässt sich dem wesentlichen Ziel Rechnung tragen, das CRM deutlich effizienter zu gestalten und mehr Daten bereitzustellen, ohne die Komplexität unnötig zu erhöhen. Dazu braucht es ein System, das folgende Kriterien erfüllt:

  • Agilität
  • Verfügbarkeit
  • Bedienbarkeit
  • Skalierbarkeit

Eine Cloud bietet all diese Eigenschaften und ermöglicht Unternehmen jeder Größe, ein CRM als Teil der digitalen Wertschöpfungskette zu integrieren.

IoT als bedeutender Faktor im digitalen Wertschöpfungskreislauf

Sensoren erfassen relevante Maschinendaten, die über Standards zur Datenübertragung wie bspw. WiFi, LTE und Bluetooth weitergegeben und auf einem Dashboard strukturiert dargestellt werden. Aus ihnen lassen sich wiederum IoT-Services wie bspw. Predictive Maintenance abbilden.

Um das volle Potenzial der Digitalisierung auszuschöpfen, braucht es Zusammenschlüsse von Digitalisierungsexperten, die in der Lage sind, IoT-Applikationen auf CRM, ERP und Field Service anzuwenden.

Fazit: Vernetztes Expertenwissen ermöglicht den Digitalisierungsprozess

Dabei sollte der Mehrwert für den Kunden immer im Vordergrund stehen. Das bedeutet, bereits bei der Maßnahmenplanung an die Kunden Ihres Unternehmens zu denken. Was erwartet der Kunde in Bezug auf Service und Produktspezifikation? Die Anforderungen an ein CRM steigen, es reicht schon lange nicht mehr aus, nur die Adresse des Kunden zu kennen.
Eine funktionierende Allianz baut auf die Fähigkeiten der einzelnen Partner. Gegenseitiges Vertrauen und Mut, neue Wege einzuschlagen, zeichnen eine solche Allianz aus. Nur so können die einzelnen Partner voneinander lernen und ihre Kompetenzfelder erweitern. Wichtig ist aber auch die Fähigkeit, sich einzugestehen, wann das eigene Wissen an Grenzen stoßen kann und dann die Unterstützung innerhalb des Zusammenschlusses gesucht werden sollte.
Neue Märkte erfordern zudem agile Prozesse und Zusammenschlüsse von Experten. Die Implementierung von Sensorik, Monitoring, Konnektivität und digitalen Services sind Aufgaben, die ein einzelner Partner nicht mehr leisten kann, jedenfalls nicht ohne den optimalen Nutzen für den Kunden aus den Augen zu verlieren.
Ein wesentliches Ziel des digitalen Wertschöpfungskreislaufs ist es, neue Geschäftsmodelle zu etablieren und proaktive Wartung zu gewährleisten. Wie Sie durch eine Digitalisierungsinitiative beides erfolgreich umsetzen und miteinander verbinden, lesen Sie im kostenlosen Whitepaper „Proaktive Wartung als Grundlage neuer Geschäftsmodelle„. Sie finden es zum Download auf der NXTGN-Website.

OPC UA und TSN – gemeinsame Sprache für die Zukunft

Zwei Schlagworte beherrschen zur Zeit die Diskussionen um das Thema industrielle Kommunikation: Time Sensitive Networking, kurz TSN und OPC UA. TSN umfasst eine Reihe von Erweiterungen des Standards IEEE 802.1, die dazu führen, dass Ethernet-Kommunikation in Zukunft ohne spezielle Erweiterungen Echtzeitanforderungen erfüllen kann. Kombiniert man diese neuen Eigenschaften des Ethernet mit dem industrieweit anerkannten Standard OPC UA, so scheint eine gemeinsame Sprache für den Datenaustausch zwischen Geräten verschiedener Hersteller möglich zu sein.

Der TSN Standard

Die Initiative für eine Erweiterung des Ethernet Standards um Echtzeitmecha­nis­men ging von der Audio/Video-Branche aus. Bis 2012 nannte sich die entsprechende Arbeitsgruppe der IEEE Audio / Video Bridging Task Group (AVB). Mit der Aus­weitung des Anwendungsbereichs auf Industrie, Automobil und andere Segmente wurde sie in Time-Sensitive Networking Task Group umbe­nannt.

Bild 1 macht deutlich, dass der TSN Standard aus vielen Elementen besteht. Für die Anforderungen  in industriellen Anwendungen haben folgende Elemente die größte Relevanz:

  • AS: Zeitsynchronisation
  • Qbv: Scheduling
  • Qcc: Netzwerkkonfiguration

Ein umfassendes Standardwerk wie TSN lässt für die Anwendung Interpretationsspielraum. Es gibt viele Möglichkeiten standardkonforme Lösungen umzusetzen. Aufgrund dieser Freiheits­grade ist es notwendig auf Basis des Standards ein einheitliches Kommunikationsprofil zu definieren. An diesem Ziel arbeiten Unternehmen gemeinsam in der Avnu Allianz. In den Arbeitsgruppen Audio/Video, Automobil und Industrie der Avnu wird ein für den jeweiligen Anwendungs­bereich optimiertes Kom­mu­­ni­kations­profil definiert.

Bild 1: Elemente des Standards IEEE 802.1 (Quelle: Bosch Rexroth AG)

OPC UA für die Control-to-Control-Kommunikation

In der Kommunikation zwischen Steuerungen und HMI-Systemen hat sich OPC UA seit Jahren als herstellerübergreifende Lösung etabliert. Nahezu jeder Steuerungshersteller bietet für seine Produkte einen OPC Server an. Alle führenden HMI-Systeme enthalten dazu als Gegenstück einen OPC Client, mit dem Daten aus den Steuerungen gelesen werden können. Diese Art der herstellerübergreifenden Kommunikation ist bislang nicht echtzeitfähig und ist dadurch charakterisiert, dass genau zwei Kommunikationsteilnehmer am Informations­austausch beteiligt sind.

Beide Einschränkungen werden aktuell in Arbeitsgruppen der OPC Foundation aufgehoben. Der OPC UA Pub/Sub Standard ermöglicht es, dass ein Gerät eine Information allen anderen Kommunikationsteilnehmern im Netzwerk zur Verfügung stellt. Mit der Verabschiedung der Spezifikation ist noch im ersten Halbjahr 2017 zu rechnen. Gleichzeitig arbeitet die TSN Arbeitsgruppe in der OPC Foundation an der Verbindung von OPC Kommunikation mit den Echt­zeitmechanismen von TSN. Damit werden die Grundsteine für einen echtzeitfähigen, herstellerübergreifenden Datenaustausch zwischen Steuerungen gelegt, um z.B. wie in Bild 2 dargestellt Maschinen­module in einer Fertigung zu synchronisieren.

Bild 2: Kommunikationsebene in der Industrieautomatisierung (Quelle: Bosch Rexroth AG)

Das TSN Manufacturing Testbed des IIC

Damit die Anwender von neuen Standards profitieren, müssen diese von mehreren Herstellern unterstützt und verifiziert werden. Das Industrial Internet Consortium (IIC) bietet mit seinen Testbeds eine Plattform, um Lösungen bereits im Prototypen­stadium herstellerübergreifend zu testen. Im TSN Manufacturing Testbed verfolgen mehr als zehn Unternehmen das Ziel die Kommuni­kation zwischen Steuerungen auf Basis von OPC UA Pub/Sub und TSN zu reali­­sieren. Das Konsortium hat einen ersten Demon­strator auf der SPS/IPC/Drives 2016 in Nürnberg vorgestellt (Bild 3).

Bild 3: Der Demonstrator des TSN Manu¬facturing Testbed auf der SPS/IPC/Drives 2016. (Quelle: Bosch Rexroth AG)

In einer viel beachteten Presse­konfe­renz bekannten sich ABB, Bosch Rexroth, B&R, CISCO, General Electric, KUKA, National Instruments, Parker Hannifin, Schneider Electric, SEW-EURODRIVE und TTTech zum gemeinsamen Ziel OPC UA und TSN in den zukünf­tigen Generation ihrer Produkte zu unterstützen. Sie sehen darin eine einheitliche Kommuni­kationslösung im industriellen Internet of Things (IIoT) bis zur Steuerungsebene.

Interoperabilität erfordert gemeinsame Sprache

Mit der Integration von OPC UA und TSN in Produkte wird es möglich eine echtzeitfähige Kommunikationsverbindung zwischen Steuerungen verschiedener Hersteller aufzubauen. Dies ist für den herstellerübergreifenden Informationsaustausch allerdings noch nicht ausreichend. Wie bei einem Telefon­gespräch, ist neben einer funktionierenden Verbindung auch eine gemeinsame Sprache erfor­der­lich (Bild 4). In der industriellen Kommunikation stellen Applikations­profile die gemeinsame Sprache dar. Beispiele sind Applikationsprofile für Antriebsdaten, IO und Safety.

Bild 4: Bedeutung von Kommunikationsprofil und Applikationsprofilen

Der Nutzen für die Anwender

Die Vereinheitlichung der Kommunikation zwischen Steuerungen bringt für Maschinen­betreiber, Maschinenhersteller und auch für die Automatisierungsanbieter Vorteile. Der heute bei projektspezifischen Lösungen für die Integration von Maschinen zu erbringende Aufwand wird erheblich reduziert. Es ist nicht mehr notwendig für proprietäre Lösungen Spezialwissen aufzubauen. Neben geringeren Enginee­ring­­kosten resultieren daraus kürzere Inbetriebnahme­zeiten. Da für die Kommunikation von der Steuerung zu HMI-Geräten, zur Leitebene und zu anderen Maschinensteuerungen eine durchgängige Lösung eingesetzt wird, sinkt der Wartungs­aufwand.

Automatisierungsanbieter müssen heute eine Vielzahl unterschiedlicher Kommunikations­anbindungen unterstützen. Dies verursacht Entwicklungsaufwand ohne direkten Kunden­nutzen. Die Fokussierung auf eine einheitliche Kommunikationslösung spart Ressourcen, die für eine Erhöhung des Innovationstempos eingesetzt werden können.

Kosteneffektiv testen dank virtuellen Labs

Selbst das kleinste IoT-Gerät steckt in einer komplexen Umgebung, die zum Zeitpunkt seiner  Entwicklung nicht unbedingt in vollem Umfang untersucht ist. Wir kennen die Security-Probleme, die entstehen, wenn Geräte das erste Mal mit dem Internet verbunden werden. Eine realistische physische Prüflabor-Umgebung einzurichten ist schwierig, und ist diese Arbeit getan, wird diese Umgebung zum entscheidenden Engpass beim Systemtest. Virtuelle Labore beseitigen diesen Flaschenhals und bringen gleichzeitig neue Vorteile für das servicebasierte Testen von IoT-Geräten mit sich.

Viele IoT-Geräte sind nicht bereit für die Primetime

Eine jüngst durchgeführte Studie ergab, dass 80 Prozent der IoT-Applikationen nicht auf Security-Mängel geprüft werden. Wie die Barr Group außerdem herausfand, untersuchen 56% der Entwickler von Embedded-Geräten ihren Quellcode nicht auf Sicherheitslücken, und 37% arbeiten ohne einen schriftlich niedergelegten Codierstandard. Angesichts dieser nicht gerade ermutigenden Zahlen wird klar: Die Hersteller von IoT-Geräten müssen die Themen Qualität, Safety und Security ernster nehmen. In diesem Kontext ist die Testautomatisierung ein wichtiger Schritt, um zu sicherzustellen, dass das Testen mit mehr Rigorosität, Konsistenz und Gründlichkeit erfolgt. Speziell das Testen auf Sicherheitslücken wird oftmals als zu teuer und komplex angesehen, sodass es im Schnelldurchlauf erfolgt oder ganz übersehen wird. Dabei ist es ein kostspieliger Fehler, es den Kunden (und deren Angreifern) zu überlassen, die Sicherheit ihrer IoT-Geräte zu testen.

Die Bestandteile eines virtuellen Labors

Ein reales Prüflabor erfordert ein möglichst wirklichkeitsgetreues Abbild der Umgebung, in der ein IoT-Gerät eingesetzt werden soll. Allerdings gestaltet sich die Skalierung auf eine realistische Umgebung selbst in den modernsten Laboren schwierig. Dieses Problem löst ein virtuelles Labor. Zum Einsatz kommt die Service-Virtualisierung gemeinsam mit weiteren wichtigen Testautomatisierungs-Tools:

  • Die Service-Virtualisierung simuliert sämtliche Abhängigkeiten, die der Prüfling für einen umfassenden Systemtest braucht. Dies schließt alle vom Gerät benutzten Verbindungen und Protokolle sowie realistische Reaktionen auf die Kommunikation ein. Zum Beispiel erlaubt die Service-Virtualisierung die Simulation des Back-Ends eines Enterprise-Servers, mit dem ein IoT-Gerät kommuniziert, um periodische Sensorsignale bereitzustellen. Auf ähnliche Weise kann die Virtualisierung das IoT-Gerät auf realistische Weise steuern.
  • Mit Service- und API-Tests lässt sich der Prüfling so ansteuern, dass die von ihm bereitgestellten Dienste (und die gebotenen APIs) fehlerlos arbeiten. Zur Durchführung der nötigen Performance- und Security-Prüfungen ermöglichen diese Tests eine Bearbeitung über die Automatisierungs-Plattform.
  • Die Laufzeit-Überwachung detektiert Fehler am Prüfling in Echtzeit und zeichnet wichtige Trace-Informationen auf. Beispielsweise lassen sich Speicherlecks, die im fertigen Produkt unentdeckt bleiben können, hiermit frühzeitig und kostengünstig erkennen und beseitigen.
  • Prüflabor-Management und Analytik übernehmen die übergreifende Kontrolle des virtuellen Prüflabors. Einmal virtualisiert, kann die gesamte Laborausstattung nach Bedarf repliziert werden, und die Testläufe lassen sich automatisieren und wiederholen. Die Analysen schließlich liefern die erforderliche Zusammenfassung der Aktivitäten und ihrer Resultate.
Bild 1. Typisches IoT-Ökosystem mit embedded Geräten (Quelle: Parasoft)

Das in Bild 1 gezeigte Edge-Computing-IoT-Ökosystem stellt eine typische Umgebung dar, in der embedded IoT-Geräte eingesetzt werden. Sensoren und Steuerungsgeräte kommunizieren Informationen an die Edge-Struktur. Diese wiederum besteht aus einer Reihe von Geräten oder Applikationen, die Informationen entgegennehmen können und mithilfe von Logik den Geräten antworten oder mit der Cloud kommunizieren. In der Cloud befindet sich übergeordnete Logik, mit der sich auf die gesammelten Informationen reagieren lässt. Die Cloud besteht aus Diensten (Mikroservices, Verbindungen zu Datenbanken, ergänzender Logik oder Third-Party-Diensten) und bildet ein komplexes Geflecht funktionaler Bausteine (im Bild rechts dargestellt).

Tests im IoT-Ökosystem sind auf mehreren Ebenen erforderlich. Um beispielsweise eine neue hinzugekommene Funktionalität im Gateway zu testen, muss bestätigt werden, dass das Gateway Informationen von den Sensoren erhalten kann und in der Lage ist, diese gemäß ihrer Geschäftslogik zu kommunizieren.

Zur Validierung all dieser Komplexität werden Tools wie Parasoft Virtualize (zum Simulieren der erforderlichen Abhängigkeiten) und Parasoft SOAtest (zum Durchführen der Tests) eingesetzt, um diese Inputs zu simulieren. Die genannten Tools liefern Simulationen realistischer Aufrufe der Geräte über das Netzwerk (unabhängig davon, ob Protokolle wie REST/HTTP zum Einsatz kommen oder IoT-übliche Protokolle wie CoAP, XMPP oder MQTT) und prüfen, ob der Prüfling (in diesem Fall das Gateway) ordnungsgemäß mit den Cloud-Diensten kommuniziert. Hierzu werden die von SOAtest zurückkommenden Antworten validiert. Bild 2 zeigt ein Beispiel dafür, wie sich eine virtuelle Laborumgebung für zu prüfende Edge-Geräte zusammenstellen lässt.

Bild 2. Parasoft Virtualize und SOAtest fungieren als virtuelle Laborumgebung für ein zu testendes Edge-Gerät (Quelle: Parasoft)

Wenn es externe Möglichkeiten zum Kommunizieren von Informationen zum Gateway gibt, lassen sich diese Aufrufe ebenfalls simulieren. Parasoft Virtualize ist dafür vorgesehen, die Prüfumgebung zu stabilisieren und vorhersagbare Reaktionen auf Anfragen zu erzeugen, die sich auf Testdaten aus SOAtest stützen, um das Gateway und die Dienste umfassend zu prüfen.

Schließlich kommunizieren die Dienste der obersten Ebene unter Umständen mit der Edge sowie mit anderen Sensoren und externen Aktoren. Hier kann es wichtig sein, die Gewissheit zu haben, dass die Inputs durch die Umgebung zurück zu den Back-End-Systemen gelangen. Parasoft Virtualize übernimmt hier die Simulation des Empfangs dieser Aufrufe bis zur Edge (bis zu den IoT-Geräten) sowie die Weiterleitung dieser Informationen zurück nach SOAtest. So lässt sich bestätigen, dass der Aufruf den Hin- und Rückweg absolviert und sich innerhalb des IoT-Ökosystems wie erwartet verhalten hat. Die Kombination aus Parasoft Virtualize und SOAtest bietet die umfassende Kontrolle zum Testen der gesamten Umgebung – auch mit den Komplexitäten eines IoT-Ökosystems.

Normale Prüfumgebungen sind teuer und dürften sogar mehr kosten als von den meisten Entwicklungsleitern eingeplant. Eine Studie von voke Research ergab, dass in ein Vorproduktions-Labor durchschnittlich 12 Mio. US-Dollar investiert werden. Für die Einrichtung des Labors werden im Mittel 18 Tage benötigt, und für die Konfiguration weitere 12 bis 14 Tage. Somit bedeutet die Bereitstellung derartiger Labore einen enormen Zeit- und Kostenaufwand – und trotzdem stellen sie wegen ihrer eingeschränkten Verfügbarkeit noch einen Engpass für die Prüfaktivitäten dar. Signifikant sind auch die täglichen Betriebskosten eines physischen Labors. In den meisten Fällen kommt es aus Kostengründen ebenfalls nicht in Frage, zur Steigerung des Prüfdurchsatzes ein zweites physisches Labor einzurichten.

Vorteile eines virtuellen IoT-Prüflabors

  • Höhere Qualität durch besseres und umfassenderes Testen – Servicebasiertes Testen bietet die Gewähr dafür, dass alle wichtigen Anwendungsfälle probiert und perfektioniert werden. Automatisierte Performance-Tests gewährleisten Stabilität und Zuverlässigkeit auch bei starker Belastung. Die Laufzeit-Überwachung schließlich stellt sicher, dass schwer auffindbare Fehler gefunden und verfolgt werden.
  • Mehr Sicherheit durch automatisierte Penetrationstests zur Simulation falsch formatierter Daten – Belastungstests können Denial-of-Service-Attacken simulieren, während sich mit der Laufzeit-Überwachung Sicherheitslücken aufdecken lassen. Die Reproduzierbarkeit der Tests stellt sicher, dass jede Iteration, jeder Patch und jedes Release auf die exakt gleiche Weise getestet wird. Hinzu kommt die Vereinfachung der Testentwicklung und -manipulation (etwa zum Verbessern und Erstellen neuer Tests).
  • Geringerer Zeit- und Kostenaufwand und weniger Risiken durch Wegfall der Notwendigkeit teurer Abhängigkeiten für komplette Systemtests – Automatisierung ermöglicht ein Maß an Reproduzierbarkeit und Konsistenz, das von manuellen Tests nicht geboten wird, während gleichzeitig für bessere und vollständigere Tests gesorgt wird. Virtuelle Labore verringern ganz erheblich den Zeitaufwand gegenüber dem Einrichten physischer Labore, was entsprechende Auswirkungen auf die gesamte Testzeit hat.

Fazit

Angesichts des aktuellen Status der Entwicklung von IoT-Geräten sind Änderungen am Entwicklungs- und Prüfprozess unabdingbar. Zunächst ist die Testautomatisierung eine bewährte Möglichkeit, die Kosten und Risiken zu reduzieren. Der nächste große Schritt zur Verbesserung der Qualität und Sicherheit von IoT-Geräten ist die Verwendung virtueller Labore, die Service-Virtualisierung, servicebasiertes Testen, virtuelles Labor-Management und Laufzeit-Überwachung miteinander kombinieren. Dies reduziert die Bereitstellungs- und Konfigurationskosten enorm, während sich die Qualität der durchgeführten Tests gleichzeitig signifikant verbessert.

 

Der Blick aufs Ganze – Wechsel von einer geräte- zu einer dienstorientierten Denkweise

Von zentralerer Bedeutung im IoT ist das Sammeln von Informationen, das Steuern entscheidender Infrastrukturen und die Erfassung der realen Welt, das von diesen Geräten erbracht wird. Die Verbraucher sind schließlich nicht allein an der Temperatur eines Zimmers in ihrem Haus interessiert oder am Videosignal einer einzelnen Kamera. Ihr Interesse liegt vielmehr auf einem höheren Niveau: Sie möchten, dass ihre Sicherheitssysteme Bewegungen im Haus und dessen Umgebung detektieren, und dass die Klimaanlage eine komfortable Raumtemperatur einhält. Ebenso möchten Unternehmen über den Produktionsdurchsatz einer ganzen Fertigungslinie informiert werden, anstelle über die Ausgaben einer einzigen Steuerung in ihrer Fabrik. Dieser Perspektivenwechsel ist entscheidend, denn er zwingt die Entwickler zu einem besseren Verständnis des Kontexts ihres Produkts und seiner Anwendungsfälle.

Auch Ihr Gerät ist wahrscheinlich Teil eines Diensts

Einzelne embedded Geräte werden möglicherweise nicht als Bestandteil eines Diensts wahrgenommen, auch wenn dies infolge ihrer Vernetzung mit größeren Systemen eigentlich so sein sollte. In einem Automobil zum Beispiel besteht die Rolle eines Motorsteuerungsgeräts (Engine Control Unit – ECU) allein darin, für eine ordnungsgemäße Verbrennung und einen korrekten Schadstoffausstoß des Motors zu sorgen. Das Auto insgesamt verfolgt mithilfe der ECU jedoch auch den Kraftstoffverbrauch und meldet diesen über eine Funkverbindung an einen zentralen Server. Diese Verbrauchsdaten werden dann für die Routenplanung und zum Abschätzen der Betriebskosten herangezogen. Das macht  die ECU zu einer entscheidenden Komponente, um geschäftliche Entscheidungen zu treffen.

Macht man sich diese Sichtweise zu eigen, gewinnen der Kontext eines einzelnen Geräts und sein betriebliches Spektrum an Umfang, und der Wechsel von einer geräte- zu einer dienstorientierten Denkweise hat entsprechende Rückwirkungen auf den Ansatz für das Systemdesign:

  • Konglomeration: Das IoT besteht aus zu vielen Dingen, als dass jedes einzelne davon von Nutzen sein könnte. Über die gemeinsame Organisation der Geräte können auf einer höheren Ebene nützliche Informationen bereitgestellt werden. Eine Heizungs-, Lüftungs- und Klimaanlage etwa muss nicht die Temperaturen der einzelnen Räume melden, stattdessen schicken die einzelnen Sensoren die jeweiligen Temperaturen an ein Steuerungssystem (z. B. ein SCADA-System in der industriellen Steuerungstechnik). Dieses wiederum fällt lokale Entscheidungen, die dann an ein (remote gelegenes) übergeordnetes System gemeldet werden.
  • Selbstüberwachung: Übergeordnete geschäftliche Entscheidungsprozesse würden in der Flut von Daten ertrinken, wenn alle Sensoren ständig alles meldeten. In dem eben angeführten Beispiel eines Heizungs-, Lüftungs- und Klimasystems kann das lokale Steuerungssystem die Temperatur im Gebäude auf einen Sollwert regeln, der von einem zentralisierten Prozess beispielsweise an Hand des Wetters und des gerade geltenden Stromtarifs vorgegeben wird. Die Systeme auf der Unternehmens-Ebene würden somit einen von der Klimaanlage gebäudeweise erbrachten Dienst nutzen, der wichtige Informationen wie etwa den Energieverbrauch liefert.
  • Austauschbarkeit: Im Lauf der Zeit werden die Dienste, die von diesem Konglomerat an Geräten erbracht werden, nützlicher als die Geräte selbst. Die einzelnen Sensoren und Steuerungen lassen sich deshalb in ihrer Gesamtheit durch ein anderes Produkt ersetzen, solange die insgesamt gesetzten geschäftlichen Vorgaben weiter erfüllt werden. Sofern die Dienstqualität nicht angetastet wird oder sich sogar verbessert, ist die Hardware austauschbar. Oberflächlich betrachtet, mag dies als nachteilig für die Gerätehersteller erscheinen, und für einige Hersteller ist dies sicher tatsächlich so. Klug geführte Unternehmen dagegen, die die Bedeutung dieser Dienste erkennen und über die Qualität dieser Dienste konkurrieren, werden sich als Marktführer herauskristallisieren.
Eine zentrale Aufgabe im Automobil spielt die Steuerungseinheit, indem sie erhaltene Daten aus Diensten kombiniert und daraus weitere Entscheidungen trifft. (Quelle: Parasoft)

Dienstbasierte Tests sind entscheidend für den Erfolg des IoT

Sobald man einen dienstorientierten Ansatz gewählt hat, ist es sinnvoll, beim Design, bei der Implementierung und beim Testen denselben Schritt zu vollziehen. Hat man erkannt, dass es der Dienst ist, der den geschäftlichen Nutzen bringt, gilt es sicherzustellen, dass die Geräte die diesbezüglichen Anforderungen erfüllen. Natürlich ist das Testen der Funktion auf der Modul-, Subsystem- und System-Ebene nach wie vor wichtig, jedoch ergeben sich unmittelbare Vorteile, wenn man den Umfang des Testens vergrößert.

Anstatt die Systemqualität im Hinblick auf die Erfüllung der Anforderungen an einzelne Geräte zu betrachten, wird der Blickwinkel so erweitert, dass die Qualität der erbrachten Dienste beurteilt wird. In dem weiter oben angeführten Beispiel der Klimaanlage kann ein neuer Temperatursensor leichter und kostengünstiger sein, eine längere Batterielebensdauer erreichen und eine ausgezeichnete Funkreichweite haben. Ebenso wichtig wie diese neuen Features ist aber, wie gut er im Kontext der Steuerung des gesamten Gebäudes funktioniert.

Indem man auf der Dienst-Ebene testet, stellt man sicher, dass auch die nicht funktionsbezogenen Anforderungen erfüllt werden. Zum Beispiel lassen sich auf der Geräte-Ebene oder während der Software-Modultests nur schwierig Aussagen über die Performance oder die Zuverlässigkeit einholen. Dienstbasierte Tests dagegen können die betriebliche Umgebung eines Geräts simulieren, um realistische Belastungen bereitzustellen. Um bei dem erwähnten Beispiel zu bleiben, lässt sich der neue Temperatursensor mit wechselnden Abfrageraten prüfen, um zu ermitteln, ob er die Leistungsvorgaben einhält.

Cyber-Attacken auf IoT-Systeme gehen vom Netzwerk selbst aus und zielen auf die exponierten APIs. Dienstbasierte Tests können für robuste Sicherheitstests simulierte Umgebungen errichten, sei es über Fuzzing (die Erzeugung wahlloser und fehlerhafter Dateneingaben) oder Denial-of-Service-Angriffe. So könnte etwa ein neuer Temperatursensor mit erwarteten Anfragen korrekt arbeiten, aber bei Überlastung abstürzen. Das wäre eine Angriffsstelle für einen Angreifer, um das System durch gezielte Überlastung zum Absturz zu bringen.

Fazit

Die Erkenntnis, dass es im IoT eigentlich um Dienste geht, führt zu besseren, differenzierten Embedded-Geräten für jene neue, vernetzte Welt, in der sie eingesetzt werden sollen. Hersteller, die sich auf die Dienste konzentrieren, laufen weniger Gefahr, dass ihre Produkte durch gleichwertige Hardware ersetzt werden. Um die von IoT-Systemen geforderte Performance, Dienstqualität und Sicherheit zu erzielen, ist außerdem das dienstbasierte Testen von entscheidender Bedeutung.

Was die Industrie vom Handel lernen muss

Fest steht: Kaum ein Resultat der Digitalisierung war für Endkunden so konkret greifbar, wie die digitale Transformation des Handels. Die rasche und flächendeckende Versorgung mit schnellem Internet traf die Branche mit einer gewaltigen Wucht, die sie radikal umkrempeln sollte. So kam es zu einer Verschiebung weg vom stationären Handel und hin zu einer konstant wachsenden Dominanz des eCommerce in nur wenigen Jahren. Inzwischen erwartet die deutsche Internetwirtschaft für 2017 einen Umsatz von 55 Milliarden Euro, im Jahr 2019 sollen es bereits 70 Milliarden sein.

Gleichzeitig zeigen die aktuellen Entwicklungen im Handel aber auch, dass die anfängliche Angst vor dem Aussterben des lokalen Handels „vor Ort“ nicht einzutreten scheint. Im Gegenteil: Für stationäre Händler ergeben sich neue Chancen und Symbiosen – man denke nur an die nahtlose Verbindung von Online- und Offline-Handel am Point of Sale, die die zunehmende Verflechtung beider Welten sichtbar macht. Zahlreiche Beispiele aus dem Handel belegen immer wieder, wie die traditionelle Aufteilung in online und offline zunehmend zerfällt, wenn beispielsweise bestehende Ladenkonzepte um digitale Angebote erweitert werden, oder ehemals reine Online-Händler plötzlich Filialen in den Innenstädten eröffnen. Gerade mit dem Einsatz von VR-Technologien erzeugen Händler ein neues und umfassendes Markenerlebnis und machen die Nutzer zum Teil der Geschichte. Das beeinflusst das Konsumentenverhalten und beflügelt den Visual eCommerce aktuell sehr deutlich.

Impulse aus dem Handel

Die disruptive Dynamik, die im Retail längst Einzug gehalten hat und einen massiven Fokus auf kundenzentrierte Geschäftsmodelle in sich trägt, hat auch die Industrie erfasst und verändert die Art wie Industrieunternehmen operieren. Klare Indizien dafür sind beispielsweise innovative „As-a-Service“-Modelle, die sich bereits seit einigen Jahren wachsender Beliebtheit erfreuen. Entsprechend wichtig erscheint es also, als Unternehmen hier am Ball zu bleiben und einen Blick über die eigene Branche hinaus zu wagen. Speziell der Handel und die Entwicklungen, die er vollzogen hat, können hierbei als instruktives Vorbild dienen. Konkret lassen sich bezüglich der Verknüpfung von Offline- und Online-Aktivitäten sowie des systematischen Einsatzes von Data Analytics insbesondere für die Unternehmensbereiche Marketing, Kundenservice und Sales wertvolle Erkenntnisse ableiten. Aber auch die sogenannten „Blue Collar“-Bereiche wie Fertigung oder Logistik können vom Handel lernen, etwa was den wertschöpfenden Einsatz mobiler Endgeräte im Business-Umfeld anbelangt.

Insgesamt zeigt die Entwicklung des Retails aber auch, dass strategische Partnerschaften in Zukunft immer wichtiger werden, wenn es darum geht, wahrgenommen zu werden und für die Kunden weiterhin relevant zu sein. Ähnlich wie die großen Industriegiganten, kämpfen die klassischen Händler schon länger damit, im digitalen Zeitalter weiterhin wettbewerbsfähig zu bleiben. Sie mussten und müssen weiterhin aktiv nach neuen Geschäftsmodellen und Nischen suchen, um den Kunden einen Mehrwert bieten, den sie so bislang nicht erfahren haben. Die Idee scheint zu funktionieren: Drei von vier Kunden möchten auch in Zukunft weiterhin im Laden einkaufen können (KPMG), 75 Prozent der Deutschen kaufen mindestens einmal im Monat in einem „analogen“ Laden ein (PwC). Und auch jüngere Konsumenten zwischen 18 und 24 Jahren bekennen sich weiterhin zu den Geschäften auf der Straße (PwC) – kein Wunder also, dass 2016 in Deutschland über 6 Milliarden Euro in den Bau klassischer Geschäfte investiert wurde (EHI Retail Institute).

Auch sämtliche Zweige der Industrie sehen sich mit neuen, oft rein digitalen Wettbewerbern konfrontiert. Man denke nur an die Automobilindustrie, die plötzlich mit Google und Tesla konkurriert, oder die Logistik, die in großen Online-Händlern durchaus eine Bedrohung ihres Geschäftsmodells sieht. Sogar etablierte Energieanbieter müssen sich Gedanken machen, wie sie gegenüber Start-Ups beispielsweise beim Thema Smart Grid weiterhin punkten können. Kunden wünschen sich in jedem Fall optimale Services und innovative Customer Experiences – in diesem Zusammenhang beweist das Beispiel Retail, dass Konkurrenz das Geschäft nicht nur beleben, sondern sogar verbessern kann.

Appell an die Industrie

Die Digitalisierung eröffnet jedoch keinesfalls nur Anbietern, die quasi aus dem „Nichts“ kommen, neue Chancen – speziell das Internet of Things befähigt Industrieunternehmen durch die intelligente Vernetzung von Produktionsprozessen dazu, völlig neue Geschäftsmodelle zu entwickeln und sich dadurch neue Märkte und Kundengruppen zu erschließen. Damit dies gelingen kann, muss rechtzeitig in entsprechende Technologien investiert werden; allerdings zeigen Studien immer wieder deutlich, dass gerade Deutschland in Sachen IoT-Investitionen meist eher zurückhaltend agiert. Daher appelliere ich stark an die Industrie, die folgenden Punkte in Zukunft umzusetzen:

  • Die Online-Welt muss sinnvoll und innovativ mit der Offline-Welt gekoppelt werden;
  • Daten und Analyse-Tools sollten intelligent und umfassend eingesetzt werden, um so neue Geschäftsmodelle zu entwickeln;
  • Es braucht strategische Partnerschaften über Branchengrenzen hinweg;
  • Die Einbindung neuer Technologien wie Smart Signage oder Augmented und Virtual Reality sollte fest in der Unternehmensstrategie verankert werden.

Sicherlich steht die Industrie im Zuge von Digitalisierung und Vernetzung vor ganz eigenen Herausforderungen. Nicht jeder Erfahrungswert aus dem Handel lässt sich eins zu eins übertragen; dennoch kann es hilfreich sein, den Blick über den Tellerrand hin auf andere Branchen zu richten, um in Zeiten massiver Umbrüche flexibel und wettbewerbsfähig zu bleiben. Ich wage zu behaupten, dass die Digitalisierung der Industrie in den nächsten Jahren noch mehr an Geschwindigkeit zulegen wird – wer hier nicht rechtzeitig auf den Zug aufspringt, landet auf dem Abstellgleis. Absolute Grundvoraussetzung für das Meistern aller künftigen Herausforderungen wird es in jedem Fall sein, geltende „Wahrheiten“ und Muster zu hinterfragen und neue Perspektiven zu wagen.

Vernetzungstechniken im Überblick

Industrie 4.0, Smart Home, Smart City – das Internet der Dinge erfasst alle Wirtschafts- und Lebensbereiche. Bis in die hinterste Ecke im Keller, bis an die entfernt gelegene Windkraftanlage, in die abgeschirmte Produktion und unter den Straßenbelag müssen Vernetzungstechnologien reichen, wenn überall Sensoren, Motoren, ganze Maschinen und Anlagen zum Internet der Dinge verbunden werden sollen. Eine ganze Reihe sehr unterschiedlicher Technologien stehen dafür zur Verfügung: kabelgebundene und kabellose, zum Überbrücken von kurzen oder auch großen Distanzen, für kleine Datenpakete und große Datenströme in Echtzeit. Sie haben alle ihre spezifischen Vor- und Nachteile. Die eine, für alle Anwendungen passende Vernetzungstechnologie gibt es nicht. Hier finden Sie einen Überblick über die wichtigsten Technologien und deren Eigenschaften, Vor- und Nachteile sowie Anwendungsbeispiele.

Festnetzverbindung

Deutschland ist zumindest in den besiedelten Gebieten flächendeckend per Festnetz versorgt. Fast alle Haushalte sind über ihr Festnetz an das Internet angeschlossen, die meisten per DSL. Das funktioniert selbstverständlich auch für einzelne Anlagen und smarte Geräte. Grundsätzlich lässt sich diese Verbindung für die Datenkommunikation mit Elementen im Internet der Dinge nutzen. Der Haken: Die Kommunikation läuft immer über einen Router, der als zusätzliches, stationäres Gerät die eigentliche Verbindung zum Internet herstellt. Das erhöht den technischen Aufwand, weil ein weiteres Gerät administriert und gewartet werden muss. Außerdem ist ein zusätzlicher Stromverbraucher in Betrieb. Der Nachteil „Router“ kann aber auch ein Vorteil sein: Als Gateway kann er die Kommunikation von vielen Sensoren und intelligenten Maschinen bündeln und ins Internet weitergeben  – und umgekehrt. Ein Konzept, das sich für viele IoT-Anwendungen anbietet. Die meisten Smart-Home-Anwendungen funktionieren so. Viele von ihnen funken in einem lizenzfreien Band die meist geringen Datenmengen zur Steuerung etwa der Heizung an eine zentrale Einheit, die an den heimischen Router angeschlossen ist.

Mobilfunk

Mit dem Mobilfunk lässt sich jedes Gerät direkt ins Internet der Dinge einbinden. Entsprechende Kommunikationsmodule sind längst so sehr verkleinert worden, dass sie sich in nahezu jedem Gehäuse unterbringen lassen. Der offensichtliche Vorteil des Mobilfunks: Er ist quasi überall verfügbar, erfordert keine eigene Leitung zum IoT-Gerät und ermöglicht auch mobile Anwendungen. Im Wesentlichen stehen in Deutschland vier Funknetze zur Verfügung: das seit langem etablierte GSM-Netz, das UMTS-Netz, das Bündelfunknetz und das moderne LTE-Netz.

Einen nicht zu vernachlässigenden Vorteil bringt der Mobilfunk außerdem mit sich: Mobilfunknetze gelten als sicher, weil sie von den großen Providern entsprechend zuverlässig geschützt werden. Der Einsatz von Technologien wie Virtual Private Networks (VPN) auf der Basis von Multiprotocol Label Switching (MPLS) sorgt zusätzlich nicht nur für eine zuverlässige Verschlüsselung, sondern auch für festgelegte Pfade, eine definierte Bandbreite und Geschwindigkeit sowie Zuverlässigkeit des Datenverkehrs.

Mögliche Funktechnologie für Smart Grids und ihre Eigenschaften

Quelle: VDE

Wichtigstes Kriterium für die Wahl der passenden Mobilfunktechnik ist selbstverständlich die Netzverfügbarkeit. Zwar erreichen alle Techniken von allen Anbietern in Deutschland im Wesentlichen eine flächendeckende Versorgung, doch im Einzelfall gilt es immer zu prüfen, ob die gewünschte Technik auch genau am geplanten Standort verfügbar ist. Hinzu kommt die unterschiedliche Durchdringung der Funkwellen etwa von Gebäuden. Mauerwerk, Beton und Stahlarmierung senken die Reichweite der Mobilfunknetze deutlich. Nach einer Studie von Telefónica Deutschland sind deshalb beispielsweise rund 25 Prozent der Stromzähler, meist im gut abgeschirmten Keller installiert, in Deutschland nicht per Mobilfunk erreichbar – und zwar unabhängig vom Netzbetreiber.

Funknetze im niedrigeren Frequenzbereich bieten hier Vorteile, weil sie mit ihrer größeren Wellenlänge Bauwerke besser durchdringen. In einer Fallstudie hat die Universität Dortmund beispielsweise festgestellt, dass in einem städtischen Umfeld per UMTS im 2,1-GHz-Netz beispielsweise nur knapp 36 Prozent der Haushalte entsprechend angebunden werden können, im GSM-Netz von 900 MHz immerhin knapp 79 Prozent.

Für optimale Konnektivität per Mobilfunk bieten sich Kommunikationslösungen an, die Roaming ermöglichen. So erlaubt die Global SIM von Telefónica technisch die Verbindung mit jedem verfügbaren Mobilfunknetz; in der neuesten Generation gilt das auch für LTE. Roaming ist damit nicht nur möglich, wie es viele im internationalen Reiseverkehr kennen, sondern auch national: Selbst innerhalb von Deutschland lassen sich mit der Global SIM standardmäßig die Mobilfunknetze aller Wettbewerber nutzen – ohne zusätzliche Technik und Rechnung.

Doch auch so lassen sich nicht alle möglichen Geräte an allen Standorten vernetzen. Vorhandene Lücken müssen über weitere Kommunikationstechnologien geschlossen werden. Dafür bieten sich zum Beispiel selbstorganisierende Netzwerke an, sogenannte Mesh-Netzwerke, die zwischen verschiedenen Geräten oder zwischen Gateways aufgebaut werden. So überbrücken sie die fehlende direkte Anbindung ans Internet.

Neues Potenzial dank Narrow-Band

Neue Anwendungsmöglichkeiten eröffnet die Narrow-Band-LTE-Technik. Sie nutzt die LTE-Mobilfunknetze, ist aber auf geringen Energieverbrauch hin optimiert. Dafür beschneidet sie die sonst mögliche Datenbandbreite per LTE. Sie ermöglicht Geräte, die zum Beispiel per einfacher Batterie mit Strom versorgt werden und zehn Jahre lang ohne Batteriewechsel Daten ins Internet der Dinge funken können.

Diese Technologie lenkt den Blick auf essenzielle Größen für die Wahl der richtigen Vernetzungstechnik im Internet der Dinge – neben der eigentlichen Netzanbindung: Welche Datenmengen müssen in welcher Zeit übertragen werden? In einer groben Näherung gilt die einfache Faustformel: Je weniger Daten mit geringerer Bandbreite versendet werden, desto niedriger ist der Stromverbrauch. Diesen Zusammenhang macht sich Narrow-Band-LTE zunutze. Diese Technik bietet sich deshalb vor allem bei Anwendungen an, die nur wenige Daten senden. Zum Beispiel Sensoren, Zähler oder Steuerungen, die eher selten oder nur im Kilobytebereich senden und empfangen. Telefónica hat mit dieser Technologie in Chile bereits ein großes Projekt zur Ausstattung von Smart-Metern erfolgreich durchgeführt. Ein anderes Anwendungsbeispiel: Sensoren im Straßenbelag, die einfach nur melden, ob ein Parkplatz belegt ist oder nicht.

Große Erwartungen an 5G

Größere Bewegung in den Markt der Verbindungstechnologien wird die nächste Mobilfunk-Generation bringen, 5G. Sie stellt den Zusammenhang zwischen Datenvolumen, Bandbreite und Stromverbrauch fast auf den Kopf und bringt wesentliche Vorteile, die gerade für das Internet der Dinge von großer Bedeutung sind: Sie kommt mit rund zehn Prozent der Energie der bisherigen Technik aus, erlaubt noch breitbandigere Anbindungen und reduziert die Latenzzeit auf ein bis zwei Millisekunden. Damit werden Reaktionen quasi in Echtzeit möglich. Doch bis 5G in der Breite verfügbar wird, vergehen noch ein paar Jahre. In diesem Jahr sollen die internationalen Standards für 5G festgezurrt werden, im Jahr 2018 ist mit ersten Pilotnetzen in 5G-Standard zu rechnen. Kommerzielle Netze werden wohl frühestens ab 2020 freigeschaltet, eine gute Versorgung in Ballungsräumen und an wichtigen Verkehrsrouten soll bis 2025 erreicht werden.

Neben den Mobilfunktechniken lassen sich selbstverständlich auch bekannte Funkstandards wie WLAN und Bluetooth für die Vernetzung im Internet der Dinge nutzen. Sie erfordern in der Regel ein Gateway, das die Daten ins öffentliche Internet weiterleitet. WLAN erlaubt mittlerweile Bandbreiten bis in den Gigabit-Bereich; Bluetooth wird eher in Richtung niedriger Energieverbrauch optimiert und erhält dann das Kürzel LE für „Low Energy“. Beide Techniken sind aber nur im näheren Umfeld geeignet – Bluetooth für Reichweiten von zehn Metern, WLAN bis zu 100 Metern.