Alle Beiträge von Franz Graser

Ingenieure gehen die Hindernisse auf dem Weg zum IoT an

Die Sicherheit der Systeme gegen Angriffe ist ein sehr sensibles Thema. Bei einer Podiumsdiskussion über die Zukunft des IoT tragen alle Teilnehmer sehr ernste Mienen zu Schau, als das Gespräch auf das Thema Sicherheit kommt. Greg Gorman, Director für das Produktmanagement im Bereich IoT bei IBM, gibt sogar zu, ganz bewusst ein altes Auto zu fahren, weil er das Thema Connected Car derzeit noch kritisch sieht: „Mein Auto ist von 1992, und das hat seinen Grund“, erklärt Gorman vor den versammelten Journalisten.

Die Sicherheit von mit dem Internet verbundenen Geräten und Anlagen gegen Angriffe aus dem Netz ist eine große technische Herausforderung; darin sind sich die Diskussionsteilnehmer einig. Paul Didier, Architekt für Industrielösungen beim Netzwerkspezialisten Cisco, erklärt dazu, dass zur Zeit an besseren Sicherheitsmodellen und –protokollen gearbeitet wird. Insbesondere das Komitee für den  ISA99-Standard (jetzt ISA/IEC 62443) zur Sicherheit von Industrieautomatisierungs- und Steuerungssystemen leiste gute Arbeit, sagt Didier.

Ein weiteres Problem ist die Bandbreite der Netzwerke. „Unsere Netze sind nicht für 50 Milliarden angeschlossene Geräte im Jahr 2025 ausgelegt“, sagt Mark Cudak, Principal Research Specialist beim Telekommunikationsausrüster Nokia. Abhilfe sollen die Fortschreibung des LTE-Standards und Funktechniken, die im Millimeterband operieren, bringen.  Künftige 5G-Techniken werden sich durch größere Zuverlässigkeit und geringere Latenzzeiten auszeichnen, davon ist Cudak überzeugt.

Das ist auch bitter nötig, denn viele der im Zusammenhang mit dem Internet der Dinge angedachten Anwendungen brauchen zuverlässigere Netzverbindungen, als sie heute möglich sind. Andrea Goldsmith, Professorin an der renommierten kalifornischen Stanford University, kann sich zum Beispiel Remote-Operationen vorstellen, bei denen Ärzte ihre chirurgischen Instrumente über das Netz fernsteuern. Goldsmith möchte aber nicht das erste Versuchskaninchen sein, das sich für diese Chirurgie hergibt, da die Verbindungen noch nicht verlässlich genug sind. „Wir schaffen es heute noch nicht mal, Youtube zuverlässig zu betreiben“, sagt Goldsmith auf der NIWeek-Bühne in Austin.

Trotz der nach wie vor bestehenden Baustellen zweifelt aber keiner der Diskutanten und Referenten daran, dass diese Schwierigkeiten zu bewältigen sind. Beim Zeitverhalten verteilter Systeme gibt es zum Beispiel Fortschritte, erklärt Jamie Smith, Director für Embedded-Systeme bei National Instruments. Das White-Rabbit-Protokoll, das das Ethernet um Möglichkeiten zur Synchronisation im Sub-Nanosekundenbereich ergänzen soll und an dem unter anderem das Kernforschungszentrum CERN in der Schweiz arbeitet, habe großartige Vorarbeiten geleistet, sagt Smith. Smith hofft, dass sich möglichst viele Elemente des White-Rabbit-Protokolls bald auch im Standard-Ethernet wiederfinden werden.

Den größten Optimismus legt Mickey McManus an den Tag. McManus leitet das Maya-Zukunftslabor beim Konstruktionsspezialisten Autocad. Für ihn ist das Internet der Dinge nur einer der drei Megatrends, die bereits ins Rollen gekommen sind beziehungsweise in Kürze in Bewegung geraten werden. Dazu zählen einerseits die digitalisierte Produktion mit Techniken wie dem 3-D-Druck und andererseits lernende Maschinen.

Die digitale Revolution auf der Produktionsseite führt für McManus dazu, dass praktisch bald jeder in der Lage sein wird, sich Gegenstände des täglichen Lebens zuhause auszudrucken. Jamie Smith von NI pflichtet ihm bei: „Ich freue mich auf den Tag, an dem ich nicht mehr zum Baumarkt gehen muss, wenn ich einen Schraubenzieher brauche, sondern ihn in meiner Garage selber herstellen kann. Das wird noch zu unseren Lebzeiten möglich sein.“

Der Zukunftsforscher McManus geht sogar noch etwas weiter. Trotz aller ungelöster Probleme bietet das Internet der Dinge zusammen mit den beiden anderen Megatrends aus seiner Sicht gewaltige geschäftliche Möglichkeiten. Auch deshalb, weil die Menschheit aus seiner Sicht insgesamt mehr zum Guten neigt als zum Schlechten. „Ich habe Vertrauen in die Menschheit. Wir machen zwar beim ersten Mal alles falsch – das ist die menschliche Natur. Aber wenn man den Menschen die Chance gibt, Dinge zu machen, dann wird man am Ende überrascht sein. Ich jedenfalls habe hohe Erwartungen.“  

Messen ist die Kernkompetenz im Internet der Dinge

Das Internet der Dinge bedeutet letztlich, die Unmenge der Informationen, die die physikalische Welt liefert, zu sammeln, zu filtern, auszuwerten und zu verwalten Letzten Endes geht es im IoT also um das Messen und mithilfe dieser Messdaten bessere und intelligentere Produkte und Systeme zu kreieren.

Ein Schlüssel zu besseren und intelligenteren Systemen liegt in „Big Analog Data“, also der Unmenge von Informationen, die die physikalische Welt liefert, sagte James Truchard, der Mitbegründer und CEO von National Instruments bei seiner Eröffnungsansprache der diesjährigen NIWeek in Austin/Texas. Die Instrumentierung dieser analogen Datenwelt liefere die Grundlage für die nächste industrielle Revolution.

Eric Starkloff, Executive Vice President bei NI, präzisierte: Mithilfe von NI-Werkzeugen seien seit dem Jahr 1986 etwa 22 Exabyte an Engineering-Daten erfasst worden. Das sei die Datenmenge, die anfalle, wenn eine Million Jahre lang Videodaten im HD-Format gestreamt werden. Diese Datenmenge steigt zudem sprunghaft an: Das Kernforschungszentrum CERN in Genf habe, so Starkloff, in den vergangenen 20 Jahren etwa 100 Petabytes an physikalischen Daten erfasst und gespeichert – drei Viertel davon in den letzten drei Jahren.

Diese Datenexplosion wird in den kommenden Jahren ungebremst weitergehen, prognostizierte Starkloff. Der Vice President von NI verglich diese Datenexplosion mit der sogenannten kambrischen Explosion, die vor rund 535 Millionen Jahren zum ersten Mal eine Vielfalt von tierischen Lebensformen hervorbrachte. Ähnlich wie die Revolution im Kambrium das Leben auf der Erde für immer verändert habe, werde die Datenexplosion gewaltige Veränderungen mit sich bringen.

Ein wichtiges Anwendungsfeld des Internets der Dinge sieht NI-Vize Starkloff darin, bestehende Industrieanlagen intelligenter zu machen, um zum Beispiel die Systemzustände von Elektrizitätswerken zu überwachen.

Eine hohe Bedeutung kommt dabei Mess- und Testsystemen zu, die die Entwicklung intelligenter Systeme unterstützen oder die selbst Teil von mit dem Internet verbundenen Systemen sind. Ein aktuelles Messsystem dieser Art stellte NI mit den CompactDAQ-Controllern vor, die mit einem Atom-Prozessor mit Vier Kernen und 1,91 Gigahertz Taktfrequenz ausgestattet sind.

Die Bedeutung dieser Controller unterstrich Bob Koslowitz, der Chef der Medizintechnikfirma Berlin Heart. Berlin Heart stellt Systeme her, die herzkranke Kinder unterstützen, die auf ein spenderherz warten. „Wir können den Übergang zu den neuen CompactDAQ-Controllern gar nicht erwarten, um die Geräte unserer nächsten Produktgeneration testen zu können. Sie werden die Art und Weise verändern, wie Kindern geholfen werden kann, die auf eine Herztransplantation warten“, sagte Koslowitz.

Ein Herzstück bei der Interaktion zwischen der physikalischen und der digitalen Welt stellt aus Sicht von NI die RIO-Architektur dar. Sie kombiniert eine klassische CPU mit einem FPGA-Baustein. Wie wegweisend diese Kombination sei, habe nicht zuletzt die Übernahme des FPGA-Herstellers Altera durch den Chipkönig Intel gezeigt, so NI-Vize Eric Starkloff.

„Diese Architektur wird das Gehirn der kommenden Industriesysteme sein“, sagte Starkloff im Rahmen einer Pressekonferenz, in der er die diesjährigen Produktankündigungen im Rahmen der NIWeek erläuterte. Die Leistungsfähigkeit der RIO-Bausteine zeigte unter anderem eine Rasen-Erntemaschine der amerikanischen Firma Firefly Equipment, die in der Konferenzhalle aufgebaut war.

Die Maschine kann unter einer Vielzahl von Umgebungsbedingungen eingesetzt werden und arbeitet besonders effizient. Diese Vielseitigkeit und Effizienz sei vor allem dem Einsatz der RIO-Module zu verdanken, sagte der Cheftechniker von Firefly Equipment, Steve Aposhian.

Softwareseitig stand der Launch der Entwicklungsumgebung LabView 2015 im Vordergrund. Die aktuelle Version weist zahlreiche Verbesserungen der Ausführungsgeschwindigkeit durch optimierte Compiler auf und bietet zusätzliche Tastenkombinationen für schnelleren Zugriff auf Funktionen der Entwicklungsumgebung und erweiterte Funktionen zur Fehlersuche. Im Vergleich zur Version 2013 wartet die aktuelle Variante mit einer um den Faktor 8,7 schnelleren Ladezeit auf, zudem zeigt sich die Entzwicklungslösung als wesentlich sparsamer beim Verbrauch von Systemressourcen.

Der Informations-Schatz liegt im Datensee

„Der Schatz im Silbersee“ gehört zu den bekanntesten Werken des Abenteuerschriftstellers Karl May, der es bekanntlich mit der Fabulierkunst manchmal übertrieb und es mit der Wahrheit nicht immer ganz so genau nahm. Für Unternehmen dürfte in Zukunft der Datensee den wichtigsten Schatz darstellen. Denn in dem Datensee, den die Sensoren und Geräte aus dem Internet der Dinge speisen, liegen die Informationen, aus denen Firmen die wichtigen Handlungsempfehlungen ableiten können. In diesem See zu fischen, dürfte deshalb in Zukunft eine der zentralen Unternehmensaufgaben sein.

Anders als beim Fabulierer Karl May liegt also im Datensee die Wahrheit, erklärten Jim Heppelmann, Chef des gastgebenden Unternehmens PTC, und Professor Michael Porter von der Harvard Business School. Mit dem „Data Lake“ ist eine neue Art von Datenbank gemeint, in die praktisch alle Informationen einfließen, die die sogenannten „Smart Connected Products“ (intelligente vernetzte Produkte) der Zukunft erzeugen. Als Beispiel für ein solches Produkt wurde in Boston ein Mountain-Bike des US-Herstellers Santa Cruz gezeigt, das mit einer Reihe von Sensoren und einer Raspberry-Pi-Plattform ausgestattet wurde.

An so einem Sportgerät könne man zum Beispiel Daten wie die Umdrehungsgeschwindigkeit der Räder messen, die Kraft, die auf die Pedale einwirkt, oder aber auch die Beschleunigungswerte an der Federung. Die so gewonnenen Daten könnten dann dazu nutzen, um sie wiederum in das Konstruktionsprogramm einzuspielen – etwa um angenommene Werte mit den in der Realität gemessenen Daten zu vergleichen.

Da die Wurzeln des gastgebenden Unternehmens PTC in 3-D-Konstruktionswerkzeugen liegen, zeigte Heppelmann, wie die Daten direkt im CAD-Werkzeug Creo verarbeitet werden, um Soll- und Istdaten des Produkts miteinander abzugleichen. Mit Hilfe von Augmented-Reality-Technik können diese Daten zudem auf einem Tablet eingespielt werden. Dies unterstützt Service-Mitarbeiter, die das Produkt warten oder reparieren müssen.

Im Rahmen seiner einführenden Ansprache gab PTC-Chef Jim Heppelmann die Akquisition des IT-Unternehmens Coldlight bekannt. Coldlight hat mit der Analysetechnik Neuron ein Verfahren entwickelt, das einen Datenstrom in Echtzeit nicht nur auswertet, sondern das auch dank selbstlernender Verfahren Prognosemodelle entwickle. Auf diese Weise sei es möglich, aus den Daten konkrete Handlungsempfehlungen für geschäftliche Entscheidungen zu generieren.

Eine solche Technik sei nötig, um mit den Anforderungen der Zukunft Schritt zu halten, sagte Professor Michael Porter. „Der Kern der intelligenten vernetzten Produkte der Zukunft sind die Daten“, daran ließ der Professor keinen Zweifel. Laut Porter werden bald in vielen Unternehmen sogenannte Chief Data Officers (CDO) Einzug halten, zu deren Aufgabe es gehöre, die gesamten Informationen zu aggregieren. Den CDOs obliegt es also, die Datenseen anzulegen und sie zu pflegen.

Das Neue an der Technik ist, dass diese sogenannten Datenseen aus unstrukturierten und nicht normalisierten Daten bestehen, die in keiner Weise aufbereitet seien. Gerade die Rohdaten würden dazu genutzt, die Prognosemodelle zu erstellen. Das sei wichtig, um zum Beispiel die Informationen aus dem realen Leben in den Produkt-Entwicklungszyklus zurückzuspielen. Für Porter ist nämlich die Produktentwicklung der Zukunft kein abgeschlossener, sondern ein kontinuierlicher Prozess – das sogenannte „Evergreen Design“, das nicht einfach ein Produkt-Release, sondern die ständige Weiterentwicklung zum Ziel habe.

Die mit Coldlight erworbene Datenanalyse-Technik wird voraussichtlich mit der Internet-of-Things-Plattform ThingWorx, die PTC im vergangenen Jahr übernahm, zusammengeführt werden. ThingWorx ist gleichzeitig IoT-Middleware und Applikationsbaukasten: Das Werkzeug erlaubt es, vergleichsweise schnell Applikationen zu erstellen, die die aus dem Internet der Dinge generierten Daten visualisieren und auch auswerten. Kurier- oder Lieferdienste können auf diese Weise zum Beispiel ihre Routenführung optimieren. Coldlight erweitert das Spektrum, indem es in der Lage ist, Ströme unstrukturierter Daten quasi in Echtzeit zu analysieren.

Ein weiterer Anwendungsfall für die Technik ist die Vorhersage von Störungen im laufenden Betrieb, etwa bei Industrieanlagen oder Kraftwerken, und die Einleitung von Gegenmaßnahmen. Durch die Prognosemodelle könnten etwa starre Wartungszyklen an den tatsächlichen Einsatz der Anlagen angepasst werden. Das spart potenziell Geld, stellt aber vor allem die Anlagenverfügbarkeit sicher.

Die „Lennon und McCartney“ des IoT

Porter und PTC-Chef Jim Heppelmann hatten im vergangenen Jahr einen viel beachteten visionären Artikel über die Zukunft des Internets der Dinge in der Zeitschrift „Harvard Business Review“ veröffentlicht. Der Industrieanalyst William K. Pollock des Beratungsunternehmens „Strategies for Growth“ bezeichnete die beiden deshalb in einem Tweet als die „Lennon und McCartney“ des Internets der Dinge – in Anlehnung an die kreativen Köpfe und Vordenker der legendären Beatles.

Heppelmann kündigte weiter an, dass sich sein Unternehmen verstärkt dem Aspekt der Datensicherheit widmen werde. Heutige Datencenter seien gegenüber Hacker-Angriffen nicht unbedingt sicherer, als sie es vor zehn Jahren waren, gab er zu. „Die Herausforderung ist da, und dieser Herausforderung werden wir uns stellen“, sagte er.

An der LiveWorx-Konferenz, die gestern in Boston/Massachusetts begann, nehmen 2300 Entwickler, Führungskräfte, Marktbeobachter und Analysten teil. Damit ist die LiveWorx die vermutlich größte, aber sicher die am schnellsten wachsende Fachtagung zum Thema Internet der Dinge: Im vergangenen Jahr hatten sich noch 350 Teilnehmer für die LiveWorx registriert.
´ „The Woz“ hat noch keine Apple Watch bestellt

Stargast des ersten Konferenztages war Apple-Mitbegründer Steve Wozniak. Er zeichnete drei Entwicklerteams aus, die am vorausgegangenen Wochenende in einem Hackathon-Wettbewerb Lösungen aus dem Bereich des Internets der Dinge programmiert hatten, Das siegreiche Team hatte sich mit einem System beschäftigt, das die Barrierefreiheit von Verkehrszeichen zum Ziel hat.

Wozniak, der zuvor ein wenig aus seinem Leben geplaudert hatte, gab übrigens an, sich noch keine Apple Watch bestellt zu haben. Er werde das zwar auf jeden Fall noch tun, sein Enthusiasmus gegenüber der Datenuhr hielt sich aber in Grenzen. Denn er zweifelte, ob eine Smartwatch sein Leben genauso erleichtern könne wie ein Smartphone. Eine Smartwatch könne zwar potenziell dasselbe tun wie ein Smartphone, sie sei aber durch die Größe ihres Displays limitiert.

Von einer Branche, die erwachsen werden muss

Für Embedded-Entwickler gehört der ESE Kongress in Sindelfingen genauso zur Vorweihnachtszeit wie die Türchen am Adventskalender oder der Nikolaus. Die Softwarekonferenz, die heuer mit deutlich über 900 Anmeldungen einen neuen Teilnehmerrekord verbuchen konnte, wartete diesmal zu Beginn mit einem echten internationalen Höhepunkt auf. Der Amerikaner Jack Ganssle, der sich als Veteran vieler Softwareprojekte, als Autor einflussreicher Bücher, als Unternehmer, Berater und Dozent einen Namen gemacht hat, sprach vor einer gut gefüllten Halle über den Stand der Dinge in der Embedded-Softwareentwicklung.

Nicht alles steht dort zum Besten, stellte er zu Beginn seiner Ansprache fest. Seine Grundthese lautete „Wir müssen Künstler durch disziplinierte Erwachsene ersetzen.“ Mit dem Begriff Kunst meinte er eine Softwaretechnik, die sich in weiten Bereichen externen Reviews entzieht und Metriken zur Codequalität abhold ist und sich stattdessen sehr schnell in Glaubenskriegen verliert. Zum Thema Glaubenskriege nannte er zwei Beispiele: So verhielten sich Entwickler manchmal päpstlicher als der Papst, wenn es um die Platzierung von Klammern im Quelltext gehe. Zum anderen sei es ein sicheres Rezept, die Community gegen sich aufzubringen, wenn man über Linux lästere. „Linux ist nur ein Haufen Bits. Für manche Applikationen ist es ein großartiger Haufen Bits, für andere ist es ein furchtbarer Haufen Bits“, erklärte Ganssle.

Um seine Argumentation zu unterstützen, führte der US-Amerikaner eine Umfrage unter Entwicklern an, welche Kriterien bei der Wahl eines Embedded-Betriebssystems die entscheidende Rolle gespielt habe. Sehr oft sei dabei das Kriterium genannt worden „Ich mag keine kommerziellen Produkte“. Daraufhin sagte Ganssle: „Come on! Engineering-Entscheidungen sollten nicht anhand persönlicher Vorlieben getroffen werden.“

Insgesamt riet Ganssle der Softwarebranche, technische Entscheidungen müssten auch gute Business-Entscheidungen sein. Bei der Wahl eines Betriebssystems für harte Echtzeitanwendungen sollte man sich vielmehr für Systeme entscheiden, die sich in harten Umgebungen bewährt hätten und auch von dritter Seite zertifiziert worden seien. Derzeit gebe es nur ein Betriebssystem, das nach die Bedingungen des Qualitätsstandards EAL (Evaluation Assurance Level) 6+ erfülle. Zum Vergleich: Windows ist demnach bei Level 4 dieser Skala angekommen. „Das bedeutet: Windows ist ein sicheres Betriebssystem, wenn es keiner angreift“, erklärte Ganssle. Damit hatte er viele Lacher auf seiner Seite.

Darüber hinaus mahnte Ganssle, wohldefinierte Prozesse zu verwenden. Als Beispiel nannte er das Capability Maturity Model (CMM), das dazu beitragen könne, die Qualität der Software entscheidend zu verbessern. Ganssle riet nicht grundsätzlich von agilen Methoden ab, warnte aber, dass in vielen Embedded-Projekten zwar agile Ideen angewandt würden. Dies geschehe aber unsystematisch. „Nur Ideen, keine Disziplin“, lautete deshalb das Verdikt des Experten über diese Projekte.

Er wehrte sich auch gegen weit verbreitete Gedanken, man müsse sich nicht vorab über ein Applikationsdesign Gedanken machen, wenn man nur genug Code schreibe, dann werde schon ein Design dabei herauskommen. Derartige Gedanken, die unter anderem von Kent Beck, einem der Begründer des Extreme Programming, vertreten werden, erteilte Ganssle mit dem Verdikt „Crazy Talk“ eine deutliche Absage.

Weiters kritisierte er die Aversion vieler Projekte gegen externe Code-Reviews. Solche Reviews würden in kürzerer Zeit mehr Fehler finden, als dies durch Tests möglich sei. Darüber hinaus wunderte sich über die Vorliebe der Embedded-Branche für Entwicklungssprachen wie C und C++, mit denen es möglich sei, zwar korrekten, aber völlig unverständlichen Code zu schreiben.

Abschließend fragte sich Ganssle, ob man angesichts dieser Lage der Dinge bald in den Zeitungen über einen Totalausfall des Internets der Dinge lesen könne. Wichtig sei ein „Quality Mindset“, der die Softwarequalität in den Vordergrund stelle, keine Künstler toleriere und diszipliniert ingenieurgemäße Strategien anwende. Sein Fazit lautete: „Wir haben viel erreicht, aber wir müssen besser werden.“ Auf die Frage eines Zuhörers, was man denn bei bestehenden Projekten tun könne, sagte Ganssle, hier komme es darauf an, die Fehler der Vergangenheit nicht fortzusetzen und einen klaren Schnitt zu machen.

Taiwanische Photonik-Branche steht vor Zeitenwende

Temperaturen von 33 Grad Celsius am frühen Vormittag, hohe Luftfeuchtigkeit – aber wir sind nicht bei der Fußball-Weltmeisterschaft in Brasilien, sondern bei der Eröffnung des Photonics Festivals. Taiwans größte Messe zu den Themen LED-Beleuchtung, Photovoltaik, Displays und Elektronikfertigung findet heuer zum 23. Mal statt..

Über 640 Aussteller zeigen im Nangang-Messezentrum der taiwanischen Hauptstadt Taipei das Leistungsvermögen der Photonik-Industrie des Inselstaates. Dr. Peter Shih, Vorsitzender des Ausstellungskomitees PIDA (Photonics Industry and Technology Development Association) sprach in seiner Eröffnungsrede vor einer Zeitenwende für die taiwanische Photonikbranche. „Wir erleben den Übergang von einer fertigungsgetriebenen Industrie zu einer  mehr von Forschung und Entwicklung und Dienstleistungen getragenen Industrie“, erklärte Shih.

Das Photonics Festival schließt die Messen Opto Taiwan, LED Lighting Taiwan, Solar Taiwan, Optics Taiwan und Plant Factory ein. Der Plant Factory, die erst seit drei Jahren ein Teilbereich des Photonics Festivals ist, kommt laut PIDA eine besondere Bedeutung zu, da sie eine Verbindung zwischen den so unterschiedlichen Erwerbszweigen wie Elektronikindustrie und Landwirtschaft schaffen will. Ein Beispiel hierfür sind Gewächshäuser, in denen Nutzpflanzen unter LED-Licht gedeihern.

Die PIDA erwartet über 30.000 Besucher und Einkäufer aus mehr als 40 Ländern zum diesjährigen Photonics Festival und hofft auf ein Einkaufsvolumen von mehreren Millionen US-Dollar.  Parallel zur Messe findet eine Konferenz mit mehr als hundert Vorträgen statt.