In Logistik investieren – Ein offener Brief an die Politik

Vom 25. – 27. Oktober fand der 34. Deutsche Logistik-Kongress in Berlin statt. Mit dem Motto “Neues Denken – Digitales leben” stand er ganz im Zeichen der Digitalisierung der Logistik, was die Priorität dieser Entwicklung deutlich untermalt. Der BVL-Vorstandsvorsitzende Raimund Klinkner betonte in seiner Eröffnungsrede: „Logistik sichert unseren Wohlstand, ist erfolgsrelevant und trägt unmittelbar zum Ergebnis aller Wirtschaftsbereiche bei. Sie ist Treiber des digitalen Wandels und ihr kommt eine hohe Verantwortung zu – gesellschaftlich, volkswirtschaftlich und betriebswirtschaftlich.“ Daher repräsentiert sie einen wichtigen Aspekt um ein nachhaltiges Wirtschaftswachstum zu gewährleisten.

Der Prozess der Digitalisierung ist sicherlich kein leichter und hat Auswirkungen auf alle Bereiche der Logistik. Neue Technologien ziehen mit Industrie 4.0 ein. Zeitgleich wächst der Wettbewerb im Ausland. Diesen Entwicklungen muss sich die Transportlogistik schon heute stellen. Um dies zu schaffen, forderte der BVL nachhaltige Investitionen in einem offenen Brief an die Politik. Einerseits betrifft das Investitionen in die Verkehrsinfrastruktur, damit die Lkw-Logistik effektiv fließen kann. Andererseits betrifft dies auch immer mehr die Geschwindigkeit des digitalen Datenverkehrs – ein massiv wachsendes Anliegen im digitalen Wandel.

Ein weiteres, viel diskutiertes Anliegen ist der wachsende Bedarf an motivierten und qualifizierten Mitarbeitern in der Logistikindustrie. Dieses Problem zu lösen ist laut BVL-Vorstandsvorsitzendem Raimund Klinkner notwendig, da er sonst negative Auswirkungen auf die gesamte Wirtschaft über die nächsten Jahre erwartet. Neben Ausbildungsangeboten und Informationskampagnen muss man hier aber ebenfalls an den Rahmenbedingungen der Lkw-Fahrer ansetzen. Die niedrige Entlohnung, wachsende Parkplatznot und neuen Regularien erschweren dieser Berufsgruppe den Alltag – von der fehlenden Work-Life Balance gar nicht zu sprechen. Hier herrscht Handlungsbedarf.

Die im September 2017 erschienene Studie „Digitale Konkurrenz im Transportmarkt – Freund oder Feind?“ der Agentur Herzig Marketing und des VVWL fand heraus, dass 56% der befragten Spediteure eine Bedrohung in der “Digitalen Konkurrenz” sehen, welche aus unterschiedlichen Geschäftsmodellen wie Online-Speditionen, Frachtenbörsen und Preis- sowie Buchungsportalen besteht.

Wir schließen uns Raimund Klinkner in dem Punkt an, dass die Digitalisierung als Chance und nicht Gefahr gesehen werden soll: „Neues denken, Digitales leben: Das bedeutet, Digitalisierung nicht als technologisches Konzept zu verstehen, sondern in ihr den intelligenten Treiber für Veränderungen zu sehen – und sie tatsächlich in der betrieblichen Praxis umzusetzen“. Und in dieser Umsetzung wollen wir als Logistiker aktiv mitwirken und Kooperationspotenziale aufzeigen.

Bedroht das IoT-Botnetz »Reaper« vernetzte Produktionen?

Mit dem »Reaper« nimmt die nächste Malwarekampagne Fahrt auf. Bisher sind ausschließlich IoT-fähige Geräte betroffen, doch der Übergang zum IIoT (Industriellen Internet der Dinge ) ist fließend und die Angreifer zeigen sich äußerst agil. Bei einer Attacke könnten somit auch Steuernetze, Fernwirknetze und vernetzte Produktionen betroffen sein. Mit einer Anomalieerkennung werden solche schleichenden Übernahmen frühzeitig erkannt.

Am 20. Oktober berichtete der IT-Analyst yegenshen der Chinesischen Cybersicherheitsfirma Netlab 360 von einem neuen Botnetz, das gezielt IoT-fähige Geräte ins Visier nimmt. Yegenshen bezeichnete das Botnet deshalb als »IoT_reaper«. Mittlerweile hat sich die Kurzform »Reaper« etabliert.
Der Analyst sprach von rund 10.000 befallenen Geräten, die bereits fünf Tage später auf 28.000 angestiegen waren. Zusätzlich werden mindestens zwei Millionen IoT-Geräte in einer Warteschleife vermutet, die vom Botnetz auf eine Nutzung im Botnetz geprüft und nachfolgend infiziert werden sollen.

Was im ersten Moment an das letztjährige »Mirai«-Botnet erinnert, wird in der Detailanalyse als weitaus potentere Malware identifiziert. Mirai hatte 2016 zirka 500.000 IoT-Devices kompromittiert, die für wiederholte DDoS-Attacken (Distributed-Denial-of-Service) genutzt wurden. Unter anderem wurde der DNS-Serviceanbieter Dyn attackiert, so dass eine Reihe dort gehosteter Webseiten wie Twitter, Netflix und Reddit für längere Zeit nicht erreichbar waren. Auch für den Hackerangriff auf DSL-Router der Telekom am 27. November 2016 wurde das Mirai-Botnet genutzt.

Unterschiede von Reaper und Mirai

Der Angriffsvektor verlief (und verläuft nach wie vor) bei Mirai über die Nutzung der Defaultpasswörter, die vom Hersteller in den IoT-Devices gesetzt werden – und vom Nutzer häufig nicht geändert wurden. Das neue Botnetz Reaper mag auf dem Code von Mirai aufbauen, es unterscheidet sich jedoch sehr klar von diesem Vorgänger – sowohl in der Ausführung als auch im möglichen Störpotential:

  1. Der Angriffsvektor läuft gezielt über Schwachstellen (Vulnerabilities oder Exploits) bestimmter Geräteanbieter wie D-Link, Netgear, JAWS u.a. Auf die Ausnutzung von Defaultpasswörtern der Hersteller wird verzichtet, so dass eine Detektion bzw. Abwehr noch unwahrscheinlicher ist.
  2. Die Autoren reagieren sehr flexibel auf Änderungen. So wurde die Schwachstelle der IP-Überwachungssysteme vom Typ Vacron NVR nur wenige Tage nach Bekanntwerden in das Botnetz integriert. Das spricht für eine sehr aktive Betreuung des Botnetzes.
  3. Die bisherige vergleichsweise langsame Ausbreitung von Reaper spricht für ein sehr sorgfältiges Vorgehen der Autoren. Höchstwahrscheinlich versuchen sie weiterhin die Funktionalität zu testen.
  4. Die Malware ist in einer LUA-Umgebung integriert. LUA ist als einfache und zugleich äußerst mächtige Skriptsprache bekannt, die für komplexe und effiziente Programmierung genutzt wird. Das erhöht das Potential, mit Reaper ebenso komplexe, agil entwickelte Attacken durchzuführen, die weit über die DDoS-Attacken von Mirai hinausgehen.

Warum Reaper auch fürs IIoT gefährlich werden kann

Diese Punkte verdeutlichen das Potential von Reaper, auch im Industriellen Internet der Dinge Störungen herbeizuführen. Bisher sind zwar ausschließlich IoT-Devices betroffen, die keine direkte Anwendung in der industriellen Umgebung haben. Ein Übergreifen ist aus verschiedenen Gründen jedoch nicht nur möglich, sondern auch wahrscheinlich.

Der wahrscheinlichste Weg läuft über das Ausnutzen von Schwachstellen (Exploits) von IIoT-Devices. Die Autoren von Reaper arbeiteten bisher sehr agil. Sie reagierten umgehend auf neu bekannt gewordene Exploits und fügten diese den bisherigen Angriffsvektoren hinzu. Es scheint, dass sie nur darauf warten, neue Schwachstellen in Erfahrung zu bringen. Aktuell sind noch keine IIoT-Geräte direkt betroffen. Dies mag daran liegen, dass den Autoren bislang die Exploits für die entsprechenden Geräte fehlen. Sobald jedoch neue Schlupflöcher bekannt (oder im Darknet verfügbar) werden, könnte sich das schnell ändern.

Ein weiterer Einfallsweg läuft über die Betriebssystembasis. Reaper greift mehrheitlich Linuxbasierte Geräte an. Das Botnetz nutzt infizierte Geräte, um das Netzwerk auf weitere Devices zu scannen und zu infizieren. Dementsprechend können neben den gerätespezifischen Exploits auch generische Linux-Schwachstellen als Einfallstor genutzt werden. Das erlaubt den Autoren eine Ausweitung der Gerätetypen und Hersteller.

Der dritte Weg läuft über die IoT-Devices als Mittelsmann. Reaper greift auf eine mächtige LUA-Umgebung zurück. Es ist daher nicht ausgeschlossen, dass über die infizierten IoT-Devices eine komplexe Malware in die Systeme geschleust wird, die auf »dahinter liegende« Devices zielt. Da IoT-Devices, Office-Devices und IIoT-Devices längst miteinander verbunden sind, könnte eine Netzwerkdurchdringung ganzheitlich erfolgen.

Bislang kann nur gemutmaßt werden, was genau die Autoren von Reaper planen. Alles deutet darauf hin, dass sie das Botnetz aktuell in Stellung bringen und testen. Die potentielle Gefahr offenbart sich vor allem im agilen Anpassen der Malware durch die Autoren und in der potentiellen Reichweite des Reaper.

Die beste Sicherheit sind Transparenz und Echtzeit

Wie schon WannaCry und NotPetya wird der Reaper zu den Advanced Persistent Threats gezählt. Während Mirai noch per Passwort-Hack die Vordertür benutzte, gelangt Reaper bequem durch die Hintertüren der einzelnen Herstellergeräte. Dort übernimmt er kurzerhand die Kontrolle über das Gerät und führt sein aktuell gesetztes Programm um. Das bedeutet auch, dass er von Sicherheitsprodukten wie Firewall und Co. nicht erkannt wird.

Sicherheitsexperten verweisen zwar darauf, dass die Aktualisierung der Firmware die Gefahr bannt. Jedoch vergessen sie dabei zwei entscheidende Punkte:

  1. Der Autor sucht aktiv nach Sicherheitslücken und integriert diese fortwährend (und schneller als jedes Update) in seine Malware. Es ist somit nur eine Frage der Zeit, bis die nächste Hintertür im Gerät genutzt wird oder weitere angreifbar werden.
  2. Industrieunternehmen können aufgrund von Kompatibilitätsproblemen und Verfügbarkeitsanforderungen häufig nicht ad hoc ihre Komponenten aktualisieren. Die Geräte laufen somit in der Regel über einen längeren Zeitraum mit alten Sicherheitseinstellungen, bleiben infiziert und damit angreifbar.

Kurz: Das gängige und von vielen Sicherheitsdienstleistern vorgeschlagene Sicherheitskonzept hinkt dem Reaper immer mindestens einen Schritt hinterher.

Wer seine Geräte schützen und insbesondere die Ausbreitung im eigenen Netzwerk verhindern möchte, muss in Echtzeit über einen möglichen Angriff informiert werden. Das ist derzeit maßgeblich und ausschließlich über eine Anomalieerkennung realisierbar. Die Anomalieerkennung überwacht dabei kontinuierlich alle Aktivitäten im eigenen Netzwerk und meldet jede Auffälligkeit. Dazu gehören Passwort- und Autorisierungsänderungen genauso wie bislang unbekannte Statusabfragen anderer Devices und verdächtige Kommunikationspakete, die zum Beispiel externen Servern Informationen übermitteln oder von diesen Befehle erhalten.

Advanced Persistent Threats ist nur durch ein Maximum an Netzwerktransparenz beizukommen. Es sollte allen Akteuren bewusst werden, dass die erste Verteidigungslinie von Firewall & Co. gegenüber den neuen Angriffsvektoren blind und somit machtlos ist. Umso wichtiger ist es, als zweite Verteidigungslinie des IT-/OT-Sicherheitskonzepts genauestens zu wissen, was im eigenen Netzwerk passiert. Nur so können Netzwerkverantwortliche schnell reagieren und Störungen verhindern.

Logistik 4.0 und die digitale Zukunft – Geschäftsmodelle werden sich verändern

Viele logistische Aufgaben laufen heute bereits weitgehend automatisiert ab. In einem automatischen Hochregallager gibt es keine Menschen mehr wegzurationalisieren. Eine Datenbrille ersetzt vielleicht Pick by Voice, also eine Optimierung bestehender Technologie. Viele neue Technologien, die gerade entwickelt werden, funktionieren zwar unter den Laborbedingungen brillant, aber eben nur unter diesen oder in eng begrenzten Nischen.

Nehmen wir zum Beispiel das Thema Zustellroboter. Wie viele Roboter müssen bei gegenwärtig 3 Milliarden KEP-Sendungen jährlich auf unseren Bürgersteigen und in Konkurrenz zu Fußgängern oder Radfahrern unterwegs sein, um solche Mengen auszuliefern (abgesehen von Schlechtwetterperioden, in denen sie nicht eingesetzt werden können oder praktischen Herausforderungen wie ein mit Mülltonnen zugestellter Weg)? Selbst dann werden sie ein konventionelles Zustellfahrzeug als Backup brauchen, weil sonst die Wege zwischen Paketaufnahme und Auslieferung viel zu groß werden. Eine normale deutsche Innenstadt entspricht nicht Laborbedingungen!

Industrie 4.0 wird die Supply Chains verändern

Viel größeres Augenmerk sollte daher darauf gerichtet werden, wie sich die Anforderungen von außen an die Logistik verändern. Durch Digitalisierung werden Produktlebenszyklen immer kürzer, Logistikketten müssen ganz neu konfiguriert werden, weil sich gegebenenfalls auch Produktionsstätten verlagern. Der Trend zu kleineren Losen durch hochflexible Fertigung bis zur Losgröße 1, wird die Logistikketten weiter beschleunigen: Production on Demand bedeutet dann auch Delivery on Demand. Der Stückkostenvorteil einer Massenproduktion von Zulieferteilen in Fernost wird gegenüber dem Zeitnachteil einer Containerverschiffung eher verloren gehen. Dies könnte verstärkt wieder zu regionalen Produktionscluster führen, die in der Lage sind, auch kleine Stückzahlen ad hoc zu fertigen und zu liefern. Aktuelles Beispiel ist z. B. die Speedfactory von Adidas, in der das Unternehmen zum ersten Mal seit 20 Jahren wieder in Deutschland produziert.

Dies wird für Logistiker bedeuten, dass sie hier hochflexible Lösungen liefern und sich räumlichen Veränderungen der Lieferketten anpassen müssen. Was hilft eine hochautomatisierte Logistikanlage, wenn sie einerseits schnell benötigt wird, aber genauso schnell wieder ihre Notwendigkeit verliert. Dagegen sprechen sowohl Planungs-, Realisierungs- wie auch wirtschaftliche Amortisationszeiten.

Daraus lässt sich der Trend weg von den Funktionen der Vorratslagerung hin zu individuellen Handlings- und Distributionszentren ableiten. Diese Individualität spricht eher für zwar hochgradig digital unterstütztes aber doch letztlich manuelles Arbeiten.

Online-Handel bringt neue logistische Aufgaben

Eine andere Entwicklung ergibt sich durch den Trend zum Online-Shopping durch die Digitalisierung des Handels. Hier wird schon überlegt, eine neue feinräumige Logistikstruktur aufzubauen, um gerade die typischen Sortimente des LEH zeitnah zum Kunden zu bringen. Schließlich muss dann die bislang kostenlose Dienstleistung des Kunden, der heute die Ware selbst in den Einkaufswagen und seine Tasche kommissioniert und sich selbst nach Hause liefert, ersetzt werden. An diesem Punkt muss jedoch aufgepasst werden, in welcher Form gerade in diesem Bereich ein neuer prekärer Billiglohnsektor entsteht!

Ein Fazit

Aus den vorangegangen Überlegungen ergibt daher sich folgendes Bild: Die Digitalisierung wird weiter in die Logistik vordringen. Zum Teil wird sie bereits heute eingesetzte Technik durch bessere ersetzen. Technik und logistischer Prozess müssen aber immer zusammenpassen. Je individueller und flexibler logistische Leistungen in der Zukunft werden, desto mehr intelligente Unterstützungsleistung wird benötigt, um die Arbeit effizient zu erfüllen. Gleichzeitig werden manuellen Tätigkeiten in Summe deutlich zunehmen. In Teilen wird dies zu Arbeitsplätzen führen, an denen sowohl hohe digitale wie manuelle Kompetenz benötigt wird, andererseits mit Blick auf die Zunahme des Onlinehandels mehr problematische Arbeitsplätze auf der letzten Meile.

Lesen Sie jetzt auch die anderen Artikel der Reihe „Logistik 4.0 und die digitale Zukunft“:

Logistik 4.0 und die digitale Zukunft – Logistik ohne Menschen geht nicht!

In Ruhrgebiet lautet ein alter Spruch: Im Durchschnitt sind der Chef von Krupp und sein Fahrer beide Millionäre – nur der eine ist es wirklich. In der Logistik verhält es sich ähnlich. Durchschnittsmengen sind in der Auslegung logistischer Systeme keine validen Größen. Sie können lediglich Indikatoren dafür sein, auf welchem Grad eine technisch automatisierte Infrastruktur noch wirtschaftlich ist. Wohl den wenigen Unternehmen, für die der Durchschnitt eine verlässliche Arbeitsgröße ist.

Wann ist Logistik »normal«?

Viele Lieferketten leben mit extremen Schwankungen, die saisonal oder eben auch ohne jeglichen »Plan« in Zickzack-Linien durch das Jahr verlaufen. Große Teile der Süßwarenbranche leben von Ostern und vor allem Weihnachten. Zwar hat man verstanden, dass man Weihnachtsartikel schon ab Anfang September in die Märkte ausliefert, um den größten Peak abzufangen, anderseits könnte der neue Trend zum Onlinehandel im Lebensmittelbereich hier auch zu einer Umkehr führen. Was, wenn der Kunde in Zukunft wieder Osterhasen erst wirklich zu Ostern und Lebkuchen erst wirklich zu Weihnachten bestellt?

Signifikante Mengenschwankungen sind nicht nur ein Problem der Konsumgüterbranche. Die täglichen Ausgangsmengen eines großen Unternehmen im technischen Handel können zwischen 350 und 1.400 vollgeladenen LKW verteilt auf mehrere Standorte schwanken, ohne dass es hier einen planbaren Bezug gibt. Bei 24 Stunden Lieferzusage, bzw. projektbezogenen Terminen und Baustellenbelieferung ist auch keine Glättung möglich. Die Spitzen müssen so abgearbeitet werden, wie sie kommen.

Digitalisierung wird unterstützen, nicht ersetzen

Fakt ist, Digitalisierung wird in Zukunft all diese Prozesse noch effizienter unterstützen. Unrealistisch ist es aber, dass wir auch die möglichen Maximalauslastungen maschinell unterstützen. Allein aus wirtschaftlichen Gründen, wird man Material-, Kommissioniersysteme, etc. in vielen Fällen unterhalb der Maximallast konfigurieren müssen. Technische Infrastruktur vorzuhalten, die nur wenige Tage im Jahr genutzt wird, kann sich kein Unternehmen leisten. Selbst Amazon muss zu Saisonspitzen befristet Mitarbeiter einstellen – und die lassen sich nicht von Maschinen anleiten.

Logistik bedeutet Flexibilität

Das Unvorhergesehene ist in der Logistik immer wieder Realität. Dann müssen Abwicklungslösungen gefunden werden, die außerhalb der digitalen Prozesse und Maschinenparks effizient funktionieren. Wer Logistikalltag kennt, weiß dies nur zu genau. Produktionsschwierigkeiten beim neuen Tesla-Modell 3 zeigen, dass allein digitalisierte Abläufe noch kein Garant für reibungsloses Funktionieren sind uns es ohne Menschen, die die Prozesse auch noch analog beherrschen, nicht geht.

Dazu müssen die digitalen Prozesse so offen sein, dass sie manuelle Abwicklungen weiter zulassen. Der zentrale Punkt ist hierbei: Für solche Fälle muss auch ein solider Bestand an operativen und leitendem Personal zur Verfügung stehen, die in solchen Ausnahmesituationen weiterhin manuelle Logistik in dem neuen digitalen Umfeld sowohl prozesssicher wie handwerklich kompetent abwickeln können.

Logistik ist dynamischer als automatisierte Großsysteme

Große Wertschöpfungsanteile der Logistik sind heute an Logistikdienstleister ausgegliedert, dies oft mit kurzen Vertragslaufzeiten. Wir wissen alle, dass technologische und digital aufwendige Prozesse nicht einfach durch plug & do bei einem Dienstleisterwechsel ausgetauscht werden können, dazu ist die Individualität der logistischen Ketten einfach zu groß.

Persönliche Kompetenz ist Wettbewerbsvorteil

Für die Logistik in Deutschland ist diese Form der Flexibilität weltweit ein Prädikatsmerkmal. Es gibt daher keinen Grund, dies leichtfertig aufzugeben. Wir sind in den letzten Jahren mehrfach auf Platz 1 im globalen Ranking der Logistikkompetenz bewertet worden, ein Resultat von Spitzenmanagement bis zum Facharbeiter. In Summe macht es den Unterschied zwischen Durchschnitt und Top-Performance aus. IT-Lösungen kann man global kopieren. Persönliche Kompetenz eben nicht. Wo Logistik heute schon auf dem Stand der Technik ist, wird es eher inkrementelle Verbesserungen geben.

Eine andere Frage ist, wie sich Industrie und Handel in Folge der Digitalisierung neu aufstellen, was Lieferketten grundsätzlich verändern könnte. Dies wird Thema des dritten Teils dieser Reihe sein.

Lesen Sie jetzt auch die weiteren Artikel der Reihe „Logistik 4.0 und die digitale Zukunft“:

 

Machine Learning unterstützt Qualitätskontrolle in der Fertigung

Made in Germany

Das Prädikat „Made in Germany“ steht nach wie vor für herausragende Produktqualität. Gerade diese Qualität ist einer der Faktoren, welche den Produktionsstandort Deutschland und seine Waren für viele Unternehmen unverzichtbar und an den globalen Märkten wettbewerbsfähig machen. Innovationen in der Fertigung spielen daher für deutsche Unternehmen eine wesentliche Rolle, damit die hier ansässigen Weltmarktführer ihre Marktstellungen weiterhin sichern können. „Deutschland gehört bei Innovationen und Produktion zu den weltweiten Spitzenstandorten. Damit das auch angesichts des zunehmenden internationalen Wettbewerbs so bleibt, investiert die Bundesregierung massiv in Forschung und Entwicklung“, beschreibt Prof. Dr. Johanna Wanka, Bundesministerin für Bildung und Forschung, die Situation im Bericht „Made in Germany – das steckt dahinter“ des BMBF [1].

Einsatz traditioneller Werkzeuge zur Qualitätskontrolle

Um den hohen Qualitätsansprüchen der internationalen Märkte gerecht zu werden, lassen sich an verschiedenen Stufen eines Produktionsprozesses Verfahren und Technologien anwenden, welche eine stabile und fehlerfreie Fertigung gewährleisten. Insbesondere in Deutschland hat sich die Philosophie etabliert, Qualität nicht nur abschließend zu prüfen, sondern bereits während der Fertigung sicherzustellen. So lassen sich beispielsweise mit Qualitätsregelkarten, häufig auch als Statistical Process Control bezeichnet (SPC), einzelne Prozessparameter oder Qualitätskriterien überwachen, um Abweichungen sichtbar zu machen. Qualitätsregelkarten sind in Deutschland bereits stark etabliert und unterstützen an verschiedenen Stellen die Produktion.

Der zunehmende Einfluss neuer Technologien wie Internet der Dinge spielt hier eine besondere Rolle. Die Digitalisierung der Produktion erlaubt durch Sensorik und Datenverarbeitung eine sehr detaillierte Überwachung des gesamten Fertigungsprozesses und erweitert das Spektrum an verfügbaren Daten enorm. Die Möglichkeit, unzählige Informationspunkte im Fertigungsprozess zu erkennen, ist für viele Unternehmen jedoch ein zweischneidiges Schwert. Zum einen können einzelne Parameter detaillierter als jemals zuvor überwacht werden, um ihre Auswirkung auf Qualitätskriterien zu analysieren. Zum anderen bedeutet die Informationsflut auch eine höhere Belastung für die Mitarbeiter. Stehen die Daten von hunderten oder gar tausenden Prozessparametern zur Verfügung, fällt die Beurteilung und die Herleitung der notwendigen Maßnahmen zunehmend schwerer. An dieser Stelle kann Machine Learning den Unternehmen helfen und Abhilfe schaffen.

Machine Learning basiert auf algorithmischen Verfahren, welche Muster und Trends in komplexen Datenstrukturen erkennen. Durch das Auswerten historischer Daten vergangener Produktionsdurchläufe lassen sich somit Rückschlüsse auf den Einfluss einzelner oder kombinierter Prozessparameter auf die Qualität ziehen. Komplexe Wechselwirkungen innerhalb der Fertigung werden somit sichtbar. Wird im laufenden Betrieb der Prozess mit Hilfe dieser erlernten Strukturen kontinuierlich überwacht, können Problemfelder früher erkannt und präventiv verhindert werden. Machine Learning erweitert somit die Möglichkeiten traditioneller Werkzeuge wie Qualitätsregelkarten, deckt neue Zusammenhänge in Prozessen auf und unterstützt Mitarbeiter bei der Priorisierung von Problemfeldern.

Automatisierung durch visuelle Prüfverfahren

Neben einer ständigen Prozessüberwachung ist auch die finale Produktqualität zu prüfen. Denn dies ist die Qualität, welche ein Kunde tatsächlich später erhält. Abhängig von Kundenanforderungen kann ein Unternehmen die Qualität auf Basis von Stichproben bewerten oder eine sogenannte Vollprüfung durchführen. Häufig hängt diese Entscheidung mit der Kritikalität des Produkts zusammen, wie etwa bei Schaltplatinen für Airbags, welche sehr hohen Qualitätsansprüchen unterliegen.

Diese finale Qualitätskontrolle kann etwa durch eine direkte oder indirekte Sichtprüfung erfolgen. Das bedeutet, dass mittels einer optischen Kontrolle, etwa die Betrachtung einer Prüffläche mit dem bloßen Auge oder durch eine Kamera, die Qualitätskriterien bewertet werden. In vielen Produktionen wird heutzutage eine automatische optische Inspektion mit moderner Kameratechnik durchgeführt. Dabei wird jedes Qualitätskriterium hochauflösend erfasst und computergestützt mit einer Bauteilebibliothek verglichen.

Jedoch bringen diese Verfahren auch Nachteile mit sich. Das Einrichten solcher Qualitätskontrollen ist ein langwieriger Prozess. In der Bauteilebibliothek müssen die möglichen Fehlerbilder in Form von Regeln durch Spezialisten manuell hinterlegt werden. Je nach Anzahl bekannter Fehlerbilder und deren Komplexität ist dies aufwändig und kann mehrere Wochen in Anspruch nehmen. Auch können so nur bekannte Fehlerbilder identifiziert werden. Sollen später neue Fehlerbilder der Bauteilebibliothek hinzugefügt werden oder es wird ein gänzlich neues Bauteil gefertigt, so zieht dies wieder eine wochenlange Anpassung des Systems nach sich.

Höhere Genauigkeit und Flexibilität durch Deep Learning

Auch hier verspricht der Einsatz von Machine Learning eine deutliche Verbesserung. Mittels spezialisierter Algorithmen, welche dem sogenannten Deep Learning zugeordnet werden, lassen sich die Vorteile des maschinellen Lernens für die automatische optische Inspektion nutzen.

Hochauflösende Bilder von Bauteilen sind eine Form von unstrukturierten Daten. Diese können ähnlich wie Messwerte aus dem Prozess nach Mustern analysiert werden. Deep Learning Verfahren, wie beispielsweise Convolutional Neural Networks, erkennen dann Strukturen und Auffälligkeiten in den Bildern und klassifizieren diese nach bekannten und unbekannten Fehlerbildern. Um ein solches Verfahren einsetzen zu können, ist zu Beginn ein Training des Systems notwendig. Im Unterschied zu traditionellen Inspektionstechnologien erfolgt das Training nicht durch manuelles Programmieren von expliziten Regeln. Deep Learning Algorithmen werden mit vorhandenen Bildern angelernt. Sind die abgebildeten Bauteile bereits als in Ordnung (iO) oder nicht in Ordnung (niO) eingestuft, versteht der Algorithmus diese Strukturen und kann sie auf neue Bilder anwenden. Das initiale Training benötigt somit nur wenige Tage und kann flexibel durch neue Trainingsbilder angepasst oder erweitert werden. So erhält man ein lernendes System, welches mit der Zeit seine Genauigkeit steigert.

Zusammenfassung

Qualität ist ein wesentliches Merkmal deutscher Produktion. Um diese weiterhin zu gewährleisten sind Innovationen auf Basis neuer Technologien notwendig. Das Internet der Dinge und Machine Learning versprechen ein hohes Potenzial bestehende Produktionsprozesse zu unterstützen. Sei es im eigentlichen Prozess oder bei der abschließenden Qualitätskontrolle – das Erheben und Auswerten von Daten wird zur wesentlichen Säule der Fertigung. Verfahren aus dem Umfeld des Deep Learning helfen Unternehmen dabei auch komplexere Prüfprozesse zu verbessern.

[1] Made in Germany – das steckt dahinter, Bundesministerium für Bildung und Forschung, April 2016, https://www.bmbf.de/pub/Made_in_Germany.pdf

Benutzerprofile in Active Directory

Um ein solches standardmäßiges Default-Profil anzulegen, gehen Sie folgendermaßen vor:

  1. Melden Sie sich an einem PC mit Windows 10 mit dem Benutzerkonto an der Domäne an, welches Sie als Standardprofil definieren wollen.
  2. Führen Sie alle Einstellungen aus, zum Beispiel Bildschirmschoner, Hintergrundbild und so weiter, welche Sie für das Profil festlegen wollen.
  3. Melden Sie sich nach der Fertigstellung der Einstellungen ab.
  4. Melden Sie sich am gleichen PC mit einem Domänenadminkonto an.
  5. Erstellen Sie in der NETLOGON-Freigabe auf einem Domänencontroller den neuen Ordner Default User.v2.
  6. Klicken Sie auf dem PC mit der rechten Maustaste auf Computer im Startmenü und rufen Sie den Befehl Eigenschaften

In Windows 8/8.1/10 öffnen Sie auf dem Desktop ein Explorer-Fenster und klicken im Navigationsbereich auf Dieser PC. Alternativ können Sie auch einfach die Tastenkombination (Windows)+(Pause) drücken.

  1. Klicken Sie links im Fenster auf den Link Erweiterte Systemeinstellungen.
  2. Klicken Sie im Bereich Benutzerprofile auf Einstellungen.
  3. Markieren Sie den Benutzer, dessen Profil Sie als Standard definieren wollen, und klicken Sie auf Kopieren nach. Ist die Option für das jeweilige Profil nicht aktiv, dann kopieren Sie den Inhalt des Ordners über den Explorer in das Default-Profil auf dem Server. Achten Sie aber darauf die versteckten Dateien zu aktivieren, genauso wie die geschützten Systemdateien. Bearbeiten Sie anschließend die Sicherheitseigenschaften des Ordners auf dem Server und weisen Sie der Gruppe Jeder das Recht Ändern für das Profil zu. Um Manipulationen des Profils zu vermeiden, können Sie auch eine Sicherheitskopie erstellen, mit der Sie das Profil wiederherstellen können wenn das notwendig ist. Die NETLOGON-Freigabe befindet sich auf dem Domänencontroller im Ordner C:\Windows\SYSVOL\sysvol\contoso.com\scripts
  4. Geben Sie den Pfad zum Default User-Ordner in der NETLOGON-Freigabe an, welches Sie zuvor angelegt haben, zum Beispiel \\x2k16\NETLOGON\Default User.v2.
  5. Klicken Sie im Bereich Benutzer auf Ändern.
  6. Geben Sie im Benutzerfeld Jeder ein und klicken Sie auf Namen überprüfen.
  7. Klicken Sie anschließend auf OK.
  8. Bestätigen Sie im Anschluss alle noch offenen Fenster mit OK, damit das Profil kopiert werden kann. Das servergespeicherte Profil ist jetzt vorbereitet.

Melden sich Benutzer an Rechnern an die Mitglied der Domäne sind, erhalten diese darauf hin exakt das Profil zugeteilt, dass Sie in der Freigabe \\NETLOGON auf dem Anmeldedomänencontroller angelegt haben. In den Profileigenschaften der Anwender legen Sie aber einen anderen Profilpfad fest, zum Beispiel \\<Server>\Profiles\%UserName%. Dann speichert der Computer das erstellte Profil für den Anwender servergespeichert im hinterlegten Pfad ab, da nur bei der ersten Anmeldung das Standardprofil der Freigabe \\netlogon verwendet wird.

Sie können darüber hinaus im unteren Bereich des Dialogfeldes den Eintrag für Benutzer ändern, wenn Sie das Profil in den Ordner eines anderen Anwenders kopieren möchten. Über die Schaltfläche Typ ändern können Sie festlegen, ob bei der Anmeldung das lokal zwischengespeicherte Profil verwendet werden soll oder ob mit dem serverbasierenden Profil gearbeitet werden soll.

Bei der Erstellung von Benutzerprofilen sind einige Besonderheiten zu beachten. Sie sollten immer daran denken, dass die Benutzer, wenn sie sich an unterschiedlichen Arbeitsstationen anmelden, immer mit unterschiedlichen Bildschirmauflösungen konfrontiert sind. Sie sollten bei der Definition immer den typischen Arbeitsplatz des Benutzers, für den das Profil vordefiniert wird, beachten. Das gilt vor allem für verbindliche Profile. Ein weiterer Punkt ist, dass das in Default User gespeicherte Profil, das zum Einsatz kommt, wenn Sie keine zentralen Profile für alle Benutzer vorgeben, auf jedem einzelnen Computer definiert ist.

Planung einer Exchange 2016-Infrastruktur

Ein wesentlicher Bestandteil bei der Planung ihrer Exchange-Umgebung ist die Anzahl der Postfächer. Die Anzahl reicht alleine aber nicht aus, um die Hardware optimal zu planen. Administratoren sollten sich vorher darüber informieren wie viele E-Mails die Benutzer täglich senden und erhalten. Auch die Größe der durchschnittlichen E-Mails spielt eine wichtige Rolle. Microsoft geht bei den Standard-Planungen von einer durchschnittlichen Größe von 75kb aus.

Microsoft geht in typischen Umgebungen von etwa 50-500 Nachrichten pro Benutzer und Tag aus sowie einer durchschnittlichen E-Mail-Größe von 75 GB. Wenn Sie in Ihrer Umgebung von einem Mittelwert von etwa 200 Nachrichten am Tag ausgehen, und jede E-Mail etwa 75 kB Größe hat, ergibt sich ein zusätzlicher Speicherplatz von etwa 15 MB am Tag, der über die Exchange-Server abgewickelt werden muss.

Exchange 2016 benötigt etwas leistungsstärkere Prozessoren als Exchange 2013. Diese höheren Ansprüche hat Microsoft in seinem Tool „Exchange Server Role Requirements Calculator“.

Vor allem in großen Umgebungen sollte aber auch darauf geachtet werden, dass Exchange-Server nicht zu groß dimensioniert werden. In vielen Fällen ist es besser mehrere kleinere Server zu betreiben, als weniger große Server. Exchange Server 2016 unterstützt maximal 24 CPUs und maximal 96 GB Arbeitsspeicher.

Ingenieure in Bestform

Nicht nur Märkte ändern sich

Zwar haben die meisten Industrieunternehmen erkannt, dass sich ihre Märkte ändern und sie ihre Geschäftsmodelle und Jobanforderungen entsprechend anpassen müssen. Allerdings handeln sie noch nicht danach. Das belegt auch eine sehr interessante Studie von Ernst & Young, die Anfang des Jahres erhoben wurde.

Demnach wollen rund 44 Prozent der Unternehmen ins Digitale investieren, aber – und jetzt das Erstaunliche – nicht mehr als 0,8 Prozent ihres Umsatzes dafür ausgeben. Das ist viel zu wenig, wenn man bedenkt, wie viele Menschen im Hinblick auf digitale Kompetenzen erst einmal fit gemacht werden müssen. Als einen Grund für diese Zurückhaltung geben die Berater zu wenig Know-how an. Aber da wird klar am falschen Ende gespart, denn gerade der Produktionsstandort Deutschland steigt jetzt in neue Tätigkeitsfelder ein, die neue Kompetenzen mit sich bringen.

Beispielsweise forscht man in der additiven Fertigung, besser bekannt als 3-D-Druck, bereits ganz aktiv an der Zukunft und bringt neue Produkte auf den Markt. Nehmen wir individuelle Konsumprodukte (z. B. Turnschuhe) oder auch die Ersatzteilfertigung bei der Deutschen Bahn, alles wird heute bereits vom 3-D-Drucker ausgespuckt. Und die Fertigungsmöglichkeiten scheinen schier unbegrenzt. Daher wird hier auch weiterhin viel investiert.

 Zukunft zum Anfassen: 3-D-Druck

Die US-Marktforscher sagen dem 3-D-Druck bis 2020 sogar einen Umsatzanstieg von 35 Mrd. US-Dollar voraus. Denn der 3-D-Druck hilft Unternehmen nicht nur dabei, kleine Stückzahlen wie eben Ersatzteile zu wettbewerbsfähigen Preisen zu produzieren. Vor allem erzielen Firmen über 3-D-Druck mächtige Einsparpotenziale bei der Lagerhaltung und können Produkte viel schneller an den Markt bringen als zuvor.

Das hat nicht nur Auswirkungen auf die Nachfrage nach additiv gefertigten Produkten, sondern auch auf die Nachfrage nach Fertigungsingenieuren.

Von einem klassischen Fertigungsingenieur zum Gesamtverantwortlichen für additive Fertigung

Die Jobtransformation von einem klassischen Fertigungsingenieur zu einem Gesamtverantwortlichen für additive Fertigung findet dabei im laufenden Betrieb statt. Der Ingenieur, der sich mit additiver Fertigung auskennt, punktet dort, wo ein klassischer Fertigungsingenieur naturgemäß an seine Grenzen geraten würde. Denn für die Produktentwicklung für den 3-D-Druck braucht er Projekterfahrung im Austausch mit anderen Disziplinen wie dem Produktdesign, der Softwareentwicklung, aber auch dem Management.

Für sein Jobprofil bedeutet das: Ein Fertigungsingenieur für die additive Fertigung sollte neben seiner fachlichen Ausbildung ebenso generalistische Fähigkeiten mitbringen, um seine zukünftige Aufgabe erfolgreich meistern zu können. Er braucht nicht nur die Fähigkeit, in formalisierten digitalen Systemen und Abläufen zu denken, sondern muss auch dafür Sorge tragen, dass die Spezialisten innerhalb der Fertigungskette entsprechend miteinander arbeiten. Schließlich muss er am Ende des Tages die Resultate ihrer Arbeit für die Eignung zum 3-D-Druck prüfen und bewerten.

Denn was nutzt der schönste Adidas-Schuh oder das individualisierteste Bauteil in 3-D, wenn beispielsweise Material und Fertigungsmethodik nicht zusammenpassen. Das zeigt: Es geht beim zusätzlichen Kompetenzaufbau ebenfalls um Materialkunde und um die Frage, ob sich ein bestimmter Grundstoff überhaupt für den 3-D-Druck eignet.

Aneignung der Kompetenzen der Zukunft

So weit die Wunschvorstellung. In der Realität gestaltet sich die Suche nach Personen mit diesen Qualifikationsprofilen allerdings ungleich schwerer. Denn für einen Ingenieur für die additive Fertigung gibt es keine Ausbildung und keinen Studiengang. Die Unternehmen müssen daher selbst überlegen, wie sie das nötige Know-how auch im eigenen Haus aufbauen. Oder aber, ob sie sich dafür besser externe Spezialisten einkaufen.

Wichtig für eine gute Analyse des Bedarfs ist ein realistischer Blick seitens der Personalabteilungen auf die neue Aufgabenstellung. Sie sollten wissen, welche Fachabteilung, zum Beispiel Forschung und Entwicklung, diese Kompetenzen künftig aufbauen muss, und auch, welche Ziele diese Fachabteilung mit dem 3-D-Druck erfüllen muss. Wichtig zu wissen wäre für sie ebenfalls, welche Anforderungen an den Fertigungsingenieur gestellt werden, zum Beispiel an welchen Entscheidungen aus den Fachbereichen er mitwirken darf. Daraus können sie möglicherweise schon bestimmte Qualifikationen und Fähigkeiten ableiten. Denn gerade bei stark nachgefragten Jobprofilen wie im Bereich 3-D-Druck braucht man ein einheitliches Verständnis der Anforderungen.

Alternativ können Unternehmen im Umfeld des 3-D-Drucks auch mit externen Spezialisten zusammenarbeiten. Diese sind meist schnell verfügbar und haben bereits Erfahrungen aus unterschiedlichen Projekten im Bereich der additiven Fertigung im Gepäck. Außerdem erzeugen externe Mitarbeiter immer einen guten Wissenstransfer – und das kommt wiederum den internen Fachkräften zugute.

Für weiterführende Informationen zum Thema „Jobwandel in der additiven Fertigung“ kontaktieren Sie mich gerne.

Das Phänomen Plattform

Der Consumer-Markt wurde bereits umgekrempelt – erfolgreiche Plattformunternehmen wie Amazon, Facebook oder Google haben den klassischen Markt verändert und etablierte Unternehmen verunsichert. Nach dem Consumer-Markt wird sich auch die Industrie mit dem Phänomen „Plattform“ auseinandersetzen müssen. In Gesprächen mit verschiedenen Experten stellten wir schnell fest, dass stets zwei unterschiedliche Dimensionen des Begriffs betrachtet werden: Die einen blicken aus der betriebswirtschaftlichen Sicht auf Plattformen, die anderen aus der technischen [SSW2015]. Doch offensichtlich lassen sich Geschäftsmodelle und Technologien nicht getrennt voneinander diskutieren. Dem sind wir auf den Grund gegangen und haben schließlich das Geschäftsmodell-Technologie-Portfolio (Gausemeier/Plass) entwickelt (Abb. 1), das den Zusammenhang beider Dimensionen veranschaulicht [EPR2017].

Das Geschäftsmodell-Technologie-Portfolio von Gausemeier/Plass, UNITY
Das Geschäftsmodell-Technologie-Portfolio von Gausemeier/Plass, UNITY

Kurz erklärt: Das Geschäftsmodell-Technologie-Portfolio

Die Dimension Geschäftsmodelle – mit der Unterscheidung in produkt- und servicebezogene Geschäftsmodelle – ist auf der X-Achse dargestellt. Erstere zeichnen sich oft durch physische Assets aus (Produkte oder Lösungen). Hier besteht ganz klassisch eine direkte Beziehung zwischen Anbietern und Nachfragern. Im zweiten Teil, Services, können neue, datenbasierte Geschäftsmodelle entwickelt werden, sodass Netzwerke entstehen.

Die Dimension Technologie wird auf der Y-Achse dargestellt. Hier unterscheiden wir die folgenden Entwicklungsstufen: In der klassischen Welt herrscht eine klare Trennung zwischen den Informationstechnologien auf dem Office Floor (Information Technology, IT) und denen auf dem Shop Floor (Operational Technology, OT). In der nächsten Stufe wachsen diese Systeme – angestoßen durch Industrie 4.0 – nun zusammen (IT/OT). Dies ermöglicht die Vernetzung der einzelnen Unternehmensebenen sowie die unternehmensübergreifende Vernetzung zu Lieferanten und Kunden, sodass man bei dieser Entwicklungsstufe erstmals von vertikaler und horizontaler Integration in der Automatisierungspyramide spricht [Pla2016]. Die nächste Entwicklungsstufe sind Plattformtechnologien. Infrastructure as a Service (IaaS), vernetzte Systeme (Cyber-physical Systems, CPS), Software-definierte Plattformen (Platform as a Service, PaaS) und Services bilden die Basis für IoT(Internet of Things)-Plattformen. Aus den beiden Dimensionen ergeben sich nun die folgenden vier Felder:

„Im Feld Klassisches Geschäft (Industrie) kommen Infrastrukturen, IT, Prozesse und Organisationsformen gemäß der Automatisierungspyramide zum Einsatz. Das Geschäftsmodell ist produkt- (auch im Sinne von Dienstleistungsprodukten) oder auch lösungsorientiert. Es handelt sich um die bekannten und etablierten Geschäftsmodelle mit dem Einsatz herkömmlicher Technologien. Jegliche Optimierung im Sinne von Digitalisierung und Automatisierung bezieht sich auf die Wertschöpfungsketten und Produkte.

Dem Feld Serviceanbieter sind Unternehmen zugeordnet, die schon seit Jahren mit bestehenden Technologien datengetriebene Services anbieten und gewisse Kompetenzen in diesem Bereich aufweisen. Ein Beispiel ist Datev, ein Anbieter von Software-Lösungen und IT-Dienstleistungen für Steuerberater, Wirtschaftsprüfer, Rechtsanwälte und Unternehmen. Daneben sind in diesem Feld Dienstleister zu finden, die zum Beispiel in der Prozessindustrie seit Jahren über analoge Technologien in den Prozessen Maintenance-Aufgaben übernehmen. Sie nutzen Daten zur Optimierung und bieten darauf aufbauend Services an.

Im Feld Plattformtechnologieanbieter finden sich Infrastrukturanbieter, die Rechenzentrumsleistungen mit Storage-Kapazitäten anbieten, wie etwa Amazon Web Services (AWS), der führende internationale Anbieter im Cloud Computing. Hinzu kommen insbesondere bei Industrie 4.0-Technologieanbietern Unternehmen, die vernetzte Produkte und Systeme (CPS) ermöglichen. Ein starkes Wachstum verzeichnen jene Unternehmen, die einzelne Funktionalitäten für Software-definierte Plattformen entwickeln und anbieten, zum Beispiel Lösungen für Sicherheit, Bezahlvorgänge oder Reporting. Sie erstellen keine eigenen Services, sondern liefern nur die dafür notwendigen Technologien.

Plattformunternehmen sind Unternehmen, die Services auf Basis von IoT-Technologien und datengetriebenen Geschäftsmodellen anbieten. In der Automobilindustrie zeigt sich dieser Trend exemplarisch: Connected Drive von BMW, car2go als Car-Sharing-Angebot von Daimler, die Mobility-Service-App Moovel und die Taxi-App Uber belegen die Entwicklung weg vom physischen Asset hin zum Daten-Asset.“ [EPR2017]

Im Feld „Plattformunternehmen“ gibt es zusätzlich Intermediäre. Sie stellen sich zwischen Anbieter/Anbieter-Ökosystem und Nachfrager. Sie sind Betreiber der Datenplattform und werten die generierten Daten aus, um daraus wiederum neues Geschäft zu entwickeln. Gelingt es einem Intermediär, Datenhoheit und Endkundenzugang in vollem Umfang zu erhalten, entsteht ein Oligopol und ggf. auch ein Monopol. Der Intermediär verändert die Wettbewerbsarena, da er sich zwischen die klassischen Akteure schiebt. Er bestimmt nun die Regeln und disruptiert die klassischen Geschäftsmodelle seiner Wettbewerber, welche zu austauschbaren Ausführern werden. Die Praxis zeigt bereits, dass Plattformunternehmen ihre ohnehin gewaltige Marktmacht durch den Zukauf von Assets im klassischen Geschäft (z.B. kauft Amazon Lagerhallen) noch weiter ausbauen können und weitere Marktteilnehmer verdrängen.

Fazit: Zusammenhänge verstehen und schnell handeln

Das Geschäftsmodell-Technologie-Portfolio befähigt Unternehmen, Zusammenhänge in der Plattformökonomie zu verstehen und auf Basis dieses Modells passende Strategien zu erarbeiten, um auch in Zukunft erfolgreich zu bleiben und nicht selbst von Wettbewerbern disruptiert zu werden. Unternehmen müssen sich die Frage stellen, inwieweit diese Veränderung des Marktmodells für sie relevant ist und die Gefahr bewerten. Antrieb sollte sein, selbst eine derartige Marktposition zu erreichen. Inwieweit ein Unternehmen allein in der Lage ist, die notwendigen Kompetenzen in der erforderlichen Geschwindigkeit aufzubauen, ist ebenfalls individuell zu bewerten. Durch Kooperationen mit anderen Partnern kann ein neues Ökosystem aufgebaut werden, über das eine Plattform schnell entwickelt und im Markt etabliert werden kann.

Literatur

[SSW2015] acatech: Smart Service Welt – Umsetzungsempfehlungen für das Zukunftsprojekt Internetbasierte Dienste für die Wirtschaft – Abschlussbericht (Langversion), S.71.

[EPR2017] Engels, G.; Plass, C.; Rammig, F.-J. (Hrsg.): acatech DISKUSSION „IT-Plattformen für die Smart Service Welt“. München 2017. S. 40 ff.

[Pla2016] Plass, C.: OPPORTUNITY „Digitale Geschäftsprozesse und -modelle verändern die Arbeitswelt“ 2016. S. 12 ff.

 

Wegweiser durch den Technologiedschungel: BLE, WiFi und LP-WAN

IoT Kommunikationstechnologien und ihre Einsatzgebiete

Wie bereits in den ersten Teilen dieser Artikelreihe erwähnt, eignet sich nicht jede IoT Technologie auch für jeden Anwendungsfall. In den vorangegangenen beiden Beiträgen wurden mit RFID und NFC zwei AUTO-ID Technologien beleuchtet, die primär in Anwendungen mit kurzer und mittlerer Lesereichweite zum Einsatz kommen. Bluetooth, speziell Bluetooth Smart, und WiFi hingegen, ermöglichen Datenkommunikation auch über sehr weite Entfernungen und bilden daher den idealen Komplementär.

Bluetooth, Bluetooth Smart

Seit Ende 2016 ist mit Bluetooth 5 die neueste Version des Bluetooth-Standards offiziell freigegeben. Die erreichte Leistungssteigerung macht Bluetooth Smart reif für eine Vielzahl möglicher IoT Anwendungsgebieten, denn Reichweiten von bis zu 400 Meter und eine hohe Übertragungsgeschwindigkeit schreien geradezu nach einem Einsatz in smarten Devices und Wearables. Die meisten von uns kennen Bluetooth als Technologie, um Daten und vor allem Musik mit anderen Geräten auszutauschen. Abseits des Daten-Streamings werden so genannte Bluetooth Beacons aber auch zur Lokalisierung und Navigation von Personen und Objekten vorwiegend im Gebäudeinneren eingesetzt. Ein Beacon fungiert dabei als Leuchtturm, der kontinuierlich ein 360° Signal aussendet. Die Empfängerstationen wiederum errechnen durch die zurückgelegte Distanz des Signals mit Hilfe von Triangulation eine exakte Position. Sie fragen sich nun, wozu das nützlich sein könnte? Nun ja, beispielsweise zur Navigation in Shopping Malls, Flughäfen oder Museen. Oder aber auch in Spitälern werden Bluetooth Smart Beacons eingesetzt, um zu garantieren, dass Neugeborene bei Ihrer Mutter bleiben und nicht versehentlich vertauscht werden.

WiFi, Low-Power WiFi und Passive WiFi

Eine weitere sehr bekannte Technologiemarke ist WiFi. Doch was hat WiFi mit IoT zu tun? Eine berechtigte Frage, gehört WLAN doch mit großem Abstand zu den weltweit am weitesten verbreiteten Funkstandards für lokale Netzwerke. Meine Antwort darauf ist differenziert:

  • Zum Einen ist WiFi in IoT Anwendungen aufgrund hoher Übertragungsraten und Sicherheit die bevorzugte Backbone-Technologie.
  • Da sich bei IoT aber wie der Name schon sagt, alles um die Konnektivität von Dingen („Things“) dreht und sich WiFi durch einen hohen Energieverbrauch nur bedingt für kleine, batteriebetriebene Produkte eignet, wurde eine stromsparende Variante, ein so genanntes Low-Power WiFi, als auch ein passive WiFi entwickelt. Einfach gesagt, macht sich LP WiFi die Tatsache zunutze, dass Antennen Funkwellen in Energie umwandeln und einen Teil der Wellen auch reflektieren können (Backscatter Communication). Leider befindet sich diese aussichtsreiche Kommunikationstechnologie noch im Forschungsstadium. Wann passives WiFi marktreif sein wird, ist nach wie vor noch offen.

Ein sehr prominentes IoT Anwendungsbeispiel für WiFi sind so genannte Datalogger beispielsweise um die Einhaltung der Kühlkette sicherzustellen. Dabei wird die Umgebungstemperatur einer Lieferung von einem Temperatursensor in regelmäßigen Abständen gemessen, und der Wert per WiFi an einen entsprechenden Empfänger übertragen. Das dadurch entstehende Protokoll zeigt eine lückenlose Temperatur-Historie und garantiert, dass der vorgegebene Temperaturbereich weder unter- noch überschritten wurde.

Ausblick

Wie Sie im Laufe der letzten 3 Artikel feststellen konnten, lösen RFID, NFC, Bluetooth und WiFi unterschiedliche Probleme und in sehr vielen Applikationen entsteht der wahre Kundennutzen erst durch eine Ko-Existenz mehrerer Kommunikationstechnologien.

Wie aus IoT Technologien Lösungen werden und was Software bzw. Systemintegration damit zu tun hat erfahren Sie im letzten Teil dieser Reihe.