Alle Beiträge von Martin Klapdor

Gesunde IT-Systeme: Wie sich Fehler erkennen lassen

Mehr als jedes zweite Industrieunternehmen (52 Prozent) in Deutschland hat laut Unternehmensberatung Staufen in diesem Jahr Industrie-4.0-Initiativen in Einzelprojekten oder unternehmensübergreifend umgesetzt. Die Mehrheit verfolgte das Ziel, digitale Produktions-Prozesse und -Techniken (Smart Factory) einzuführen oder zu verbessern. In den kommenden drei bis fünf Jahren wollen Unternehmen in Deutschland vor allem weiter in Multi-Cloud-Umgebungen (37 Prozent) und IoT-Technologien (36 Prozent) im Rahmen ihrer IoT-Projekte investieren, so  Dell.

Multidisziplinärer Ansatz zur Fehler-Erkennung und -Behebung

Dreh- und Angelpunkt von Smart-Factory-Konzepten sind naturgemäß vor allem digitale, durchgängige Prozesse und intelligente Technologien. Hierbei beteiligt sind Anwendungen, Maschinen, Netzwerke, Infrastrukturen, Rechenzentrums-Dienste und schließlich der Endnutzer. In einer vernetzten Industrieumgebung müssen all diese Komponenten fehlerfrei und meist sogar unter Berücksichtigung sehr geringer Latenzzeiten zusammenarbeiten können. Dennoch ist gerade bei vernetzten Komponenten in einer hochverteilten Umgebung die Störanfälligkeit hoch. Wie können (Industrie-) Unternehmen also die Gesundheit ihrer digitalen Dienste und Systeme sicherstellen?

 

Empfehlen lässt sich ein multidisziplinärer Ansatz, der alle beteiligten Komponenten überwacht und Fehler schnell identifizierbar macht. Hierbei sollten Industrieunternehmen im ersten Schritt die Funktionen ihrer jeweiligen digitalen Dienste zerlegen. Ein Dienst lässt sich in diesem Zusammenhang als eine technische Einheit verstehen. Dieser bündelt zusammenhängende Funktionen und stellt diese zum Beispiel einem Nutzer per Schnittstelle zur Verfügung.

Digitale Dienste identifizieren

Der digitale Dienst sollte nun also in seine einzelnen Funktionen, wie den allgemeinen Dienstzustand, beteiligte Anwendungen und Diensteabhängigkeiten (Mapping) zerlegt werden. Außerdem sind die Parameter Reaktionszeiten des Endbenutzers, Sessions, forensische Diagnose, System- und Konnektivitäts-Zustand sowie die IT-Security zu berücksichtigen.

Auf Basis all dieser Kriterien kann der allgemeine Gesundheitszustand des jeweiligen Dienstes gemessen, quantifiziert und ausgewertet werden. Fehlerpotentiale lassen sich so identifizieren und Probleme in der Regel schneller beheben.

1. Allgemeinen Gesundheitszustand eines digitalen Dienstes definieren

In diesem Schritt empfiehlt es sich, eine sogenannte Baseline zu etablieren. Diese hilft zu verstehen, wie sich ein Dienst im Laufe der Zeit verändert oder wie er unter außergewöhnlichen Belastungen reagiert, etwa bei Produktionsspitzen. Dabei kann auch untersucht werden, ob sich der Dienst flexibel erweitert, wenn beispielsweise Cloud-basierte Komponenten dazu geschaltet werden. Sobald eine Baseline festgelegt wurde, kann diese mögliche Anomalien, die zu einer Verschlechterung des Services führen, aufzeigen. Die Baseline soll also den Normalzustand eines Dienstes definieren und als Ausgangszustand dienen, um einen Bezugspunkt für spätere Vergleichsanalysen zu haben.

2. Anwendungsfehler erkennen

Anwendungen werden in Testumgebungen unter meist optimalen Bedingungen erstellt und geprüft. In einer Produktionsumgebung muss die eingesetzte Anwendung jedoch mit anderen Komponenten fehlerlos interagieren – und wird somit zu einem System aus mehreren Variablen. Unternehmen sollten daher prüfen, ob sie nach Anwendungsimplementierung noch die Möglichkeit haben, Anwendungsfehler zu detektieren, die für die Anwendung selbst, den Anwendungsentwickler oder den Endbenutzer möglicherweise nicht erkennbar sind. Fehler können sich auch erst später bemerkbar machen, etwa in Form erhöhter Response-Zeiten.

Oft können sich Fehler auch in der Kommunikation zwischen den Komponenten eines Dienstes verbergen. Aus Redundanzaspekten haben Dienste mehrere Komponenten, die wiederum vielfältige Abhängigkeiten aufweisen, um den Dienst auszuführen, Benutzer zu authentifizieren und Informationen zwischen den Komponenten des Dienstes zu verteilen.

3. Dienstabhängigkeiten zuordnen: Service Dependency Mapping

Ein digitaler Dienst kann sich im Laufe der Zeit verändern, wenn etwa neue Komponenten zugeschaltet oder zusätzliche Aufgaben von ihm übernommen werden. Damit der Überblick nicht verloren geht, sollten Unternehmen definieren: Was macht einen Dienst aus, wie kommuniziert dieser und wovon ist er abhängig? Diese Übersicht (Logic Map) ist besonders hilfreich, wenn etwa eine System- oder Plattformmigration ansteht.

4. Antwortverhalten des Systems bezogen auf Endnutzer messen

Digitale Dienste werden neben Maschinen auch von Endanwendern, etwa Mitarbeitern, genutzt. Hierbei ist es ein wesentlicher Faktor, das Antwortzeitverhalten von Anwendungen (Response Time) zu messen, um die User Experience hoch und Produktivitätseinbußen gering zu halten. Sind diese Reaktionszeiten zu lang, sollten entweder eine Kapazitätserweiterung oder Fehlerbehebungsmaßnahmen eingeleitet werden. Haben Unternehmen keinen Überblick über die angesprochenen Diensteabhängigkeiten, gestaltet sich die Fehlersuche nach langen Reaktionszeiten jedoch oft zeit- und kostenintensiv.

5. Sessions: bestehende Verbindungen prüfen

Bei einem Dienst mit mehreren Komponenten besteht jede Interaktion zwischen den Komponenten aus mehreren Sessions. Jede Sitzung sollte überwacht und per Session Health Score bewertet werden. So ist es einfacher, fehlgeschlagene Sitzungen zu detektieren. Diese führen oft zu höheren Response-Zeiten und können auf mögliche Ressourcen-Engpässe hinweisen.

6. Forensik-Tools frühzeitig etablieren

Gibt es Probleme mit Ineffizienzen im System, müssen Unternehmen forensische Maßnahmen ergreifen. Damit ist es möglich, tiefergehende Ursachenforschung zu betreiben, um etwa Verbindungsprobleme innerhalb und zwischen den Diensten aufzudecken. Liegen jedoch zum Zeitpunkt der Fehlermeldung zu wenig forensische Daten vor, muss oft abgewartet werden, bis das Problem erneut auftritt. Ebenso verkürzen erst zu diesem Zeitpunkt eilig eingerichtete Forensik-Systeme die Zeit für die Fehlerbehebung nicht.

7. Systemmonitoring einbinden

Oft haben Unternehmen ein Systemmonitoring eingerichtet. Doch wie knüpft dieses an die oben genannten Themen an. Unternehmen müssen sich die Frage stellen, ob sie alle erwähnten Parameter mit einem gemeinsamen Datensatz verknüpfen können – oder ob alle Datensätze isoliert gesammelt werden, ohne dass sie miteinander in Beziehung gesetzt werden können.

8. IT-Sicherheit

Mit zunehmender Bedrohungslage ist auch der Aspekt IT-Sicherheit unbedingt zu berücksichtigen. So ist laut IT-Sicherheitsbericht 2018, den das BSI im Oktober veröffentlich hat, die Gefährdungslage im Bereich Cybersecurity in den vergangenen Monaten abermals vielschichtiger geworden. Gerade Distributed-Denial-of-Service (DDoS) -Attacken sind gefährlich. Bei einer DDoS-Attacke werden Server, Web-Dienste, IT-Komponenten oder die IT-Infrastruktur solange mit Datenverkehr überlastet, bis diese nicht mehr verfügbar sind. Laut Sicherheitsbericht von NETSCOUT Arbor gab es 2017 in der DACH-Region knapp 197.000 derartiger Cyber-Attacken. Organisationen und Unternehmen mussten also umgerechnet 22 DDoS-Angriffe pro Stunde abwehren.

Vor allem die Zahl von Multivektor-Angriffen wird künftig zunehmen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. Somit ist es also möglich, per DDoS-Attacke digitale Dienste zu schädigen oder lahmzulegen. Unternehmen sollten daher prüfen, wie sie ihre vernetzten Dienste mit geeigneten Security-Tools vor Ausfall und Datenabfluss schützen können.

Fazit

Gerade in der Smart Factory, aber auch anderen IIoT-Szenarien, in dem die hochgradige Vernetzung im Mittelpunkt steht, muss die eingesetzte Technologie reibungslos funktionieren. Geht es beispielsweise um vernetzte Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, kann eine fehlerhafte Dienstkomponente gravierende Konsequenzen nach sich ziehen. So kann der Informationsaustausch zwischen Maschinen und Produkten beeinträchtigt werden und nachgelagerte Prozesse oder gar Produktionsschritte komplett zum Erliegen kommen. Digitale Dienste müssen also vielfältige Aufgaben übernehmen, steuern und dabei höchsten Anforderungen Rechnung tragen. Ein geeigneter, multidisziplinärer Ansatz, um Fehler und Störquellen im Vorfeld zu identifizieren, ist für Unternehmen daher erfolgskritisch.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

So können Connected Cars funktionieren

Verbraucher erwarten schon lange mehr von ihren Autos, als nur von A nach B zu fahren. Sie wollen digitale Fahrassistenten, ein Navigationssystem und Verkehrsnachrichten in Echtzeit. Laut McKinsey will bereits jeder zehnte Autobesitzer nicht auf einen Internetzugang in ihrem Wagen verzichten. Angefangen bei Kartenmaterial für die Navigation über aktuelle Verkehrsnachrichten wie Staus, Audiostreaming via Spotify bis hin zu autonom fahrenden Autos, sogenannten Connected Cars – Automobilhersteller und Zulieferer müssen also künftig immer mehr vernetzte Services bereitstellen. Und sie profitieren von dieser Entwicklung: Der prognostizierte weltweite Umsatz mit Technologien im Bereich Connected Cars soll auf bis zu knapp 156 Milliarden US-Dollar im Jahr 2022 steigen.

Mehr Services und Automatisierung im Auto

Seit April müssen neue Automodelle außerdem einen weiteren Service bieten: Sie sind verpflichtet, über ein automatisches Notrufsystem zu verfügen, den sogenannten eCall-Button. Dieser soll für schnelle Hilfe im Falle eines Unfalls sorgen. Die Autos werden dazu mit einem Satelliten-Empfänger und einer SIM-Karte versehen. Stellt das Fahrzeug einen schweren Unfall fest, etwa über die Airbag-Sensoren, löst es autonom einen Alarm aus. Dieser wird an die nächstgelegene Notrufzentrale weitergeleitet, die europaweit unter der einheitlichen Nummer 112 erreichbar ist. Das Auto übermittelt zudem einen Datensatz an die Leitstelle, der die genaue Position, die Fahrtrichtung, insbesondere auf Autobahnen wichtig, den Fahrzeugtyp, die Schwere des Unfalls sowie die Anzahl der Insassen enthält. Gleichzeitig wird eine Sprachverbindung aufgebaut. Die EU erhofft sich durch die flächendeckende Einführung eine Menge: So soll die Reaktionszeit nach Unfällen in ländlichen Gebieten um bis zu 50, in Städten um bis zu 40 Prozent verkürzt werden.

Entwicklungen wie der eCall-Button zeigen deutlich: zunehmend mehr Prozesse im Auto werden maschinengesteuert und automatisiert. Im Rahmen von Connected-Cars-Konzepten geht dieser Schritt noch weiter. Hier werden Fahrzeuge und Dienste, wie Entertainment oder autonom sprachgesteuerte Assistenzsysteme, über das „Internet der Dinge“ (IoT) verbunden. Doch dies stellt einige Herausforderung an die Netze dar.

Zu lange Latenzzeiten und schlechter Internet-Empfang

Physikalische Netze kommen bereits heute an ihre Grenzen. Sie sind durch die drastisch zunehmende Anzahl smarter Geräte und Autos – künftig muss jede Funkzelle 50.000 Endgeräte versorgen – überfordert. Der Grund dafür: Das Datenaufkommen steigt gewaltig. Daten zur Position und Zustand des Autos, Verkehrsdaten oder Informationen zur Wartung – all diese Daten müssen von den Netzen in Echtzeit verarbeitet werden. Das ist jedoch besonders in ländlichen Regionen ein Problem. Selbst mit einer guten LTE-Verbindung sind die heute erreichten Latenzzeiten noch viel zu lang, um IoT-Anwendungen wie die von Connected Cars zu unterstützen.

Und auch Fahrten ins Ausland können problematisch sein. Denn häufig geben Netzanbieter keine Garantie, dass im Ausland die gleiche Bandbreite zur Verfügung steht wie hierzulande. Von Herstellern angebotene Services wie Audiostreaming könnten also außer Landes möglicherweise nicht verfügbar sein.

Die Lösung für dieses Problem, nämlich 5G, ist zumindest in Europa noch nicht in Sicht. Zwar testet die Telekom bereits eine Übertragung von 5G am Hamburger Hafen und in Berlin. Doch eine Verbreitung wird hierzulande mindestens noch bis 2020 auf sich warten lassen. Erst Anfang 2019 soll die Versteigerung der Frequenzen für 5G durch Bundesregierung und Bundesnetzagentur erfolgen. Unternehmen müssen sich also überlegen, wie sie IoT-Services heute schon zuverlässig anbieten können.

 Edge Computing und LTE Cat M1 als vorläufige Alternativen zu 5G

Eine Möglichkeit, Latenzzeiten zu verkürzen, ist Edge Computing. Bei Edge Computing werden Daten dezentralisiert und am Rand des Netzwerks verarbeitet. Sie werden also nicht erst zu einem Rechenzentrum oder der Cloud und anschließend wieder zurück transferiert, sondern genau dort analysiert und verwertet, wo sie auch produziert werden. Auf diese Weise können Latenzzeiten stark verkürzt werden.

Aber auch eine Variante des LTE, das sogenannte LTE Cat M1, könnte die Kommunikation von Fahrzeugen verbessern. LTE Cat M1 ist eine LPWA‑Luftschnittstelle (Low‑Power Wide‑Area), mit der s ich IoT- und Machine-to-Machine‑Geräte verbinden lassen, bei denen mittlere Datenraten erreicht werden sollen (375 kbit/s Upload- und Download‑Geschwindigkeiten im Halbduplexbetrieb). Die Technologie ermöglicht außerdem längere Batterie‑Lebenszyklen und größere Reichweite verglichen mit Standard‑Mobilfunktechnologien wie 2G oder 3G. Vor allem im ländlichen Bereich wäre dies sehr hilfreich. Bisher wird die Technologie bei Connected Cars allerdings noch nicht angewandt, sondern eher bei Gadgets wie Trackern und weiteren IoT-Anwendungen. Es mangelt also noch an der entsprechenden Kommerzialisierung.

Datenaustausch überwachen und priorisieren

Damit digitale Fahrzeug-Services über Edge Computing und LTE Cat M1 allerdings richtig umgesetzt werden können, muss die Konnektivität des Netzwerks stets flächendeckend vorhanden sein – und das zuverlässig. Bei Edge Computing ist sicherzustellen, dass der Datenverkehr kontinuierlich on the egde verarbeitet, genormt und in Beziehung gesetzt werden kann. Dazu müssen Unternehmen genau wissen, wo welche Daten in ihrem Netz(werk) ausgetauscht werden. Egal, wie komplex die Infrastruktur ist – eine Ende-zu-Ende-Sicht in alle Prozesse ist zwingend erforderlich.

Diese Einsicht ist ebenfalls wichtig, um Daten priorisieren zu können. Wird beispielsweise über den eCall ein Notruf abgesetzt, muss sichergestellt werden, dass dieser auch beim Empfänger, also der Leitstelle ankommt, und im Zweifel im Netz Vorrang vor anderem Traffic erhält. Häufig werden Emergency-Technologien deswegen separat überwacht.

Servicequalität und Sicherheit sind erfolgskritische Faktoren

Und Sicherheit ist gerade beim autonomen Fahren ein kritischerer Faktor. Sind dann bestimmte Daten oder Dienste nicht verfügbar, kann es nicht nur zur Servicebeeinträchtigung kommen, sondern gar schlimmstenfalls zu Unfällen. Doch bis vernetzte Autos im Massenmarkt Fuß gefasst haben, wird es noch ein paar Jahre dauern. Das liegt unter anderem an den noch fehlenden technischen Standards. Doch Autohersteller können das Warten auf die ersehnte 5G-Technologie verkürzen. Etwa, indem sie heute schon damit anfangen, die Infrastruktur im Auto und ihre Netze auf den 5G-Einsatz vorzubereiten.

 

 

DNS-Verfügbarkeit, Service Assurances und Reverse Transactions: Pflicht beim Blockchain-Einsatz

Trotz der noch zu meisternden technologischen und rechtlichen Hürden erachten 70 Prozent der Unternehmen in Deutschland laut Hochschule Bonn-Rhein-Sieg die Blockchain als wichtig für ihre Branche.

Das Analystenhaus IDC sieht für Unternehmen vor allem in der Durchführung von mehreren Transaktionen in kürzerer Zeit (43 Prozent) als großen Vorteil der Blockchain, gefolgt von der Absicherung von IoT-Daten (41 Prozent) sowie der besseren Nachweisbarkeit der Kontrollkette (36 Prozent). 

Generell lässt sich die Blockchain-Technologie in allen Anwendungsszenarien einsetzen, die auf Transaktionen basieren, seien es Geldströme oder auch die datenbasierte Kommunikation zwischen Mensch und Maschine sowie von Maschine zu Maschine (M2M). Über die Blockchain können also etwa Roboter, IoT-Sensoren und vernetzte Fahrzeuge autonom miteinander kommunizieren – und zwar ohne, dass eine zentrale Autorität zwischengeschaltet ist. Außerdem kann die Funktionstüchtigkeit von IoT-Geräten in der Blockchain sicher nachgehalten werden. Deshalb kann die Technologie gerade bei der Vernetzung smarter Fabriken und Fertigungsstraßen sowie für das Industrial Internet of Things (IIoT) künftig eine entscheidende Rolle spielen. So hat T-Systems etwa in einem Pilotprojekt gezeigt, dass über die Blockchain ganze Fertigungsanlagen gesteuert werden können. Über eine Track-and-Trace-Lösung, die in der Blockchain liegt, lassen sich sämtliche Komponenten, Maschinen und Roboter steuern und somit bisherige Steuerungssoftware ersetzen.

Blockchain kann in vielfältigen Anwendungsszenarien genutzt werden

Aber auch im Energiesektor und beim Einsatz von Smart-Meter-Geräten im IoT bietet sich die Kette an. Zum Beispiel ermöglicht das regionale Energieversorgungsunternehmen Allgäuer Überlandwerke den direkten Stromhandel zwischen Privatpersonen (Peer-to-Peer) auf Basis der Blockchain. Im Automobilsektor hat Porsche neue Anwendungsszenarien getestet, etwa die Fahrzeug-Verriegelung und -Entriegelung. Das Fahrzeug ist dabei Teil der Blockchain und wird über einen Server verschlüsselt angesteuert. Alle Aktivitäten werden dabei unveränderbar in der Blockchain dokumentiert und sind per App einsehbar. Volkswagen will künftig mit dem IoT-basierten Blockchain-Projekt IOTA zusammenarbeiten, um so sichere und zertifizierte Softwareupdates auf autonome Fahrzeuge aufspielen zu können.

Funktionieren des DNS-Dienstes ist kritisch für die Blockchain

Die Blockchain bietet also die Möglichkeit, sämtliche Produktionsdaten, Fahrzeugdaten, Messwerte oder Eigenschaften unabänderlich in einem Register nachzuhalten und darauf basierend Aktionen auszulösen. IDC prognostiziert, dass im nächsten Jahr jede fünfte IoT-Implementierung grundlegende Blockchain-Dienste nutzen wird. Doch gerade die Vernetzung von Maschinen, Sensoren und Komponenten im IIoT bringt technische Herausforderungen mit sich.

Denn die steigende Anzahl an IIoT-Geräten in Kombination mit der Blockchain bedeuten ebenfalls einen Anstieg an DNS-Anfragen und DNS-abhängigen Diensten. DNS dient zur Beantwortung von Anfragen zur Namensauflösung in IP-basierten Netzwerken. Da die Blockchain im Internet verteilt liegt, ist es essenziell, dass der DNS-Dienst entsprechend erreichbar ist. Ist er es nicht, kann die Blockchain den nächsten Teil der Kette nicht abrufen und bleibt im wahrsten Sinne des Wortes stehen. Die Funktionstüchtigkeit von DNS hat also einen großen Einfluss auf die Servicebereitstellung und Performance der Blockchain. Im schlimmsten Fall kommt es zu nicht vollständig ausgeführten Transaktionen oder bei vernetzten Geräten zu einem Ausfall. Überträgt man diese Überlegung auf die anfangs skizzierten Anwendungsszenarien können DNS-Probleme gar Ausfälle kritischen Ausmaßes hervorrufen.

Service Assurance erlaubt Einblick in mögliche Störquellen

Zudem bedeutet die Nutzung der Blockchain in IoT-Szenarien wie jede digitale Transformationstechnologie auch, eine höhere Komplexität für die IT-Infrastruktur. Dazu gehören etwa Server, die an Blockchain-Transaktionen beteiligt sind, benötigte Middleware für die Verschlüsselung und Authentifizierung sowie virtuelle Maschinen für verteilte Datenbanken und Anwendungen. Und weil die Blockchain im Grunde eine hochverteilte Datenbank ist, ist die Servicebereitstellung schwieriger und kann durch Aspekte wie Lastenverteilung, Latenz und Fehler deutlich beeinträchtigt werden. Eine ganzheitliche End-to-End-Sichtbarkeit ist daher erforderlich. Insbesondere steigt die Gefahr, dass Anfragen serverseitig nicht mehr verarbeitet werden können, weil bei zukünftig Abermillionen vernetzten Geräten die M2M-Kommunikation im Sekundentakt erfolgt. Mit entsprechenden Service-Assurance-Plattformen kann jedoch eine durchgängige Sichtbarkeit zumindest in dem „eigenen“ Teil der Blockchain, inklusive Schnittstellen nach außen, erreicht und mögliche Ausfälle vermieden werden. 

Technische und rechtliche Herausforderungen

Ein weiteres großes Manko der Technologie: Sind dennoch Fehler passiert, lassen sie sich nur schwer lokalisieren und beheben. Auch das ist auf die dezentrale Organisation des Systems zurückzuführen. Da Daten auf unzähligen Servern verteilt liegen, wissen Unternehmen oft nicht, wo sich der Ursprung eines Problems befindet – oder wo sie überhaupt suchen sollen. So ist es für Unternehmen schwieriger, Stabilität und Servicequalität der Systeme sicherzustellen. Mit einem Monitoring sind Unternehmen jedoch eher in der Lage nachzuweisen, dass der Fehler nicht bei ihnen lag.

Neben technischen Herausforderungen ergeben sich ebenso rechtliche Fragestellungen. Denn was passiert, wenn Aktionen in der Blockchain rechtlich gar nicht hätten ausgeführt werden dürfen und damit auch alle nachfolgenden Transaktionen? Etwa, weil eine arglistige Täuschung eines am Blockchain-basierten Szenarios beteiligten Vertragspartners vorliegt. Aber genau in diesem Punkt kommt es zum Spannungsverhältnis. Denn die Blockchain zeichnet sich technologisch gerade dadurch aus, dass die einzelnen Elemente unveränderlich sind und nicht gelöscht werden können.

Dr. Alexander Duisberg, Partner bei der Kanzlei Bird & Bird in München, sieht eine mögliche Lösung in der Rückabwicklung einer Transaktion: „Der betroffene Vertragspartner könnte möglicherweise eine ‘reverse transaction‘ verlangen, also dass ein neuer Block in der Kette mit umgekehrten Vorzeichen erstellt wird. Eine solche Rückabwicklungsmaßnahme steht aber nicht ohne Weiteres der Nichtigkeit (also Unwirksamkeit von Anfang an) gleich, da der Smart Contract ja zunächst ausgeführt wurde und dies in der Blockchain „auf ewig“ dokumentiert ist. Wünscht ein Vertragspartner eine solche Rückabwicklung, müsste er sich an den Initiator des Smart Contracts halten, dies ist in der Regel der andere Vertragspartner.

Das klappt natürlich nur, wenn man sich kennt. In der offenen Blockchain ist das typischerweise nicht der Fall. Bei geschlossenen Nutzergruppen bzw. der „Permissioned Blockchain“, an die man in Industrie 4.0 Szenarien vor allem denken wird, kann dies aber immerhin helfen. Den jeweiligen Smart Contracts liegen Rahmenvereinbarungen oder Teilnahmebedingungen zugrunde, die der oder die Betreiber dieser Blockchain auf herkömmlichem Wege vereinbart haben. In dem Zusammenhang ist noch weiter zu diskutieren, ob man in der Blockchain selber einen Notifizierungs- und Streiterledigungsmechanismus anlegt, der unter bestimmten Voraussetzungen die „reverse transaction“ notwendigerweise auslöst. Nicht gelöst sind damit aber die Datenschutzprobleme. Wenn personenbezogene Daten unmittelbar in der Blockchain abgelegt sind, scheitert normalerweise die Ausübung der Betroffenenrechte (beispielsweise das Recht auf Löschung oder das Recht auf Berichtigung), da die Veränderung der in früheren Blöcken abgelegten Daten grundsätzlich nicht möglich ist. Hier muss man von Beginn an sorgsam darauf achten, dass in der Blockchain keine personenbezogenen Daten abgelegt werden. Möglicherweise bietet die Ablage von reinen Hashwerten in der Blockchain einen Lösungsansatz, wenn die Hashwerte auf externe Datenbanken hinweisen, in denen die konkreten personenbezogenen Daten abgelegt sind.“

Fazit

Trotz der noch zu meisternden technologischen und rechtlichen Hürden erachten 70 Prozent der Unternehmen in Deutschland laut Hochschule Bonn-Rhein-Sieg die Blockchain als wichtig für ihre Branche. Laut einer SAP-Umfrage glauben 63 Prozent der 200 weltweit Befragten der SAP-Blockchain-Community, dass die Blockchain-Technologie vor allem in der Logistikkette und im Internet der Dinge beste Zukunftsaussichten hat. Unternehmen sollten jedoch bedenken, dass sich die Blockchain schlechter überwachen lässt als andere Technologien. Zum einen, weil die dezentrale Datenbank auf mehreren Servern verteilt liegt und damit nicht ausschließlich in den Zuständigkeitsbereich einer beteiligten Partei fällt. Dennoch sollten Unternehmen, zumindest ihren „eigenen“ Teil der Blockchain so gut es geht überwachen, um möglichen Störquellen zuvorzukommen und im Streitfall zumindest argumentieren zu können, dass „ihr“ Teil der Kette technisch fehlerlos funktionierte.

EU-DSGVO erfordert transparente Netzwerke

Gestern, am 25. Mai, ist die Schonfrist für Unternehmen abgelaufen. Jetzt müssen Sie die DSGVO umgesetzt haben. Doch vier von fünf Unternehmen in Deutschland haben nach eigener Aussage die DSGVO-Deadline verpasst. Und selbst bis Ende des Jahres werden es voraussichtlich nur drei von vier Unternehmen schaffen, regelkonform zu werden, so Capgemini. Für Industrie-Unternehmen ist der Schutz von Daten mit Personenbezug eine besondere Herausforderung. Gerade im Rahmen des IIoTs (Industrial Internet of Things) und damit bei der Maschine-zu-Maschine-Kommunikation (M2M) fallen neben technischen, unpersönlichen Informationen auch personenbezogene Daten an. Industrie-Unternehmen müssen also unterscheiden, welche Daten unter die DSGVO fallen und welche nicht. So hat beispielsweise auch eine IP-Adresse bereits einen Personenbezug. Aber auch Maschinendaten enthalten oft Kennnummern, Standortdaten oder andere eindeutige Kennzeichen, die sich auf Personen wie den Maschinenführer beziehen lassen.

 Datenfluss im Netzwerk überwachen

Dementsprechend sollten Industrie-Unternehmen ihre Arbeitsabläufe nochmals genau auf die DSGVO-Konformität untersuchen. Ein wichtiger Aspekt sollte hierbei unbedingt die laufende Überwachung der Datenverarbeitungsprozesse sein. Denn wer zwischen „DGSVO-relevanten“ und nicht personenbezogenen Daten unterscheiden will, muss nachvollziehen können, welche Daten wann und wo ausgetauscht und verarbeitet werden. Dabei reicht es allerdings nicht aus, nur unmittelbar beteiligte Prozesse zu überwachen. Da die IT-Landschaften von Industrie-Unternehmen im Zeitalter des IIoT immer komplexer und Maschinen zunehmend voneinander abhängig sind, sollte das gesamte Netzwerk analysiert werden. Mit einem Netzwerk-Monitoring können sich Unternehmen einen vollständigen Überblick über alle Netzwerkaktivitäten in Echtzeit verschaffen. Sie können nachvollziehen, welche Daten zwischen den Maschinen ausgetauscht und wo sie gespeichert werden – etwa im Rechenzentrum oder in der Cloud. Diese Einsicht ist wichtig, um beispielsweise der Auskunftspflicht (Artikel 15) oder dem Recht auf Vergessenwerden (Artikel 17) der DSGVO nachkommen zu können.

Artikel 32 DSGVO verlangt ständige Verfügbarkeit von Daten

Aber auch der Artikel 32 der DSGVO ist ein wichtiger Paragraf, der die Überwachung des gesamten Netzwerks erfordert. Er schreibt unter anderem vor, dass personenbezogene Daten…

  • anonymisiert und verschlüsselt werden müssen
  • ihre Integrität nicht verlieren, vertraulich behandelt werden und Unternehmen fähig sind, die Verfügbarkeit der Daten und ihrer Datenverarbeitungssysteme sicherzustellen
  • im Falle eines Datenverlusts oder technischen Ausfalls schnell wiederhergestellt werden können
  • einem angemessenen Schutzniveau bei der Datenverarbeitung unterliegen und die Schutzmaßnahmen regelmäßig überprüft, bewertet sowie evaluiert werden.

Diese Anforderungen können Unternehmen nur erfüllen, wenn sie völlige Transparenz über alle Datenflüsse haben. Vor allem bei verschlüsselten Daten muss ganz genau hingeschaut werden. Es darf nicht passieren, dass personenbezogene Daten widerrechtlich an falsche Empfänger verschickt werden oder im Netzwerk „verloren gehen.“ Ebenso müssen Unternehmen potenzielle Netzwerkausfälle und drohenden Datenverlust frühzeitig erkennen können, um entsprechend schnell darauf zu reagieren.

Cyberattacken frühzeitig erkennen

Darüber hinaus stellen besonders Cyberattacken eine große Gefahr für den Datenschutz dar. Gerade sogenannte Distributed-Denial-of-Service (DDoS) -Angriffe bergen enorme Risiken für Unternehmen, die auf Netzwerke und Webseiten als integrale Bestandteile ihrer Geschäftstätigkeit angewiesen sind. Und dies trifft heute im Prinzip auf fast alle Unternehmen und deren Dienste zu, ob Online-Banking, Internet-Handel, Reisebuchungen, Patientenportale, Telekommunikation oder B2B-Lösungen. Server oder andere Komponenten werden im Falle eines Angriffs solange mit Anfragen, also mit Datenverkehr, überlastet, bis diese nicht mehr verfügbar sind. Wird das Netzwerk lahmgelegt, gestaltet sich auch der Zugriff auf sowie der Schutz von Daten schwierig. 2017 waren Unternehmen in der DACH-Region mit 22 DDoS-Angriffen pro Stunde konfrontiert. Wer also seinen Geschäftsbetrieb und auch die Sicherheitsanforderungen entsprechend Artikel 32 der DSGVO nicht gefährden will, muss sich auf solche Attacken vorbereiten. Ein netzwerkübergreifendes Monitoring kann Auffälligkeiten und Anomalien aufdecken bevor diese zu einem Netzwerkausfall führen.

Egal, ob Unternehmen die DSGVO bereits umgesetzt haben oder nicht, es bleibt die Herausforderung, bereits initiierte Schutzmaßnahmen auch kontinuierlich zu überprüfen. aus diesem Grund ist es wichtig, sich einen ständigen Überblick über alle Datenflüsse zu verschaffen. Denn nur dann sind Unternehmen in der Lage, Daten auch künftig DSGVO-konform zu verarbeiten.

Digitale Transformation: Was von einem CDxO erwartet wird

Zu viele Ansprechpartner verwässern digitale Strategie

Die digitale Transformation führt zu organisatorischen und betrieblichen Veränderungen. In vielen tradierten Unternehmen wird der digitale Wandel daher oft als Störfaktor gesehen. Dies wird zusätzlich dadurch verstärkt, dass jedes Mitglied im „C-Level“ eine eigene Sicht auf die Herangehensweise der digitalen Transformation hat – je nach erforderlicher Herangehensweise seiner jeweiligen Position. Außerdem können Aufgaben und Verantwortlichkeiten nicht klar verteilt werden, wenn die digitale Transformation zwar C-Level-Aufgabe ist, aber ohne konkreten Ansprechpartner realisiert werden soll. Es bedarf also einer zentralen Rolle, die in der Lage sein muss, eine erweiterte Perspektive einzunehmen, um das Ziel der digitalen Transformation zu erreichen.

Der CDxO befindet sich oft in Konfliktpotenzial mit anderen C-Level-Positionen

An dieser Stelle kommt der Chief Digital Transformation Officer, kurz CDxO, zum Einsatz. Er übernimmt vielfältige Aufgaben angefangen von Markt-, Kunden- und Produkt- sowie Prozess-Analysen, Entwicklung der Digitalstrategie und neuer Geschäftsmodelle, der richtigen IT-Auswahl bis hin zur Umsetzung. Vor allem aber muss er in der Lage sein, eine digitale Vision klar und erfolgreich zu kommunizieren und im Unternehmen durchzusetzen. Weil diese Vision sich aller Voraussicht nach drastisch von bisherigen Vorgehensweisen unterscheidet, findet sich der CDxO häufig in Konflikt mit den anderen „C-Level-Partnern“ wieder. Diese sind meist daran gewöhnt, kurzfristige Erfolge zu erzielen und sich auf die operative Effizienz ihrer Organisation zu konzentrieren.

Daher ist es für einen CDxO weitaus wichtiger, Kommunikationsstärke zu zeigen als über rein-technisches Know-How zu verfügen. Laut Untersuchung der Metajobsuchmaschine Joblift sollten CDxOs besonders Kompetenzen im Schnittstellenmanagement mitbringen (54 Prozent) und ausgeprägte Kommunikationsstärke sowie Überzeugungskraft besitzen (43 Prozent). Anstelle eines „Ja-Sagers“ benötigt es für diese Position also einen kritischen, unabhängigen Denker mit Durchsetzungsvermögen.

Der CDxO benötigt Ressourcen

Ist die „richtige“ Person für die Aufgabe gefunden, sollte wiederum der CEO dafür Sorge tragen, dass der CDxO die Unterstützung erhält, die er für seine Aufgaben benötigt. Nachdem Unternehmensziele und Anforderungen im Vorfeld klar formuliert wurden, sollten auch entsprechenden Ressourcen bereitgestellt werden. 44 Prozent der großen Unternehmen in Deutschland verfügen laut GfK bereits über eine interne Digital-Einheit, die den CDxO unterstützt. Laut Quadriga Hochschule werden dem CDxO im Schnitt aber nur maximal drei Mitarbeiter zur Seite gestellt – zu wenig, um ganze Konzerne oder große Mittelständler digital zu transformieren.

Der CDxO benötigt Einsicht in IT-Prozesse und Landschaft

Da der CDxO in seinem Arbeitsalltag laut Quadriga Hochschule auch Aufgaben wie das Verbinden technischer und organisatorischer Aspekte der Digitalisierung (42 Prozent) übernimmt, benötigt er Einblicke in die IT-Infrastruktur eines Unternehmens. Eine physische Sicht auf die gesamte IT ist daher von größter Bedeutung. Darüber hinaus geht die Umsetzung neuer digitaler Geschäftsmodelle mit meist notwendigen IT-Innovationen einher. Eine enge Zusammenarbeit zwischen CDxO und CIO ist daher unabdingbare Voraussetzung, um die digitale Transformation umzusetzen. Eine Studie von MobileVision geht sogar noch weiter und betrachtet das Verhältnis zwischen CDO und CIO als Indikator für den digitalen Reifegrad eines Unternehmens.

Ob nun als Digital-Stratege, Changemaker, Visionär oder Störenfried wahrgenommen. Der CDxO muss vielfältige Kompetenzen und Talente in seinem Berufsalltag vereinen. Doch damit er den digitalen Wandel im Unternehmen wirklich umsetzen kann, benötigt er ausreichend IT- und Mitarbeiter-Ressourcen, Mitsprache- und Gestaltungsfreiräume und einen direkten Draht zu allen C-Level-Positionen.

Warten auf 5G: Was bestehende Netze jetzt leisten müssen

Bis 2020 sollen unendlich viele IoT-Geräte miteinander vernetzt sein. Prognosen reichen von 20 bis 40 Milliarden verbundenen Devices. Damit kommen physikalische (Telekommunikations-) Netze, die heute in Betrieb sind, an ihre Grenzen. Sie sind durch die drastisch zunehmende Anzahl smarter Geräte – künftig muss jede Funkzelle 50.000 Endgeräte versorgen – überfordert.

IoT Dienste erfordern Reaktion in Echtzeit

IoT-basierte Dienste wie autonomes Fahren benötigen eine Echtzeit-Reaktion unter einer Millisekunde. Mit LTE sind jedoch lediglich Verzögerungs-Zeiten im zweistelligen Bereich realisierbar. Wie Telekommunikationsdienstleister und Netzbetreiber ihre bestehenden Netze fit machen können, wird daher auf dem diesjährigen Mobile World Congress in Barcelona erneut heiß diskutiert. Denn die Lösung für dieses Problem, nämlich der LTE-Nachfolger 5G, wird auf dem alljährlichen Branchentreffen der Telko-Industrie auch dieses Mal wieder im Mittelpunkt stehen. Vor allem neue Errungenschaften, Pilotprojekte und 5G-fähige Geräte werden auf dem MWC vorgestellt. So prüfen der Bayerische Rundfunk und Telefónica derzeit die TV-Übertragung über den neuen Netz-Standard. Der Hamburger Hafen erforscht seit 2017 zusammen mit der Telekom und Nokia die Anwendbarkeit von 5G. Außerdem will Telefónica in den kommenden drei Jahren testweise zwei spanische Städte mit 5G-Technologie ausrüsten. Neben der Telko-Branche, ist auch die Automobilindustrie mehr als bestrebt das Netz der fünften Generation voranzutreiben. Unter anderem testen Bosch, Vodafone und Huawei 5G für autonomes Fahren auf einem Teilabschnitt der A9 im Rahmen des Pilotprojekts „Digitales Testfeld Autobahn“.

Hohe Investitionskosten verzögern 5G

Doch trotz vielversprechender Pilotprojekte ist der neue Netz-Standard zumindest in Europa noch nicht in Sicht. Eine Verbreitung wird hierzulande bestenfalls noch bis 2020 auf sich warten lassen. Denn erst jetzt hat die Bundesnetzagentur den Startschuss für die Vergabe der 5G-Frequenzen in Deutschland gegeben. Darüber hinaus erfordert das Netz der fünften Generation nach Schätzungen der Telekom Investitionen von 500 Milliarden Euro in ganz Europa. Weil 5G keine bloße Erweiterung von LTE ist, müssen Antennen erneuert, Glasfasernetze verlegt und erweitert sowie zusätzliche Sendemasten aufgestellt, sprich eine komplett neue Infrastruktur errichtet werden.

LPWA vielversprechende Alternative bis 2025

Bis es soweit ist, bieten Low-Power Wide-Area-Technologien, wie Narrowband-IoT (NB-IoT), Sigfox und LoRA, vielversprechende Alternativen. Vorzüge wie der geringe Stromverbrauch der IoT-Endgeräte, geringe Modulkosten und Wartung, geringe Latenzzeiten, hohe Gebäudedurchdringung sowie die Übertragungsfähigkeit von Datenmengen über größere Distanzen hinweg, zeichnen das Niedrigenergieweitverkehrnetzwerk LPWA aus. Ohne wie im Falle von 5G eine komplett neue Infrastruktur aufbauen zu müssen, kann etwa NB-IoT in bereits bestehenden LTE-Netzen über Software-Upgrades realisiert werden. Über die Skalierfähigkeit von NB-IoT ist es möglich, Millionen von Endgeräten in nur einem Netz zu verbinden. Somit stellt NB-IoT die attraktivste Brückentechnologie bis zum Jahr 2020 dar.

Die Technologie lässt sich vor allem in den Bereichen Smart Cities, Smart Metering, Landwirtschaft und Logistik sinnvoll einsetzen. In fünf Jahren sollen bereits weltweit fünf Milliarden LPWA-Verbindungen bestehen, so die Marktforscher von Strategy Analytics. NB-IoT-Projekte gibt es vor allem im B2B-Bereich, etwa im Schienennetz, bei Smart Metering oder Smart Cities mit Pilotprojekten bei Parkleitsystemen.

NB-IoT ermöglicht neue Vergütungs- und Zahlungssysteme für Carrier

Über NB-IoT können Telekommunikationsprovider auch jetzt schon IoT-Transaktionen monetarisieren. Etwa indem sie Smart-City-Betreibern Informationen für Sicherheit, Beleuchtung und Parken zur Verfügung stellen. Auch über Service Level Agreements für kritische IoT-Geräte- und Services können Telkos neue Einnahmequellen erschließen. Doch gerade im B2B-Bereich sind SLAs entsprechend streng und die Anforderungen an die Service-Qualität hoch. Und wie bei nahezu allen Netztechnologien können auch bei NB-IoT Übertragungsfehler und Paketverluste auftreten. Eine Überwachung des Netzwerkes ist daher ratsam. Auch um eventuellen SLA-Vertragsstrafen zu entgehen, kann die genaue Überwachung des Netzwerks helfen und sichergestellt werden, dass alle Prozesse optimal laufen.

Qualität des LPWA-Netzes muss sichergestellt werden

Eine geeignete Monitoring-Software für das Netz zeigt, welche Komponenten miteinander kommunizieren und macht somit Abhängigkeiten transparent. Auch plötzliche Veränderungen können detektiert werden – sei es, dass sich das Antwortzeitverhalten eines Systems ändert, das Datenvolumen unerwartet steigt oder fällt oder Server nicht mehr innerhalb des Quality-of-Service-Levels antworten. Damit NB-IoT als Brückentechnologie auf dem Weg zu 5G funktioniert, müssen Telkos und Unternehmen wissen, wie sie die Verfügbarkeit, Zuverlässigkeit, Reaktionsfähigkeit und Sicherheit der Bereitstellung von IoT-Diensten in ihren Netzwerken gewährleisten können.

Was der digitale Flughafen der Zukunft leisten muss

Die Zahl der Fluggäste weltweit steigt immer weiter an, für diesen Trend sehen die Experten des statistischen Bundesamtes in den nächsten Jahren keinen Abriss. Dementsprechend müssen Flughäfen ein stetig höheres Abfertigungsvolumen erbringen können. Die Digitalisierung und insbesondere das Internet der Dinge (IoT) können genau dies leisten. Denn sie bieten das Potenzial für straffere Betriebsabläufe und somit für eine effizientere Abwicklung. Sowohl im operativen, als auch im Fluggastservice ergeben sich durch die Digitalisierung offensichtliche Vorteile. 

Mit dem Internet der Dinge wird ein Echtzeit-Überblick über den Zustand aller für den Flugbetrieb relevanten Anlagen realisierbar. So ist es möglich, Remote-Sensoren für die Überwachung der Landebahnen und ihrer Umgebung zu betreiben. Digitale Kontrolltürme steuern vollautomatisch die Auslastung der Landebahnen und kommunizieren zeitoptimiert mit den Cockpits der Flugzeuge. Überwachungskameras mit automatischer Gesichtserkennung ermöglichen eine höhere Sicherheit in den Abfertigungsbereichen und eine zielgerichtete Einbindung von Security-Personal.

Verkürzte Wartezeiten – Chance und Risiko für die Flughäfen

Auch für Reisende hat eine zunehmende Digitalisierung der Flughäfen ganz praktische Vorteile: so können durch intelligente Beschilderungen und Informationsanzeigen Besucherströme optimal gesteuert werden, um Wartezeiten zu minimieren. Das Angebot einer vollautomatisierten Gepäckaufgabe und Self-Check-In gestalten den Reiseantritt angenehmer und reibungsloser. Eine gesamte Vernetzung ermöglicht es damit Reisenden, Echtzeitinformationen zu ihrem Reiseverlauf zu erhalten sowie zu geschätzten Wartezeiten, öffnenden Gates und anlaufenden Gepäckbändern.

Eine so verkürzte Reisedauer ist für Fluggäste ein erstrebenswertes Ziel, hat aber auch eine Kehrseite für die Flughafenbetreiber: Das sogenannte Non-Aviation-Geschäft macht an einigen Airports bis zu 50 Prozent des Gesamtumsatzes aus. Wird also die Wartezeit von Passagieren an Flughäfen minimiert, haben diese weniger Möglichkeiten und Interesse, in Airport-Shops einzukaufen und Gastronomie-Angebote zu nutzen. Dieser „Kehrseite“ können Flughafenbetreiber jedoch mit personalisierten Angeboten begegnen. Mit Hilfe von standortbasierten Services und Smartphone-Beacons, die Leitsysteme aktivieren, können Passagiere je nach Position und Status ihres Fluges zielgerichtete Angebote auf ihr Smartphone erhalten. Flughäfen werden nach Meinung einiger Experten auf diese Weise sogar langfristig eine Umsatzsteigerung erwirtschaften können.

Sensordaten und vernetzte Systeme belasten IT-Infrastruktur

Die riesige Vielfalt an technologischen Neuerungen und damit anfallenden Datenpaketen lässt sich jedoch IT-seitig nur schwer managen. Denn um die millionenfachen Sensordaten unter anderem aus Security-Kameras, Landebahnen, Kontrolltürmen, Leitbahnen und Bewegungsmustern der Fluggäste zusammenzuführen, müssen Komponenten systemweit miteinander kommunizieren. Das bedeutet, dass bisher getrennte Teilsysteme miteinander harmonisiert und etwa Daten zu Flugzeitabweichungen oder Fluggastströmen in Echtzeit übertragen werden müssen, um die notwendige Organisation des Flughafens gewährleisten zu können. Mit dem Anwachsen derartig vernetzter Steuerungssysteme, die geschäftskritische Funktionen und Tausende oder gar Millionen von Endpunkten unterstützen, wird eine störungsfreie Performance aller Komponenten immer wichtiger.

All diese Aspekte stellen eine Belastungsprobe für die darunterliegende IT-Infrastruktur dar. Nicht nur müssen Server und Netzwerke eine nie dagewesene Datenmenge verarbeiten. Mit jeder Veränderung, sei es ein Update, eine neue Verbindung oder eine zu integrierende Drittanwendung, erhöht sich die Komplexität des Systems und Fehler werden wahrscheinlicher. Zugleich bedeutet die hohe Abhängigkeit einzelner Prozesse voneinander, dass ein Ausfall einer Komponente weitaus gravierendere Auswirkungen zur Folge hat. Dadurch steigt der Druck auf die IT, jederzeit die ungestörte Übertragung und Verarbeitung von Daten zu gewährleisten. Die Bedeutung von Service Assurance, also der Absicherung von Diensten durch genaue Überwachung der Servicebereitstellungsinfrastruktur, wird so zu einem erfolgskritischen Faktor.

Das Netzwerk stets im Blick behalten

Eine geeignete Monitoring-Software für die IT-Infrastruktur zeigt, welche Komponenten miteinander kommunizieren und macht somit Abhängigkeiten transparent. Auch plötzliche Veränderungen können detektiert werden – sei es, dass sich das Antwortzeitverhalten eines Systems ändert, das Datenvolumen unerwartet steigt, fällt oder Server nicht mehr innerhalb des Quality-of-Service-Levels antworten. Intelligente Monitoring-Systeme sind dabei in der Lage, Muster zu erkennen und den „Normalzustand“ zu erlernen. So helfen sie dabei, ungewöhnliches Verhalten, das zu Fehlfunktionen führen könnte, frühzeitig zu erkennen. Außerdem kann auf diese Weise die Fehlersuche eingegrenzt werden. Dies erlaubt wiederum eine schnellere Diagnose und verkürzt die mittlere Reparaturzeit (Mean Time To Repair/MTTR). Werden darüber hinaus zum Beispiel Zwischenvermittler beziehungsweise externe Dienstleister zwischen Netzbetreiber und Unternehmen eingebunden, können über ein Monitoring die jeweiligen Verantwortlichkeiten bei Störungen zugeordnet werden.

IT-Security auch im Netzwerk mitdenken

Die allumfassende Vernetzung birgt ein weiteres Risiko: Bei schlecht abgesicherten Installationen stellt jedes kompromittierte Gerät eine Hintertür in das gesamte Netzwerk des Flughafens dar. Deshalb müssen alle IoT-Geräte vernünftig gesichert und somit eine Abschottung möglich gemacht werden. Laut einer Umfrage des Analystenhauses IDC im Jahr 2016 hat bisher jedes vierte Unternehmen in Deutschland bereits Erfahrungen mit Angriffen auf ihre IoT-Infrastruktur gemacht. Müssen die vielzählig vernetzten Geräte dann gepatcht werden, stellt dies ebenfalls eine hohe Belastung für das Netzwerk dar.

Der Anstieg der Datenmengen im Netzwerk durch IoT-Geräte und vernetzte Systeme macht es darüber hinaus für Angreifer einfacher, unter dem Radar durchzufliegen. Damit sie unerwünschte Aktivitäten möglichst schnell entdecken und Angriffe abwehren, bevor sie größere Schäden anrichten, müssen die Verantwortlichen der Flughäfen Traffic-Muster laufend beobachten und analysieren. Historische Daten sowie aktuelle Anwendungsdaten bieten Vergleichswerte, um auffälliges Verhalten schnell zu identifizieren und Gegenmaßnahmen zu ergreifen.

Segmentierungen als Schlüssel für mehr Sicherheit

Eine weitere Möglichkeit der Absicherung bietet die Netzwerkvirtualisierung. Diese erlaubt es, isolierte virtuelle Umgebungen auf einer gemeinsamen Infrastruktur zu errichten. Dadurch wird das Internet der Dinge besser verwaltbar und sicherer. Es besteht die Möglichkeit einer Segmentierung des gesamten Netzwerks in „IoT-Container“. Dadurch können Endgeräte und Nutzer zusammengefasst, verwaltet und abgesichert werden. Im Falle eines Angriffs wird so verhindert, dass sich die Bedrohungen im Flughafen-Netzwerk horizontal ausbreiten können. Durch eine solche Segmentierung wird ebenso eine Durchsetzung von abteilungseigenen Quality-of-Service-Richtlinien realisierbar. Innerhalb eines Containers wird es möglich, den gesamten Verkehr und die Nutzer zu verwalten, Bandbreiten zu begrenzen oder nach Anomalien Ausschau zu halten. Dadurch kann sichergestellt werden, dass kritische operative Prozesse oder Geräte immer die passenden Netzwerk-Ressourcen erhalten.

Fazit

Das IoT hat das Potenzial, die Betriebsfähigkeit von Flughäfen und die Zufriedenheit von Fluggästen deutlich zu verbessern. Voraussetzung ist jedoch, dass Anwendungen verlässlich laufen, Geräte sich stets verbinden können und Sicherheitsrisiken minimiert werden.