Archiv der Kategorie: IOT

Cybersecurity Report – Trends und Entwicklungen 2019

Cyberkriminalität boomt weiterhin und auch 2019 wird rasante Entwicklungen und Herausforderungen für die IT-Sicherheit mit sich bringen. Sicherheitsexperten und Datenwissenschaftler des US-amerikanischen Cyber-Security-Anbieters Forcepoint haben sieben Trends und Bedrohungen identifiziert, die ein Umdenken in der Cybersecurity erfordern: Von Biometrischen-Hacking, Künstlicher Intelligenz und der Cloud als Einfallstor für IoT-Hacks bis hin zu branchenweiten Security Trust Ratings und einem Cyber Cold War aufgrund von neuem Isolationismus der Politik und Wirtschaft durch Handelsembargos.

Das gefälschte Gesicht – Hacker manipulieren Gesichtserkennungssoftware

Mit Phishing-Attacken und Hacks wie „SIM SWAPS“ untergraben Angreifer bereits regelmäßig die Wirksamkeit von Zwei-Faktor-Authentifizierung-(2FA)-Methoden (z. B. Login mit Passwort und SMS-Code).  Eine mehrstufige Authentifizierung  durch biometrische Merkmale bietet hier eine zusätzliche Sicherheitsebene. Sie verwendet Daten, die spezifisch für den End User sind. Der Technologiegigant Apple setzt bei seinen neuen iPhones etwa auf Gesichtserkennung. Fakt jedoch ist: Keine Authentifizierungs-Methode ist zu 100 Prozent sicher. Hacker werden zukünftig Identitäten trotz und gerade mit Gesichtserkennungssoftware stehlen. So überlistete bereits 2016 ein Bildverarbeitungsspezialist der University of North Carolina Gesichtserkennungssysteme mit öffentlich verfügbaren Digitalfotos und mobiler VR-Technologie. Unternehmen sollten sich daher mit verhaltensbasierten Systemen schützen. Tastenanschlag, Mausbewegungen, Geschwindigkeit beim Scrollen, etc. – physisches Verhalten einer Person ist eindeutig und lässt sich nicht nachahmen.

Industrie-4.0 – Angreifer nutzen Schwachstellen bei Hardware- und Cloud-Infrastruktur

In einer Umfrage unter 1.000 Forcepoint-Kunden identifizierten 76 Prozent die massive Einflussnahme auf industrielle IoT als wichtige Sicherheitsfrage. Die Vielzahl vernetzter Geräte, mobile Zugriffe und verschiedene Applikationen machen den Schutz von Systemen und Daten zunehmend komplexer. Mit gleichzeitig steigender Datenmenge setzen Unternehmen immer mehr auf Cloud-Lösungen und -Provider für Wartung, Updates und Device-Management. Die Multi-Tenancy-Architektur vieler skalierbarer Dienste für IoT-Systeme führt aber zu technologischen Schwachstellen. Angriffe auf die Cloud-Infrastruktur sind daher deutlich lukrativer, um wichtige Systeme zum Stillstand zu bringen. Produktion, Energieerzeugung und andere wichtige Sektoren könnten gleichzeitig betroffen sein. Ein effektiver, ganzheitlicher Schutz erfordert daher Einblicke in das Verhalten von Mensch und Maschine, um automatisch unautorisierte Eingriffe in IoT-Systeme zu verhindern, ohne dass die Verfügbarkeit beeinträchtigt wird.

Künstliche Intelligenz bleibt nur ein „Buzzword“ in der Cyber-Sicherheit

Künstliche Intelligenz, die menschliche Kognition bzw. geistige Aktivität reproduzieren kann, gibt es in der Cybersecurity nicht. Auch in 2019 wird KI ein beliebtes Schlagwort für Marketer und unausgereifte Produktlösungen bleiben. Manche Firmen gehen dabei sogar soweit, menschliche Eingriffe in ihr Produkt zu verschleiern. Automation und nicht KI per se, kann Security-Experten im Unternehmen in hohem Maße entlasten. So können sich diese durch einen hohen Automatisierungsgrad und adaptive, risikobasierte Lösungen sowie Anpassungen etwa ganz auf relevante, auffällige Aktivitäten konzentrieren.

Politische Isolation und Handelsstreit beschwören Cyber Cold War herauf

Spionage hat Staaten und Unternehmen schon immer einen Weg zum Erwerb neuer Technologien eröffnet.  Allein 43 Milliarden Euro Schaden durch Hackerangriffe hat der IT-Verband Bitkom und das Bundesamt für Verfassungsschutz für Unternehmen in Deutschland in den vergangenen zwei Jahren festgestellt. Isolationismus bei der Handelspolitik wird in vielen Fällen Nationen und Unternehmen dazu veranlassen, noch stärker durch Cyber-Taktiken Einfluss auf andere Staaten, kritische Infrastrukturen oder wichtige Branchen zu nehmen oder geistiges Eigentum stehlen. Solche Angriffe zielen dabei häufig auf einzelne Mitarbeiter als Einfallstor für Schadsoftware. Statt weitere Mauern zu bauen, gilt es daher, besser zu verstehen, wie und warum Menschen mit sensiblen Daten umgehen und wo sich diese bewegen. Mit der Analyse von Nutzerverhalten kann gezielt auf hochriskante Aktivitäten eingegangen werden. Mittels automatischer Anomalie-Erkennung können Unternehmen normales Nutzerverhalten sowie gewöhnlichen ein- und ausgehenden Datenverkehr von verdächtigen Datenbewegungen unterscheiden

Security Trust Ratings – die neue Grundlage für Kooperationen in der Wirtschaft

In der heutigen „Zero Perimeter World“, einer digitalen Welt ohne klare Grenzen, sind kritische Daten und geistiges Eigentum mehr denn je gefährdet. Die Verantwortung für die Datensicherheit bleibt dabei jedoch immer beim Unternehmen, auch wenn die Daten beispielsweise bei einem Provider liegen. Branchenweite Security Trust Ratings sind notwendig, wenn Unternehmen nach Zusicherungen suchen, dass Partner und Wertschöpfungsketten vertrauenswürdig und ausreichend gesichert sind. Firmen müssen Sicherheit daher von oben nach unten in ihre Unternehmenskultur integrieren. So funktioniert Sicherheit etwa nur, wenn Mitarbeiter das Gefühl haben, einen Beitrag zur ganzheitlichen Sicherheit des Unternehmens zu leisten. Sicherheit darf daher nicht nur in der Verantwortung der IT-Teams liegen, sondern ist ein Geschäftswert. So suchen schon jetzt 58 Prozent der befragten Forcepoint-Kunden aktiv nach vertrauenswürdigen Cloud-Anbietern mit einem guten Ruf für Sicherheit.

DSGVO – Mitarbeiter und Unternehmen streiten über Verantwortlichkeiten bei Datenverlust

Mit der DSGVO sind Konfrontationen im Gerichtssaal vorprogrammiert: 2019 wird es Gerichtsverfahren wegen Datenschutzverletzungen geben, bei denen ein Mitarbeiter seine Unschuld bekundet und ein Arbeitgeber vorsätzliches Handeln unterstellt. Ob ein Richter zugunsten eines Arbeitgebers oder eines Arbeitnehmers entscheidet, ist dabei nahezu irrelevant. Vielmehr werden mangelhafte IT-Sicherheitsmaßnahmen eines Unternehmens öffentlich präsentiert. Unternehmen müssen daher Menschen und Daten schützen und bösartige Aktivitäten identifizieren, bevor sie kritische Systeme und IPs schädigen. Die Analyse von Nutzerverhalten und Datenbewegungen am Arbeitsplatz hilft dabei das Gesamtbild eines Vorfalls zu verstehen. Eingesetzte Lösungen müssen dabei drei Grundprinzipien erfüllen: legitimer Zweck, Verhältnismäßigkeit und vollständige Transparenz. Der Schutz personenbezogener Daten und der Privatsphäre sollte Grundvoraussetzungen für jedes erfolgreiche Unternehmen sein.

Datenskandale – Mit Edge Computing die Vertrauenslücke schließen

Der Facebook-Datenskandal rund um Cambridge Analytica war 2018 nur die Spitze des Eisbergs. Das Vertrauen der User in viele Online-Dienste und dem verantwortungsvollen Umgang mit ihren Daten ist gering. Unternehmen werden versuchen mit Edge Computing diese Vertrauenslücke zu schließen. Daten werden nicht mehr automatisch in die Cloud geladen und zentral in einem Datencenter gespeichert, sondern auf dem jeweiligen Endgerät oder der Applikation (der „Edge“). Das verbessert den Datenschutz und erlaubt Usern mehr Kontrolle über ihre Daten. Edge Computing allein wird das mangelnde Vertrauen der Verbraucher aber nicht überwinden können. Es reicht nicht aus, dass Unternehmen Daten sowohl auf dem Gerät als auch in der Cloud erfassen und sichern. Um Vertrauen zu schaffen, müssen sie nachvollziehbar offenlegen, wie Nutzerdaten gesichert und genutzt werden.

Das gehört zum Sicherheitsportfolio

Software Composition Analysis (kurz SCA) bezeichnet die detaillierte Untersuchung aller Open-Source-und Dritt-Komponenten, die sich in Anwendungen befinden. Die Analyse liefert Sicherheits-, Rechts- und Entwicklerteams verwertbare Daten, um Schwachstellen im Code eines Softwareprodukts zu identifizieren und zu beseitigen. Gleichzeitig lassen sich auch Verstöße gegen Open Source Compliance-Richtlinien aufdecken, denn nur wenn Unternehmen wissen, welche OSS- Komponenten von ihnen genutzt werden, können sie auch Lizenzbestimmungen zuverlässig einhalten und auf Anfrage eine entsprechende Dokumentation vorlegen.

Scannerlösungen ermöglichen Softwareanbietern und Hersteller von IoT-Geräten:

  • eine durchgängige Inventarisierung aller Open-Source-Assets (Software Bill of Materials – BOM)
  • das Managen von Open-Source-Schwachstellen
  • die Sicherstellung von Open-Source-Compliance
  • die Auslieferung ihrer Anwendungen und Geräte unter Angabe der Nutzungsrechte von Dritten (Third Party Disclosures)

Über SCA-Lösungen lassen sich automatisierte Prozesse innerhalb des Schwachstellen- und Compliance-Managements realisieren. Sie decken nicht nur auf, welche Source Libraries von den Entwicklern genutzt werden, sondern auch welche Drittanbieter-Bibliotheken standardmäßig damit verknüpft sind. Dabei lässt sich der genaue Anteil des übernommenen Codes innerhalb des proprietären Quellcodes prozentual bestimmen. Das Sicherheitsteam wird zudem automatisch per Warnmeldung über neu entdeckte Schwachstellen benachrichtigt.   

Das entgeht statischen Analyse-Tools

Viele Unternehmen vertrauen bei der Sicherheit ihrer Anwendungen noch immer zu sehr auf statische Analyse-Tools. Nicht immer reichen diese jedoch aus. Grundsätzlich können Softwareanbieter und Gerätehersteller mit statischen Analyse-Tools ihren eigenen proprietären Source Code analysieren. Entweder wird dazu ein abstrakter Syntaxbaum (AST) oder ein Modell der Anwendung erstellt, das unter anderem Ablaufsteuerung, Datenfluss oder Variablen abbildet. Einmal fertiggestellt, kann der AST nach vordefinierten Regeln abgefragt werden und so Schwachstellen und andere Sicherheitsprobleme aufdecken.

Statische Anwendungssicherheitstests (SAST) sind ohne Frage ein wichtiger Bestandteil des Software Development Life Cycles. Sie haben jedoch Grenzen – vor allem wenn es um die Analyse von Open Source geht. In vielen Fällen können die statischen Tools nicht den schnellen Veränderungen der OSS-Welt nachkommen. So werden in OSS-Paketen beispielsweise Sicherheitsschwachstellen gefunden, die längst von den verantwortlichen Autoren oder der Community beseitigt wurden.

Oft ist der Output der statischen Analyse-Tools auch einfach so umfangreich, dass es für Entwicklerteams extrem schwierig ist, einen klaren Blick auf die Ergebnisse zu erhalten und die Probleme schnell und effektiv zu lösen. Darüber hinaus kommen statische Tests meist erst gegen Ende des Entwicklungsprozesses zum Einsatz, um alle Abhängigkeiten in der vollständigen Anwendung berücksichtigen zu können.

Tests für die Anwendungssicherheit

Blitztest für Open Source Software

Ob statische oder dynamische Analysen, Penetrationstests und Fuzzing – das Managen von Open Source bleibt zentrale Aufgabe der Software Composition Analysis. Wer Software entwickelt oder diese in seine Geräte integriert und sich in Sachen OSS auf der sicheren Seite glaubt, sollte seinem Entwicklerteam oder externen Dienstleister einfach einmal die folgenden Fragen stellen:

  • “Nutzen wir die neueste Version von Apache Struts 2?”

Die Frage nach Apache Struts ist ein guter Test. Das Open-Source-Framework zur Entwicklung und Bereitstellung von Web-Applikationen in Java stand bereits 2017 im Mittelpunkt des spektakulären Equifax-Hacks. Damals konnten Angreifer über eine Sicherheitslücke insgesamt  145,5 Millionen Datensätze des US-amerikanische Finanzdienstleisters Equifax abgreifen. Auch in diesem Jahr wurden neue Schwachstellen bekannt. Gibt es auf die Schnelle keine klaren Informationen darüber, wo und wie Apache Struts 2 genutzt wird, ist davon auszugehen, dass sich das Unternehmen nicht auf dem neuesten Stand befindet.

  • “Was tun wir, wenn ein Kunde Anwendungen oder Geräte, in denen OpenSSL genutzt wird, aus Sicherheitsgründen ablehnt?“

Software-Sicherheitsaudits beinhaltet fast immer eine Überprüfung von Komponenten Dritter. Mit Unterstützung einer SCA-Plattform können Anbieter ihren Kunden einen detaillierten und vollständigen Einblick über die Verwendung von OSS- und Dritt-Komponenten bieten. Um langfristig Sicherheitsbedenken aus dem Weg zu räumen, können Unternehmen zudem auf das kontinuierliche Scannen und Monitoring aller Software-Komponenten verweisen.

  •  „Eine neue Vulnerability macht gerade Schlagzeilen. Sind wir davon betroffen?”

SCA-Lösungen beinhalten in der Regel Dashboards und Reports die das Risikopotential ihrer Anwendungen und die Gefährdung durch spezifische Schwachstellen über das ganze Unternehmen hinweg analysieren und bewerten. Sinnvoll ist hier auch die Integration der SCA-Plattform in den Build-Zyklus, um schnell und proaktiv Sicherheitslücken zu schließen.

Wer die Vorteile von Open Source Software für sich nutzen will, muss sich auch mit den Risiken hinsichtlich Sicherheit und Compliance auseinandersetzen. Die Grundregel lautet: „Kenne Deinen Code!“ Unternehmen, die Software Composition Analysis aktiv in ihre Sicherheits- und Compliancestrategie einbeziehen, schützen sich nicht nur vor Schwachstellen, sondern tragen auch zu einer sicheren Software Supply Chain im IoT bei.

API? Bitte effizient und sicher!

Sicherheit von Anfang an

Merkwürdig bleibt die Erkenntnis, dass viele Unternehmen unabhängig von ihrer Branche bereits praktische Erfahrungen mit solchen negativen Auswirkungen gemacht haben – dennoch wird die IT-Sicherheit in der Entwicklung meist viel zu spät oder gar nicht betrachtet. Das ist nicht nur verwunderlich, sondern hat im Ernstfall fatale Folgen. Darum sollte das Thema „IT-Sicherheit“ in einem professionell geplanten „Secure Software Development Life Cycle“ (SSDLC) in jedem Schritt integriert sein. Insbesondere im boomenden Bereich der „Internet of Things“ (IoT) -Applikationen ist verstärkt darauf zu achten, dass eine ausreichende Sicherheitsbetrachtung bereits in der Design-Phase erfolgt. Kostspielige Anpassungen nachträglich sichtbar werdender Schwachstellen können so bereits im Vorfeld vermieden werden. Eine Korrektur ist in diesem frühen Zustand deutlich einfacher umzusetzen.

Auch in Industrieanlagen ist mit Blick auf I.40 Anwendungen ein starker Anstieg von APIs feststellbar. Der Vorteil, einen einfachen REST-API-Aufruf aufzubauen, abzuschicken und ggf. das Ergebnis zu verarbeiten, benötigt in den meisten Fällen nur wenig Rechenkapazität. Auch hier kann der fehlende Fokus auf die IT-Sicherheit die angedachten Vorteile einer digitalen Transformation des innerbetrieblichen Logistikwesens schnell neutralisieren.

Fünf Faktoren für sichere APIs

Um Schnittstellen (APIs) sicher entwickeln zu können, sollten stets diese fünf Faktoren beachtet werden:

  • Erster Schritt: Identifizierung & Authentifizierung. Zuerst muss klar sein, wer oder was auf die eigenen Ressourcen zugreifen möchte. Nur, wenn diese Daten vorliegen, sollte ein Zugriff erlaubt werden.
  • Zweiter Schritt: Autorisierung. Nach einer erfolgreichen Authentifizierung sollte eine separate Autorisierung erfolgen, um einen Zugriff / Nutzbarkeit entsprechend der Benutzerberechtigung bereitzustellen.
  • Dritter Schritt: Hiernach ist eine Überprüfung erforderlich, ob ein API-Aufruf  Informationen über die dahinter liegende Architektur preisgibt. Denn das darf in niemals der Fall sein.
  • Vierter Schritt: API Keys sind keine Secrets. Daher muss sicher gestellt sein, dass diese auch nicht als solche behandelt werden.
  • Fünfter Schritte: Nun können Input-, Data- und Plausibilitätskontrollen folgen.

Natürlich gibt es neben den fünf genannten Faktoren noch weitere, welche in der Entwicklung und im Lifecycle beachtet werden sollten.

Beispielarchitektur

Im Kontext der industriellen Nutzung von APIs und IoT-Geräten würde eine Architektur wie folgt aussehen (siehe Abbildung 1). Die Grafik veranschaulicht beispielhaft, wie Sensoren oder andere IoT- Geräte an Maschinen einer Produktion über eine (Micro-) API-Architektur angebunden werden könnten. Hierbei hat jede Maschine eigene IoT Geräte, welche jeweils eine andere Funktion erfüllen. Jene sind durch diverse Anwendungsfälle definiert, wie beispielsweise das Messen der Temperatur, Luftfeuchtigkeit, die Position der Produkte oder deren Abmessung. Dabei koordiniert ein API-Gateway die Schnittstellen, damit die IoT-Geräte die Anfragen an eine zentrale Stelle schicken. An dieser Stelle können dann entsprechende Sicherheitsmechanismen platziert werden. Das API- Gateway leitet die Anfragen an die einzelnen Endpunkte zu Verarbeitung weiter. Zusätzlich helfen Micro Gateways dabei, die Micro Services zu koordinieren und zu managen.

 

 

 

Gesunde IT-Systeme: Wie sich Fehler erkennen lassen

Mehr als jedes zweite Industrieunternehmen (52 Prozent) in Deutschland hat laut Unternehmensberatung Staufen in diesem Jahr Industrie-4.0-Initiativen in Einzelprojekten oder unternehmensübergreifend umgesetzt. Die Mehrheit verfolgte das Ziel, digitale Produktions-Prozesse und -Techniken (Smart Factory) einzuführen oder zu verbessern. In den kommenden drei bis fünf Jahren wollen Unternehmen in Deutschland vor allem weiter in Multi-Cloud-Umgebungen (37 Prozent) und IoT-Technologien (36 Prozent) im Rahmen ihrer IoT-Projekte investieren, so  Dell.

Multidisziplinärer Ansatz zur Fehler-Erkennung und -Behebung

Dreh- und Angelpunkt von Smart-Factory-Konzepten sind naturgemäß vor allem digitale, durchgängige Prozesse und intelligente Technologien. Hierbei beteiligt sind Anwendungen, Maschinen, Netzwerke, Infrastrukturen, Rechenzentrums-Dienste und schließlich der Endnutzer. In einer vernetzten Industrieumgebung müssen all diese Komponenten fehlerfrei und meist sogar unter Berücksichtigung sehr geringer Latenzzeiten zusammenarbeiten können. Dennoch ist gerade bei vernetzten Komponenten in einer hochverteilten Umgebung die Störanfälligkeit hoch. Wie können (Industrie-) Unternehmen also die Gesundheit ihrer digitalen Dienste und Systeme sicherstellen?

 

Empfehlen lässt sich ein multidisziplinärer Ansatz, der alle beteiligten Komponenten überwacht und Fehler schnell identifizierbar macht. Hierbei sollten Industrieunternehmen im ersten Schritt die Funktionen ihrer jeweiligen digitalen Dienste zerlegen. Ein Dienst lässt sich in diesem Zusammenhang als eine technische Einheit verstehen. Dieser bündelt zusammenhängende Funktionen und stellt diese zum Beispiel einem Nutzer per Schnittstelle zur Verfügung.

Digitale Dienste identifizieren

Der digitale Dienst sollte nun also in seine einzelnen Funktionen, wie den allgemeinen Dienstzustand, beteiligte Anwendungen und Diensteabhängigkeiten (Mapping) zerlegt werden. Außerdem sind die Parameter Reaktionszeiten des Endbenutzers, Sessions, forensische Diagnose, System- und Konnektivitäts-Zustand sowie die IT-Security zu berücksichtigen.

Auf Basis all dieser Kriterien kann der allgemeine Gesundheitszustand des jeweiligen Dienstes gemessen, quantifiziert und ausgewertet werden. Fehlerpotentiale lassen sich so identifizieren und Probleme in der Regel schneller beheben.

1. Allgemeinen Gesundheitszustand eines digitalen Dienstes definieren

In diesem Schritt empfiehlt es sich, eine sogenannte Baseline zu etablieren. Diese hilft zu verstehen, wie sich ein Dienst im Laufe der Zeit verändert oder wie er unter außergewöhnlichen Belastungen reagiert, etwa bei Produktionsspitzen. Dabei kann auch untersucht werden, ob sich der Dienst flexibel erweitert, wenn beispielsweise Cloud-basierte Komponenten dazu geschaltet werden. Sobald eine Baseline festgelegt wurde, kann diese mögliche Anomalien, die zu einer Verschlechterung des Services führen, aufzeigen. Die Baseline soll also den Normalzustand eines Dienstes definieren und als Ausgangszustand dienen, um einen Bezugspunkt für spätere Vergleichsanalysen zu haben.

2. Anwendungsfehler erkennen

Anwendungen werden in Testumgebungen unter meist optimalen Bedingungen erstellt und geprüft. In einer Produktionsumgebung muss die eingesetzte Anwendung jedoch mit anderen Komponenten fehlerlos interagieren – und wird somit zu einem System aus mehreren Variablen. Unternehmen sollten daher prüfen, ob sie nach Anwendungsimplementierung noch die Möglichkeit haben, Anwendungsfehler zu detektieren, die für die Anwendung selbst, den Anwendungsentwickler oder den Endbenutzer möglicherweise nicht erkennbar sind. Fehler können sich auch erst später bemerkbar machen, etwa in Form erhöhter Response-Zeiten.

Oft können sich Fehler auch in der Kommunikation zwischen den Komponenten eines Dienstes verbergen. Aus Redundanzaspekten haben Dienste mehrere Komponenten, die wiederum vielfältige Abhängigkeiten aufweisen, um den Dienst auszuführen, Benutzer zu authentifizieren und Informationen zwischen den Komponenten des Dienstes zu verteilen.

3. Dienstabhängigkeiten zuordnen: Service Dependency Mapping

Ein digitaler Dienst kann sich im Laufe der Zeit verändern, wenn etwa neue Komponenten zugeschaltet oder zusätzliche Aufgaben von ihm übernommen werden. Damit der Überblick nicht verloren geht, sollten Unternehmen definieren: Was macht einen Dienst aus, wie kommuniziert dieser und wovon ist er abhängig? Diese Übersicht (Logic Map) ist besonders hilfreich, wenn etwa eine System- oder Plattformmigration ansteht.

4. Antwortverhalten des Systems bezogen auf Endnutzer messen

Digitale Dienste werden neben Maschinen auch von Endanwendern, etwa Mitarbeitern, genutzt. Hierbei ist es ein wesentlicher Faktor, das Antwortzeitverhalten von Anwendungen (Response Time) zu messen, um die User Experience hoch und Produktivitätseinbußen gering zu halten. Sind diese Reaktionszeiten zu lang, sollten entweder eine Kapazitätserweiterung oder Fehlerbehebungsmaßnahmen eingeleitet werden. Haben Unternehmen keinen Überblick über die angesprochenen Diensteabhängigkeiten, gestaltet sich die Fehlersuche nach langen Reaktionszeiten jedoch oft zeit- und kostenintensiv.

5. Sessions: bestehende Verbindungen prüfen

Bei einem Dienst mit mehreren Komponenten besteht jede Interaktion zwischen den Komponenten aus mehreren Sessions. Jede Sitzung sollte überwacht und per Session Health Score bewertet werden. So ist es einfacher, fehlgeschlagene Sitzungen zu detektieren. Diese führen oft zu höheren Response-Zeiten und können auf mögliche Ressourcen-Engpässe hinweisen.

6. Forensik-Tools frühzeitig etablieren

Gibt es Probleme mit Ineffizienzen im System, müssen Unternehmen forensische Maßnahmen ergreifen. Damit ist es möglich, tiefergehende Ursachenforschung zu betreiben, um etwa Verbindungsprobleme innerhalb und zwischen den Diensten aufzudecken. Liegen jedoch zum Zeitpunkt der Fehlermeldung zu wenig forensische Daten vor, muss oft abgewartet werden, bis das Problem erneut auftritt. Ebenso verkürzen erst zu diesem Zeitpunkt eilig eingerichtete Forensik-Systeme die Zeit für die Fehlerbehebung nicht.

7. Systemmonitoring einbinden

Oft haben Unternehmen ein Systemmonitoring eingerichtet. Doch wie knüpft dieses an die oben genannten Themen an. Unternehmen müssen sich die Frage stellen, ob sie alle erwähnten Parameter mit einem gemeinsamen Datensatz verknüpfen können – oder ob alle Datensätze isoliert gesammelt werden, ohne dass sie miteinander in Beziehung gesetzt werden können.

8. IT-Sicherheit

Mit zunehmender Bedrohungslage ist auch der Aspekt IT-Sicherheit unbedingt zu berücksichtigen. So ist laut IT-Sicherheitsbericht 2018, den das BSI im Oktober veröffentlich hat, die Gefährdungslage im Bereich Cybersecurity in den vergangenen Monaten abermals vielschichtiger geworden. Gerade Distributed-Denial-of-Service (DDoS) -Attacken sind gefährlich. Bei einer DDoS-Attacke werden Server, Web-Dienste, IT-Komponenten oder die IT-Infrastruktur solange mit Datenverkehr überlastet, bis diese nicht mehr verfügbar sind. Laut Sicherheitsbericht von NETSCOUT Arbor gab es 2017 in der DACH-Region knapp 197.000 derartiger Cyber-Attacken. Organisationen und Unternehmen mussten also umgerechnet 22 DDoS-Angriffe pro Stunde abwehren.

Vor allem die Zahl von Multivektor-Angriffen wird künftig zunehmen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. Somit ist es also möglich, per DDoS-Attacke digitale Dienste zu schädigen oder lahmzulegen. Unternehmen sollten daher prüfen, wie sie ihre vernetzten Dienste mit geeigneten Security-Tools vor Ausfall und Datenabfluss schützen können.

Fazit

Gerade in der Smart Factory, aber auch anderen IIoT-Szenarien, in dem die hochgradige Vernetzung im Mittelpunkt steht, muss die eingesetzte Technologie reibungslos funktionieren. Geht es beispielsweise um vernetzte Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, kann eine fehlerhafte Dienstkomponente gravierende Konsequenzen nach sich ziehen. So kann der Informationsaustausch zwischen Maschinen und Produkten beeinträchtigt werden und nachgelagerte Prozesse oder gar Produktionsschritte komplett zum Erliegen kommen. Digitale Dienste müssen also vielfältige Aufgaben übernehmen, steuern und dabei höchsten Anforderungen Rechnung tragen. Ein geeigneter, multidisziplinärer Ansatz, um Fehler und Störquellen im Vorfeld zu identifizieren, ist für Unternehmen daher erfolgskritisch.

Die Gewinner des digitalen Umbruchs sind etablierte Unternehmen

Unternehmen sehen sich einer Reihe von signifikanten Veränderungen gegenüber. Dazu gehört die digitale Transformation, die Organisationen von Grund auf verändert. Teil der digitalen Transformation ist die fortschreitende Vernetzung von Menschen, Geräten und Maschinen im Internet der Dinge (IoT) und seiner industriellen Ausrichtung, Industrie 4.0. Unternehmen wissen, dass am IoT kein Weg vorbei führt. Doch die Realisierung stellt viele Firmen vor signifikante Herausforderungen, denen sie sich häufig nicht gewachsen sehen. Damit die Vernetzung innerhalb des Internet der Dinge nicht nur ein Lippenbekenntnis bleibt, müssen Unternehmen allerdings umdenken. Doch nicht alle sind für diesen Wandel gerüstet. Auch wenn Start-ups oftmals technologisch im Vorteil sind: Beim Thema digitale Transformation haben etablierte Unternehmen die Nase vorn, so das Ergebnis einer aktuellen Infosys Studie. Grund dafür ist, dass sie sich bereits seit Jahren mit einer Reiher von Veränderungen hinsichtlich Technologien und Marktgegebenheiten auseinandersetzen müssen. Kontinuierlicher Wandel gehört damit für sie zur Normalität, während Start-ups dies zum ersten Mal erleben.

Der wahre Wandel beginnt im Kern eines Unternehmens

Die Studie teilt Firmen in drei Kategorien ein: Beobachter, Entdecker und Visionäre. Während sich Beobachter und Entdecker hauptsächlich auf neue Technologien wie künstliche Intelligenz (KI), Blockchain und 3D-Druck für ihre Initiativen der digitalen Transformationen fokussieren, haben Visionäre auch Technologien wie Mainframe- und ERP-Modernisierung im Blick. Denn sie sind der Meinung, dass es nicht ausreicht, einfach neue Technologien zu implementieren. Die Herausforderung, um die digitale Transformation zu realisieren, ist deutlich größer: Neue und bestehende Technologien müssen intelligent miteinander kombiniert werden, um einen Mehrwert für Unternehmen zu bieten. Darüber hinaus müssen Organisationen auch die Mitarbeiter entsprechend trainieren. Der momentane technologische Wandel kann sie überfordern. Entsprechende Schulungen und vor allem auch die Beteiligung der Unternehmensleitung können Teams abholen und entsprechen weiterbilden. Organisationen müssen sich daher von innen heraus wandeln – und dies auf allen Ebenen – um erfolgreich in der vernetzten IoT-Welt bestehen zu können. Denn ohne ein starkes Fundament können digitale Technologien ihr volles Potenzial nicht entfalten. Ein weiteres Ergebnis der Studie: das Engagement von Visionären, ihre Unternehmen von Grund auf zu modernisieren, führt zu höherer Produktivität und Effizienz.

Gleichzeitig werden Firmen auch flexibler und agiler – sie realisieren die Vorteile neuer Technologien wie künstliche Intelligenz und IoT schneller und integrieren sie ihn ihre Geschäftspläne und Lösungen. Damit sind sie schneller am Markt und ihren Wettbewerbern den entscheidenden Schritt voraus. Doch auch sie sehen Herausforderungen hinsichtlich der Realisierung ihrer Pläne.

Die größte Hürde – fehlende digitale Fähigkeiten

Die Frage nach Hindernissen auf dem Weg zur Digitalisierung beantwortete die Mehrheit der Befragten dahingehend, dass die größte Herausforderung darin besteht, digitale Kompetenzen aufzubauen. Dies unterstreicht den Mangel an verfügbaren digitalen Fähigkeiten. Der in Deutschland herrschende Fachkräftemangel ist sicherlich einer der Gründe, dass diese Fähigkeiten nicht ausreichend zur Verfügung stehen.

Der Wandel von einer risikoscheuen Organisation hin zu einem experimentierfreudigen Unternehmen (43 Prozent) sowie ein fehlendes Change Management (43 Prozent) folgten auf Platz zwei und drei. Sie unterstreichen die Unruhe und den Widerstand, die Veränderungen im Zusammenhang mit der digitalen Transformation hervorrufen. Unternehmen sollten sich Gedanken machen, wie sie die digitale Transformation, inklusive der Anforderungen des IoT, umsetzen können. Denn nur solche Organisationen, die in diesen Bereichen Fortschritte machen, werden künftig in einer immer vernetzteren Welt erfolgreich bestehen.

 

Realistische Erwartungen an das IIoT

Das Industrial Internet of Things (IIoT) ist für die meisten Unternehmen nach wie vor Neuland. Die Erwartungshaltung ist hoch, verspricht die umfassende Automatisierung, Konnektivität und Analytik doch ein Plus an Effizienz und damit Chancen auf Gewinnsteigerung und Kostenminimierung. Anwender, die zum ersten Mal in Richtung IIoT aufbrechen, erwarten dabei häufig ähnliche Vorteile und Verbesserungen wie durch Manufacturing Execution Systeme (MES). Die Wunschvorstellung: 100.000 im Sekundentakt erfasste Sensordaten und IIoT-Edge-Geräte, die über massive Skalierbarkeit und endlose Rechenleistung verfügen und die Daten in die Cloud übertragen.

Diese Vorstellung mag nicht ganz falsch sein, kann jedoch in einigen Fällen zu Enttäuschungen und Fehleinschätzungen führen. Nicht jedes Edge-Gerät bietet automatisch die nötige Bandbreite oder die Funktionen, um Daten wunschgemäß zu verarbeiten. Wie effizient und sinnvoll IIoT-Anwendungen tatsächlich sind, hängt immer von mehreren Faktoren ab und unterscheidet sich von Fall zu Fall. Selbst wenn die passende Edge-Hardware für ausreichend Konnektivität ausgewählt wurde, können trotzdem Einschränkungen in Bezug auf das Datenvolumen und Häufigkeit der Datenübermittlung auftreten.

Kostenfaktor und Sicherheit IIoT

Bei der Umsetzung eines industriellen IoT-Projekts ist es wichtig, genaue Informationen zu den betreffenden Edge-Geräten, Industrieprotokollen, Sensoren und Netzwerken vorliegen zu haben. Insbesondere betrifft das auch die Kosten jedes einzelnen IIoT-Bausteins. Edge-Geräte verfügen in der Regel über eine Vielzahl von Features, die mit unterschiedlichen Kosten verbunden sind. Dabei reicht die Spannweite von einigen Hundert bis zu Tausenden von Euros. Hinzu kommen hohe Netznutzungsentgelte – zum Beispiel für die Übertragung per Mobilfunk oder Satellit– sowie durch Kosten für die Datenspeicherung in der Cloud. Letztendlich ist das Ziel von IIoT-Projekten zwar die Optimierung der maximalen Wertschöpfung. Doch zunächst ist dabei immer auch mit Kosten zu rechnen.

Der Umgang mit den hohen Erwartungen ist ein wichtiger Aspekt eines jeden IIoT-Projekts. Ein mobiles Edge-Gerät mit niedrigem Stromverbrauch und geringen Onboard-Ressourcen ist schlichtweg nicht darauf ausgelegt, die Daten von 10.000 Sensoren in die Cloud zu übertragen. Realistischer ist es hier entweder das Datenvolumen auf 100 Sensordaten zu reduzieren oder ausreichende Ressourcen an der Schnittstelle zwischen Sensoren und Cloud zur Verfügung zu stellen, – einschließlich der nötigen Bandbreite für das Netzwerk.

Neben Kosten ist auch das Thema Sicherheit zu berücksichtigen. Eine absolute Garantie gibt es hier nicht, lediglich Best-in-Class Practices und bewährte Sicherheitsmaßnahmen. Sicheres IIoT kann als Kombination von zuverlässiger Hardware + Software + Installation + sicherer Kommunikationsprozesse verstanden werden. Sind in einem IIOT-Projekt diese Vorgaben erfüllt, lässt sich das Sicherheitsrisiko zumindest auf ein Mindestmaß reduzieren.

Die passende Anwendung

Grundlegendes Know-how in der Prozessinstrumentierung ist die Voraussetzung dafür, um die richtige Entscheidung bei der Auswahl der Geräte, Sensoren und Anwendungen treffen zu können. Dabei muss von vorherein klar definiert sein, welche Aufgaben durch den Einsatz von IIoT gelöst werden sollen. Klare Zielvorgaben erleichtern es, die passende Anwendung auszuwählen und gleichzeitig Anforderungen hinsichtlich des Prozessbetriebs, der Wartung und der IT-Teams im Unternehmen zu erfüllen. Nicht alle gesammelten Daten aus Edge-Geräten sind relevant für die geschäftlichen Anforderungen und rechtfertigen ein IIoT-Projekt.

IIoT-Anwendungen sind für komplexe Aufgaben konzipiert, um eine große Menge an Prozessdaten-Variablen und ihren Beziehungen untereinander zu verarbeiten und nutzbar zu machen. Gefragt sind Big Data Tools und hohe Rechenleistung. Es ist das Einsatzgebiet von Künstlicher Intelligenz, multivariater Analyse, Mustererkennung, Ereigniserkennung und maschinellem Lernen. Sämtliche Systeme und Anlagen für IIoT aufzurüsten, hilft Unternehmen nicht zum Durchbruch.

Vielmehr sollte die ausgewählte Lösung auf die spezifischen Anforderungen der Anlage und der Prozesse zugeschnitten sein (zum Beispiel kontinuierliche oder Batch). Soll beispielsweise ein Qualitätsproblem eines Assets behoben werden, sind mit hoher Wahrscheinlichkeit multivariate Analysetools notwendig. Handelt es sich um die Implementation von vorausschauender Wartung und Fehlerfrüherkennung mit dynamischen Modellen, empfiehlt sich eine Applikation für Maschinelles Lernen.

IIoT-Deployment

Auch in Sachen IIoT-Deployment gilt es, eine Vielzahl von Fragen zu beantworten: Soll die Anwendung cloudbasiert arbeiten oder On-Premise? Benötigt die Lösung High-Speed-Computing mit geringer Latenzzeit, um die Appplikation näher an das Edge-Gerät zu bringen? Und wie wirken sich die damit verbundenen Kosten auf das Return on Investment (ROI) aus?

Mit der Wahl der richtigen Konnektivität, der richtigen Sensoren und der richtigen Anwendung unter Berücksichtigung aller Kosten ist ein erster wichtiger Schritt in Richtung IIoT getan. Doch sollten Unternehmen sich bewusst sein, dass die Auswahl an Lösungen und Technologien in allen Bereichen von Tag zu Tag wächst. Umso wichtiger ist es, bei allen Vorteilen und Möglichkeiten des IIoTs realistische Erwartungen vorzugeben, die sich innerhalb der eigenen Unternehmensstrategie umsetzen lassen.

 

 

Mobile Arbeitskräfte im Zeitalter der Plattformwirtschaft

Es nicht noch nicht lange her, da ebnete das Brechen des Status quo den Weg zur Marktführerschaft. Jetzt ist diese Taktik nur noch ein Mittel zum Überleben. Mit dem Aufstieg der Platform-Economy nutzen nicht nur Uber und Amazon die digitale Transformation – jeder „bewegt sich schnell und zerschlägt die Dinge“, vor allem um Wettbewerb abzuwehren und im Geschäft zu bleiben.

Seit Beginn des 21. Jahrhunderts erleben wir technologische Innovationen. Wenn man jedoch der Meinung ist, dass die letzten 10 Jahre disruptiv waren, so steht der größte Wandel noch bevor – vor allem in Form der Mitarbeitermobilität. Verschiedene Studien zeigen, dass Mobilität die Zufriedenheit der Mitarbeiter steigert und in der Folge ihre Produktivität verbessert. Es wird geschätzt, dass bis zum Jahr 2022 42,5 Prozent der weltweiten Workforce mobil sein wird.

Die Mitarbeiter werden jederzeit und von überall arbeiten können und werden ihre smarten Geräte sowohl für die Arbeit als auch für die Freizeit nutzen. Sind das Phantastereien? Nun, es ist bereits Realität. Smartphones mit einer Netzwerkverbindung oder ein Gerät, das mit dem Internet der Dinge verbunden ist, sind für die „mobile-first“ Mitarbeiter eine unverzichtbare Komponente.

Doch wie werden diese mobilen Arbeitskräfte die neue digitale Plattformökonomie prägen?

Das Angebot befriedigt nicht die Nachfrage

Mobilität befreit die Mitarbeiter auf einen Schlag von ihrem physischen Arbeitsplatz. Unternehmen haben heute ihren eigenen Social Media Bereich, der Funktionalitäten wie Crowd-Sourcing und die Shared Economy nutzt, um neue Arbeitsformen zu schaffen.

Damit Unternehmen den Anforderungen dieser sich schnell mobilisierenden Mitarbeiter gerecht werden, müssen sich CIOs auf einen mobilen Plattformansatz konzentrieren, der den Zugriff auf eine Vielzahl von Unternehmensanwendungen in Echtzeit über das Handy ermöglicht – ganz unabhängig von Standort und Netzwerk.

Doch die Anbieter von Kommunikationsdiensten (CSPs) hinken hinterher. Obwohl es etwa 900 netzwerkbasierte mobile CSPs gibt, ist eine gewisse Zurückhaltung zu erkennen, Netzwerke und Dienste über Application Programming Interfaces (APIs) freizuschalten.

Es gibt einen Weg nach vorn

Der nächste Schritt ist der Übergang von vereinfachten mobilen Diensten, bei denen die Endbenutzer einfach eine Nachricht senden oder einen Anruf tätigen, zu einem wesentlich anspruchsvolleren Dienst.

Wenn Service Provider bereit sind, weiter fortgeschrittene Mobilfunkdienste anzubieten, dann ist es sowohl für Käufer als auch für Verkäufer eine Win-Win-Situation. Unternehmen werden eine deutliche Verbesserung dessen erleben, was über Mobiltelefone möglich ist – sei es durch umfangreichere Unified Communications und Collaboration-Lösungen, oder durch einfachen Zugriff auf Cloud-basierte Dienste. In der Folge können die neuen, dabei entstehenden Geschäftsmodelle und Dienstleistungen zu Wertschöpfung in Höhe von über einer Milliarden Dollar für die Mobilfunkindustrie führen.

Um dies zu erreichen, bedarf es eines Umdenkens. Arbeitgeber und Arbeitnehmer sollten Mobilität in der gleichen Weise wahrnehmen, wie sie heute das weltweite Netz oder die Cloud erleben. Alle Apps, Inhalte und Dienste sollten über das Mobilgerät zugänglich sein, unabhängig vom Standort und ohne die hohen Kosten des Datenroaming.

Auf dem Vormarsch in Richtung 5G werden wir sehen, wie neue Modelle von Mobilfunkanbietern übernommen werden. Mobile Dienste können so bereitgestellt werden, dass sie die Struktur des World Wide Web widerspiegeln und ein einheitliches, nahtloses Erlebnis auf globaler Basis bieten.

Die Zeit zum Liefern ist jetzt gekommen

Ericsson prognostiziert bis 2022 weltweit 6,8 Milliarden Smartphone-Teilnehmer und 29 Milliarden vernetzte Geräte.

Mobile Dienste sollten bereits jetzt mit der Versorgung dieses riesigen Marktes beginnen. Und CIOs sollten erkennen, dass sie sich auf programmierbare, grenzenlose mobile Dienste verlassen können, ohne dass sie auf Kosten, Sicherheit oder Zugangsbeschränkungen stoßen, denen sie heute noch gegenüberstehen.

Dem digitalen Kunden auf der Spur

Im digitalen Zeitalter ist es für Unternehmen wichtig, den Kunden in allen Phasen der Kundeninteraktion (Customer Journey) ein besonderes Erlebnis zu bieten. Dazu gehören schneller und reibungsloser Service, personalisierte Inhalte und eine konsistente Erfahrung über alle Kanäle hinweg. Gleichgültig, ob der Kunde über die mobile App, den Online-Shop, das Callcenter oder vor Ort in der Filiale mit dem Unternehmen in Kontakt tritt – die Angebote müssen aufeinander abgestimmt sein und eine durchgängige Erfahrung bieten.

Vier Phasen sind in der Customer Journey zu unterscheiden: Aufmerksamkeit, Interesse, Kauf und Service.

1. Aufmerksamkeit (Awareness)

Früher wurden Kunden vor allem durch Anzeigen in gedruckten Medien, TV-Werbung oder Plakate auf Produkte und Leistungen aufmerksam. Nun, da das Internet die Kommunikation prägt, ist es Ziel jeder Marketing-Abteilung, ein Top-Ranking bei den Anfragen in Suchmaschinen zu erreichen. Dazu kommt Online-Werbung, die sich am Besuchs- und Leseverhalten des Anwenders im Internet orientiert, oder Content-Marketing in Form von Texten, Bildern, Audio- oder Videomaterial mit personalisierten Inhalten. Weitere Impulse kommen über Empfehlungen aus sozialen Netzwerken wie Facebook, Pinterest oder Fancy, auf denen Anwender Produkte „liken“ können, die ihnen gefallen.

2. Interesse (Interest)

Ist das Interesse geweckt, so will sich der potentielle Kunde in der Regel eingehender informieren. Dazu blieb ihm früher nur der Weg in ein Ladengeschäft. Heute steht ein umfassendes Spektrum von Informationsmöglichkeiten zur Verfügung: Produkt-Videos auf YouTube, Meinungen und Bewertungen anderer Kunden in Online-Foren oder sozialen Netzwerken schaffen Transparenz und unterstützen den Kunden bei seiner Entscheidung. Die Käufer sind oft sogar besser informiert als die Verkäufer. Unternehmen müssen dabei berücksichtigen, dass sich die Kunden beim Kauf stärker an den Empfehlungen von Bekannten und Freunden aus ihren sozialen Netzwerken orientieren als an Vertriebs- und Marketing-Botschaften.

 3. Kauf (Purchase)

In Zeiten von Online-Shops und E-Commerce erwartet der Kunde, das Produkt direkt und unmittelbar kaufen zu können. Unternehmen müssen daher die Transaktionen möglichst einfach gestalten. Gelingt es, ihre potenziellen Kunden aus den sozialen Netzwerken und Online-Plattformen direkt auf ihre E-Commerce-Angebote zu leiten, erzielen sie einen klaren Wettbewerbsvorteil. Im Idealfall sind Online- und die Offline-Welt nahtlos miteinander verbunden. Will ein Kunde das Produkt nicht online kaufen, bieten innovative Unternehmen einen Termin beim nächstgelegenen Händler vor Ort an. Da der Händler mit dem Online-Shop vernetzt ist, kennen die Verkäufer die Historie und Bedürfnisse des Kunden – und können ihm passgenaue Zusatz- oder Sonderangebote vorschlagen.

4. Service

Auch die Fulfillment-Prozesse müssen in die digitale Prozesskette eingebunden und für den Kunden transparent sein. Kunden akzeptieren keine Lieferverzögerungen mehr. Mittlerweile gilt auch Self Service wieder als wichtiges Mittel, um die Kundenbindung zu erhöhen und gleichzeitig Kosten zu reduzieren. Mittlerweile geht der Trend zu virtuellen Beratern, die Natural Language Processing, Text Analytics und Predictive Analytics nutzen, um Kunden mit relevanten Vorschlägen bei der Lösung von Serviceanfragen zu unterstützen. Natürlich muss auch die persönliche Interaktion mit einem Berater möglich sein, der über das CRM-System die komplette Kundenhistorie kennt.

Eine konsistente, kanalunabhängige Customer Journey setzt eine leistungsfähige Hardware und Infrastruktur voraus. Hier bietet sich – abhängig vom individuellen Anwendungsfall und der Sensibilität der Daten – auch eine Cloud-Lösung an. Dadurch fallen Administrationsaufgaben weg und Unternehmen können sich auf die strategischen Fragen konzentrieren. Da sich Cloud-Systeme zudem einfach skalieren lassen, können sie auch die Basis für Big-Data- und Predictive-Analytics-Projekte bilden, mit denen Firmen im Rahmen statistischer Wahrscheinlichkeit das wahrscheinliche Kundenverhalten vorhersagen können. Mit Hilfe der Analytics-Systeme ist es auch möglich, die Kundenbedürfnisse in Echtzeit zu antizipieren und dem Kunden relevante Vorschläge anzubieten (Next Best Action).

Das Mapping einer Customer Journey, also die graphische Erfassung der relevanten Interaktionen, verschafft den Unternehmen zusätzlich Übersicht und erlaubt es, kritische Stellen im Prozess rechtzeitig zu identifizieren beziehungsweise die Erfahrung interaktiv zu optimieren.

Das Customer-Journey-Management lässt sich auch in CRM-Lösungen (Customer Relationship Management) integrieren. Sie ermöglichen nicht nur einen umfassenden Blick auf den Kunden und alle seine Interaktionen, sondern führen und unterstützen auch Benutzer wie Vertriebsmitarbeiter, Makler oder Kunden im Customer Self Service rollenbasiert im ganzen Service -und Vertriebsprozess. Auch Konzepte zur Prozess-Automatisierung wie Business Process Management (BPM), Dynamic Case Management (DCM) und Robotic Process Automation (RPA) lassen sich im Rahmen des Customer-Journey-Managements nutzen.

Angesichts der wachsenden Bedeutung mobiler Endgeräte, ist es unerlässlich, dass sich die betreffenden Lösungen auch mobil nutzen lassen, und dass mobile Anwendungen im Bereich CRM und Customer Journey wiederum eng mit den anderen Kanälen und Prozessen verknüpft sind. Eine reibungslose Customer Journey bedeutet auf Seiten des Kunden ein optimales Einkaufserlebnis und das ist die Basis für langfristige Kundenbindung und eine gute Position im Wettbewerb.

Zehn Punkte, die Unternehmen beachten sollten:

Für die digitale Customer Journey ergeben sich daraus zehn Punkte, die Unternehmen beachten sollten, um wettbewerbsfähig zu bleiben:

  • Always-Online-Kunden: Da viele Kunden heute permanent auf das Internet zugreifen können, ist eine rein transaktionsorientierte Beziehung zum Kunden heute wenig sinnvoll. Unternehmen müssen daher jederzeit und in Echtzeit über alle Kanäle hinweg mit dem Kunden interagieren.
  • Mobil: Die Verbraucher sind heute auch wegen mobiler Endgeräte wie Smartphones und Tablets nahezu immer online. Rund 50 Prozent des Internetverkehrs entsteht heute durch die mobilen Geräte.
  • Internet der Dinge: Das Internet der Dinge ist unaufhaltbar auf dem Vormarsch. Vernetzte Geräte aller Art werden dadurch zu einem weiteren, Kanal für Unternehmen, um Daten in ihrem CRM-System zu sammeln. Ein Beispiel sind Versicherer, die etwa für die Kfz-Versicherung Daten von vernetzten Autos sammeln.
  • Verständnis der Kundenbedürfnisse: Der Always-Online-Customer bietet für Unternehmen eine große Chance, da Kunden auf allen digitalen Kanälen und Touchpoints massenweise Daten hinterlassen. Aus der Analyse dieser Daten lassen sich Erkenntnisse über die tatsächlichen Kundenbedürfnisse gewinnen.
  • Personalisierung: Digitales Marketing nach dem Gießkannen-Prinzip ist nicht mehr gefragt. Die Analyse der Bedürfnisse der Kunden bildet die Basis für individuelle und personalisierte Angebote, die sich bei Bedarf auch in Echtzeit anpassen lassen. Unternehmen müssen daher umdenken und den Kunden nicht mehr als anonymen Teil einer Gruppe ansprechen, sondern als Individuum.
  • Kanalübergreifende Interaktionen: Kunden erwarten eine konsistente Erfahrung und Interaktion auf allen Kanälen, sei es die mobile App, der Online-Shop, das Callcenter oder die Filiale vor Ort. Die Angebote müssen aufeinander abgestimmt sein und eine durchgängige Erfahrung bieten. Dass das Callcenter nicht weiß, was der Kunde im Online-Shop bestellt hat, darf nicht vorkommen.
  • Vertrauen: Die Sicherheit der Kundendaten sowie Transparenz über deren Nutzung haben höchste Priorität. Verlieren Kunden das Vertrauen in die Sicherheit ihrer persönlichen Daten, werden sie zu einem anderen Anbieter wechseln.
  • Keep it simple: Self-Service-Angebote wie Mobile Apps, Web-Seiten sowie die Interaktion mit dem Kundendienst müssen einfach und intuitiv sein.
  • Neue digitale Prozesse: Viele Unternehmen machen den Fehler und konzentrieren sich auf die Optimierung und Digitalisierung der bekannten Prozesse. Stattdessen sollten sie über neue, digitale Prozesse nachdenken. Ein interessantes Beispiel ist die Nutzung von Twitter für Kundendienstanfragen durch Apple.
  • Digitalisierung ist Chefsache: Da Unternehmen im Rahmen der digitalen Transformation nicht nur bestehende Prozesse ändern, sondern oft auch ihre Organisationsstruktur verändern müssen, sollte der CEO das Projekt leiten oder zumindest den verantwortlichen Personen den Rücken stärken. In einigen Unternehmen wurde bereits mit dem Chief Digital Officer (CDO) eine eigene Position hierfür geschaffen.

Schnelle Innovationen durch Hackathon

Im Zuge der umfassenden Digitalisierung und Vernetzung werden Unternehmen von vielen Themen geradezu überflutet. Die Herausforderung besteht oft darin zu entscheiden, welche dieser Themen aus fachlicher oder technischer Perspektive wichtig sind und in die eigenen Geschäftsziele einzahlen.

Entsprechend müssen für die identifizierten Themen und Problemstellungen Lösungsansätze und Innovationen entwickelt werden. Doch wie so oft gilt: Eine Idee bleibt eine Idee, bis man sie umsetzt. Wie können Projektteams also aus einer ersten Ideen-Phase hinauskommen und über konkrete Projekte greifbare Ergebnisse erzeugen?

Verschiedene Methoden für Innovation Management

Für das laufende Innovation Management stehen diverse Methoden zur Erzeugung und Bewertung von Ideen bereit, die aufeinander aufbauen oder auch getrennt voneinander durchgeführt werden können. Dazu gehören:

  • Innovation Workshops. Sie bringen Stakeholder aus verschiedenen Bereichen zusammen, um Ideen zu generieren, zu bewerten und einen kleinen Teil davon auszuwählen. Diese vielversprechenden Ideen werden anschließend aus unterschiedlichen Perspektiven analysiert, wobei jeder Stakeholder Quick Wins definiert. Diese Themen lassen sich dann umsetzen.
  • Design Thinking. Design Thinking ist eine moderne Methode, die einen längeren Prozess beschreibt. Dennoch lassen sich – gerade aus den ersten Phasen – wichtige Erkenntnisse ziehen. Es geht darum, ein Problem bestmöglich zu begreifen und zu beschreiben. Die Methode eignet sich somit am besten für ein konkretes Problem oder eine konkrete Idee. Dabei liegt der Fokus auf der Entwicklung von Lösungen, die aus Anwendersicht überzeugend sind. Hierzu sind die relevanten Personengruppen zu identifizieren und als „Personas“ zu beschreiben, um das Problem möglichst zielgenau auf den Punkt zu bringen.
  • Mini-Hackathon. Nach einer Präsentation des Themas werden Vorschläge gesammelt sowie die vielversprechendsten Ideen innerhalb weniger Stunden ausgearbeitet. Bei mehreren Teams sollten diese jeweils aus Personen mit verschiedenen Rollen aus unterschiedlichen Unternehmensbereichen bestehen. Fachliche Themen lassen sich in der Regel mit einem Pen & Paper Hackathon bearbeiten, technische Themen im Rahmen eines Proof-of-Concepts umsetzen. Ziel des Mini-Hackathon ist es, etwas Konkretes in der Hand zu haben, um es erleben zu können.

Wenn zum Beispiel die Verkäufe ohne erkennbaren Grund zurückgehen, lassen sich mit einem Innovation Workshop kreative Ideen für neue und veränderte Angebote generieren. Die Vielversprechendsten können mit Design Thinking an die Zielgruppen und Personas angepasst werden, woraufhin konkrete Lösungen anhand von Rapid Prototyping oder einem Mini-Hackathon entstehen. Ist das Problem bereits bekannt und gut beschrieben, kann man auch direkt mit einem Hackathon starten.

Beispiel für einen Hackathon

Ein Unternehmenskunde will Bots über einen agilen Ansatz entwickeln und einsetzen. Zunächst werden relevante Stakeholder identifiziert und die Zeitplanung festgelegt. In der Vorbereitung gilt es, die Vision zu definieren, technische Fragen zu klären, die SCRUM-Umgebung einzurichten und den Produkt-Backlog vorab zu befüllen. Das gemeinsame Team legt eine Woche vor dem Hackathon Vision, Umfang und weitere Kriterien fest.

Am ersten Tag erfolgt nur ein Sprint, der „Exploration Sprint“. Dieser dient zur Einrichtung der Backend-Dienste und ihrer Kommunikation. In den nächsten beiden Tagen werden jeweils zwei vierstündige Sprints mit Planung, Reviews und Retrospektive durchgeführt.

Der wichtigste Teil ist die Demo am letzten Tag, bei der die greifbaren Ergebnisse vor wichtigen Stakeholdern präsentiert werden. Teilnehmer sind beispielsweise der Leiter des Intranets, der Leiter des Web-Shops und die Leiter des weltweiten Service Centers. Diese geben abschließend wertvolles Feedback.

Fazit

Mit einem Mini-Hackathon werden ausgewählte Use Cases und Ideen schnell in die Praxis umgesetzt und ein erstes Minimal Viable Product erzeugt, das durch so viele relevante Personengruppen wie möglich bewertet wird. Dadurch lässt sich ohne hohe Kosten ein Thema schnell evaluieren und ein Projekt vorantreiben oder bei mangelnden Erfolgsaussichten beenden. So können Unternehmen das Thema besser bewerten und das Projekt effizienter bis zur Produktionsreife weiterentwickeln.

IoT braucht kein 5G

Laut einer Gartner-Studie wird das Internet der Dinge (IoT) bereits in zwei Jahren über 25 Milliarden Geräte umfassen. Vor allem Consumer Electronics wie Komponenten aus dem Heimnetz oder Smart Home gehören dazu. Aber auch immer mehr intelligente Maschinen, Autos, Smart Meter und ganze Smart Citys sorgen für eine steigende Vernetzungsrate. Nicht selten kommt dabei Mobilfunktechnologie zum Einsatz – allerdings mitnichten der derzeitige Topstandard 4G. Schließlich geht es bei den meisten IoT-Anwendungen nicht um hohe Bandbreiten wie etwa beim mobilen Internet für Endkunden, sondern um die verlässliche Übertragung von zumeist kleineren Datenpaketen. Auch der Energieverbrauch spielt eine Rolle.

In vielen Unternehmen mangelt es an IoT-Know-how

„Die Bandbreiten und Geschwindigkeiten von 3G, 2G oder auch GSM reichen in den meisten Fällen absolut aus, um etwa im Industrie 4.0-Umfeld Informationen zwischen Maschinen auszutauschen“, sagt Peter Matthes von Siwaltec. Das Unternehmen hat sich als Teil der TGE Gruppe auf SIM-Kartenlösungen spezialisiert. „4G oder gar das zukünftige 5G spielen dabei eine untergeordnete Rolle“, so Matthes. Der Trend, dass die Bandbreite immer höher werden müsse, treffe auf Mobilfunk-basierte IoT-Lösungen für Unternehmen eher nicht zu. „Hier kommt es vielmehr darauf an, stabile und verlässliche Übertragungen zu gewährleisten, die nicht zu viel Energie beanspruchen.“ Dass dennoch viele Unternehmen 5G entgegenfiebern, obwohl es für die meisten IoT-Anwendungen weitgehend irrelevant ist, zeigt laut Matthes, dass es in den Unternehmen weiterhin an entsprechendem Fachwissen mangelt. Statt willkürlich in neue Technologien zu investieren, sollten die Unternehmen sich zunächst auf die Grundlagen fokussieren und nötigenfalls externe Experten hinzuziehen.

Narrowband-IoT dringt bis in den Keller vor

Die Tatsache, dass 4G und 5G eher nicht die Lösung für derzeitige und wohl auch zukünftige IoT-Lösungen sind, bedeutet allerdings nicht, dass neuere Mobilfunkstandards komplett ignoriert werden sollten. Denn mit dem sogenannten Narrowband-IoT gibt es mittlerweile einen eigens fürs Internet der Dinge entwickelten Mobilfunkstandard – wie man schon am Namen erkennen kann.

Wie etwa GSM eignet sich Narrowband-IoT für Anwendungen, die geringe Datenraten benötigen. Batteriebetriebene Geräte wie Rauchmelder oder Stromzähler funktionieren so zuverlässig bis zu zehn Jahre, bevor die Batterien ausgetauscht werden müssen. Vor allem aber dringt Narrowband-IoT bis tief in Gebäude vor, sodass selbst Gerätschaften im Kellergeschoss per Mobilfunk mit dem Internet of Things verknüpft werden können.

Laut Oliver Wierichs, Principal Manager IoT Devices bei Vodafone, ergeben sich durch die reduzierte Datenrate im Vergleich zu 4G/LTE zudem deutliche Einsparungen bei der Hardware. „Man verwendet kleinere Prozessoren, weniger Speicher und auch das Funkmodul wurde vereinfacht, ohne dabei auf wichtige Eigenschaften des Mobilfunks, wie beispielsweise Sicherheit und Verschlüsselung, zu verzichten“, erklärte Oliver Wierichs kürzlich in einem Gespräch mit dem Verband der Internetwirtschaft, eco.

Laut der GSM Association (GSMA) gibt es auf internationaler Ebene bereits über 50 Narrowband-IoT-Netze. Allein auf Vodafone gehen dabei weltweit zehn kommerzielle Netze zurück. „Unsere Labors sind ausgebucht und wir testen mit Hunderten von Kunden weltweit“, berichtet Oliver Wierichs. „In Deutschland haben wir rund 90 Prozent der 4G-Basisstationen mit Narrowband-IoT ausgestattet.“ Insofern ist 4G dann doch wieder nützlich, um die Entwicklung des Internet of Things weiter voranzutreiben.