Archiv der Kategorie: IOT – IoT-Praxis

IoT-Visionen erfolgreich umsetzen

Laut einer kürzlich durchgeführten Umfrage von Ovum unter mehr als 1.300 Unternehmen befindet sich die Einführung von IoT-Projekten derzeit häufig noch in einem frühen Stadium. Die am häufigsten genannten Ziele, die damit verfolgt werden, sind geringere Kosten, höhere Effizienz und bessere Wettbewerbsfähigkeit. Neue Umsatzquellen durch das Internet of Things sind dagegen für die meisten Unternehmen noch Zukunftsmusik. Doch zumindest berichten sie in der Regel von positiven Erfahrungen und planen, die Investitionen in diesem Bereich zu erhöhen.

Die größten Herausforderungen bei der Einführung von IoT-Prozessen sind demnach die Integration mit der bestehenden IT, das Ermitteln der richtigen Analyse-Prozesse, Sicherheitsbedenken und fehlende interne Kapazitäten zur Unterstützung skalierbarer Implementierungen. Dies zeigt, dass eine stärkere Integration von IoT in bestehende Geschäftsprozesse, die Entwicklung geeigneter Lösungen für analytische Modellierung und Datenmanagement sowie die Abwehr von Sicherheitsgefahren die Einführung von IoT-Lösungen beschleunigen können.

Hohes Potenzial

Die Transformation, die hierdurch möglich wird, bietet trotz der frühen Umsetzungsphase ein enormes Potenzial für Unternehmen. Daher möchten sie clevere Führungskräfte schon jetzt so schnell wie möglich durchführen. Neben der Einführung von geeigneten Technologien ist es dabei ebenso wichtig, die möglichen konkreten Vorteile zu identifizieren. So erhöhen Investitionen in die Vorplanung und die Auswahl der richtigen Komponenten die Erfolgschancen eines solchen IoT-Projekts deutlich. Darüber hinaus bietet es sich häufig an, „groß zu denken, aber klein anzufangen“. Dadurch können Unternehmen in überschaubaren Projekten schnell Erfahrungen sammeln, die sich iterativ mit zunehmender Skalierung umsetzen lassen.

Intensive Abstimmungen nötig

Von Anfang an die richtigen Entscheidungen zu treffen und anschließend auf Kurs zu bleiben, sind wichtige Aspekte eines IoT-Projekts. Um schon zu Beginn die Planung richtig zu gestalten, sollte ein Projektleiter folgende Punkte berücksichtigen:

Erstens sollte er die nötigen CXO-Genehmigungen einholen und sich mit den Verantwortlichen abstimmen. Die meisten IoT-Projekte sind abteilungsübergreifend. So trägt ein Top-Down-Ansatz dazu bei, die Entscheidungsfindung und -umsetzung zu beschleunigen. Darüber hinaus sind für ein Projekt, das Technologien und Standards verwendet, die sich noch in der Entwicklung befinden, intensive Absprachen notwendig, um die entsprechenden Mittel und die Unterstützung der Führungskräfte zu erhalten. Andernfalls ist das Risiko sehr hoch, dass das Projekt scheitert.

Außerdem sollte der Projektleiter sicherstellen, dass auch eine regelmäßige Abstimmung zwischen Fachabteilungen und IT erfolgt. Das Internet of Things ermöglicht verbesserte oder veränderte Arbeitsabläufe und Geschäftsprozesse, welche die bestehende Technologie-Infrastruktur betreffen. Daher ist es von entscheidender Bedeutung, sorgfältig zu planen, Verantwortlichkeiten zu teilen und gemeinsame Ziele im Auge zu behalten.

Die richtigen Daten nutzen

Schließlich sollte der Projektmanager sicherstellen, dass das richtige Datenerfassungssystem eingesetzt wird. Dazu gehört die Ermittlung der zu erfassenden Daten sowie der Aufbau eines zuverlässigen Kommunikationskanals und einer IoT-Datenplattform, die aus den Daten relevante Informationen gewinnt. Sobald die Daten auf die richtige Weise erfasst wurden, lassen sich verwertbare Erkenntnisse daraus ziehen, um fundierte Entscheidungen zu treffen. Genau dies schafft einen deutlichen Mehrwert.

Entsprechend ergeben sich folgende Best Practices für IoT-Projekte:

  • Stellen Sie sicher, dass das Projekt definierte, greifbare Ergebnisse beinhaltet. Dies trägt dazu bei, den gewünschten Zeitplan einzuhalten.
  • Seien Sie realistisch bei der Planung Ihres IoT-Projekts. Sie sollten sich darüber im Klaren sein, in welchen Bereichen die Fähigkeiten Ihres Unternehmens begrenzt sind und wo es noch viel zu lernen gibt, damit Ihr Projekt Gestalt annimmt.
  • Eine IoT-basierte Business-Transformation erfordert auch ein umfassendes organisatorisches Change Management. Die Anpassung an neue Arbeitsweisen, neue Prozesse und neue Richtlinien muss schrittweise und behutsam erfolgen, um die gewünschten Ziele zu erreichen.
  • Große IoT-Projekte betreffen häufig mehrere Teams im Unternehmen. Diese sind von Anfang an einzubeziehen, um durch eine Kultur der gemeinsamen Verantwortung den Erfolg des Projekts zu gewährleisten. Sichern Sie auch das Engagement wichtiger Führungskräfte, damit das IoT-Projekt den notwendigen Fokus sowie Unterstützung von allen Bereichen des Unternehmens erhält.
  • Bauen Sie die nötigen Partnerschaften mit Teams innerhalb Ihres Unternehmens sowie mit externen IoT-Anbietern, Experten und Beratern auf. Damit können Sie Lücken bei Wissen oder Fähigkeiten schließen.

Fazit

Die Steigerung von Geschäftsergebnissen ist ein wichtiges Ziel eines erfolgreichen IoT-Projekts. Um Ihre IoT-Vision zu verwirklichen, müssen Sie jedoch flexibel und anpassungsbereit sein. Die Herangehensweise an solche Projekte mit einem hohen Maß an Kontrolle und festen Vorstellungen wird nur zu Enttäuschungen führen. Dagegen verspricht ein offener und kooperativer Ansatz wesentlich bessere Erfolgsaussichten.

Trotz Automatisierung: Ohne den versierten Softwarenutzer geht‘s nicht

Unternehmen, die diesen Trend erkennen, entscheiden sich verstärkt für spezielle Marketing-Automation-Lösungen; so beispielsweise auch eine  internationale Management- und Technologieberatung. Den dortigen Verantwortlichen war aber auchklar: Selbst die beste Software entfaltet ihr Potenzial nicht von allein. Es bedarf geschulter Anwender im Unternehmen, die den digitalen Helfer optimal einsetzen können. Man legte daher besonderen Wert darauf, die Software-Einführung mit zielgerichteten Mitarbeitertrainings zu flankieren. Hier kommen Customer-Engagement-Spezialisten ins Spiel.

Keine E-Mail verschwindet im Nirwana

Das internationale Consultingunternehmen unterhält Büros in über 20 Ländern und beschäftigt mehrere Tausend Mitarbeiter. Um den umfangreichen E-Mail- Verkehr im Marketing besser zu managen, führte es ein Marketing-Automation-Tool ein. Besonders wichtig war den Verantwortlichen, dass sämtliche Daten, die bei den automatisierten Marketing- Prozessen erfasst werden, dann automatisch im CRM zur Verfügung stehen. Denn so lassen sich alle Aussendungen überwachen und analysieren. Eine solche Lösung stellt für jede E-Mail fest, ob sie angekommen ist und gelesen oder gelöscht wurde. Die Software registriert jeden Klick auf Verlinkungen in der Mail. Damit sind die Absender genau im Bilde, ob der Empfänger auf der Website war und welche Seiten er dort besucht hat.

Generalprobe zunächst an nur einem Standort

Die Marketing-Mitarbeiter in einer der Niederlassungen in Europa waren die ersten, die Erfahrungen mit der neuen Software sammelten. Die Software diente ihnen dazu, den Versand von internen und externen Newslettern und Einladungen zu optimieren. In der Regel verschickt diese Marketingabteilung monatlich tausende Eventeinladungen. Ihr Tracking und der Informationsrückfluss ins CRM-System gibt Hinweise, wie mit laufenden Aktionen weiter zu verfahren ist und wofür sich die Kunden in Zukunft interessieren könnten. Ein Anwender wird eine Software jedoch nur dann vollumfänglich nutzen, wenn er sie richtig kennt und mit ihr umzugehen weiß. Das Beratungsunternehmen holte sich daher gleich zum Projektstart Unterstützung ins Haus: CRM-Spezialisten, die sich besonders auf CRM und Customer Engagement fokussiert haben. Von Beginn an waren auch zwei Manager des Kunden dabei, die standortübergreifend für das Gesamtunternehmen verantwortlich sind und ihren Sitz in verschiedenen europäischen Großstädten haben: ein IT-Advisor und der Manager IT-Applications. Letzterer erhielt als zuständiger IT-Administrator eine besonders detaillierte Schulung.

Test bestanden, nun wird weltweit geklickt

Die Ergebnisse der Testphase waren vielversprechend. Anfang letzten Jahres fiel daher die Entscheidung, die Spezialsoftware unternehmensweit in allen Niederlassungen zu implementieren. Im ersten Schritt ging es darum, die Software für einen optimalen Versand und zur Nachverfolgung von Newslettern, Veranstaltungseinladungen und informellen E-Mails zu nutzen – in den lokalen Marketing-Abteilungen, die die Unternehmensberatung derzeit in mehr als zehn Ländern unterhält. Schließlich müssen sowohl die Marketing-Leute als auch die IT-Spezialisten vor Ort das Programm wie ihre Westentasche kennen, um es bestmöglich einzusetzen. Entsprechend haben die Mitarbeiterschulungen sofort begonnen, nachdem die Entscheidung für das Tool gefallen war. Innerhalb weniger Monate fanden dann in acht europäischen Metropolen zweitägige Schulungen statt. Aktuell sind weitere Mitarbeiter-Trainings in Planung.

Die IT harmonisieren und dennoch lokale Besonderheiten zulassen

Teilweise unterscheiden sich die einzelnen Marketingprozesse von Land zu Land – so ist beispielsweise die Kontaktbeschaffung verschieden: Manche Niederlassungen greifen auf Excellisten mit Kontaktdaten zurück, die ihnen Partner zur Verfügung stellen, andere bevorzugen Events, um Neukontakte zu erhalten, wieder andere nutzen dafür eher Quellen im Netz, etwa Unternehmenswebsites. Eine Anpassung der Software-Features an die konkreten lokalen Bedingungen kann daher sehr sinnvoll sein. Gemeinsam mit den Spezialisten haben die IT-ler vor Ort diese Anpassungen vorgenommen. Als außenstehender Dienstleister war es dabei deren Aufgabe, die globale Betrachtungsweise beizubehalten und eine gute Balance zwischen unternehmensweit einheitlicher Software und lokalen Besonderheiten zu finden.

Alle unter einen Hut bringen

Aktuell hat die Unternehmensberatung mehr als 40 Marketingmitarbeiter. Sie alle sollen nicht nur die neue Automation-Software nutzbringend einsetzen, sondern auch gegenseitig von ihren Erfahrungen profitieren. Ein guter Anbieter hält diese darum stets auf dem Laufenden, genauso wie die weiteren involvierten Mitarbeiter, etwa Regionalleiter für die DACH-Region, IT-Mitarbeiter und das Unternehmensmanagement. Nahezu wöchentlich fanden Abstimmungen mit dem Manager IT-Applications und den Vor-Ort-Teams statt. Insgesamt haben die Customer-Engagement-Spezialistenwährend der Einführung der Software die Arbeit von rund 50 Personen koordiniert.

Man muss es auch können wollen

Wie gut eine Software im Unternehmen funktioniert, hängt entscheidend von der Mitarbeiter-Akzeptanz ab. „Da gab es bei unseren Nutzern überhaupt keine Schwierigkeiten“, zeigt man sich im Projekt- Team des Consultingunternehmens zufrieden. Geholfen hat sicher, dass die Nutzer frühzeitig in das Softwareprojekt eingebunden waren. Zudem haben die Schulungsexperten die Mitarbeiter mit der Anwendung bestens vertraut gemacht. Neben einem weltweit verbesserten Customer Relationship Management mit einheitlich hohen Qualitätsstandards zählt dazu auch die strikte Anwendung des Corporate Designs durch vorgefertigte Templates. Auch eine indirekte Kostenreduktion durch gestiegene Effizienz ist absehbar, denn die diversen IT-Abteilungen müssen sich nur noch mit einem Marketing-Automation-Tool auseinandersetzen, das überall gleich ist.

Newsletter sind nur der Anfang

Der erfolgreiche Rollout– und die dazugehörigen Trainings – werden weitergehen. Es ist zudem geplant, in weiteren Ländern nationale Marketing-Abteilungen aufzubauen. Auch diese Teams werden die Customer-Engagement-Spezialistendann in kürzester Zeit auf den Wissensstand ihrer Kollegen bringen. Weitere Möglichkeiten der Software werden bereits besprochen. Denkbar wären beispielsweise Funktionalitäten für das Subscription- und das Event-Management. Was auch immer für Module in Zukunft noch zum Einsatz kommen, eins steht für die Unternehmensberatung fest: nämlich, dass professionelles CRM nur möglich ist, wenn die Nutzer mit dem System auch professionell umgehen können. Menschen bleiben wichtig, gerade im CRM-Kontext.

 

Mixed Reality reduziert Ausfallzeiten in der Produktion

Die Lösung: Über die Einbindung von Mixed Reality erklärt ein Sachverständiger aus der Ferne dem Mitarbeiter vor Ort schnell und einfach, was er zu tun hat, damit die Produktion wieder anläuft.

Virtual Reality, Augmented Reality, Mixed Reality – Diese Begriffe schwirren seit geraumer Zeit durch die Medien. Meist konzentrieren sich die Berichte auf Geräte für Endnutzer im Home-Entertainment-Bereich. Aber auch Unternehmen können diese Technologien einsetzen, um Arbeitsabläufe zu optimieren oder Services zu verbessern. Dabei sollte im ersten Schritt klar sein, für welche Szenarien die Begriffe stehen.

  • Virtual Reality (VR): Hier sieht der Anwender ausschließlich eine virtuelle Abbildung und nicht mehr die Realität. So kann er vollständig in virtuelle Welten eintauchen, ohne von der Wirklichkeit „gestört“ zu werden. Beispiele dafür sind immersive Computerspiele oder interaktive Schulungen.
  • Augmented Reality (AR): Hier wird die reale Welt durch virtuelle Objekte wie Pfeile, CAD-Daten oder Figuren erweitert. Theoretisch und bei idealer Technologie sind diese nicht von realen Objekten zu unterscheiden.
  • Mixed Reality (MR): Sie funktioniert im Prinzip wie AR, allerdings lassen sich hier virtuelle Objekte fest und über längere Zeit im Raum platzieren. So kann sich der Nutzer etwa zu einer virtuellen Maschine hin- oder von ihr wegbewegen oder eine andere Perspektive einnehmen, ohne dass sie ihre Position im Raum verändert. Diese Technologie wird „Spatial Mapping“ genannt und lässt sich in diesem Video nachvollziehen.

Diese drei verwandten Ansätze eröffnen zahlreiche neue Anwendungsmöglichkeiten für Unternehmen, so dass ihnen eine erfolgreiche Zukunft vorhergesagt wird. Laut Capgemini gehören AR und VR in drei bis fünf Jahren bei jedem zweiten Unternehmen zum Standard. Erst vor kurzer Zeit kam MR als dritte Variante hinzu, da die entsprechende Hardware und Software inzwischen in der Praxis einsatzfähig ist. Als die drei am besten geeigneten Einsatzgebiete haben sich hier die Bereiche „Prozessoptimierung“, „Training“ und „Remote Maintenance“ (auch „Remote Assist“ genannt) herausgestellt. 

Konkretes Einsatzbeispiel

Bei einem Produktionsunternehmen fällt eine Maschine in der Fertigungsstraße aus. Da sich der Herstellungsprozess nicht auf andere Maschinen umleiten lässt, steht die gesamte Straße still. Dieser Ausfall kostet dem Unternehmen pro Stunde mehrere tausend Euro. Daher muss der Fehler so schnell wie möglich behoben werden. Bislang hatte ein speziell ausgebildeter Mitarbeiter Handbücher und Bedienungsanleitungen zu lesen, um mögliche Ursachen festzustellen. Erst nach mehreren Versuchen war er erfolgreich. Doch das bedeutete noch lange nicht, dass er den Fehler auch sofort beheben konnte. Häufig galt es, einen Service-Techniker des Maschinenherstellers anzurufen. Im ersten Schritt musste der Mitarbeiter umständlich erklären, welcher Fehler aufgetreten ist, welche Maßnahmen er getroffen hat und warum die Behebung gescheitert ist. Anschließend erklärte der Service-Techniker telefonisch, welche Schritte zu unternehmen sind.

Mit Hilfe von Fernzugriff und Videotelefonie lassen sich diese Prozesse zwar verkürzen, doch auch hier hat der Mitarbeiter vor Ort häufig nicht beide Hände für die Reparatur frei oder muss immer wieder zwischen Maschine und Videobild hin- und herschauen. Diese Ineffizienzen vermeidet eine Mixed-Reality-Lösung. Damit erhält der Mitarbeiter sowohl die Maschine als auch die Anleitungen für ihre Reparatur in einem Blickfeld. Zusätzlich kann der externe Service-Techniker über virtuelle Objekte wie Pfeile, gezeichnete Kreise oder Grafiken aus dem Handbuch die durchzuführenden Schritte anschaulich erklären. Diese Objekte bleiben bei MR auch immer an der richtigen Stelle, selbst wenn sich der Mitarbeiter vor Ort bewegt. Damit lässt sich eine Reparatur deutlich schneller erledigen als mit herkömmlichen Maßnahmen. Wenn die Maschine dann statt einer Stunde nur noch 15 Minuten still steht, hat sich die Investition in die MR-Technologie meist schon nach einem Servicefall amortisiert.

HoloLens-Perspective1-2
(Quelle: Campana & Schott)
HoloLens-Perspective1-1
(Quelle: Campana & Schott)

Verfügbare Lösungen

Inzwischen stehen einsatzfähige Lösungen für AR und MR von verschiedenen Herstellern zur Verfügung. Dazu gehören etwa Microsoft, Magic Leap oder ODG, wobei sich der Markt jedoch ständig verändert. Gerade die Microsoft HoloLens dürfte mit der für dieses Jahr angekündigten neuen Version 2 einen großen Schritt nach vorne machen. Dies liegt nicht nur an der wohl deutlich verbesserten Hardware, sondern auch an neuen Software-Lösungen. So ermöglicht zum Beispiel Remote Assist die reibungslose Zusammenarbeit über Videotelefonie mit Hilfe von Heads-Up-Display, Freisprech-Funktion, Bildaustausch und Anmerkungen. Dadurch können Mitarbeiter vor Ort mit einem Experten teilen, was sie in der Realität sehen, während sie gleichzeitig die Hände frei haben, um Probleme zu lösen und Aufgaben schneller zu erledigen. Wie das funktioniert, zeigt dieses Video. Dabei ist die Lösung komplett in die Collaboration-Tools Microsoft Office und Microsoft Teams integriert sowie die Kommunikation auf Unternehmensebene abgesichert.

Da die aktuelle Version der HoloLens wenige tausend Euro kostet, dürfte der Preis für die zweite Version nicht wesentlich höher liegen. Mit der benötigten Standard-Software bleibt die Investition für eine MR-Lösung meist unter 5.000 Euro. Verglichen mit den Kosten für einen Produktionsausfall rentiert sich diese Anschaffung durch die Reduzierung der Zeit für die Problembehebung sehr schnell. Was Unternehmen beim Einsatz von MR sonst noch wissen müssen, etwa weitere Einsatzszarien oder Herausforderungen wie Capability Building, erfahren sie in einem Online-Seminar am 5. Februar 2019. Hier wird auch ein konkretes Einsatzszenario der Microsoft HoloLens live gezeigt. Eine Anmeldemöglichkeit gibt es hier.

Fazit

Für Fertigungsunternehmen bietet Mixed Reality zahlreiche Vorteile, um Gewinneinbußen durch Produktionsausfälle zu vermeiden. So können Mitarbeiter über die HoloLens einen Microsoft-Teams-Videoanruf an einen oder mehrere externen Experten starten. Dieser sieht die Maschine, kann das Bild einfrieren und mit einem Stift Pfeile oder Kreise zur Veranschaulichung zeichnen, die der Mitarbeiter vor Ort an der richtigen Stelle der Maschine im Sichtfeld eingeblendet bekommt – selbst wenn er sich bewegt. Damit kann er deutlich schneller die Maschine reparieren als mit herkömmlichen Methoden – und die Produktion läuft in entsprechend kürzerer Zeit wieder an.

 

 

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Der Weg in die Cloud ist unumgänglich

Mittelständische Unternehmen sind Experten in ihrer Nische. Um spezifische Aufgaben zu lösen, nutzen sie oft sehr spezifische IT-Lösungen, die die Effizienz im jeweiligen Arbeitsumfeld erhöhen. Diese Teilspezifizierung der IT ist einerseits notwendig, steht aber andererseits häufig der Entwicklung und Umsetzung einer IT- und Digitalisierungsstrategie im Weg. Fehlt diese übergreifende Strategie, finden viele Prozesse, die man mittels Software optimieren könnte, zu wenig Beachtung. Unmengen an Daten und Systemen sind dann nicht in die IT-Systemlandschaft integriert. Zudem haben viele Mittelständler nicht genügend IT-Fachpersonal und laufen darum Gefahr, den Anschluss an die fortschrittlichere Konkurrenz zu verlieren. Die Lösung: eine zukunftsweisende IT-Strategie, die ein gut positionierter CIO zielstrebig verfolgt.

Strategische Beratung und Unterstützung

Zu den Hauptaufgaben eines CIO zählt es heute komplexe, zerklüftete und heterogene IT-Strukturen, die über die Jahre als Ergebnis lokal optimierter Einzellösungen entstanden sind, aufzulösen. Solch eine Integration stellt angesichts einer siloartigen IT-Architektur und der fehlenden Gesamt-Roadmap häufig eine große Herausforderung dar. In solch einem Fall empfiehlt sich die Zusammenarbeit mit einem professionellen IT-Dienstleister, der Unternehmen strategisch berät und begleitet. Er unterstützt und berät bei der Anpassung der Geschäftsmodelle, erarbeitet eine passende IT-Strategie und migriert die gewünschten Lösungen in die Cloud – im Sinne eines Smart-Shift. Diese Transformation, die alle Cloud-Ebenen (PaaS, IaaS, SaaS) berücksichtigt, sollte schrittweise, bedarfsorientiert und im laufenden Betrieb erfolgen. Ein Smart-Shift ist zugleich strukturiert und risikoarm, und er kann im individuellen Tempo des Mittelständlers geschehen.

Multi-Cloud-Ansatz ist empfehlenswert

Die größtmögliche Flexibilität bietet ein Multi-Cloud-Ansatz. Die Entscheidung, welche Lösungen man in der Private-Cloud eines deutschen Anbieters betreibt und welche Anwendungen und Systeme man in internationale Public-Clouds auslagert, ist nicht leicht. Ein IT-Dienstleister zeigt verschiedene Möglichkeiten auf, skizziert adäquate Szenarien und erarbeitet eine bedarfsgerechte Kombination von dedizierten IT-Lösungen und verschiedenen Clouds. Er lagert Applikationen und Systeme in die Private-Cloud aus, bindet Public-Clouds möglichst sicher an die IT-Infrastruktur an und sorgt dafür, dass sich bei Bedarf im Projektverlauf weitere Services aus der Public-Cloud einbinden lassen.

Agilität ist Trumpf

Die Modernisierung veralteter IT-Strukturen ist ein Aspekt. Viele Mittelständler wollen aber auch ebenso agil, flexibel und effizient arbeiten können wie Startups. Eine cloudbasierte IT-Infrastruktur ist eine wichtige Voraussetzung für Agilität. Entscheidend ist zudem der richtige Mix aus Standardisierung und Individualisierung: Die Software-Basis sollte möglichst homogen sein, während einzelne Lösungen funktional angepasst sein müssen. Eine agile Arbeitsweise kommt mittelständischen Unternehmen bei der eigenen Transformation und bei Kundenprojekten zugute. Um agil arbeiten zu können, müssen sich Mittelständler von etablierten, aber schwerfälligen Prozessen verabschieden. Es gilt, mutig zu sein und sich schnell zu entscheiden. Anstatt monatelang ein Pflichtenheft zu erarbeiten, braucht es kurze Sprints, in denen IT-Experten kleine Teilaufgaben umsetzen – und dann analysieren, ob Ergebnis und Herangehensweise sinnvoll sind. Ist das der Fall, bilden solche Quick-wins eine optimale Basis für das weitere agile Vorgehen. Entpuppt sich ein Ansatz als wenig erfolgsversprechend, sollten Unternehmen das Ergebnis verwerfen und einen neuen Versuch starten. Flexibilität ist auch bei der Projektarbeit gefordert. Es braucht ein Kern-Team, das ein Projekt über seine gesamte Dauer begleitet und für Stabilität sorgt. Daneben ist es sinnvoll, Mitarbeiter mit ergänzenden Fähigkeiten für spezielle Aufgaben ins Boot zu holen. Sie können unvoreingenommen an eine Herausforderung herangehen, sie mit anderen Augen sehen und kreative Lösungsansätze entwickeln.

Kleine Schritte – große Wirkung: Drei Grundsätze für eine erfolgreiche Digitalisierung

Schritt 1: Notwendigkeit erkennen

Anzeichen für die Notwendigkeit, über Digitalisierungsvorhaben dringend nachdenken zu müssen, gibt es viele und auf fast jeder Unternehmensebene. Doch es gilt, sie zu erkennen und ernst zu nehmen.

So ist etwa die Tatsache, sich bei weitreichenden Entscheidungen auf das Bauchgefühl statt auf valide Kennzahlen verlassen zu müssen, für viele Manager heute noch bittere Realität und sollte die Verantwortlichen aufhorchen lassen. Regelmäßig wird es vor Strategie-Meetings hektisch, und Mitarbeiter müssen für das Erstellen flüchtiger Reports Überstunden machen. In der Regel fehlt es anschließend auch noch an einer Vernetzung der Daten, um eine Aussage zu überprüfen oder um ‚hier‘ gewonnene Erkenntnisse ‚dort‘ nutzbringend zu verarbeiten.

Ein anderes Problem und sicheres Signal für notwendige Veränderungen sind die ‘ungeschliffenen Rohdiamanten‘ in der Produktion. Dort wird Telemetrie gerne noch mit dem Klemmbrett gleichgesetzt, statt vernetzte Mess- und Regelsysteme auch über große Entfernungen (IoT) anzusprechen und zu nutzen. Ein sicheres Alarmsignal ist schließlich, wenn Daten ‘immer wieder‘ statt ‘ständig‘ aufgenommen werden müssen und unvernetzte Steuerungsprozesse nicht die Ausnahme, sondern die Regel sind.

Schritt 2: Mut zur Technik

Sind die Notwendigkeit und die Stellschrauben, an denen gedreht werden muss, erkannt, gilt es die technologischen Optionen abzuklopfen. Denen sind heute kaum mehr Grenzen gesetzt. Aussagen wie „An der Maschine ist aber kein Netzanschluss möglich!“ oder „Die Datenbank ist in Ihrer Größe begrenzt!“ können und dürfen heute nicht mehr Gründe für einen mangelnden Fortschritt der Digitalisierung sein. Wer hier zögert, sollte einen Blick in den südamerikanischen Dschungel wagen. Hier liefern heute Telemetriedaten die Basis für die Beauftragung einer Wartungscrew, da die Leitstelle in Frankfurt am Main erkannt hat, dass der Druck einer Pipeline um 0,001 mbar abgesunken ist. Alles in Echtzeit und über vernetzte Systeme.

Schritt 3: Prozesswissen im eigenen Haus

Die Auftragslage für externe Berater in allen Bereichen war noch nie so gut wie heute. In fast jedem Projekt sind die Schlüsselrollen mit Business-Analysten der TOP-Beratungshäuser besetzt, die eigenen Leute übernehmen die kleinteilige Arbeit. Nie zuvor war das Risiko höher, sich in eine andauernde und zudem teure Abhängigkeit zu begeben wie im Rahmen eines Digitalisierungsvorhabens, welches nicht hinreichendes, internes Wissen/Kompetenz aufweisen kann. Schritt drei heißt also, einen eigenen Chief Digital Officer als kreativen Kopf des Vorhabens einzusetzen und die Schlüsselrollen durch interne Experten zu besetzen. Auch wenn der Know-how-Aufbau ein Digitalisierungsvorhaben zunächst etwas verzögern mag, ist er der Schlüssel zur unabhängigen Nachhaltigkeit nach der Realisierung.

Kleine Schritte mit großer Wirkung

Natürlich ist es mit Schritt eins bis drei längst nicht getan. Auch Fragen etwa nach dem Budget oder dem Changeability-Potenzial eines Unternehmens spielen für den Erfolg von Digitalisierungsstrategien wichtige Rollen. Doch wem es gelingt, überhaupt Notwendigkeiten zu erkennen, eigene Teams aufzubauen und nicht an der technischen Umsetzung zu zweifeln, der schafft es auch, Budgetfragen realistisch zu bewerten und seine Mitarbeiter mit Empathie und Vertrauen mit auf die Reise zu nehmen.

*Volker Altwasser arbeitet bei der expertplace networks Group AG.

Digitale Transformation – agil einsteigen ins IIoT

Aktuell sucht sich die deutsche Wirtschaft ihren Weg in die Industrie 4.0. Allerdings hat der Mittelstand immer noch große Probleme, die richtigen Schritte zu machen. Das zeigt eine Studie der Unternehmensberatung McKinsey: Nur jeder zweite Mittelständler sieht in der Digitalisierung eine Chance. Dabei prognostiziert McKinsey eine zusätzliche Wertschöpfung von 126 Milliarden Euro für deutsche Unternehmen bis 2025 bei konsequenter Digitalisierung[1]. So können Unternehmen mit Innovationsfreude und Mut schnell Wettbewerbsvorteile erzielen, die anderen laufen Gefahr, abgehängt zu werden. Um dem aus dem Weg zu gehen und den Anschluss nicht zu verlieren, muss die Industrie jetzt erste Schritte planen und sich für neue Prozesse zur Integration des IIoT öffnen. Dabei ist es für Unternehmen entscheidend, inwieweit sie in der Lage sind, agile Strukturen aufzubauen und so – zumindest in Teilen – wieder zum Startup zu werden.

Agile Transformation erfordert Umdenken

Da beim Eintritt ins IIoT agile Strukturen besonders wichtig sind, müssen Unternehmen zunächst umdenken. Denn bei IIoT-Projekten sollte nicht der Return of Investment an erster Stelle stehen, sondern die Innovationsbereitschaft. Das heißt, es geht nicht um eine ausführliche und womöglich anstrengende Planung, sondern um den Entdeckergeist. Schritt für Schritt wird in einem kreativen Prozess das Geschäftsmodell entwickelt. Hierfür ist beispielsweise die Arbeitstechnik „Sprint“ hilfreich. Das vom Wagniskapital-Finanzierungsunternehmen Google Ventures entwickelte Verfahren soll Unternehmen helfen, in nur fünf Tagen selbst kritische Probleme zu lösen. Bevor die Herausforderung „Einstieg ins IIoT“ angegangen werden kann, muss zunächst ein flexibles Team gebildet werden, das erste Schritte plant und kleine Ziele erarbeitet, die im Anschluss überprüft werden. So wird zu Anfang ein vorläufiger Prototyp entwickelt, der als zusätzlicher Ideengeber dienen soll. Danach beginnt die „Serienfertigung“ – so zumindest die Theorie.

Allerdings sieht es in der Praxis oftmals anders aus: Anstelle eines agilen Prozesses, welcher Richtungswechsel erlaubt, ja diese sogar ausdrücklich wünscht, werden einmal eingeschlagene Wege sehr selten wieder verlassen. So besteht die Gefahr, sich zu früh an eine Vorgehensweise und damit an einen Partner oder auch an eine bestimmte IIoT-Plattform zu binden. Die IIoT-Entwicklung zeichnet sich jedoch gerade dadurch aus, dass sich Modelle immer wieder verändern. Entscheidet man sich beispielsweise zu schnell für eine Plattform und legt sich auf diese fest, könnte es sich herausstellen, dass die gewählte Technologie weniger zukunftsfähig ist als zunächst gedacht. Dadurch werden Prozesse schnell statisch. Deshalb sollte man zu Beginn eher auf individuelle Lösungen setzen, etwa auf eine Microservice-Architektur, in welcher einzelne Services später ausgetauscht oder erweitert werden und so immer auf die aktuellen Bedürfnisse und Gegebenheiten angepasst werden können.

Agilität entlang der gesamten Wertschöpfungskette

Allerdings reicht es auch nicht mehr aus, für ein einzelnes Projekt agil zu sein. Letztendlich muss die gesamte Arbeitsweise innerhalb eines Unternehmens transformiert werden. Dadurch entsteht eine Geschwindigkeit, die die Wettbewerbsfähigkeit des Unternehmens hochhält. Nicht nur große Softwarefirmen wie Google und Amazon stehen vor diesen Herausforderungen, auch die Industrie muss diese Arbeitsweise annehmen und verinnerlichen, um kundenorientiert arbeiten zu können. Bisher wurden Projekte in der Industrie nach bestimmten Anforderungen geplant. Anschließend entwickelten die Techniker zwei bis drei Jahre lang, oftmals ohne sich zwischendurch umfassendes Feedback einzuholen und eventuelle Anpassungen vorzunehmen. Mittlerweile erwarten Kunden allerdings, dass ihr Feedback schnell aufgenommen und umgesetzt wird. Das bedeutet: Agilität wird auch immer mehr zur Anforderung an die Industrie, die sich dadurch entscheidende Wettbewerbsvorteile verschaffen kann.

 

Gesunde IT-Systeme: Wie sich Fehler erkennen lassen

Mehr als jedes zweite Industrieunternehmen (52 Prozent) in Deutschland hat laut Unternehmensberatung Staufen in diesem Jahr Industrie-4.0-Initiativen in Einzelprojekten oder unternehmensübergreifend umgesetzt. Die Mehrheit verfolgte das Ziel, digitale Produktions-Prozesse und -Techniken (Smart Factory) einzuführen oder zu verbessern. In den kommenden drei bis fünf Jahren wollen Unternehmen in Deutschland vor allem weiter in Multi-Cloud-Umgebungen (37 Prozent) und IoT-Technologien (36 Prozent) im Rahmen ihrer IoT-Projekte investieren, so  Dell.

Multidisziplinärer Ansatz zur Fehler-Erkennung und -Behebung

Dreh- und Angelpunkt von Smart-Factory-Konzepten sind naturgemäß vor allem digitale, durchgängige Prozesse und intelligente Technologien. Hierbei beteiligt sind Anwendungen, Maschinen, Netzwerke, Infrastrukturen, Rechenzentrums-Dienste und schließlich der Endnutzer. In einer vernetzten Industrieumgebung müssen all diese Komponenten fehlerfrei und meist sogar unter Berücksichtigung sehr geringer Latenzzeiten zusammenarbeiten können. Dennoch ist gerade bei vernetzten Komponenten in einer hochverteilten Umgebung die Störanfälligkeit hoch. Wie können (Industrie-) Unternehmen also die Gesundheit ihrer digitalen Dienste und Systeme sicherstellen?

 

Empfehlen lässt sich ein multidisziplinärer Ansatz, der alle beteiligten Komponenten überwacht und Fehler schnell identifizierbar macht. Hierbei sollten Industrieunternehmen im ersten Schritt die Funktionen ihrer jeweiligen digitalen Dienste zerlegen. Ein Dienst lässt sich in diesem Zusammenhang als eine technische Einheit verstehen. Dieser bündelt zusammenhängende Funktionen und stellt diese zum Beispiel einem Nutzer per Schnittstelle zur Verfügung.

Digitale Dienste identifizieren

Der digitale Dienst sollte nun also in seine einzelnen Funktionen, wie den allgemeinen Dienstzustand, beteiligte Anwendungen und Diensteabhängigkeiten (Mapping) zerlegt werden. Außerdem sind die Parameter Reaktionszeiten des Endbenutzers, Sessions, forensische Diagnose, System- und Konnektivitäts-Zustand sowie die IT-Security zu berücksichtigen.

Auf Basis all dieser Kriterien kann der allgemeine Gesundheitszustand des jeweiligen Dienstes gemessen, quantifiziert und ausgewertet werden. Fehlerpotentiale lassen sich so identifizieren und Probleme in der Regel schneller beheben.

1. Allgemeinen Gesundheitszustand eines digitalen Dienstes definieren

In diesem Schritt empfiehlt es sich, eine sogenannte Baseline zu etablieren. Diese hilft zu verstehen, wie sich ein Dienst im Laufe der Zeit verändert oder wie er unter außergewöhnlichen Belastungen reagiert, etwa bei Produktionsspitzen. Dabei kann auch untersucht werden, ob sich der Dienst flexibel erweitert, wenn beispielsweise Cloud-basierte Komponenten dazu geschaltet werden. Sobald eine Baseline festgelegt wurde, kann diese mögliche Anomalien, die zu einer Verschlechterung des Services führen, aufzeigen. Die Baseline soll also den Normalzustand eines Dienstes definieren und als Ausgangszustand dienen, um einen Bezugspunkt für spätere Vergleichsanalysen zu haben.

2. Anwendungsfehler erkennen

Anwendungen werden in Testumgebungen unter meist optimalen Bedingungen erstellt und geprüft. In einer Produktionsumgebung muss die eingesetzte Anwendung jedoch mit anderen Komponenten fehlerlos interagieren – und wird somit zu einem System aus mehreren Variablen. Unternehmen sollten daher prüfen, ob sie nach Anwendungsimplementierung noch die Möglichkeit haben, Anwendungsfehler zu detektieren, die für die Anwendung selbst, den Anwendungsentwickler oder den Endbenutzer möglicherweise nicht erkennbar sind. Fehler können sich auch erst später bemerkbar machen, etwa in Form erhöhter Response-Zeiten.

Oft können sich Fehler auch in der Kommunikation zwischen den Komponenten eines Dienstes verbergen. Aus Redundanzaspekten haben Dienste mehrere Komponenten, die wiederum vielfältige Abhängigkeiten aufweisen, um den Dienst auszuführen, Benutzer zu authentifizieren und Informationen zwischen den Komponenten des Dienstes zu verteilen.

3. Dienstabhängigkeiten zuordnen: Service Dependency Mapping

Ein digitaler Dienst kann sich im Laufe der Zeit verändern, wenn etwa neue Komponenten zugeschaltet oder zusätzliche Aufgaben von ihm übernommen werden. Damit der Überblick nicht verloren geht, sollten Unternehmen definieren: Was macht einen Dienst aus, wie kommuniziert dieser und wovon ist er abhängig? Diese Übersicht (Logic Map) ist besonders hilfreich, wenn etwa eine System- oder Plattformmigration ansteht.

4. Antwortverhalten des Systems bezogen auf Endnutzer messen

Digitale Dienste werden neben Maschinen auch von Endanwendern, etwa Mitarbeitern, genutzt. Hierbei ist es ein wesentlicher Faktor, das Antwortzeitverhalten von Anwendungen (Response Time) zu messen, um die User Experience hoch und Produktivitätseinbußen gering zu halten. Sind diese Reaktionszeiten zu lang, sollten entweder eine Kapazitätserweiterung oder Fehlerbehebungsmaßnahmen eingeleitet werden. Haben Unternehmen keinen Überblick über die angesprochenen Diensteabhängigkeiten, gestaltet sich die Fehlersuche nach langen Reaktionszeiten jedoch oft zeit- und kostenintensiv.

5. Sessions: bestehende Verbindungen prüfen

Bei einem Dienst mit mehreren Komponenten besteht jede Interaktion zwischen den Komponenten aus mehreren Sessions. Jede Sitzung sollte überwacht und per Session Health Score bewertet werden. So ist es einfacher, fehlgeschlagene Sitzungen zu detektieren. Diese führen oft zu höheren Response-Zeiten und können auf mögliche Ressourcen-Engpässe hinweisen.

6. Forensik-Tools frühzeitig etablieren

Gibt es Probleme mit Ineffizienzen im System, müssen Unternehmen forensische Maßnahmen ergreifen. Damit ist es möglich, tiefergehende Ursachenforschung zu betreiben, um etwa Verbindungsprobleme innerhalb und zwischen den Diensten aufzudecken. Liegen jedoch zum Zeitpunkt der Fehlermeldung zu wenig forensische Daten vor, muss oft abgewartet werden, bis das Problem erneut auftritt. Ebenso verkürzen erst zu diesem Zeitpunkt eilig eingerichtete Forensik-Systeme die Zeit für die Fehlerbehebung nicht.

7. Systemmonitoring einbinden

Oft haben Unternehmen ein Systemmonitoring eingerichtet. Doch wie knüpft dieses an die oben genannten Themen an. Unternehmen müssen sich die Frage stellen, ob sie alle erwähnten Parameter mit einem gemeinsamen Datensatz verknüpfen können – oder ob alle Datensätze isoliert gesammelt werden, ohne dass sie miteinander in Beziehung gesetzt werden können.

8. IT-Sicherheit

Mit zunehmender Bedrohungslage ist auch der Aspekt IT-Sicherheit unbedingt zu berücksichtigen. So ist laut IT-Sicherheitsbericht 2018, den das BSI im Oktober veröffentlich hat, die Gefährdungslage im Bereich Cybersecurity in den vergangenen Monaten abermals vielschichtiger geworden. Gerade Distributed-Denial-of-Service (DDoS) -Attacken sind gefährlich. Bei einer DDoS-Attacke werden Server, Web-Dienste, IT-Komponenten oder die IT-Infrastruktur solange mit Datenverkehr überlastet, bis diese nicht mehr verfügbar sind. Laut Sicherheitsbericht von NETSCOUT Arbor gab es 2017 in der DACH-Region knapp 197.000 derartiger Cyber-Attacken. Organisationen und Unternehmen mussten also umgerechnet 22 DDoS-Angriffe pro Stunde abwehren.

Vor allem die Zahl von Multivektor-Angriffen wird künftig zunehmen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. Somit ist es also möglich, per DDoS-Attacke digitale Dienste zu schädigen oder lahmzulegen. Unternehmen sollten daher prüfen, wie sie ihre vernetzten Dienste mit geeigneten Security-Tools vor Ausfall und Datenabfluss schützen können.

Fazit

Gerade in der Smart Factory, aber auch anderen IIoT-Szenarien, in dem die hochgradige Vernetzung im Mittelpunkt steht, muss die eingesetzte Technologie reibungslos funktionieren. Geht es beispielsweise um vernetzte Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, kann eine fehlerhafte Dienstkomponente gravierende Konsequenzen nach sich ziehen. So kann der Informationsaustausch zwischen Maschinen und Produkten beeinträchtigt werden und nachgelagerte Prozesse oder gar Produktionsschritte komplett zum Erliegen kommen. Digitale Dienste müssen also vielfältige Aufgaben übernehmen, steuern und dabei höchsten Anforderungen Rechnung tragen. Ein geeigneter, multidisziplinärer Ansatz, um Fehler und Störquellen im Vorfeld zu identifizieren, ist für Unternehmen daher erfolgskritisch.

Schnelle Innovationen durch Hackathon

Im Zuge der umfassenden Digitalisierung und Vernetzung werden Unternehmen von vielen Themen geradezu überflutet. Die Herausforderung besteht oft darin zu entscheiden, welche dieser Themen aus fachlicher oder technischer Perspektive wichtig sind und in die eigenen Geschäftsziele einzahlen.

Entsprechend müssen für die identifizierten Themen und Problemstellungen Lösungsansätze und Innovationen entwickelt werden. Doch wie so oft gilt: Eine Idee bleibt eine Idee, bis man sie umsetzt. Wie können Projektteams also aus einer ersten Ideen-Phase hinauskommen und über konkrete Projekte greifbare Ergebnisse erzeugen?

Verschiedene Methoden für Innovation Management

Für das laufende Innovation Management stehen diverse Methoden zur Erzeugung und Bewertung von Ideen bereit, die aufeinander aufbauen oder auch getrennt voneinander durchgeführt werden können. Dazu gehören:

  • Innovation Workshops. Sie bringen Stakeholder aus verschiedenen Bereichen zusammen, um Ideen zu generieren, zu bewerten und einen kleinen Teil davon auszuwählen. Diese vielversprechenden Ideen werden anschließend aus unterschiedlichen Perspektiven analysiert, wobei jeder Stakeholder Quick Wins definiert. Diese Themen lassen sich dann umsetzen.
  • Design Thinking. Design Thinking ist eine moderne Methode, die einen längeren Prozess beschreibt. Dennoch lassen sich – gerade aus den ersten Phasen – wichtige Erkenntnisse ziehen. Es geht darum, ein Problem bestmöglich zu begreifen und zu beschreiben. Die Methode eignet sich somit am besten für ein konkretes Problem oder eine konkrete Idee. Dabei liegt der Fokus auf der Entwicklung von Lösungen, die aus Anwendersicht überzeugend sind. Hierzu sind die relevanten Personengruppen zu identifizieren und als „Personas“ zu beschreiben, um das Problem möglichst zielgenau auf den Punkt zu bringen.
  • Mini-Hackathon. Nach einer Präsentation des Themas werden Vorschläge gesammelt sowie die vielversprechendsten Ideen innerhalb weniger Stunden ausgearbeitet. Bei mehreren Teams sollten diese jeweils aus Personen mit verschiedenen Rollen aus unterschiedlichen Unternehmensbereichen bestehen. Fachliche Themen lassen sich in der Regel mit einem Pen & Paper Hackathon bearbeiten, technische Themen im Rahmen eines Proof-of-Concepts umsetzen. Ziel des Mini-Hackathon ist es, etwas Konkretes in der Hand zu haben, um es erleben zu können.

Wenn zum Beispiel die Verkäufe ohne erkennbaren Grund zurückgehen, lassen sich mit einem Innovation Workshop kreative Ideen für neue und veränderte Angebote generieren. Die Vielversprechendsten können mit Design Thinking an die Zielgruppen und Personas angepasst werden, woraufhin konkrete Lösungen anhand von Rapid Prototyping oder einem Mini-Hackathon entstehen. Ist das Problem bereits bekannt und gut beschrieben, kann man auch direkt mit einem Hackathon starten.

Beispiel für einen Hackathon

Ein Unternehmenskunde will Bots über einen agilen Ansatz entwickeln und einsetzen. Zunächst werden relevante Stakeholder identifiziert und die Zeitplanung festgelegt. In der Vorbereitung gilt es, die Vision zu definieren, technische Fragen zu klären, die SCRUM-Umgebung einzurichten und den Produkt-Backlog vorab zu befüllen. Das gemeinsame Team legt eine Woche vor dem Hackathon Vision, Umfang und weitere Kriterien fest.

Am ersten Tag erfolgt nur ein Sprint, der „Exploration Sprint“. Dieser dient zur Einrichtung der Backend-Dienste und ihrer Kommunikation. In den nächsten beiden Tagen werden jeweils zwei vierstündige Sprints mit Planung, Reviews und Retrospektive durchgeführt.

Der wichtigste Teil ist die Demo am letzten Tag, bei der die greifbaren Ergebnisse vor wichtigen Stakeholdern präsentiert werden. Teilnehmer sind beispielsweise der Leiter des Intranets, der Leiter des Web-Shops und die Leiter des weltweiten Service Centers. Diese geben abschließend wertvolles Feedback.

Fazit

Mit einem Mini-Hackathon werden ausgewählte Use Cases und Ideen schnell in die Praxis umgesetzt und ein erstes Minimal Viable Product erzeugt, das durch so viele relevante Personengruppen wie möglich bewertet wird. Dadurch lässt sich ohne hohe Kosten ein Thema schnell evaluieren und ein Projekt vorantreiben oder bei mangelnden Erfolgsaussichten beenden. So können Unternehmen das Thema besser bewerten und das Projekt effizienter bis zur Produktionsreife weiterentwickeln.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.