Archiv der Kategorie: IOT – IoT-Technologie

Die Cloud ist wesentlicher Treiber der digitalen Transformation

Viele Manager und Unternehmer winken genervt ab, wenn sie mit Buzzwords wie „Digitale Transformation“, „Digitalisierung“ oder auch „digitaler Wandel“ konfrontiert werden. Ihre ablehnende Haltung ist durchaus verständlich: Während es manchen Unternehmen bereits gelungen ist, ihr Geschäftsmodell, ihre Prozesse, ja sogar das Mindset ihrer Mitarbeiter zu „digitalisieren“, sieht die Realität im Gros der Unternehmen anders aus: Sie wissen eher schlecht als recht, an welchen Stellschrauben sie zuerst drehen sollen, um das Ruder in Richtung digital herumzureißen.

Digitalisierung ist in vollem Gange

Die Lünendonk-Studie „Fit für die digitale Transformation. Status quo und Ziele bei Legacy-Modernisierung und Cloud-Migration“, die in Zusammenarbeit mit Arvato Systems entstanden ist, gibt einen sehr detaillierten Einblick in die IT-Modernisierungsstrategien großer mittelständischer Unternehmen und Konzerne. Die Datenerhebung erfolgte im Herbst 2018 auf Basis von Telefoninterviews mit IT-Führungskräften von 122 Unternehmen aus dem gehobenen Mittelstand, Großunternehmen und Konzernen. Viele Unternehmen befinden sich inmitten eines weiteichenden Digitalisierungsprozesses, es gibt viel zu tun – und zwar gleich auf mehreren Ebenen. Neben der Strategie sind auch die Produktentwicklung, die Aufbau- und Ablauforganisation sowie die IT-Landschaft zu transformieren.

Start-ups haben strategische Vorteile

Wie zielführend und schnell das gelingt, hängt maßgeblich davon ab, wie lange ein Unternehmen bereits am Markt ist. Start-ups können ihre Business- und Operating-Modelle, ihre Prozesse und ihre IT-Landschaft von Beginn an agil, kundenzentriert und datenbasiert gestalten. Darin liegt im Übrigen auch der Erfolg der großen Internetkonzerne wie Google und Amazon begründet. Hier sind die Geschäftsprozesse eng miteinander verzahnt, über Microservices und APIs ist es möglich, Plattform-Geschäftsmodelle aufzubauen und Drittsysteme nahtlos an die eigene IT-Landschaft anzubinden. Zudem können sie auf einen großen Datenbestand zugreifen und gewinnbringend auswerten.

Etablierte Unternehmen müssen radikal umdenken

Demgegenüber stehen etablierte Firmen und Konzerne vor der Herausforderung, zunächst komplexe Legacy-Prozesse zu digitalisieren und inhomogene IT-Strukturen, basierend auf historisch gewachsenen Altsystemen, aufzulösen. Auch etablierte Unternehmen brauchen eine schnittstellenoffene, flexible, hochskalierbare und agile IT.

Dementsprechend kommt die Studie zu folgenden Ergebnissen:

  • Treiber der IT-Modernisierung gibt es viele: Legacy-Systeme sind üblicherweise nicht in der Lage, neue Technologien wie KI oder Big-Data-Analytics zu unterstützen, was eine Modernisierung dringend erforderlich macht. Erschwerend kommt hinzu, dass viele Altsysteme keine offenen Schnittstellen (APIs) haben und darum nicht mit neuen digitalen Lösungen integrierbar sind.
  • Die Mehrheit der befragten Unternehmen modernisiert aktuell ihre IT-Infrastruktur. Altanwendungen in die Cloud zu migrieren und sie anschließend zu modernisieren, ist dabei die präferierte Vorgehensweise.
  • Ein Fünftel der befragten Unternehmen setzt bereits auf eine Cloud-First-Strategie, gut ein Viertel plant dies. Auch wenn die meisten Unternehmen derzeit eine Private-Cloud nutzen, sind viele gegenüber der Public Cloud zunehmend aufgeschlossener. 67 Prozent der Befragten planen, ihre Investitionen in die Public-Cloud stark bis sehr stark zu erhöhen.
  • Die Gründe, aus denen Unternehmen ihre IT-Systeme in die Cloud migrieren, sind vielfältig. Sie wollen Lastspitzen abfangen, Daten schneller verfügbar machen und flexibler agieren können. Bedenken bestehen allerdings hinsichtlich Sicherheit. Für bestimmte, geschäftskritische Anwendungen mit sensiblen Daten ist und bleibt die Legacy-Modernisierung im On-premise-Modell eine realistische Alternative.
  • Für Dreiviertel der befragten Unternehmen ist es eine Herausforderung, Cloud-Lösungen an die bestehende IT-Systemlandschaft anzubinden. Dass Daten häufig nicht interoperabel und Security- sowie Compliance-Anforderungen nur mangelhaft umgesetzt sind, ist ein weiteres Problem. Bei der Modernisierung von Legacy-Systemen haben Unternehmen vornehmlich Schwierigkeiten, Sicherheitsanforderungen zu erfüllen. Zudem betrachten sie den möglicherweise hohen Zeitaufwand als kritischen Faktor.
  • Um ihre Unternehmensorganisation an die veränderte IT-Infrastruktur anzupassen, setzen 90 Prozent der Unternehmen auf eine stärkere Vernetzung von Bereichen, Prozessen und Systemen. Daneben bilden sie ihre Mitarbeiter fort und arbeiten verstärkt mit IT-Partnern zusammen. Zweidrittel der Befragten greifen auf DevOps zurück.

Investitionen in die Cloud erhöhen

Da es viele Unternehmen in der Vergangenheit versäumt haben, ihre Legacy-Systeme radikal zu modernisieren, ist der Handlungsdruck nun sehr hoch. Vor allem die Fachbereiche erwarten automatisierte Prozesse und vollintegrierte digitale Lösungen. Ein wichtiger Baustein der Modernisierung besteht darin, Altsysteme sukzessive cloudfähig zu machen beziehungsweise durch APIs und Microservice so zu verändern, dass sie hybride Modelle abbilden können. Dementsprechend investieren Unternehmen immer stärker in die Cloud.

Ohne externe Partner geht es nicht

Die meisten deutschen Unternehmen sind zwar auf einem guten Weg, benötigen bei der digitalen Transformation jedoch externe Unterstützung. Neue strategische Partnerschaften sind für die meisten der befragten Unternehmen eine wichtige Voraussetzung, um ihre IT digital aufstellen zu können. Der Mangel an IT-Fachkräften und der Zeitdruck sind jedoch zu groß, als dass Unternehmen dies alleine bewältigen könnten.

Die Ergebnisse der Studie sind unter https://www.arvato-systems.de/arvato-systems/beratung-innovation/innovation verfügbar.

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.

Warum die Welt nicht wirklich vernetzt ist – noch nicht.

Auch wenn es so aussieht, als würden wir in einer vollständig verbundenen Welt leben, sind wir es nicht. Und da das Internet der Dinge die Anzahl und den Umfang der angeschlossenen Geräte drastisch erweitert, bietet das traditionelle Modell der Kommunikationsverbindung nicht mehr die Flexibilität und Autonomie, die die Verwaltung von länderübergreifenden IoT-Projekten erfordert. Eigentlich benötigen Unternehmen ein einziges, globales Mobilfunknetz – oder zumindest eines, dass nahtlos erscheint.

Doch die Realität sieht anders aus: Das Internet der Dinge steckt noch in den Kinderschuhen. Im Moment ist die Konnektivität oft auf die Vertragsgefüge der Carrier beschränkt. Wenn AT&T beispielsweise nicht in einer bestimmten Region aktiv ist, haben AT&T-fähige Geräte eine zunächst einmal eine Verbindungsproblematik. Mit einer globalen IoT-Plattform können Geräte – unabhängig vom Standort – zu einem möglichst niedrigen Preis ständig verbunden bleiben oder für eine bestmögliche Konnektivität ständig verbunden werden.

Die Datennutzung nimmt sehr schnell zu, und die meisten Mobilfunkbetreiber können ihre Netze nicht im gleichen Tempo bereitstellen. Dadurch ergeben sich Möglichkeiten für Unternehmen, ihre eigenen globalen Konnektivitätsnetzwerke aufzubauen. Ein globaler Anbieter von virtuellen Netzwerken kann in allen wichtigen Jurisdiktionen tätig sein, in denen die meisten Mobilfunkbetreiber nicht erreichbar sind, wodurch ein wirklich globaler und flächendeckender Zugang zu Konnektivitätsdienstleistungen erst möglich wird.

Globale Auswirkungen

Das Internet der Dinge bietet Einblicke und erhellt Situationen, die bisher verborgen lagen: Transparenz und Einblicke in Aktivitäten vom verbesserten Flottenmanagement für Nutzfahrzeuge über den effizienten Betrieb von Fluggesellschaften bis hin zur verbesserten medizinischen Versorgung und vernetzten Fahrzeugen. Die Erschließung des Potenzials des Internet der Dinge (IoT) ist heute ein Schlüsselelement in digitalen Transformationsprogrammen für Unternehmen.

Nehmen wir ein Beispiel aus der Logistik: Sie geben ein Paket an DHL oder FedEx weiter und es landet an der Lieferadresse. Während es möglich ist, online einzusehen, wann und wo es angenommen wurde, ob es in einem Versanddepot liegt und ob es auf dem Weg zum Ziel ist, ist das nur ein Teil der Geschichte. Mit einem global vernetzten Netzwerk können verschiedene Sensoren, die den Standort des Pakets übermitteln, genau sagen, wo sich das Paket auf seiner Reise befindet und welche Umweltbedingungen während der Fahrt herrschen. Dadurch ergeben sich neue Geschäftsmöglichkeiten, etwa bei verderblichen Waren.

Jetzt können Unternehmen aus den Bereichen Logistik und Spedition sicherstellen, dass ihre Fahrer immer mit dem Heimatstandort verbunden sind. Und Manager können mit der Analysesoftware die wichtigsten Leistungsaspekte ihrer Flotten weltweit und zu jeder Zeit verfolgen und analysieren. Dies hat derivative Effekte wie niedrigere Versicherungsprämien und eine bessere Verfügbarkeit der Wartungsdaten.

So unterstützt beispielsweise die thailändische DRVR Unternehmen in Europa und Asien bei der Disposition von Fahrzeugen und senkt die Kraftstoffkosten. Die angeschlossenen Sensoren von DRVR können erkennen, ob die Tür eines Fahrzeugs für einen bestimmten Zeitraum offen war oder ob sich eine bestimmte Position außerhalb der zulässigen Grenzen befindet. Die Herausforderung besteht darin, dass es in den Gebieten, in denen die Kunden von DRVR unterwegs sind, mehrere lokale Mobilfunkanbieter gibt. Bisher ist der einzige Weg, auf Daten in all diesen Regionen zuzugreifen, ein Vertrag mit jedem Mobilfunkbetreiber in jeder Region. Das wäre teuer und ein operativer Alptraum. Mit einem globalen Netzwerk, das grenzüberschreitende Verbindungen bietet, wäre das kein Problem.

Ein weiteres Beispiel ist die Luftfahrtindustrie. Die Mitarbeiter benötigen eine Konnektivitätsplattform, die ein besseres Kundenerlebnis bietet, während sie den Betrieb in länderübergreifenden Einsätzen koordiniert. Unsere MOVE-Plattform hilft beispielsweise einer im Mittleren Osten ansässigen, global operierenden Fluggesellschaft, sicherzustellen, dass ihr Betrieb in jedem Teil der Welt funktionsfähig ist. Wir bieten lokale Mobilfunkbetreiberverbindungen und Betreiber-unabhängige Roaming-Kostenverwaltung und Signalstärke. Diese Vereinbarung hilft der Fluggesellschaft, die beste Servicequalität auf allen Kontinenten, auf denen ihre Flotten tätig sind, zu gewährleisten.

Die Automobilindustrie ist eines der besten, aber auch anspruchsvollsten Beispiele für das Potenzial eines globalen Netzwerks. Die Fähigkeit eines Fahrzeugs, sich mit der Außenwelt zu verbinden, verbessert ohne Zweifel das Fahrer- und Passagiererlebnis und bietet spannende neue Möglichkeiten für Dienstleistungen. Automobilhersteller, Versicherungen und Telematikanbieter haben ein großes Interesse an den Leistungsdaten eines Fahrzeugs, mit denen sie Aspekte des eigenen Betriebs und der Instandhaltung optimieren, Infotainment-Dienste der nächsten Generation mit zusätzlicher Sicherheit und immer größeren Mehrwert für den Fahrzeughalter bieten können.

Dennoch: Neue vernetzte Fahrzeuglösungen, insbesondere solche in der Anfangsphase, sind komplex und entstehen aus einer fragmentierten Kombination des Know-hows unterschiedlicher Anbieter. Die Herausforderung für den Automobilhersteller besteht darin, Anwendungsfälle zu entwickeln, die den Bedürfnissen seiner Kunden am besten entsprechen und diese mit höchster Effizienz und geringster Komplexität erfolgreich umzusetzen. Mit einer globalen, einheitlichen Integrationsplattform wie Tata Communications MOVE wird der Zugang zu 600 Mobilfunknetzen in 200 Ländern der Welt ermöglicht. Damit ist sichergestellt, dass die für „angeschlossene“ Geräte lebenswichtige Kommunikationsverbindung immer unter Kontrolle ist, während die Möglichkeit des Providerwechsels nicht mehr die logistischen und operativen Auswirkungen hat, die sie bisher hatte.

Zuletzt bietet das Internet der Dinge auch im Gesundheitswesen Vorteile mit sich. So können, je nach Konfiguration, alle Beteiligten (etwa Ärzte, Patienten und Mitarbeiter) Zugang zu den Daten und Anwendungen erlangen, die sie benötigen, wo und wann immer sie gebraucht werden. Dies ermöglicht es der ganzen Branche, einheitliche Standards in der Patientenversorgung aufrechtzuerhalten und auch neue Dienstleistungen, etwa die Telemedizin, auszuloten, die eine wichtige und wirtschaftliche Möglichkeit ist, Patienten in abgelegenen Gebieten und bevölkerungsärmeren Ländern zu erreichen.

Gerade können wir erleben, wie die vernetzte Gesundheitsversorgung in Asien zum Leben erwacht. Ein aktuelles Beispiel ist TaiDoc Technology, ein Hersteller von hochwertigen Medizinprodukten zur Verbesserung der Gesundheit und Lebensqualität der Menschen, der ein globales Netzwerk nutzt, um die Reichweite seiner Geräte auf Länder wie China, Thailand und die USA auszudehnen.

Hier ist das Fazit: Um ihr volles Potenzial auszuschöpfen, benötigen IoT-Geräte eine wirklich grenzenlose, sichere und skalierbare Konnektivität, die die Erfassung, Bewegung und Verwaltung von Informationen weltweit ermöglicht. Während die Mobilfunkverbindung eine effektive Grundlage für IoT-Dienste ist, sind die heutigen Mobilfunknetze von Natur aus lokal. Wir müssen ein globales Ökosystem der Konnektivität aufbauen, um die Einführung des IoT durch Unternehmen weltweit voranzutreiben.

Die nächste Evolutionsstufe für Produktions- und Engineering Services – Teil 2

Dabei liegt China bei der Einführung von Industrie 4.0 vorne. Im Vergleich mit anderen Märkten ist China ein Produktionsstandort mit relativ brachliegenden Industrien. Länder wie Indien und Brasilien, die kein langjähriges Industrievermächtnis haben, könnten Industrie 4.0 deshalb schneller einführen. Unter den Staaten mit großen Industriebrachen starteten insbesondere Unternehmen in Europa und Nordamerika ihre Transformation direkt großflächig.

Hierbei zeichnen sich neben dem neuen Mobilfunkstandard 5G und dem super schnellen Edge Computing ein paar weitere Schlüsseltechnologien ab.

  • SDN/NFV: SDN- und NFV-Anwendungen werden in der Netzwerkindustrie vermehrt zum Einsatz kommen und ersetzen schnell Hardware und integriertes Equipment. Mithilfe von kontinuierlichen Investitionen und Spezialisierungen konnten wir eine breite Palette Software Defined Networking (SDN)-Angeboten entwickeln.
  • Autonome Technologien:  In der Fertigung werden neben den traditionellen Industrierobotern immer mehr autonome Robotiktechnologien zum Einsatz kommen. So werden beispielsweise Autonomous Guided Vehicles (AGV) – sogenannte Bots – in gefährlichen und giftigen Umgebungen eingesetzt und ersetzen hier Menschen oder manuelle Arbeiten. Dieser Trend wird sich fortsetzen und immer weiter verbreiten, sodass Unternehmen sich in manchen Bereichen nicht mehr auf Menschen und Handarbeit verlassen müssen – dies wird die Effizienz erheblich steigern.
  • Digital Engineering: Digitale Zwillinge, fortschrittliche 3D-Modellierung, Simulationen und Tests von Designs werden zunehmend in der Fertigung eingesetzt. Der Designzyklus wird verkürzt, gleichzeitig durch eine erweiterte Simulationen die Validierung und Qualität verbessert. Ergänzt wird dies durch die Integration von Product Lifecycle Management (PLM), die bei der Nachverfolgbarkeit und Compliance hilft und vor allem Fehler bei der Produktherstellung reduziert.
  • Additive Fertigung: Diese Technologie stammt ursprünglich aus den Laboren und hat sich auch bei der großtechnischen Anwendung in der Industrie als kostengünstig für die Prototypen-Entwicklung erwiesen. Die metallbasierte additive Fertigung und die Polymer-basierte additive Fertigung verändern die Art und Weise, wie Dinge entworfen und hergestellt werden. Dies wird das Produktdesign revolutionieren und die Kosten senken.
  • KI-augmented Analytics: Die Technologie ermöglicht es Unternehmen, Szenarien zu kombinieren, das Verständnis zu verbessern und mithilfe von KI-basierten Analyse-Tools vorausschauende Entscheidungen in Echtzeit zu treffen.

Trotz Automatisierung: Ohne den versierten Softwarenutzer geht‘s nicht

Unternehmen, die diesen Trend erkennen, entscheiden sich verstärkt für spezielle Marketing-Automation-Lösungen; so beispielsweise auch eine  internationale Management- und Technologieberatung. Den dortigen Verantwortlichen war aber auchklar: Selbst die beste Software entfaltet ihr Potenzial nicht von allein. Es bedarf geschulter Anwender im Unternehmen, die den digitalen Helfer optimal einsetzen können. Man legte daher besonderen Wert darauf, die Software-Einführung mit zielgerichteten Mitarbeitertrainings zu flankieren. Hier kommen Customer-Engagement-Spezialisten ins Spiel.

Keine E-Mail verschwindet im Nirwana

Das internationale Consultingunternehmen unterhält Büros in über 20 Ländern und beschäftigt mehrere Tausend Mitarbeiter. Um den umfangreichen E-Mail- Verkehr im Marketing besser zu managen, führte es ein Marketing-Automation-Tool ein. Besonders wichtig war den Verantwortlichen, dass sämtliche Daten, die bei den automatisierten Marketing- Prozessen erfasst werden, dann automatisch im CRM zur Verfügung stehen. Denn so lassen sich alle Aussendungen überwachen und analysieren. Eine solche Lösung stellt für jede E-Mail fest, ob sie angekommen ist und gelesen oder gelöscht wurde. Die Software registriert jeden Klick auf Verlinkungen in der Mail. Damit sind die Absender genau im Bilde, ob der Empfänger auf der Website war und welche Seiten er dort besucht hat.

Generalprobe zunächst an nur einem Standort

Die Marketing-Mitarbeiter in einer der Niederlassungen in Europa waren die ersten, die Erfahrungen mit der neuen Software sammelten. Die Software diente ihnen dazu, den Versand von internen und externen Newslettern und Einladungen zu optimieren. In der Regel verschickt diese Marketingabteilung monatlich tausende Eventeinladungen. Ihr Tracking und der Informationsrückfluss ins CRM-System gibt Hinweise, wie mit laufenden Aktionen weiter zu verfahren ist und wofür sich die Kunden in Zukunft interessieren könnten. Ein Anwender wird eine Software jedoch nur dann vollumfänglich nutzen, wenn er sie richtig kennt und mit ihr umzugehen weiß. Das Beratungsunternehmen holte sich daher gleich zum Projektstart Unterstützung ins Haus: CRM-Spezialisten, die sich besonders auf CRM und Customer Engagement fokussiert haben. Von Beginn an waren auch zwei Manager des Kunden dabei, die standortübergreifend für das Gesamtunternehmen verantwortlich sind und ihren Sitz in verschiedenen europäischen Großstädten haben: ein IT-Advisor und der Manager IT-Applications. Letzterer erhielt als zuständiger IT-Administrator eine besonders detaillierte Schulung.

Test bestanden, nun wird weltweit geklickt

Die Ergebnisse der Testphase waren vielversprechend. Anfang letzten Jahres fiel daher die Entscheidung, die Spezialsoftware unternehmensweit in allen Niederlassungen zu implementieren. Im ersten Schritt ging es darum, die Software für einen optimalen Versand und zur Nachverfolgung von Newslettern, Veranstaltungseinladungen und informellen E-Mails zu nutzen – in den lokalen Marketing-Abteilungen, die die Unternehmensberatung derzeit in mehr als zehn Ländern unterhält. Schließlich müssen sowohl die Marketing-Leute als auch die IT-Spezialisten vor Ort das Programm wie ihre Westentasche kennen, um es bestmöglich einzusetzen. Entsprechend haben die Mitarbeiterschulungen sofort begonnen, nachdem die Entscheidung für das Tool gefallen war. Innerhalb weniger Monate fanden dann in acht europäischen Metropolen zweitägige Schulungen statt. Aktuell sind weitere Mitarbeiter-Trainings in Planung.

Die IT harmonisieren und dennoch lokale Besonderheiten zulassen

Teilweise unterscheiden sich die einzelnen Marketingprozesse von Land zu Land – so ist beispielsweise die Kontaktbeschaffung verschieden: Manche Niederlassungen greifen auf Excellisten mit Kontaktdaten zurück, die ihnen Partner zur Verfügung stellen, andere bevorzugen Events, um Neukontakte zu erhalten, wieder andere nutzen dafür eher Quellen im Netz, etwa Unternehmenswebsites. Eine Anpassung der Software-Features an die konkreten lokalen Bedingungen kann daher sehr sinnvoll sein. Gemeinsam mit den Spezialisten haben die IT-ler vor Ort diese Anpassungen vorgenommen. Als außenstehender Dienstleister war es dabei deren Aufgabe, die globale Betrachtungsweise beizubehalten und eine gute Balance zwischen unternehmensweit einheitlicher Software und lokalen Besonderheiten zu finden.

Alle unter einen Hut bringen

Aktuell hat die Unternehmensberatung mehr als 40 Marketingmitarbeiter. Sie alle sollen nicht nur die neue Automation-Software nutzbringend einsetzen, sondern auch gegenseitig von ihren Erfahrungen profitieren. Ein guter Anbieter hält diese darum stets auf dem Laufenden, genauso wie die weiteren involvierten Mitarbeiter, etwa Regionalleiter für die DACH-Region, IT-Mitarbeiter und das Unternehmensmanagement. Nahezu wöchentlich fanden Abstimmungen mit dem Manager IT-Applications und den Vor-Ort-Teams statt. Insgesamt haben die Customer-Engagement-Spezialistenwährend der Einführung der Software die Arbeit von rund 50 Personen koordiniert.

Man muss es auch können wollen

Wie gut eine Software im Unternehmen funktioniert, hängt entscheidend von der Mitarbeiter-Akzeptanz ab. „Da gab es bei unseren Nutzern überhaupt keine Schwierigkeiten“, zeigt man sich im Projekt- Team des Consultingunternehmens zufrieden. Geholfen hat sicher, dass die Nutzer frühzeitig in das Softwareprojekt eingebunden waren. Zudem haben die Schulungsexperten die Mitarbeiter mit der Anwendung bestens vertraut gemacht. Neben einem weltweit verbesserten Customer Relationship Management mit einheitlich hohen Qualitätsstandards zählt dazu auch die strikte Anwendung des Corporate Designs durch vorgefertigte Templates. Auch eine indirekte Kostenreduktion durch gestiegene Effizienz ist absehbar, denn die diversen IT-Abteilungen müssen sich nur noch mit einem Marketing-Automation-Tool auseinandersetzen, das überall gleich ist.

Newsletter sind nur der Anfang

Der erfolgreiche Rollout– und die dazugehörigen Trainings – werden weitergehen. Es ist zudem geplant, in weiteren Ländern nationale Marketing-Abteilungen aufzubauen. Auch diese Teams werden die Customer-Engagement-Spezialistendann in kürzester Zeit auf den Wissensstand ihrer Kollegen bringen. Weitere Möglichkeiten der Software werden bereits besprochen. Denkbar wären beispielsweise Funktionalitäten für das Subscription- und das Event-Management. Was auch immer für Module in Zukunft noch zum Einsatz kommen, eins steht für die Unternehmensberatung fest: nämlich, dass professionelles CRM nur möglich ist, wenn die Nutzer mit dem System auch professionell umgehen können. Menschen bleiben wichtig, gerade im CRM-Kontext.

 

IoT: Zutrittskontrolle und Cybersecurity

Die Verknüpfung von physischen und digitalen Sicherheitskomponenten mit dem IoT läutet in der Tat die nächste Phase der digitalen Transformation ein: Das Zusammenspiel aller Komponenten eines vernetzten Sicherheitssystems optimiert zum einen die Effektivität, zum anderen übermitteln die individuellen Hardwareeinheiten Daten, die bei richtiger Handhabung auch eine Business Intelligence ermöglichen. Das Thema Cybersecurity ist dabei elementar und essentiell für den Erfolg eines jeden IoT-Systems.

Vernetzte Zutrittskontrolle

Ein interessantes Beispiel für ein solches vernetztes System ist die Zutrittskontrolle. Denn die Technologien von Türstationen umfassen weit mehr als nur Video-Türklingeln. Als Teil eines IoT-Systems können Netzwerk-Türstationen mit einem äußerst komplexen und hochwertigen Sicherheitsnetzwerk verbunden werden. Gleichzeitig werden Business-Intelligence-Daten gesammelt und sicher an Smartphones oder Server gesendet.

So können beispielsweise auch KFZ-Nummernschilder als Berechtigungsnachweise für einen Zutritt genutzt werden. Bei diesem System arbeiten verschiedene Technologien über das Netzwerk zusammen und sichern auf diese Weise die Zutrittskontrolle auf einen Parkplatz oder ein bestimmtes Areal. Sobald ein Fahrzeug in den Erfassungsbereich einer Kamera gerät, wird die Software der Kamera aktiviert und das Kfz-Kennzeichen des Fahrzeugs überprüft. Die Netzwerk-Kamera sendet die Daten anschließend an die Türsteuerung am Tor. Sie wiederum entscheidet durch die angeschlossene Datenbank mit den zugelassenen Kennzeichen, ob der Zutritt gewährt wird oder nicht. Sollte das Nummernschild eines Fahrzeuges nicht für den Zutritt freigegeben sein, kann sich der Fahrer beispielsweise über die Netzwerk-Video-Türstation mit einem Mitarbeiter verbinden, der dann entscheidet, ob er den Zutritt gewährt oder nicht. Die erhobenen Daten aus den geschilderten Vorgängen werden protokolliert und gespeichert.

Diese beschriebenen Vorgänge und Elemente kommunizieren alle über offene Protokolle miteinander. Die standardisierte, sichere Informationsübermittlung ermöglicht auch die Einbindung verschiedener Komponenten von mehreren Herstellern. Dadurch können Unternehmen Geräte nutzen, die für ihre individuellen Bedürfnisse am besten geeignet sind.

Maßnahmen zur IT-Sicherheit

Das Beispiel der KFZ-Kennzeichen-Zutrittskontrolle unterstreicht auch die Notwendigkeit, die Cybersecurity anwendungsorientiert umzusetzen. Jede Komponente dieses Systems stellt einen potenziellen Zugang für Kriminelle dar. Ist eines der Bestandteile in diesem Netzwerk nicht ausreichend geschützt, können sensible Informationen abgegriffen werden – mit der Folge, dass das Unternehmen einen realen Schaden erleiden kann.

Die Sicherung der verbundenen Geräte sowie die Sicherung der Daten selbst haben dabei oberste Priorität. Netzwerk- und Datenlecks verursachen nicht nur schwerwiegenden Reputationsschäden für das betroffene Unternehmen, sondern jeder Verstoß behindert auch die weitere Entwicklung des IoT. Dies liegt daran, dass sowohl Unternehmen als auch die Öffentlichkeit darauf vertrauen müssen, dass IoT-Technologien den Erwartungen an einen ungefährlichen und cybersicheren täglichen Betrieb gerecht werden. Datenschutzrichtlinien wie zum Beispiel die Datenschutz-Grundverordnung (DSGVO) sollten als Hilfe und nicht als Hindernis verstanden werden.

Schnelles Handeln für den Fortschritt

Um im Wettbewerb zu bestehen, müssen Unternehmen die besten am Markt erhältlichen Technologien miteinander verbinden – auch wenn das bedeutet, dass sie mehrere Anbieter kombinieren müssen. Standard- sowie offene Protokolle, mit denen verschiedene Geräte einfach miteinander kommunizieren können, sind der beste Weg für eine Sicherstellung der Kompatibilität bestehender und zukünftiger Produkte. Es ist ebenso wichtig, dass das Sicherheitssystem einfach zu bedienen ist. Die riesigen Datenmengen aus unterschiedlichen Quellen müssen aggregiert und den Nutzern in leicht managebaren Formaten präsentiert werden. Schließlich sollen Analysten die Daten interpretieren, um schnell entschlusskräftige Entscheidungen treffen zu können. IoT-Technologien und -Produkte, die einfach in der Bedienung sind, auf offenen Protokollen und globalen Standards basieren sowie den hohen Anforderungen an die Cybersecurity genügen, vereinen wichtige Erfolgsqualitäten.

Die Förderung offener Systeme zwischen Hardware, Software und Anwendungstechnologien sowie -Produkten bringt Vorteile. Organisationen wie ONVIF, die sich für standardisierte Netzwerkprotokolle einsetzen, leiten eine neue Ära der Zusammenarbeit in der Sicherheitsbranche ein. Dies bildet zusammen mit der Priorisierung von Cybersecurity die Grundlage für eine immer stärker vernetzte Welt.

 

Mixed Reality reduziert Ausfallzeiten in der Produktion

Die Lösung: Über die Einbindung von Mixed Reality erklärt ein Sachverständiger aus der Ferne dem Mitarbeiter vor Ort schnell und einfach, was er zu tun hat, damit die Produktion wieder anläuft.

Virtual Reality, Augmented Reality, Mixed Reality – Diese Begriffe schwirren seit geraumer Zeit durch die Medien. Meist konzentrieren sich die Berichte auf Geräte für Endnutzer im Home-Entertainment-Bereich. Aber auch Unternehmen können diese Technologien einsetzen, um Arbeitsabläufe zu optimieren oder Services zu verbessern. Dabei sollte im ersten Schritt klar sein, für welche Szenarien die Begriffe stehen.

  • Virtual Reality (VR): Hier sieht der Anwender ausschließlich eine virtuelle Abbildung und nicht mehr die Realität. So kann er vollständig in virtuelle Welten eintauchen, ohne von der Wirklichkeit „gestört“ zu werden. Beispiele dafür sind immersive Computerspiele oder interaktive Schulungen.
  • Augmented Reality (AR): Hier wird die reale Welt durch virtuelle Objekte wie Pfeile, CAD-Daten oder Figuren erweitert. Theoretisch und bei idealer Technologie sind diese nicht von realen Objekten zu unterscheiden.
  • Mixed Reality (MR): Sie funktioniert im Prinzip wie AR, allerdings lassen sich hier virtuelle Objekte fest und über längere Zeit im Raum platzieren. So kann sich der Nutzer etwa zu einer virtuellen Maschine hin- oder von ihr wegbewegen oder eine andere Perspektive einnehmen, ohne dass sie ihre Position im Raum verändert. Diese Technologie wird „Spatial Mapping“ genannt und lässt sich in diesem Video nachvollziehen.

Diese drei verwandten Ansätze eröffnen zahlreiche neue Anwendungsmöglichkeiten für Unternehmen, so dass ihnen eine erfolgreiche Zukunft vorhergesagt wird. Laut Capgemini gehören AR und VR in drei bis fünf Jahren bei jedem zweiten Unternehmen zum Standard. Erst vor kurzer Zeit kam MR als dritte Variante hinzu, da die entsprechende Hardware und Software inzwischen in der Praxis einsatzfähig ist. Als die drei am besten geeigneten Einsatzgebiete haben sich hier die Bereiche „Prozessoptimierung“, „Training“ und „Remote Maintenance“ (auch „Remote Assist“ genannt) herausgestellt. 

Konkretes Einsatzbeispiel

Bei einem Produktionsunternehmen fällt eine Maschine in der Fertigungsstraße aus. Da sich der Herstellungsprozess nicht auf andere Maschinen umleiten lässt, steht die gesamte Straße still. Dieser Ausfall kostet dem Unternehmen pro Stunde mehrere tausend Euro. Daher muss der Fehler so schnell wie möglich behoben werden. Bislang hatte ein speziell ausgebildeter Mitarbeiter Handbücher und Bedienungsanleitungen zu lesen, um mögliche Ursachen festzustellen. Erst nach mehreren Versuchen war er erfolgreich. Doch das bedeutete noch lange nicht, dass er den Fehler auch sofort beheben konnte. Häufig galt es, einen Service-Techniker des Maschinenherstellers anzurufen. Im ersten Schritt musste der Mitarbeiter umständlich erklären, welcher Fehler aufgetreten ist, welche Maßnahmen er getroffen hat und warum die Behebung gescheitert ist. Anschließend erklärte der Service-Techniker telefonisch, welche Schritte zu unternehmen sind.

Mit Hilfe von Fernzugriff und Videotelefonie lassen sich diese Prozesse zwar verkürzen, doch auch hier hat der Mitarbeiter vor Ort häufig nicht beide Hände für die Reparatur frei oder muss immer wieder zwischen Maschine und Videobild hin- und herschauen. Diese Ineffizienzen vermeidet eine Mixed-Reality-Lösung. Damit erhält der Mitarbeiter sowohl die Maschine als auch die Anleitungen für ihre Reparatur in einem Blickfeld. Zusätzlich kann der externe Service-Techniker über virtuelle Objekte wie Pfeile, gezeichnete Kreise oder Grafiken aus dem Handbuch die durchzuführenden Schritte anschaulich erklären. Diese Objekte bleiben bei MR auch immer an der richtigen Stelle, selbst wenn sich der Mitarbeiter vor Ort bewegt. Damit lässt sich eine Reparatur deutlich schneller erledigen als mit herkömmlichen Maßnahmen. Wenn die Maschine dann statt einer Stunde nur noch 15 Minuten still steht, hat sich die Investition in die MR-Technologie meist schon nach einem Servicefall amortisiert.

HoloLens-Perspective1-2
(Quelle: Campana & Schott)
HoloLens-Perspective1-1
(Quelle: Campana & Schott)

Verfügbare Lösungen

Inzwischen stehen einsatzfähige Lösungen für AR und MR von verschiedenen Herstellern zur Verfügung. Dazu gehören etwa Microsoft, Magic Leap oder ODG, wobei sich der Markt jedoch ständig verändert. Gerade die Microsoft HoloLens dürfte mit der für dieses Jahr angekündigten neuen Version 2 einen großen Schritt nach vorne machen. Dies liegt nicht nur an der wohl deutlich verbesserten Hardware, sondern auch an neuen Software-Lösungen. So ermöglicht zum Beispiel Remote Assist die reibungslose Zusammenarbeit über Videotelefonie mit Hilfe von Heads-Up-Display, Freisprech-Funktion, Bildaustausch und Anmerkungen. Dadurch können Mitarbeiter vor Ort mit einem Experten teilen, was sie in der Realität sehen, während sie gleichzeitig die Hände frei haben, um Probleme zu lösen und Aufgaben schneller zu erledigen. Wie das funktioniert, zeigt dieses Video. Dabei ist die Lösung komplett in die Collaboration-Tools Microsoft Office und Microsoft Teams integriert sowie die Kommunikation auf Unternehmensebene abgesichert.

Da die aktuelle Version der HoloLens wenige tausend Euro kostet, dürfte der Preis für die zweite Version nicht wesentlich höher liegen. Mit der benötigten Standard-Software bleibt die Investition für eine MR-Lösung meist unter 5.000 Euro. Verglichen mit den Kosten für einen Produktionsausfall rentiert sich diese Anschaffung durch die Reduzierung der Zeit für die Problembehebung sehr schnell. Was Unternehmen beim Einsatz von MR sonst noch wissen müssen, etwa weitere Einsatzszarien oder Herausforderungen wie Capability Building, erfahren sie in einem Online-Seminar am 5. Februar 2019. Hier wird auch ein konkretes Einsatzszenario der Microsoft HoloLens live gezeigt. Eine Anmeldemöglichkeit gibt es hier.

Fazit

Für Fertigungsunternehmen bietet Mixed Reality zahlreiche Vorteile, um Gewinneinbußen durch Produktionsausfälle zu vermeiden. So können Mitarbeiter über die HoloLens einen Microsoft-Teams-Videoanruf an einen oder mehrere externen Experten starten. Dieser sieht die Maschine, kann das Bild einfrieren und mit einem Stift Pfeile oder Kreise zur Veranschaulichung zeichnen, die der Mitarbeiter vor Ort an der richtigen Stelle der Maschine im Sichtfeld eingeblendet bekommt – selbst wenn er sich bewegt. Damit kann er deutlich schneller die Maschine reparieren als mit herkömmlichen Methoden – und die Produktion läuft in entsprechend kürzerer Zeit wieder an.

 

 

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Die nächste Evolutionsstufe für Produktions- und Engineering Services

Mithilfe der PoCs konnten Unternehmen schnell die vielfältigen Geschäftsvorteile des industriellen IoT validieren. Die Branche beginnt jetzt nach und nach, IoT in den operativen Standorten einzuführen. Da mehr als 80 Prozent der Industrieanlagen Brachland sind, wird die Umsetzung in Phasen und nicht in einem einzigen Schritt erfolgen.

Darüber hinaus werden die Prozesse mithilfe von Erfahrungswerten verbessert und stabilisiert. Dabei ergeben sich eine Vielzahl von Entwicklungsmöglichkeiten für die Branche – die drei wichtigsten davon sind:

  • Die IT-OT (Operational Technology)-Integration steht weiterhin im Mittelpunkt, insbesondere bei der ISA-95-Stack-Integration über alle Layer hinweg. Eine engere Vernetzung zwischen Menschen, Prozessen und Maschinen wird zu einer höheren Transparenz des Betriebs, einer besseren Auslastung und Leistung der Anlagen, einer effizienteren Lieferkette und reduzierten Betriebskosten führen.
  • Während die Einführung des industriellen IoT den Mainstream erreicht, evaluieren alle Branchen neue Technologien wie Augmented Reality (AR) / Virtual Reality (VR), künstliche Intelligenz (KI), Machine Learning und Autonome Technologien.
  • Technologien wie Blockchain werden innerhalb des industriellen IoT keine direkte Anforderung sein, da es sich bei den Produktionssystemen nach wie vor meist um geschlossene, bewährte Systeme handelt. Cyber-Sicherheit wird zur Hauptanforderung für die Gerätesicherheit, Daten- und Geräteintegrität, Zugangskontrolle und Autorisierung – und dies über den Datenschutz hinaus.

Das industrielle IoT hat das Potential, den digitalen Wandel in der Industrie voranzutreiben. Die Digitalisierung umfasst den gesamten Lebenszyklus der Fertigung, einschließlich Design, Produktion, Verkauf und Service. Die digitale Fertigung ist ein entscheidendes Element dieser Transformation. Die Integration der Systeme wird daher über den gesamten Design-, Herstellungs-, Betriebs- und Servicelebenszyklus hinweg gesteuert. Darunter fallen unter anderem:

  • Integriertes Lifecycle Management – Das Product Lifecycle Management (PLM)-System spielt eine zentrale Rolle. Die digitalen Artefakte eines Produkts – angefangen beim Digital Engineering, das durch CAD/CAE, Manufacturing Operations Management (MOM), Manufacturing Engineering Services (MES) und Qualitätsmanagement ermöglicht wird – unterstützen bei der Produktnachverfolgung über alle Phasen des Lebenszyklus hinweg. Die IT-OT-Integration vereint alle Daten aus Maschinen, Anlagen, Prozessen und Systemen auf einer gemeinsamen Plattform, hilft bei der Einrichtung und Verfolgung der Lebenszyklusphasen sowie bei der Statusverfolgung von ‚wie geplant‘ versus ‚wie betrieben‘ versus ‚wie gewartet‘.
  • Digitalisierung – Das industrielle Set-Up verfügt über viele Funktionen, die noch manuell gesteuert werden. Dazu gehört auch die Datenerfassung. Industrielles IoT ermöglicht die Digitalisierung und Automatisierung von Arbeitsprozessen. Daten von SPS, Maschinen, Prozessen und Echtzeitverarbeitung über MES gewährleisten die Compliance des Produktionsprozesses, ermöglichen Qualitätssicherung und reduzieren den Materialverbrauch. All dies ist auf einem einzigen Dashboard integriert. Alle Mitarbeiter einer Fabrik können somit in Echtzeit auf Informationen zugreifen und schneller Entscheidungen treffen.
  • Organisatorischer Wandel – Die Art und Weise wie Betreiber, Techniker, Betriebsleiter oder Produktionsleiter arbeiten, wird sich grundlegend ändern. Unternehmen müssen deshalb in Schulungen der Mitarbeiter investieren, damit die Auswirkungen der Transformation auf das laufende Tagesgeschäft so gering wie möglich sind. Die Arbeitsumgebung muss sich zudem an die Technologien anpassen, die hinter der Transformation stehen. Die Neuausrichtung der bestehenden Belegschaft wird für den Übergang zur digitalen Fertigung entscheidend sein: Unternehmen müssen ganzheitlich denken und Silos aufbrechen, um kollaborativer und integrierter zu sein.

Der Weg in die Cloud ist unumgänglich

Mittelständische Unternehmen sind Experten in ihrer Nische. Um spezifische Aufgaben zu lösen, nutzen sie oft sehr spezifische IT-Lösungen, die die Effizienz im jeweiligen Arbeitsumfeld erhöhen. Diese Teilspezifizierung der IT ist einerseits notwendig, steht aber andererseits häufig der Entwicklung und Umsetzung einer IT- und Digitalisierungsstrategie im Weg. Fehlt diese übergreifende Strategie, finden viele Prozesse, die man mittels Software optimieren könnte, zu wenig Beachtung. Unmengen an Daten und Systemen sind dann nicht in die IT-Systemlandschaft integriert. Zudem haben viele Mittelständler nicht genügend IT-Fachpersonal und laufen darum Gefahr, den Anschluss an die fortschrittlichere Konkurrenz zu verlieren. Die Lösung: eine zukunftsweisende IT-Strategie, die ein gut positionierter CIO zielstrebig verfolgt.

Strategische Beratung und Unterstützung

Zu den Hauptaufgaben eines CIO zählt es heute komplexe, zerklüftete und heterogene IT-Strukturen, die über die Jahre als Ergebnis lokal optimierter Einzellösungen entstanden sind, aufzulösen. Solch eine Integration stellt angesichts einer siloartigen IT-Architektur und der fehlenden Gesamt-Roadmap häufig eine große Herausforderung dar. In solch einem Fall empfiehlt sich die Zusammenarbeit mit einem professionellen IT-Dienstleister, der Unternehmen strategisch berät und begleitet. Er unterstützt und berät bei der Anpassung der Geschäftsmodelle, erarbeitet eine passende IT-Strategie und migriert die gewünschten Lösungen in die Cloud – im Sinne eines Smart-Shift. Diese Transformation, die alle Cloud-Ebenen (PaaS, IaaS, SaaS) berücksichtigt, sollte schrittweise, bedarfsorientiert und im laufenden Betrieb erfolgen. Ein Smart-Shift ist zugleich strukturiert und risikoarm, und er kann im individuellen Tempo des Mittelständlers geschehen.

Multi-Cloud-Ansatz ist empfehlenswert

Die größtmögliche Flexibilität bietet ein Multi-Cloud-Ansatz. Die Entscheidung, welche Lösungen man in der Private-Cloud eines deutschen Anbieters betreibt und welche Anwendungen und Systeme man in internationale Public-Clouds auslagert, ist nicht leicht. Ein IT-Dienstleister zeigt verschiedene Möglichkeiten auf, skizziert adäquate Szenarien und erarbeitet eine bedarfsgerechte Kombination von dedizierten IT-Lösungen und verschiedenen Clouds. Er lagert Applikationen und Systeme in die Private-Cloud aus, bindet Public-Clouds möglichst sicher an die IT-Infrastruktur an und sorgt dafür, dass sich bei Bedarf im Projektverlauf weitere Services aus der Public-Cloud einbinden lassen.

Agilität ist Trumpf

Die Modernisierung veralteter IT-Strukturen ist ein Aspekt. Viele Mittelständler wollen aber auch ebenso agil, flexibel und effizient arbeiten können wie Startups. Eine cloudbasierte IT-Infrastruktur ist eine wichtige Voraussetzung für Agilität. Entscheidend ist zudem der richtige Mix aus Standardisierung und Individualisierung: Die Software-Basis sollte möglichst homogen sein, während einzelne Lösungen funktional angepasst sein müssen. Eine agile Arbeitsweise kommt mittelständischen Unternehmen bei der eigenen Transformation und bei Kundenprojekten zugute. Um agil arbeiten zu können, müssen sich Mittelständler von etablierten, aber schwerfälligen Prozessen verabschieden. Es gilt, mutig zu sein und sich schnell zu entscheiden. Anstatt monatelang ein Pflichtenheft zu erarbeiten, braucht es kurze Sprints, in denen IT-Experten kleine Teilaufgaben umsetzen – und dann analysieren, ob Ergebnis und Herangehensweise sinnvoll sind. Ist das der Fall, bilden solche Quick-wins eine optimale Basis für das weitere agile Vorgehen. Entpuppt sich ein Ansatz als wenig erfolgsversprechend, sollten Unternehmen das Ergebnis verwerfen und einen neuen Versuch starten. Flexibilität ist auch bei der Projektarbeit gefordert. Es braucht ein Kern-Team, das ein Projekt über seine gesamte Dauer begleitet und für Stabilität sorgt. Daneben ist es sinnvoll, Mitarbeiter mit ergänzenden Fähigkeiten für spezielle Aufgaben ins Boot zu holen. Sie können unvoreingenommen an eine Herausforderung herangehen, sie mit anderen Augen sehen und kreative Lösungsansätze entwickeln.