Sind Digitalisierung und Cloud für den Mittelstand wirklich synonym?

Wie geht es mit der Digitalisierung im Mittelstand tatsächlich voran? Wie weit haben Cloud-Anwendungen im Alltag Fuß gefasst? Und welche Rolle spielt der wachsende Bedarf nach einem mobilen Zugriff dafür, dass sich die Cloud durchsetzt? Äußerungen der Teilnehmer der forconference 2018 ergeben ein differenziertes Bild. Eine Erkenntnis: Die Cloud wird auch im Mittelstand immer wichtiger – aber die Digitalisierung und Automatisierung von Prozessen ist nicht zwingend daran gebunden, dass dazu in der Cloud gehostete Business-Applikationen genutzt werden. Noch nicht.

Mobilität als Cloud-Treiber

Die große Cloud-Umfrage, die forcont und die Hochschule für Wirtschaft und Recht Berlin im September 2017 durchführten, hatte ergeben, dass 90 Prozent der Befragten die mobile Nutzung von Applikationen für einen ganz wesentlichen Vorteil von Cloud-Lösungen halten. Auch etliche Teilnehmer der forconference vertraten die Ansicht, man komme um Cloud-Lösungen kaum mehr herum, wenn man mobil arbeiten wolle und den Mitarbeitern den mobilen Zugriff erlauben möchte. Die Einsicht: Während die Cloud im Prinzip von überall aus zugreifbar ist, kann man dies aus dem eigenen Rechenzentrum schon aus technischer Perspektive heraus kaum mehr bewerkstelligen.

Erste Automatisierung auch ohne Cloud

Manche Teilnehmer berichteten aber auch, dass sie den Weg hin zu Automatisierung und Digitalisierung beginnen, ohne dafür schon den Schritt in die Cloud zu tun. So sagt Martin Schwätzer von der AVU Aktiengesellschaft für Versorgungs-Unternehmen: „Ja, wir haben einiges zum Teil sogar hochgradig automatisiert im Bereich der Versorgungsindustrie, der Ablesung und des Messstellenbetriebs. Es ist eine Möglichkeit, dies auch noch komplett in die Cloud zu legen, weil die Mitarbeiter vor Ort mit mobilen Geräten unterwegs sind und natürlich dann aus der Cloud in Realtime die entsprechenden Informationen abrufen können und auch mit neuen Informationen gefüttert werden.

Sascha Günnel von der Sächsischen Lotto GmbH beschreibt in seinem Haus eine ähnliche Situation: „Derzeit arbeiten wir daran, unsere wesentlichen dokumentenbasierten Prozesse in ein zentrales Dokumentenmanagementsystem zu überführen. Bisher haben wir noch keine Prozesse in die Cloud ausgelagert. Aber Cloud ist eine denkbare Option für ein potenzielles DMS in unserem Unternehmen.

Keine Cloud-Nutzung ohne Integration

Auch wenn schon immer mehr Unternehmen ihn vollziehen – der Schritt in die Cloud ist mit Herausforderungen verbunden. Eine essentielle Aufgabe bleibt die Integration. Traditionell kämpfen Unternehmen seit jeher mit Daten- bzw. Applikationssilos. Nicht selten verschärft die Cloud dieses Problem, weil es dort einen noch viel größeren Strauß an Applikationen, Lösungen und Daten gibt, die miteinander integriert werden müssen.

Akzeptanz und Datenschutz als Herausforderungen

Befragt nach wesentlichen Herausforderungen – oder Hemmnissen – für die Cloud-Nutzung antworteten viele Teilnehmer auch mit dem Hinweis auf noch mangelnde Akzeptanz in der Organisation und Bedenken in Sachen Datenschutz und Datensicherheit. Martin Schwätzer von der AVU meint dazu: „Die jungen Leute, die Anwender sozusagen, kennen eigentlich nichts anderes. Ob das in der Cloud läuft oder auf dem eigenen Rechner, ist eigentlich vollkommen wurscht.“ Aber den juristischen, formalen Voraussetzungen in Deutschland und in der EU in Sachen Datenschutz zu entsprechen, um die Cloud dann einführen zu können – das, erklärt Schwätzer, sei das aktuell wohl größte Problem für seinen Betrieb.

Vorbehalte ausräumen

Stefan Wolf von infrest Infrastruktur eStrasse berichtet dagegen, dass gerade die Zerstreuung von Datenschutzbedenken für mehr Akzeptanz sorgt: „Wir haben die Erfahrung gehabt, dass es viel Widerstand oder Bedenken von den Menschen gibt, die mit den verschiedenen Anwendungen oder Werkzeugen zu tun haben, die dann in die Cloud outgesourct werden. Wir haben aber auch gemerkt, dass wir gerade durch Vereinheitlichung von Datenschutz durch die EU-Datenschutzgrundverordnung viele der Bedenken ausräumen konnten.“ Am Ende, so Wolf, seien die Vorbehalte dann sogar relativ schnell zurückgegangen.

Die Zukunft der Digitalisierung: dezentral und sicher

Die forconference hat gezeigt, dass die meisten Teilnehmer in der Cloud doch die Zukunft für ihre Digitalisierung und Prozessautomatisierung sehen, gerade im Kontext ihrer dokumentenbasierten Prozesse. Über die zentralen Vorteile von Cloud-Lösungen waren sich die Teilnehmer weitgehend einig: Skalierbarkeit, Kosteneffizienz und Zugriff auf State of the Art-Technologie sind bei sehr vielen die zentralen Gründe für den Schritt in die Cloud. Befragt nach drei Begriffen, die ihm zum Thema Cloud-Software spontan in den Kopf kämen, brachte es Sascha Günnel von der Sächsischen Lotto abschließend so auf den Punkt: „Dezentral. Sicher. Schnell.

Weitere Teilnehmer-Meinungen zur Zukunft von Digitalisierung, Automatisierung und Cloud-Nutzung im Mittelstand finden sich auch im Video unter https://youtu.be/BOAYMBEdxKo.

IoT: Die Gefahr vernetzter Kaffeemaschinen

Das folgende Beispiel eines Industrieunternehmens macht deutlich, welche Gefahren die Digitalisierung bringen kann. Nachdem ein lokaler Kontrollraum des Unternehmens ausgefallen war, stand schnell fest: Die Rechner waren mit einer Ransomware infiziert, obwohl die PCs des lokalen Kontrollraums nicht mit dem Internet verbunden waren. Alle PCs wurden neu aufgesetzt. Doch nur wenige Tage später trat das Problem erneut auf. Die Geräte waren wieder infiziert. Nach langer Suche konnten die Verantwortlichen das Einfallstor der Schadsoftware schließlich finden.

Die Kaffeemaschine als Einfallstor

Auslöser der Vorfälle war die neue „smarte“ Kaffeemaschine des Unternehmens. Das Modell ist mit dem Internet verbunden und kann Nachbestellungen selbstständig ordern. Anstatt nur mit einem isolierten Wi-Fi-Netzwerk verbunden zu sein, war das Gerät auch mit dem Netzwerk des lokalen Kontrollraums verbunden. So konnten Hacker die Schadsoftware einschleusen.

Doch was können IT-Verantwortliche tun, um die Infrastrukturen ihres Unternehmens optimal zu schützen?

Es ist empfehlenswert, mindestens die folgenden Maßnahmen im IT-Sicherheitskonzept zu berücksichtigen:

  • Endpoint Security

Für den Schutz der Endgeräte ist eine Sicherheitssoftware unerlässlich. In vielen Unternehmen gehört diese für die meisten digitalen Geräte bereits zum Standard. Eine Endpoint Security-Lösung sollte mindestens ein Anti-Malware-Programm, eine Personal Firewall sowie Intrusion Prevention Software beinhalten.

  • Netzwerksegmentierung

Zu einem grundlegenden IT-Sicherheitskonzept zählt auch die so genannte Netzwerksegmentierung. Bei einer Netzwerksegmentierung wird das Unternehmensnetz in einzelne Bereiche unterteilt, die nicht oder nur noch bedingt miteinander vernetzt sind. So kann jeder einzelne Bereich besser überwacht und verwaltet werden. Bei einer Infektion ist außerdem nicht das komplette Netzwerk betroffen, sondern nur ein Teil. Durch die Unterteilung des IT-Systems in Netzwerksegmente wird die firmeninterne IT-Sicherheit deutlich erhöht.

  • Netzwerkschutz mit Deep Packet Inspection (DPI)

Ein umfassender Netzwerkschutz sichert eine bestimmte Reihe von miteinander verbundenen Geräten. Dies geschieht z.B. durch den Einsatz einer geeigneten Firewall mit Deep Packet Inspection (DPI). Sie überwacht und filtert alle ankommenden und abgehenden Datenpakete. Anhand vordefinierter Ausschlusskriterien sucht der Mechanismus an einem Prüfpunkt beispielsweise nach Daten, die nicht mit dem verwendeten Protokoll übereinstimmen, und identifiziert so mögliche Viren, Spam oder Eindringlinge.

  • Application Network Communication Control

Die Application Network Communication Control stellt sicher, dass nur vordefinierte und vorab zugelassene Nachrichten durch bestimmte Prüfpunkte gelangen können.

Fazit: Wie schützen Sie Ihr Unternehmen vor der Kaffeemaschine?

In der Digitalisierung und den Industrie 4.0-Konzepten gehört die Kommunikation zwischen Maschinen längst zum Unternehmensalltag. Ob Kaffeemaschine, Kühlschrank oder große Produktionsmaschine – smarte Maschinen können unser Leben und die Arbeitsabläufe im Unternehmen deutlich vereinfachen. Damit sämtliche Unternehmensprozesse reibungslos ablaufen können, sollten Unternehmen auf die oben genannten Technologien setzen und diese in ihr IT-Sicherheitskonzept integrieren. Denn nur eine umfassende IT-Sicherheitsstrategie schützt die firmeninterne IT-Landschaft vor Cyberangriffen.

Droht ein weltweites Chaos durch Thingbots?

Der neueste Threat-Intelligence-Report von F5 Labs zeigt: Unternehmen weltweit dürfen nicht länger die unaufhaltsamen Verbreitung von Thingbots ignorieren. Sie kapern IoT-Geräte und machen sie zur Cyberwaffe der Wahl für Angriffe durch Botnets. So wurde von 2016 auf 2017 ein Anstieg der Brute-Force-Angriffe auf IoT-Geräte via Telnet um 249 Prozent registriert.

Dabei stammten 44 Prozent des Angriffs-Traffic aus China und von IP-Adressen in chinesischen Netzwerken. Auf den Plätzen zwei und drei rangieren die USA und Russland. Besonders beunruhigend ist dabei die Tatsache, dass über den gesamten Zeitraum immer wieder die gleichen IP-Adressen und Netzwerke für Angriffe genutzt wurden. Das heißt, dass der bösartige Traffic entweder unentdeckt blieb oder mit Erlaubnis der betroffenen Netzwerke initiiert wurde.

Angriffsziele sind weltweit verteilt

Am häufigsten wurden Ziele in den USA, Singapur, Spanien und Ungarn angegriffen, ohne dass dabei ein klarer Spitzenreiter hervorstechen würde. Auf die zehn am häufigsten angegriffenen Länder verteilen sich die Angriffe relativ gleichmäßig, insgesamt entfällt ein Anteil der globalen Attacken zwischen 24 und 44 Prozent auf sie. Das bedeutet, dass die anfälligen IoT-Geräte weltweit verteilt sind.

Im zweiten Halbjahr 2017 verzeichnete man einen Rückgang der Angriffe. Konkret nahmen sie zwischen dem ersten und vierten Quartal um 77 Prozent ab. Gleichzeitig war deren Intensität immer noch stärker zu den Hochzeiten von Mirai, der Schadsoftware, die im September 2016 die Kontrolle über hunderttausende von IoT-Geräten wie Sicherheitskameras, Router oder digitale Videorekorder (DVR) übernahm. Daraus kann man schließen, dass sich in besagtem Zeitraum einige sehr große Thingbots formierten – und Mirai außerdem sein volles Potenzial nicht entfaltet hat.

Es ist absehbar, dass sich die volle Wucht von Thingbots bislang noch nicht gezeigt hat. Während laut Gartner derzeit 8,4 Milliarden IoT-Geräte im Einsatz sind, wird diese Zahl bis 2020 auf geschätzt 20,4 Milliarden steigen. IHS geht sogar von 30 Milliarden IoT-Geräten bis 2020 aus, und der Halbleiterhersteller SoftBank rechnet bis 2035 mit einer Billion. „Wenn wir nicht heute unsere Entwicklungsstandards ändern, werden wir unsichere IoT-Geräte zwei- bis dreimal schneller als je zuvor in Betrieb nehmen“, sagt Sara Boddy, Director F5 Labs Threat Research. „Sie werden aber mit der gleichen Geschwindigkeit kompromittiert werden. Das ist die Formel für künftiges Chaos zwischen der physischen und der virtuellen Welt.“

Telnet: Das Ende der tief hängenden Früchte?

Bisher wurde für IoT-Angriffe überwiegend Telnet genutzt. Inzwischen verändern Cyberkriminelle ihr Vorgehen immer schneller und auf vielfältige Weise. „Wir haben festgestellt, dass Angreifer seit mindestens einem Jahr weitere Methoden zum Kompromittieren von IoT-Geräten einsetzen“, berichtet Boddy. „Diese Methoden sind technisch gesehen simpel. Ihr Angriffsplan besteht aus nur wenigen Schritten. Dabei betreffen sie weniger Geräte, da sie auf Nicht-Standard-Ports und -Protokolle abzielen, auf einzelne Hersteller, Gerätearten oder Modelle.“

So konnte festgestellt werden, dass mindestens 46 Millionen Home-Router anfällig für Remote-Command Injection Attacks über die Remote-Management-Protokolle TR-069 und TR-064 sind. Diese Protokolle dienen Internet Service Providern für das Management von bei Kunden installierten Routern. Thingbot Annie nutzt dort eine Schwachstelle aus, was bereits bei zahlreichen Kunden von führenden Telekommunikationsanbietern zu Ausfällen führte. Annie ist eine der fünf Thingbot-Weiterentwicklungen von Mirai. Daneben existieren die Varianten Masuta und Pure Masuta sowie Persirai und Satori – dabei greifen nur die beiden letztgenannten weiterhin Geräte über Telnet an.

„Es ist sehr wahrscheinlich, dass es bereits Thingbot-Angriffe gab, die wir nicht bemerkt haben und deren Urheber bereits davon profitieren, etwa durch das Mining von Kryptowährungen“, erklärt Boddy. „Solange ein IoT-Angriff keine spürbaren Auswirkungen wie beispielsweise eine verringerte Geräte-Performance hat, bleibt er in vielen Fällen unentdeckt.“

Was tun gegen Thingbot-Attacken?

Unternehmen können einiges tun, um nicht Opfer von Thingbot-Attacken zu werden. Dazu gehört in erster Linie eine redundante Auslegung kritischer Systeme, um bei einem Angriff auf einzelne Serviceprovider gewappnet zu sein. Vorkehrungen gegen Credential Stuffing und Multifaktor-Authentisierung schützen vor Angriffen über gestohlene Identitäten. Ebenso wichtig ist es, die Visibilität von verschlüsseltem Traffic im Netzwerk herzustellen, um so getarnten Schadcode zu entdecken. Und nicht zuletzt müssen Geräte, bevor sie sich mit dem Netzwerk verbinden dürfen, erst Systeme passieren, die IT-Sicherheitsereignisse erkennen und unterbinden.

Gleichzeitig ist es zwingend erforderlich, regelmäßig Sicherheits-Audits für die IoT-Geräte durchzuführen, IoT-Produkte vor der Inbetriebnahme zu testen und – das gilt in der IT-Sicherheit immer – robuste Schulungsmaßnahmen für Mitarbeiter durchzuführen.

Auch für die IT-Industrie hat Boddy eine Empfehlung parat: „Alle Sicherheitsexperten und die Entwickler von maschinellem Lernen und Künstlicher Intelligenz sollten gemeinsam an zukunftsweisenden Sicherheitseinrichtungen für IoT-Geräte arbeiten. Die Zukunft braucht neuronale IoT-Netzwerke, die ähnlich funktionieren wie Pilznetzwerke, die ein wirksames Ökosystem entstehen lassen.“

Upgrade von Standard- und Testversion auf Datacenter-Edition

Sie müssen lediglich nach der Aktualisierung den Server neu starten.

Zunächst geben Sie in der Befehlszeile den Befehl Dism /online /Get-TargetEditions ein, um zu überprüfen, ob eine Aktualisierung möglich ist. Wenn eine Aktualisierung möglich ist, erhalten Sie vom Tool eine Rückmeldung.

Um die Aktualisierung von Standard zu Datacenter durchzuführen, geben Sie schließlich den Befehl Dism /Online /Set-Edition:ServerDatacenter /AcceptEula /ProductKey: xxxxx-xxxxx-xxxxx-xxxxx-xxxxx ein. Nach der Aktualisierung starten Sie den Server neu.

Sie haben auch die Möglichkeit, die Testversionen von Windows Server 2016 zu einer vollwertigen Version umzuwandeln. Ob es sich bei der Version um eine Testversion handelt, sehen Sie durch Eingabe des Befehls slmgr.vbs /dlv. Auch in der Testversion sehen Sie mit dism /online /Get-TargetEdition, auf welche Edition Sie aktualisieren können.

Eine Aktualisierung nehmen Sie mit dem gleichen Befehl vor, wie bei der Aktualisierung von Standard zu Datacenter. Sie können auf diesem Weg von der Testversion von Windows Server 2016 Datacenter zur lizenzierten Version von Windows Server 2016 Datacenter wechseln. Der Server muss dazu mindestens zweimal neu starten.

USB-Stick für Windows Server 2016 erstellen

Damit die Image-Datei von Windows Server 2016 (install.wim) auf einen USB-Stick mit dem FAT32-Dateisystem passt, müssen Sie diese aufteilen. Ansonsten können Sie die Datei nicht kopieren. Das Aufteilen ist aber kein komplizierter Vorgang.

Der Befehl dazu sieht zum Beispiel folgendermaßen aus:

Dism /Split-Image /ImageFile:f:\sources\install.wim /SWMFile:c:\temp\install.swm /FileSize:3600

Die beiden Dateien können dann anstatt der Datei „install.wim“ aus dem Verzeichnis „sources“ auf den USB-Stick kopiert werden. Auf diesem Weg lassen sich auch UEFI-fähige USB-Sticks erstellen. Das Tool „dism.exe“ gehört auch zu den Bordmitteln von Windows 10, sodass Sie den bootfähigen Datenträger auch auf einer Arbeitsstation erstellen können. Achten Sie darauf die korrekten Pfade zur originalen „install.wim“ und den neuen „install.swm“-Dateien zu verwenden.

Mit dem kostenlosen Microsoft- „Windows USB/DVD Download Tool“ (https://www.microsoft.com/en-us/download/windows-usb-dvd-download-tool) lassen sich USB-Stick für die Installation von Windows Server 2016 erstellen. Die Installation lässt sich auf Arbeitsstationen mit Windows 7/8.1, aber auch Windows 10 durchführen. Neben dem Tool wird dazu noch eine ISO-Datei von Windows Server 2016 (https://www.microsoft.com/de-de/evalcenter/evaluate-windows-server-2016) benötigt.

Digitalisierung: Teamwork statt One-Man-Show

Es wird für jeden einleuchtend sein, dass in Zeiten großer Veränderungen Sicherheit vor allem durch Orientierung geschaffen wird. Für zahlreiche Unternehmen soll es beim Thema Digitalisierung daher der Chief Digital Officer (CDO) richten. Das führt aber insbesondere in großen Unternehmen häufig nur zu einer langsamen Beschleunigung des gesamten Vorhabens. Ein CDO allein führt schließlich nicht zum Erfolg. Entscheidend ist vielmehr ein bunter Blumenstrauß an Maßnahmen und insbesondere Mitgestaltern, die in Form der Mitarbeiter bereits zahlreich vertreten sind.

Philosophy first, Technology second

Doch vor jeder Maßnahme sollte in jedem Fall eine Philosophie, eine Vision stehen, woraus entsprechende Maßnahmen dann abgeleitet werden können. Ziele und Handlungsleitfäden müssen für jeden Unternehmensbereich klar definiert sein, wenn sie jemals umgesetzt beziehungsweise erreicht werden sollen. Darüber hinaus gilt es zu beachten, dass beispielsweise Forschungs-. und Entwicklungsbereiche mehr Zeit für Umstellungen brauchen als andere Unternehmensbereiche. Hier sollten Digitalisierer immer realistisch bleiben.

In der Produktion ist die „Digitalisierung“ hingegen eine alte Bekannte in neuem Gewand, die oftmals bereits als „Automatisierung“ Umsetzung findet. Mitarbeiter im Shopfloor-Umfeld können den Zielen und Maßnahmen der Unternehmensleitung somit schnell folgen. Gleichzeitig definiert die Smart Factory die Anforderungen an die Qualifikationen der Mitarbeiter völlig neu. So wird der klassische „Maschinenbediener“ in der Produktion der Zukunft mittelfristig von einem Programm ersetzt werden – je automatisierter der Fertigungsprozess, desto weniger technologischer Sachverstand notwendig. Im Gegensatz zu früher sind bei bestimmten Tätigkeiten heute Programmierkenntnisse und ein tiefes Verständnis der Prozesse gefragt, wo einst das Wissen über Werkstoffe und Werkzeuge, Geschick und Feingefühl zählten.

Mitarbeiter sind Gold

Nicht zuletzt aus diesem Grund benötigen die Personalabteilungen die vollste Unterstützung der Unternehmensführung, um adäquates Personal für die veränderten Berufsprofile zu finden. Zentral ist hierbei vor allem die Ausbildung entsprechender junger Fachkräfte im eigenen Unternehmen sowie die Weiterqualifikation des vorhandenen Mitarbeiterstamms. Auf diese Weise können es Unternehmen schaffen, dem allgegenwärtigen Fachkräftemangel nachhaltig ein Schnippchen zu schlagen. Viele Konzerne haben sich dies bereits zu Eigen gemacht und setzen Qualifikations-Management-Systeme ein, die wiederum mit den Schulungsdatenbanken der Berufsgenossenschaften verknüpft werden können. KMU arbeiten in vielen Fällen hingegen noch mit statischen Arbeitsplatzprofilen und Schulungsplänen – hier können mit der Digitalisierung dieser Prozesse bereits erste Quick Wins eingefahren werden.

Gemeinsam in die digitale Zukunft

Erst wenn alle Mitarbeiter in den Prozess der digitalen Transformation eingebunden werden, profitiert das Unternehmen mitunter von potenziellen Verbesserungsideen derselben, die letztlich spürbaren Mehrwert für die Zukunft des Geschäftes schaffen. In manchen Häusern diskutieren und kommentieren Mitarbeiter Ideen bereits über das Intranet, sodass sich wirklich jeder einbringen kann. Auf diese Weise hat das eine oder andere Unternehmen bereits Prozesse optimieren und neue Geschäftsfelder erschließen können. Das Ideenpotenzial der Belegschaft ist im laufenden Digitalisierungs- bzw. Change-Prozess daher nicht nur Innovationssicherung, sondern auch Investitionsschutz.

Es ist kein Geheimnis, dass die Digitalisierung kleinteilig ist und jeder Teil seine Relevanz und Berechtigung hat. Erst so kann am Ende des Tages das Puzzle zusammengefügt und jeder Mitarbeiter mitgenommen werden. Hier kommt der CDO wieder ins Spiel. Er hält die Fäden in der Hand, spornt die Mitarbeiter an sich einzubringen und realisiert verborgene Potenziale.

*Volker Altwasser arbeitet bei der expertplace networks Group AG.

Digitale Transformation: Was von einem CDxO erwartet wird

Zu viele Ansprechpartner verwässern digitale Strategie

Die digitale Transformation führt zu organisatorischen und betrieblichen Veränderungen. In vielen tradierten Unternehmen wird der digitale Wandel daher oft als Störfaktor gesehen. Dies wird zusätzlich dadurch verstärkt, dass jedes Mitglied im „C-Level“ eine eigene Sicht auf die Herangehensweise der digitalen Transformation hat – je nach erforderlicher Herangehensweise seiner jeweiligen Position. Außerdem können Aufgaben und Verantwortlichkeiten nicht klar verteilt werden, wenn die digitale Transformation zwar C-Level-Aufgabe ist, aber ohne konkreten Ansprechpartner realisiert werden soll. Es bedarf also einer zentralen Rolle, die in der Lage sein muss, eine erweiterte Perspektive einzunehmen, um das Ziel der digitalen Transformation zu erreichen.

Der CDxO befindet sich oft in Konfliktpotenzial mit anderen C-Level-Positionen

An dieser Stelle kommt der Chief Digital Transformation Officer, kurz CDxO, zum Einsatz. Er übernimmt vielfältige Aufgaben angefangen von Markt-, Kunden- und Produkt- sowie Prozess-Analysen, Entwicklung der Digitalstrategie und neuer Geschäftsmodelle, der richtigen IT-Auswahl bis hin zur Umsetzung. Vor allem aber muss er in der Lage sein, eine digitale Vision klar und erfolgreich zu kommunizieren und im Unternehmen durchzusetzen. Weil diese Vision sich aller Voraussicht nach drastisch von bisherigen Vorgehensweisen unterscheidet, findet sich der CDxO häufig in Konflikt mit den anderen „C-Level-Partnern“ wieder. Diese sind meist daran gewöhnt, kurzfristige Erfolge zu erzielen und sich auf die operative Effizienz ihrer Organisation zu konzentrieren.

Daher ist es für einen CDxO weitaus wichtiger, Kommunikationsstärke zu zeigen als über rein-technisches Know-How zu verfügen. Laut Untersuchung der Metajobsuchmaschine Joblift sollten CDxOs besonders Kompetenzen im Schnittstellenmanagement mitbringen (54 Prozent) und ausgeprägte Kommunikationsstärke sowie Überzeugungskraft besitzen (43 Prozent). Anstelle eines „Ja-Sagers“ benötigt es für diese Position also einen kritischen, unabhängigen Denker mit Durchsetzungsvermögen.

Der CDxO benötigt Ressourcen

Ist die „richtige“ Person für die Aufgabe gefunden, sollte wiederum der CEO dafür Sorge tragen, dass der CDxO die Unterstützung erhält, die er für seine Aufgaben benötigt. Nachdem Unternehmensziele und Anforderungen im Vorfeld klar formuliert wurden, sollten auch entsprechenden Ressourcen bereitgestellt werden. 44 Prozent der großen Unternehmen in Deutschland verfügen laut GfK bereits über eine interne Digital-Einheit, die den CDxO unterstützt. Laut Quadriga Hochschule werden dem CDxO im Schnitt aber nur maximal drei Mitarbeiter zur Seite gestellt – zu wenig, um ganze Konzerne oder große Mittelständler digital zu transformieren.

Der CDxO benötigt Einsicht in IT-Prozesse und Landschaft

Da der CDxO in seinem Arbeitsalltag laut Quadriga Hochschule auch Aufgaben wie das Verbinden technischer und organisatorischer Aspekte der Digitalisierung (42 Prozent) übernimmt, benötigt er Einblicke in die IT-Infrastruktur eines Unternehmens. Eine physische Sicht auf die gesamte IT ist daher von größter Bedeutung. Darüber hinaus geht die Umsetzung neuer digitaler Geschäftsmodelle mit meist notwendigen IT-Innovationen einher. Eine enge Zusammenarbeit zwischen CDxO und CIO ist daher unabdingbare Voraussetzung, um die digitale Transformation umzusetzen. Eine Studie von MobileVision geht sogar noch weiter und betrachtet das Verhältnis zwischen CDO und CIO als Indikator für den digitalen Reifegrad eines Unternehmens.

Ob nun als Digital-Stratege, Changemaker, Visionär oder Störenfried wahrgenommen. Der CDxO muss vielfältige Kompetenzen und Talente in seinem Berufsalltag vereinen. Doch damit er den digitalen Wandel im Unternehmen wirklich umsetzen kann, benötigt er ausreichend IT- und Mitarbeiter-Ressourcen, Mitsprache- und Gestaltungsfreiräume und einen direkten Draht zu allen C-Level-Positionen.

Herausforderungen der Chemielogistik

Lange Zeit wurde der Chemielogistik wenig Bedeutung zugemessen, nun aber rückt sie seit einigen Jahren stärker in den Managementfokus. Dies zeigt auch der neue Logistikhotspot auf der diesjährigen ACHEMA. Wurden Logistikkosten, -aufwände und Themen rund um Liefertreue und -service eher marginal betrachtet, wachsen Kostendruck und Erwartungen an die Logistik heute zusehends, so dass das Handlungsfeld immer intensiver bearbeitet wird und Projekte wie Digitalisierung, Automatisierung und Supply-Chain-Optimierung nun verstärkt angegangen werden. Die Logistikperformance wird zunehmend auch als Treiber der Unternehmensperformance wahrgenommen[1].

Dabei zeigt sich aufgrund der Heterogenität der Produkte eine ebenso große Breite an Herausforderungen und Lösungen: Verschiedene Produkte erfordern verschiedene Supply Chains. Nirgends sonst gibt es so spezifische Herausforderungen wie in der Chemieindustrie: Bulk und Liquids sind neben Gefahrstoffen die kennzeichnenden Charakteristika für die Besonderheiten einer Wertschöpfungskette in der Chemie. Und diese erfordern individuelle Antworten. Bei spezialisierten produzierenden Unternehmen reicht das an Herausforderung bereits aus – gerade große Chemiekonzerne jedoch erreichen mit ihren unterschiedlichen Produkten schnell große Komplexität und müssen unterschiedliche Supply Chains unterhalten und spezifisch optimieren.

Vor dem Hintergrund der Globalisierung führen Kapazitätssteigerungen und steigende Nachfrage dazu, dass immer mehr neue Produktionsstätten errichtet werden – vor allem in den USA und in Asien ist dies in den letzten Jahren deutlich zu sehen. Gleiches gilt für die gerade in letzter Zeit zu beobachtenden Mergers und Acquisitions in der Chemieindustrie. Dies begründet nicht nur komplexere Anforderungen an Logistik und Supply Chain, sondern auch schlicht mengenmäßige Herausforderungen, die es zu lösen gilt.

Mit der Komplexität der Supply Chain steigt auch das Risiko innerhalb der Supply Chain. Welche Auswirkungen Produktionsausfälle, Naturkatastrophen oder politische Unsicherheiten haben können, ist oftmals unüberschaubar. Gerade vor dem Hintergrund der Globalisierung und der längeren, verzweigteren Transportwege und Beschaffungsszenarien steigt auch hier das Risiko, was direkte Auswirkungen auf höhere Supply-Chain-Sicherheitsanforderungen und Vorbeugungsmaßnahmen hat. Das bedeutet, dass hier nicht nur der Blick auf die innere zu gewährleistende Sicherheit zu werfen ist, sondern auch besonders externe Faktoren zu berücksichtigen sind. Supply Chain Risk Management ist zwar noch eine relativ junge Disziplin, hier wird aber zukünftig gerade in global agierenden Unternehmen ein wichtiger Schwerpunkt liegen.

Auch das Thema Digitalisierung mit Schlagworten wie ‚Internet of Things‘ ist in aller Munde; im Bereich Produktion hat die Chemieindustrie hier eine Vorreiterrolle. Gerade Global Player sind bestrebt, entsprechende Techniken auch auf die Logistik zu übertragen. Dies erfordert große Investitionen und Umstellungen, sowohl bei den produzierenden als auch bei den transportierenden Unternehmen. Mangelnde globale Standards verkomplizieren dieses Digitalisierungsvorhaben, trotzdem ist das Ziel die vollständige „Supply Chain Visibility“ – am liebsten real time.

In der operativen Logistik wird diese Entwicklung durch stärkere Automatisierung ergänzt. Ist der Automatisierungsgrad in der Produktion von chemischen Produkten naturgemäß schon sehr hoch, zeigt sich zur Zeit die Tendenz dazu auch immer mehr in der Logistik – beginnend mit der automatischen Abfüllung, der verstärkten Nutzung von automatischen Hochregallagern bis hin zum vollautomatischen Transport. Auf ersten Werksgeländen sind bereits vollkommen fahrerlose Systeme (AGVs) implementiert oder in der Erprobung. In den kommenden Jahren wird dies weiterhin zunehmen, verstärkt durch autonomes Fahren auch außerhalb des Werksgeländes.

Die hier vorgestellten Entwicklungen zeigen, dass die Chemielogistik zunehmend wichtiger wird. Teilweise austauschbare oder substituierbare Produkte unterschiedlicher Hersteller bei gleichem Preisniveau führen dazu, dass weiche Faktoren wie Service oder Lieferfähigkeit an Bedeutung gewinnen – wer aus dem Privatleben Lieferzeiten von 24 Stunden kennt, kann Lieferzeiten von 8 und mehr Wochen nicht unbedingt nachvollziehen. Dies sind Faktoren, die gerade bei steigendem Wettbewerb immer mehr zu ausschlaggebenden Gründen für die Entscheidung für oder gegen einen Supplier sprechen – und diese Themen sind fest mit der Logistik assoziiert.

Zumindest in Europa rückt auch der ‚Faktor Mensch‘ seit einiger Zeit in den Mittelpunkt: Der Mangel an Fachkräften kommt auch – und verstärkt – in der chemischen Industrie an. Was andere Branchen wie Handel und Einzelhandel bereits verstärkt bemerken, nämlich die zunehmende Knappheit bei LKW-Fahrern, wird auch die chemische Industrie treffen. Da aufgrund höherer Anforderungen (Gefahrgut) bis jetzt auch höhere Vergütungen gezahlt werden, ist dieses Problem noch nicht allgegenwärtig, die Tendenz ist aber bereits zu erkennen. Gleichzeitig zeigt sich auch beginnend in der Produktion bereits die Herausforderung des demographischen Wandels. Insbesondere schwere körperliche Arbeit sowie unangenehme Arbeiten, die durchaus auch in der Logistik erledigt werden müssen, verstärken diese Herausforderung zusätzlich. Hier haben Vorreiter bereits erste Maßnahmen getroffen und umgesetzt, dies wird in den kommenden Jahren noch weiter in den Fokus rücken.

Alles in allem liegen immer noch große Potenziale in der Chemielogistik. Sicherheit, Kundenanforderungen und Kosten sind hier die größten Treiber. Gerade die Top Global Player sind bereits dabei, die dargestellten Herausforderungen proaktiv anzugehen und Lösungen zu erproben und umzusetzen. Diese Anforderungen werden aber auch – schon allein aus Wettbewerbsgründen – von mittleren und großen Firmen umgesetzt werden müssen. In der Miebach Chemielogistik-Studie geben mehr als die Hälfte der Unternehmen an, sich mit Strategieprojekten in der Supply Chain zu befassen, mit besonderem Augenmerk auf Kostensenkung und Serviceverbesserung. Auch im Bereich Operational Excellence gibt es verstärkt Projekte zur Optimierung.

Viele Gründe also, die dazu führen, dass die Logistik in der chemischen Industrie mehr Beachtung findet.

[1] Vgl. Miebach Chemielogistik-Studie „Logistik-Performance als Treiber der Unternehmens-Performance?“, Miebach Consulting 2016.

An Data Science führt kein Weg vorbei

5.000 Aussteller, 210.000 Besucher, 5,5 Millionen Kontakte – die Bilanz der weltweit größten Industriemesse ist durchweg positiv. Dabei setzt sich auch ein Trend der vergangenen Jahre fort: Der Anteil an Anbieter und Dienstleister aus der klassischen IT-Branche wächst kontinuierlich. Die digitale Fabrik und ihre industriellen Softwarelösungen haben sich endgültig zu einem zentralen Kern der Messe entwickelt. Oder wie Bitkom-Präsident Achim Berg es auf den Punkt bringt: „Soviel IT hatten wir noch nie auf einer Hannover Messe.“

Dazu passt auch, dass Hannover in diesem Jahr mit dem Leitthema „Integrated Industry – Connect and Collaborate“ an den Start gegangen ist. IIoT, Automation, Künstliche Intelligenz, Predictive Maintenance und Vernetzung sind dabei längst nicht mehr nur Buzzwords, sondern fanden sich auf der diesjährigen Agenda in allen Bereichen – in der Energietechnik (E-Mobilität), der Supply Chain (Smart Supply) und der Logistik (Logistik 4.0). Selbst die Robotik kann erst mit der Vernetzung zwischen Mensch, Maschine und IT ihr volles Potential ausschöpfen. Kein Wunder also, dass im Vergleich zum Vorjahr beispielsweise die belegte Fläche der „Digital Factory“ um 50 Prozent gewachsen ist. Unter einem Dach konnten Besucher die digitale Transformation der Industrie als Gesamtsystem erleben und einen Querschnitt technischer Innovation entlang der gesamten industriellen Wertschöpfungskette einsehen. Im Kern greifen die neuen Technologien auf ein und dieselbe Disziplin zurück: Data Science.

Klassisches Grundrezept: Daten, Daten, Daten

Das Sammeln und Analysieren von Datensätzen, um Prozesse zu überwachen, frühzeitig Handlungsbedarf auf System- und Anlagenebene zu erkennen und so Betriebszeit und Leistung zu maximieren, ist für die Betreiber nicht wirklich neu. In der Prozessindustrie kam Data Science bereits in den späten 70er Jahren zum Einsatz, als große Unternehmen damit begannen, ihre Anlagensteuerungssysteme von analog auf digital umzustellen. Erstmals erfassten Tausende Sensoren innerhalb der Anlage minuten- bis sekundengenaue Daten, die für Entwicklung von übergeordneten Anwendungen wie APC (Advanced Process Control) genutzt wurden, um die Effizienz der Anlagen bis an ihre Grenzen auszulasten.

Diese historischen Daten sind noch immer von Wert, nämlich als Grundlage für eine neue Form des Asset Performance Management, das tiefe Einblicke in die Anlagenprozesse erlaubt und damit Ausfälle, Störungen und Stillstandzeiten vorhersehbar macht. Wartung und Instandhaltung stellen nämlich im Zeitalter von Digitalisierung und Data Science nicht länger eine unkalkulierbare und unkontrollierbare Kostenstelle dar. Vielmehr eröffnen sie unter dem Stichwort Predictive and Prescriptive Maintenance ab sofort echten Mehrwert für Anlagenbetreiber.

Die Chancen sind enorm: Allein in der Instandhaltung können Betreiber durch vorausschauende Lösungen finanzielle Einbußen von insgesamt 1 Mrd. US-Dollar verhindern. Data Analytics und Maschinelles Lernen verhelfen hier zu einem technologischen Durchbruch – jedoch nur wenn sie mit der branchenspezifischen Expertise über Betriebsabläufe und Verfahrenstechniken kombiniert wird und sich die in der Cloud bereitgestellten Rechen- und Speicherkapazität mittels High-Performance-Computing und Data Lakes zu Nutze macht.

Einfacher Zugang zu komplexen Technologien

Die Vertrautheit mit diesen „neuen“ Technologien auf Seiten der Mitarbeiter ist dabei in den letzten Jahren gestiegen. Dazu haben auch die einfache Handhabung von komplexen Anwendungen und die immer höhere Rechenleistung beigetragen. Eine neue Generation von Entwicklern verschiebt die Grenzen weiter nach oben – auch weil KI, Cloud und Big Data verstärkt in bekannten Consumer- und Back-Office-Anwendungen zum Einsatz kommen und so Teil unseres täglichen Lebens geworden sind.

Für IT-Dienstleister und Softwareanbieter im Bereich Industrie 4.0 stellt sich damit eine wesentliche Aufgabe: Ihnen muss es gelingen, Data Science-Funktionalitäten in ihre Produkte zu integrieren und  Kunden ein einfach zu bedienendes und effektives Tool an die Hand zu geben, das ihnen den Zugang zu neuen Technologien vereinfacht. Die nahtlose Integration von Analytik und Data Science bietet dann  Vorteile über alle Bereiche hinweg – vom Design über den Betrieb bis hin zur Wartung.

Ohne solche intelligenten IT-Plattformen und Softwarelösungen bleibt Industrie 4.0 nur ein Schlagwort. Die Hannover Messe und der wachsende Schwerpunkt auf IT und digitale Vernetzung haben das klar zu verstehen gegeben. Der rege Zulauf aus der IT-Branche und die Nachfrage auf Seiten von Anlagenbetreibern und Herstellern wird daher auch in den nächsten Jahren nicht versiegen, sondern aller Voraussicht nach zunehmen. Data Science ist in diesem Zusammenhang der auschlaggebende Erfolgsfaktor für alle Unternehmen, um sich langfristig an die Spitze der nächsten industriellen Revolution zu setzen.

 

Ist es sinnvoll, eine IoT-Plattform selbst zu entwickeln?

Unternehmen, die sich mit der Frage beschäftigen, eine eigene “IoT-Plattform” zu schaffen, tun dies nach unserer Erfahrung vor allem aus drei Gründen: Entweder wollen sie ein Plattform-Geschäftsmodell im Bereich IoT etablieren, ein Online-Portal für IoT-Anwendungen schaffen oder aber tatsächlich eine echte eigene IoT-Plattform schaffen.

In den beiden erstgenannten Fällen ist es sinnvoll, die vorhandenen IoT-Plattformen sorgfältig auf ihre Eignung für das eigene Vorhaben zu prüfen und auf einer davon die eigene Lösung aufzusetzen. Dies spart erfahrungsgemäß viele Monate oder sogar Jahre an unnötigem Mehraufwand für die Programmierung und das Testen von Basisfunktionalitäten, die keinen Wettbewerbsvorteil am Markt schaffen. Die Kernfrage in diesen Fällen lautet also “Wie finde ich die richtige IoT-Plattform?” (siehe dazu weiter unten). Um dabei die typischen Anfängerfehler zu vermeiden, ist es insbesondere wichtig, die IT-Architektur so aufzusetzen, dass sensitives domänenspezifisches Wissen besonders geschützt wird.

Große Konkurrenz für neue IoT-Plattformen

Nur in sehr wenigen Fällen hingegen, in denen von einer “neuen IoT-Plattform” die Rede ist, möchten Unternehmen tatsächlich eine weitere eigene IoT-Plattform etablieren, die mit den mehr als 500 Angeboten auf dem Markt konkurrieren soll. Prominente Beispiele aus Deutschland dafür sind unter anderem Adamos (eine strategische Allianz mehrerer Hersteller mit der Software AG) und Axoom (eine Tochtergesellschaft von Trumpf). Solche Überlegungen sind insbesondere in den Branchen Maschinen- und Anlagenbau sowie Industrieautomation verbreitet, wo zahlreiche Anbieter befürchten, dass ihre Kunden, also die Betreiber des Equipments, sich Asset & Operations Performance Management-Plattformen von Dritten einkaufen, um ihre Factory 4.0 zu steuern. Dann bleibt den Equipment-Herstellern nur noch die Rolle von Datenlieferanten in dominante Dritt-Plattformen – keine erstrebenswerte Entwicklung. Denn für die Equipment-Hersteller würde dies eine enorme strategische Marginalisierung bedeuten – in einer Zeit, in der Daten “das neue Gold” sind und das Geld zunehmend mit digitalen Services verdient wird.

Make – Was gibt es zu beachten?

In den wenigen Fällen, wo die Schaffung einer eigenen IoT-Plattform tatsächlich sinnvoll erscheint, gilt es vor allem vier zentrale Fragen zu klären, die für den Erfolg des Vorhabens von entscheidender Bedeutung sind:

  1. Wertschöpfungstiefe: Was ist der Aufsatzpunkt für die eigene IoT-Plattform? In aller Regel werden IaaS (Infrastructure-as-a-Service)-Angebote von den drei Anbietern Amazon Web Services, Microsoft oder Google genutzt, um Server für Storage (Datenspeicherung) und Compute (Rechenleistung) in der Cloud zu beziehen. Darüber hinaus nutzen zahlreiche IoT-Plattformen wiederum andere “Whitelabel”-IoT-Plattformen wie beispielsweise Predix oder Cumulocity als PaaS (Platform-as-a-Service), um darauf ihre eigenen Angebote aufzubauen. Je weiter “oben” man mit der eigenen Lösung beginnt, desto günstiger wird es, aber desto weniger Gestaltungsspielraum und Flexibilität hat man auch.

  2. Budget: Hat mein Unternehmen ausreichend finanzielle Mittel, um im harten Wettbewerb der IoT-Plattformen zu bestehen? In einem Markt, in dem Giganten wie General Electric, SAP, Microsoft, Siemens und Amazon Milliardenbeträge in ihre Plattformen investieren und in dem bald eine massive Konsolidierung zu erwarten ist, sollte sich ein neuer IoT-Plattformanbieter sehr gut überlegen, in welcher Nische und mit welcher strategischen Ausrichtung er sich positioniert.

  3. Kompetenzen: Hat mein Unternehmen die erforderlichen Kompetenzen in ausreichender Zahl an Bord? Software-Architekten, Backend-Entwickler, Frontend-Entwickler, Embedded-Kompetenzen, Data Engineers, Scrum Master und zahlreiche weitere rare Experten werden benötigt, um eine überzeugende IoT-Plattform zu schaffen. Auch wenn externe IoT-Entwicklungsdienstleister einen schnellen Start ermöglichen können, sollte der interne Aufbau der Kompetenzen sorgfältig geplant werden.

  4. Ökosystem: Wie schaffe ich ein attraktives Partner-Ökosystem um meine Plattform herum? Dabei sollten sowohl App-Anbieter (App-Store) in Betracht gezogen werden als auch Systemintegratoren, Big Data Spezialisten und domänenspezifische Expertise.

Buy – Wie geht man vor?

Aufgrund der Vielzahl und technischen Komplexität der IoT-Plattformen sowie den sehr unterschiedlichen Preismodellen und oft wenig aussagekräftigen Marketingmaterialien der Anbieter ist eine sorgfältige Auswahl das A und O eines erfolgreichen IoT-Projektes. Denn hat man erst einmal eine zunächst attraktiv erscheinende IoT-Plattform implementiert und mit den Geräten im Feld verknüpft, ist der Aufwand immens, wenn man später aus Kosten-, Sicherheits-, Skalierungs- oder funktionalen Gründen stattdessen eine neue Plattform implementieren muss. Im ungünstigsten Fall muss auch die Firmware aller Geräte im Feld manuell aktualisiert werden.

Der wichtigen Auswahl der richtigen IoT-Plattform widmen wir daher unseren nächsten Fachartikel, der hier in Kürze auf Industry-of-Things.de erscheint.