Zaghafte Umsetzung: IT-Automatisierung in der Smart Factory

Führende Industrie- und Automotive-Konzerne arbeiten fieberhaft an neuen Automatisierungstechnologien. Ihr Ziel: die nächste Generation ihrer digitalen Dienste noch effizienter, intelligenter und kundenfreundlicher gestalten. Mit einem hohen Automationsgrad verbinden Unternehmen demnach nicht nur die Möglichkeit, Ressourcen einzusparen, sondern vor allem diese zugunsten neuer Geschäftsmodelle und innovativer Produkte umzuschichten. Die Automatisierung der IT zählt heute zu einem der wichtigsten Handlungsfelder deutscher Unternehmen. Denn noch passiert zu viel in „Handarbeit“, was innovative Infrastruktur-Konzepte und Software-Lösungen etwa beim Patching, Kapazitätsmanagement oder Skalierung bereits autonom ausführen könnten.

Die Studie „Cloud Automation Excellence“ von Hewlett Packard Enterprise und Nexinto, die Crisp Research durchgeführt hat, zeigt: lediglich 6,4 Prozent aller Unternehmen ist vollständig oder hochgradig automatisiert. Ein wenig besser sieht es beim alleinigen Blick auf die metallverarbeitende Industrie- und Automobilbranche aus. Hier liegt der Anteil mit rund 11 Prozent über dem Durchschnitt aller Branchen. Dennoch bedeutet dies im Umkehrschluss: Bei 89 Prozent ist auch hier noch deutlich Luft nach oben.

Hürden liegen nicht nur in der Technik

Obwohl Digitalisierung höchste Aufmerksamkeit in allen Unternehmensbereichen hat, ist sie kein Selbstläufer bei der Automatisierung. Zu den fünf wesentlichen Hürden gehören neben fehlenden Budgets (36,8 Prozent) unter anderem eine fehlende Transparenz in der IT-Landschaft (32,3 Prozent). Direkt dahinter stehen starre Organisationsstrukturen (27,7 Prozent) und mangelnde Erfahrung sowie Fertigkeiten (27,1). Zusätzlich müssen sich Unternehmen mit den Altsystemen in ihrer IT-Landschaft (26,5 Prozent) abmühen. Dies sind nur einige Bereiche, bei denen dringender Nachholbedarf besteht. Denn die Automatisierung der IT und der damit verbundenen Betriebsprozess spielt als Enabler digitaler Produkte sowie neuer Entwicklungs- und Innovationsmethoden heute und zukünftig eine elementare Rolle.

Dafür müssen Unternehmen zum einen den viel beschworenen Cultural Change zu einem agilen Mindset in Angriff nehmen und zum anderen ihre IT-Landschaft an die neuen Herausforderungen anpassen. Dazu gehört wesentlich die Cloud als Enabler-Techologie. Hier lohnt sich auch die Zusammenarbeit mit Managed-Services-Anbietern, die ihre Dienste bereits auf Automatisierung getrimmt haben und über Plattformen quasi auf Knopfruck bereitstellen. Damit erhalten Unternehmen einerseits eine gute technologische Basis und überbrücken andererseits das „Skill-Gap“ durch fehlende Fachkräfte.

Cybus launcht IoT Sandbox

Die ersten Kunden des Hamburger IoT-Start-ups Cybus können sie schon seit Anfang Februar in der Hand halten. Cybus bietet für den Einstieg in industrielle IoT-Anwendungen seine “Sandbox” an. Der Industrie-taugliche Mini-PC wird mit der eigenen Cybus Connectware vorinstalliert ausgeliefert. Damit können Systemintegratoren, R&D-Abteilungen und Entwickler aus der Shopfloor-IT schnell und ohne Installationsaufwand eigene physische Geräte mit digitalen Industrieanwendungen zu verbinden. Die Sandbox ermöglicht es, sechs Monate lang eigene IoT Use Cases ohne zusätzlich laufende Kosten aufzubauen. Die Besonderheit: diese prototypischen Vorarbeiten können auf Knopfdruck auf produktive Instanzen übertragen werden. So wird von Anfang an eine modular erweiterbare Basis gelegt und mehrfache Arbeit vermieden.

INTERNE USE CASES SCHNELL AUFBAUEN

Für Verantwortliche, die mit minimalem Aufwand IoT Use Cases im eigenen Unternehmen aufbauen, aber gleichzeitig kein Datensilo erschaffen wollen, eignet sich die Cybus Sandbox besonders. Die Sandbox ist auf die schnelle Anbindung von ersten Gerätedaten ausgelegt und verfügt zudem über eine umfangreiche, frei zugängliche Knowledge Base. Dadurch ist es mühelos möglich, sich hier schnell und ohne Vorarbeit zurecht zu finden und vorzeigbare Ergebnisse zu erzielen. Nach ersten erfolgreichen Anwendungen lässt sich die Connectware-Lizenz beliebig erweitern und kann somit für einen Produktiveinsatz fortgeführt werden.

VOLLE KOMPATIBILITÄT MIT INDUSTRIE-PROTOKOLLEN

Neben der Connectware werden eine simulierte Datenquelle (ein simuliertes Bearbeitungszentrum) sowie eine IoT-Dashboard-Applikation vorinstalliert zur eigenen Evaluation von Gerätedaten mitgeliefert. Testszenarien sind somit selbst ohne eigene Daten oder Applikationen schnell umsetzbar. Somit besteht die Möglichkeit für erste konkrete Test-Szenarien, sogar wenn keine eigenen Gerätedaten von Beginn an angebunden werden. Die Cybus Connectware fungiert in sich als unabhängige Verwaltungsebene zwischen Maschinendaten und digitalen Industrie-Applikationen. Als Cloud-unabhängige Verwaltungsebene mit integrierter Daten-Zugriffskontrolle unterstützt die Sandbox gängige Industrie-Standards, wie OPC UA, MQTT, Modbus, ISO-on-TCP, Profinet, BACnet und einige proprietäre Protokolle.

Die Cybus Sandbox kann für 699 Euro direkt online bei Cybus auf www.cybus.io/sandbox/ bezogen werden.

Mit dem digitalen Zwilling zu höherer Effizienz

Gemäß einer Prognose von Gartner wird bis zum Jahr 2021 die Hälfte aller Industrieunternehmen digitale Zwillinge nutzen und dadurch einen durchschnittlichen Effizienzgewinn von 10 Prozent erzielen. Insbesondere bei Produktionsanlagen und Prozessen, die enge Wechselwirkungen zwischen Maschinen und Mensch erfordern, werden digitale Zwillinge immer wichtiger.

Das Beste aus beiden Welten

Menschen können nur fundierte Entscheidungen treffen, wenn sie Situationen vollständig erfassen. Doch im Zeitalter des IoT werden Fertigungsanlagen und Maschinen stets komplexer und somit ist es immer schwieriger, den Überblick zu behalten. Daher liefern computergestützte Systeme Daten an Betriebsleiter, damit sie Entscheidungen auf Basis von Datenblättern oder Basisdiagrammen treffen.

Ein digitaler Zwilling kombiniert das Beste aus beiden Welten, indem er Daten in Echtzeit in einer exakten visuellen Nachbildung präsentiert. Er steigert die Effizienz der visuellen Bandbreite erheblich, indem er unkritische Informationen entfernt und Basisinformationen in einem Format verarbeitet, das leichter verständlich ist. So ermöglicht er eine flexiblere Sicht auf das System. Gleichzeitig lassen sich historische Daten oder optimale Werte mit den aktuellen Daten vergleichen, wodurch Verbesserungspotenziale identifiziert und unmittelbare Problembereiche aufgezeigt werden. Dies ermöglicht eine schnelle Entscheidungsfindung in Echtzeit.

Besseres Prozessverständnis

Zudem besitzt ein digitaler Zwilling die Fähigkeit, diese digitale Sicht auf Maschinen – unabhängig von der physischen Distanz des Betrachters – zu teilen. Das ermöglicht einer großen Anzahl von Personen den Einblick auf Produktionsanlagen – unabhängig davon, wo sie sich befinden. Darüber hinaus bietet ein digitaler Zwilling Produktmanagern, Designern und Datenwissenschaftlern ein besseres Datenverständnis. Denn sie erfahren, wie Prozesse und Maschinen funktionieren und können bessere Produkte entwerfen, effizientere Prozesse entwickeln sowie Probleme viel früher erkennen. Das spart Zeit und reduziert den Materialverbrauch bei der Erstellung physikalischer Modelle. Zudem lassen sich Differenzen zwischen Soll und Ist erkennen und eine entsprechende Ursachenanalyse durchführen.

Mit der Zeit immer wertvoller

Denken Unternehmen über den Einsatz eines digitalen Zwillings nach, sollten sie sich folgende Fragen stellen:

  • Was muss ich über meine Fertigungsprozesse wissen, damit ich Entscheidungen treffen kann? Denn das ist die Basis dafür, welche Art von Daten zu erfassen und welche Art von Visualisierungen zu implementieren sind.
  • Was sind die drei bis fünf Top-Rollen in meinem Unternehmen, für die ich in erster Linie den digitalen Zwilling will? Dadurch lässt sich effektiv klären, welche Ansichten aus den erfassten Daten erstellt werden sollen.

Anschließend entwickeln Unternehmen eine Roadmap, die den digitalen Zwilling mit der Zeit immer wertvoller werden lässt. Dies kann entweder durch Hinzufügen relevanterer Datensätze oder durch Zugriff von einer größeren von Rollen innerhalb des Unternehmens geschehen. Google Maps ist ein erfolgreiches Beispiel für einen solchen schrittweise erweiterten digitalen Zwilling. Denn die App emuliert heute Standort- und Verkehrsdaten wesentlich detaillierter und genauer als früher, da die Datenbasis stetig erweitert wurde und sich die App dadurch weiterentwickelt hat.

Fazit

Industrieunternehmen, die digitale Zwillinge besitzen, können sich durch bessere Produkte, höhere Effizienz und schnellere Release-Zyklen nachhaltige Wettbewerbsvorteile verschaffen. Der Schlüssel liegt darin, mit kleinen Projekten zu beginnen sowie die Kostenvorteile aus Nutzen und ROI zu reinvestieren, um künftig bessere oder komplettere Systeme zu entwickeln.

Erfolgreich auf Basis der Cloud

Auch in Deutschland erkennen die meisten Unternehmen die Cloud als kritischen Erfolgsfaktor an. Damit können sie deutlich schneller und effizienter intelligente Dienste und Lösungen bereitstellen. So erhalten sie einen Wettbewerbsvorteil und vergrößern ihren Marktanteil. Die Cloud verändert dabei die Spielregeln und hat schon dazu geführt, dass ganze Branchen umgekrempelt wurden.

Dies betrifft nicht nur die IT- oder Medienbranche, sondern inzwischen alle Wirtschaftsbereiche – ob Finanz- oder Gesundheitswesen, Handel, Logistik, Produktion oder Versorgung bis hin zur öffentlichen Hand. Dies zeigt der aktuelle „The Top 50 EMEA Cloud Climbers Report“ von F5.

Die Studie stellt 50 Unternehmen aus Europa, dem Nahen Osten und Afrika vor, die auf Basis der Cloud besonders innovative Lösungen entwickelt und umgesetzt haben. Dabei konnten sie mit Hilfe einer Cloud-Strategie die Geschwindigkeit und Flexibilität ihrer Prozesse verbessern, um ihren Kunden einen höheren Mehrwert zu bieten.

Deutsche Unternehmen dabei

Aus Deutschland sind mehrere Unternehmen dabei. Hervorzuheben ist zum Beispiel Zalando. Der Berliner Mode-Anbieter setzt Cloud-basierte Ansätze ein, um das Verhalten von Kunden zu verstehen und ihre Wünsche vorherzusagen. Dies ist im wechselhaften Geschäft der Modebranche sehr wichtig für den nachhaltigen Erfolg.

Dazu hat das „Adtech Lab“ von Zalando in Hamburg ein Deep-Learning-System entwickelt, das künftige Modeinteressen der Kunden auf Basis ihres bisherigen Verhaltens und von Online-Interaktionen vorhersagt. Aktuelle Daten aus dem Online-Shop werden dabei über mehrere Monate hinweg gesammelt und in anonymisierte Kundenhistorien zusammengestellt. Demnächst wird das Training der Vorhersage-Modelle in die Cloud migriert, um eine stabilere und skalierbarere Lösung zu erhalten. Damit sollen genaue Vorhersagen in Echtzeit möglich sein, um die Kundenzufriedenheit weiter zu erhöhen.

Flixbus auch in der Cloud unterwegs

Auch der Erfolg von Flixbus basiert weitgehend auf dem intelligenten Einsatz von Cloud-Technologien. Das Münchener Unternehmen bietet darüber mobile Buchungs- und Ticketing-Angebote sowie dynamische Preise, die sich an Angebot und Nachfrage orientieren. Mit Hilfe Cloud-basierter Datenanalysen wird die Auslastung der Reisebusse der 250 regionalen Partner optimiert. Dazu dient ein eigenes Umsatz-Managementsystem sowie eine Lösung zur Nachverfolgung der Busse.

Zur Strategie von Flixbus gehört es, Cloud-basierte Dienste überall dort einzusetzen, wo dies möglich ist. Der Erfolg gibt dem Unternehmen recht. Denn durch die eigene Plattform konnte es innerhalb weniger Jahre etwa 80 Prozent der Überlandreisen in Deutschland für sich gewinnen.

Sicherheit an erster Stelle

Die meisten Unternehmen wissen nicht erst durch solche Erfolgsgeschichten, dass der richtige Cloud-Einsatz den Geschäftserfolg direkt erhöhen kann. Doch viele wissen nicht, wo sie mit der Cloud-Migration beginnen sollen. Welche Projekte eignen sich und wie lässt sich bei der Einführung der bislang hohe Standard an Datensicherheit und Compliance erhalten? Insbesondere durch die neuen Regeln der EU-DSGVO ist dies eine wichtige Frage.

Grundsätzlich stellt der Gang in die Cloud tatsächlich ein gewisses Sicherheitsrisiko dar. So werden zum Beispiel die US-Atomraketen immer noch per Floppy Disk in einem geschlossenen System gewartet, damit kein Unbefugter von außen darauf zugreifen kann. Entsprechend ist es für Unternehmen wichtig, bei der Digitalisierung das Thema Sicherheit auf die höchste Prioritätstufe zu setzen, um Gefahren für Geschäftsprozesse oder Kundendaten zu vermeiden.

Cloud-basierte Security-Lösungen

Doch die Cloud kann gleichzeitig auch neue Sicherheitstechnologien ermöglichen. Dies zeigt zum Beispiel Bio Catch. Das israelische Unternehmen hat ein neuartiges Authentifizierungssystem entwickelt, das mehr als 500 sogenannte Points of Behaviour erfasst. Dazu zählen etwa Hand-Auge-Koordination, Druck sowie Zittern der Hand oder Fingerbewegungen bei Navigation und Scrolling. Das daraus erstellte Nutzerprofil dient der Erkennung von Anomalien zur Abwehr von unerlaubten Zugriffen und Malware.

Das britische FinTech-Unternehmen Revolut nutzt einen Multi-Cloud-Ansatz, um kostengünstige internationale Zahlungsdienstleistungen für mehr als 800.000 Kunden bereitzustellen. Dabei setzt es eine eigene Technologie zur Einbindung von Drittanbieter-Services ein. So bietet es eine kostenfreie weltweite Bezahlmöglichkeit in über 130 Währungen, inklusive BitCoin, sowie Prepaid-Kreditkarten, Geldumtausch oder Peer-to-Peer-Bezahlungen. Um eine hohe Sicherheit für geschäftskritische Dienste zu gewährleisten, nutzt Revolut zwei große Provider: Google Cloud und Amazon Web Services. Diese erfüllen auch hohe Kundenanforderungen im Bereich Security.

Neuartige Big-Data-Dienste

Mit ausreichenden Sicherheitsmaßnahmen können Unternehmen auch neuartige Big-Data-Dienste anbieten. Zum Beispiel nutzt das niederländische Start-up Flitsmeister die Cloud, um Verkehrsinformationen in Echtzeit zu erfassen, zu analysieren und bereitzustellen. Ein System mit geringer Latenz ermöglicht dabei eine schnelle Aktualisierung der Informationen. So kann es monatlich rund drei Milliarden GPS-Punkte von einer Million aktiven Nutzern verarbeiten und selbst in Spitzenzeiten dank der Cloud-Skalierung hochverfügbar bleiben.

Die umfassende Vernetzung im Zuge des IoT und neue Cloud-Services führen dazu, dass Informationen in völlig neuen Größenordnungen zur Verfügung stehen und grundsätzlich jeder Nutzer überall darauf zugreifen kann. Das ermöglicht viele neue Services und Angebote, doch gleichzeitig wird der mögliche Schaden durch Sicherheitsvorfälle deutlich größer als bisher. Daher sollte man bei jeder Cloud- oder IoT-Installation von Anfang an das Thema Sicherheit mit hoher Priorität beachten.

 

Schöne neue KI-Welt für Unternehmen?

Wenn man über künstliche Intelligenz (KI) spricht, lohnt es sich, zunächst zu klären, was damit überhaupt gemeint ist. Eine immer noch griffige Definition entstand bereits in den 1980er-Jahren: KI ist die Lehre darüber, wie man Maschinen Dinge beibringen kann, die der Mensch selbst derzeit noch besser beherrscht. Und der Begriff Intelligenz – ob bei Menschen oder Maschinen – lässt sich recht gut als die Fähigkeit beschreiben, komplexe Dinge zu tun. Noch ist die Fähigkeit von Maschinen, komplexe Probleme zu lösen und die umfassenden Fähigkeiten des menschlichen Verstands zu imitieren, sicherlich begrenzt. Aber schon heute werden lernende Systeme in sehr kurzen Zeitabständen deutlich klüger – in ihrem jeweiligen Aufgabenbereich.

Von Null auf Genie in drei Tagen

Ein jüngeres Beispiel, das auch in der Öffentlichkeit Resonanz fand, hat mit der AlphaGo-Software zu tun. AlphaGo, das beste aller Computerprogramme für das asiatische Brettspiel Go, besiegte bereits im März 2016 den damals weltbesten menschlichen Spieler, den Südkoreaner Lee Sedo. Während AlphaGo neben dem Regelwerk noch mit einer Datenbank von 30 Millionen Zügen gefüttert werden musste, um lernen zu können, wurde das Nachfolgeprogramm AlphaGo Zero nur mit den Spielregeln gespeist: Es lernte durch Partien gegen sich selbst. Innerhalb von drei Tagen hatte es in seiner Spielstärke das ursprüngliche AlphaGo überflügelt. Nach 40 Tagen des Selbstlernens war das neue Programm sogar stärker als die letzte Ausbaustufe des Vorgängers, AlphaGo Master. Das war im Herbst 2017.

Dokumente semantisch verstehen

Stehen wir also vor einem evolutionären Prozess? Werden die Maschinen am Ende die besseren Menschen? Wenn es darum geht, relevante Zusammenhänge in sehr großen Mengen von Informationen zu finden, sind KI-Systeme dem Menschen sicherlich überlegen. Big Data, Business Intelligence und KI: Sie werden nicht zufällig in einem Atemzug genannt. Es ist absehbar, dass KI-Anwendungen auch im Kontext der Dokumentenmanagementsysteme (DMS) ihren Platz im Unternehmen finden werden. DMS-Lösungen dienen der Verwaltung von Informationen, und KI könnte helfen, diese Informationen besser nutzbar zu machen – indem sie aus einer großen Menge von Dokumenten neue Zusammenhänge filtert. Schon jetzt wird entsprechende Software dazu eingesetzt, eingehende Dokumente zu verstehen und zuzuordnen – wie etwa Rechnungen oder Lieferscheine – und mithilfe von Daten aus dem ERP-System Plausibilitätsschecks durchzuführen. Der nächste Schritt wird darin bestehen, nicht mehr nur in Formularform, sondern in freier Textform erstellte Dokumente zu erfassen – und sie semantisch zu verstehen. Damit auch ein Schreiben wie dieses korrekt zugeordnet wird: „Sehr geehrter Energieversorger, ich kündige hiermit … an, dass ich mehr Strom benötige.“

KI entscheidet?

Die Strukturen, die DMS-Lösungen aufbauen, und die Vorgänge, die sie erfassen, sind durchaus einem maschinellen Verstehen und einer automatisierten Bearbeitung zugänglich, von der Angebotserstellung bis zur Auftragsbestätigung. Sogar im HR-Bereich könnte künstliche Intelligenz Nutzen stiften. Etwa indem sie die digitalen Personalakten auswertet und eine Übersicht über die Skill-Sets erstellt, die bei den Mitarbeitern im Unternehmen vorhanden sind. So erfährt der Arbeitgeber, ob seine Organisation den Herausforderungen der Zukunft gewachsen ist. Prinzipiell kann eine KI, die die Anforderungen im HR-Bereich versteht, natürlich auch eine (Vor-)auswahl unter Bewerbern treffen. Nur: Was passiert, wenn der abgelehnte Kandidat klagt? Wen trifft die Schuld für etwaige Fehlentscheidungen? Und wie kam es überhaupt zu der Entscheidung?

Die Zukunft verstehen

Dass selbstlernende Algorithmen Entscheidungen treffen, die sinnvoll sein mögen, aber aus menschlicher Perspektive praktisch nicht nachvollziehbar sind, ist ein durchaus gravierendes Problem. Anders gesagt: Was denkt eine künstliche Intelligenz eigentlich? Es ist ein wichtiges Ziel der aktuellen KI-Forschung, die Entscheidungen selbstlernender Systeme nachvollziehbar zu machen. Bereits die im Mai 2018 wirksam werdende europäische Datenschutzgrundverordnung (EU-DSGVO) verlangt, dass Entscheidungen, die Personen beeinträchtigen könnten, nicht ausschließlich auf einer automatisierten Verarbeitung beruhen dürfen. In der Tat braucht es jenseits der technischen Möglichkeiten einen gesellschaftlichen Diskurs über den Nutzen und die Beherrschbarkeit der schönen neuen KI-Welt. Es bleibt an uns, unsere technische Zukunft zu steuern und selbst zu gestalten.

Fragen rund um KI sowie die intelligente Organisation des digitalen Wandels in der Arbeitswelt behandelt die forconference 2018 am 15. März in Leipzig.

Warum die Digitalisierung des Unternehmens Chefsache ist

Die Digitalisierung schreitet im Unternehmen entlang der gesamten Wertschöpfungskette voran. Sie wird mit Sicherheit jedes Unternehmen nachhaltig verändern. Die Entscheidung, was und wie es in Ihrem Unternehmen passieren soll, liegt einzig und allein bei der Unternehmensführung.

Wie dringlich und wichtig ist es, in punkto Digitalisierung Entschlossenheit zu zeigen? Muss die Digitalisierung oberste Priorität haben?
Ja, denn wer nicht jetzt Entscheidungen trifft und umsetzt, läuft Gefahr, hinter dem Wettbewerb zurückzufallen.

Ist die Digitalisierung wichtig?
Ja, denn sie wird das Unternehmen massiv, dauerhaft und nachhaltig verändern.

Gemäß dem Eisenhower-Prinzip sind wichtige und dringliche Aufgaben selbst und sofort zu erledigen. Sie können nicht aufgeschoben oder delegiert werden, sondern sind von der Unternehmensführung selbst und sofort zu erledigen.

Digitalisierung ist unternehmensspezifisch und zielorientiert

Eine maßgeschneiderte Digitalisierung, mit der das Unternehmen quasi über Nacht den Schritt ins digitale Zeitalter macht, wünscht sich jeder für sein Unternehmen. Wie aber sieht diese maßgeschneiderte Digitalisierung aus und welche Anforderungen soll sie erfüllen? Welche Ziele wollen Sie mit der Digitalisierung in Ihrem Unternehmen erreichen?

Diese Frage sollte sich jeder Unternehmer stellen, denn die Digitalisierung von Prozessen, Aufgaben oder Abläufen soll ja kein Selbstzweck sein. Daher ist es wichtig, sich die Vorteile und Ziele bewusst zu machen und festzulegen.

Folgende Ziele sind beispielsweise denkbar:

  • Neue Geschäftsmodelle auf Basis einer digitalen Vernetzung
  • Neue Produkte mit intelligenten Eigenschaften
  • Digitale Produktentwicklung
  • Kosteneinsparung durch Simulation / Front Loading
  • Attraktivität auf dem Arbeitsmarkt.

Durch die Digitalisierung werden sich Ihre Märkte schneller wandeln. Kunden erwarten von neue Produkte und Serviceleistungen, die sich deutlich mehr als bisher an ihren Bedürfnissen orientieren. Dies ist die Basis für eine starke Kundenbindung.

Produkte werden durch Kundenanforderungen u.U. komplexer bei gleichzeitig sinkender Entwicklungs- und Produktionszeit. Dem permanenten Kostendruck für Entwicklung und Produktion begegnen sie durch die durchgängige Digitalisierung ihrer Entwicklungs- und Planungsprozesse (Digital Factory).

Die Gewinnung und das Halten von Mitarbeitern ist gerade in technologischen Branchen essentiell. Ein Unternehmen, das sich nur auf dem Papier mit der Digitalisierung beschäftigt, ist für die neue Generation von qualifizierten Arbeitnehmern uninteressant.

Digitalisierung ist ein Prozess, der begleitet werden muss

Die Digitalisierung kann leider nicht über Nacht erfolgreich Einzug halten. Es ist vielmehr ein Prozess, der über einen längeren Zeitraum von vielleicht mehreren Jahren geht. Und dieser Prozess ist individuell für Ihr Unternehmen. Durch die Anwendung von Methoden der Kreativitätstechnik wie z.B. Design Thinking, World Café o.ä. erzeugen Sie gezielt neue Ideen für die Zukunft Ihres Unternehmens oder das Lösen von Problemen.

Fazit: Digitalisierung ist Chefsache

Der Einzug der Digitalisierung wird Ihr Unternehmen nachhaltig verändern. Dazu sind schnelle Entscheidungen notwendig, die durch die Verantwortlichen getroffen werden müssen. Je länger Sie damit warten, umso weiter geraten Sie mit Ihrem Unternehmen ins Hintertreffen.

Industrie 4.0 – Reifegradermittlung und Benchmarking

Die bislang publizierten Reifegradmodelle in Bezug auf Industrie 4.0 sind in der Regel entweder eher strategisch, organisatorisch oder technologisch ausgerichtet. Da „Industrie 4.0“ jedoch einen interdisziplinären Veränderungsprozess auslöst ist es von entscheidender Bedeutung, alle Dimensionen des Unternehmens und deren Geschäftsmodell-Architektur hinsichtlich Digitalisierungsumfang zu erfassen und zu analysieren.

In der Praxis hat sich hierzu eine Betrachtung von 12 Dimensionen bewährt, die unterschiedliche Kategorien beinhalten. Die Dimensionen erfassen die Reifegrade hinsichtlich „Smart Factory“, „Innovation Management“, „Manufacturing“, „Produkte und Produktivität“, „Lifecyle Management“, „Ökosysteme“, „Strategie“, „Kunden und Märkte“, „Organisation“, „Roadmap“, „Menschen und Ressourcen“ sowie „datenbasierte Services.“

Positionsbestimmung und internes Benchmarking

Innerhalb der Kategorien wird durch einen themenbasierten Fragenkatalog der jeweilige Reifegrad ermittelt und die verschiedenen Unternehmensbereiche (Fachdisziplinen, Standorte, Tochtergesellschaften etc.) können mit einem Benchmarking-System miteinander verglichen werden. Dadurch entsteht ein einheitliches Gesamtbild und Handlungsfelder können präzise bestimmt werden.

Die Reifegradstufen werden anhand folgender Merkmale definiert:

Newcomer:
Der Newcomer zeichnet sich vor Allem durch eine fehlende, unternehmensweite Strategie und ein fehlendes Führungssystem aus. Einzelne, unabhängige Insel-Projekte sind gestartet, Knowhow und Kompetenzen sind vereinzelt vorhanden, werden aber nicht ganzheitlich gesteuert und genutzt.

Advanced:
Teilbereiche des Unternehmens befassen sich mit gezielten Projekten und stimmen sich untereinander ab. Eine Strategie mit Vision/Mission-Statement wird erarbeitet, man sammelt Erfahrungen mit den neuen Möglichkeiten, jedoch ohne das bestehende Geschäftsmodell zu gefährden. Gezieltes Innovationsmanagement und kultureller Wandel finden noch nicht statt.

Expert:
Eine übergreifende Strategie ist definiert und über ein Projektportfolio operationalisiert. Innerhalb der Organisationsstruktur haben sich crossfunktionale Teams herausgebildet um die notwendigen Entwicklungen voranzutreiben. Neue Führungssysteme werden etabliert um als Promotor für den Wandel zu sorgen und das bestehende Geschäftsmodell soll um neue Bereiche erweitert werden.

Unternehmen, die diese Stufe erreicht haben, sind auf dem besten Weg bei den veränderten Marktgegebenheiten, der künftigen Arbeitswelt und den technologischen Möglichkeiten Schritt zu halten.

Simple Scored Modell (Bildquelle: Braincourt)

 

Die „Königsklasse“ bei der Etablierung von Veränderungen im Rahmen der „digitalen Transformation“ bilden die nächsten beiden Stufen:

Pioneer:
Innerhalb der Organisation wird der Wandel durch aktive Technologieforschung gesteuert. Durch die Anwendung von agilen Methoden und kreativitätsfördernden Techniken werden in enger Zusammenarbeit mit den Kunden neue Szenarien und Produktlösungen entwickelt. Das Unternehmen betritt bewusst und geplant Neuland, um sich von Mitbewerbern im internationalen Umfeld abzuheben.

Champion:
Die vollständige Digitalisierung aller Prozesse, Produkte und Dienstleistungen ist abgeschlossen, die Mitarbeiter werden in ihrem täglichen Arbeiten bestmöglich durch Technologie und künstliche Intelligenz unterstützt. Neue Geschäfts- und Betreibermodelle werden ausgebildet und ein kontinuierlicher Innovationsprozess ist innerhalb der Unternehmens- und Führungsstrukturen kulturell etabliert.

Durch eine genaue Verortung innerhalb dieses Reifegradmodells wird ein solides Fundament in Bezug auf einen durchgängigen, sinnvollen Digitalisierungsansatz gelegt. Eine „digitale Reife“ muss nicht zwingend in Abhängigkeit von der Verfügbarkeit digitaler Systeme oder einem hohen Vernetzungsgrad stehen. Auch eher „altmodische“ Methoden wie „Lean Management“ oder KVP-Ansätze sind für erfolgreiche Digitalisierungsstrategien wertvolle und wichtige Begleiter.

Gezielte Einführung von „Lean Startup“ Methoden

Ein ganz wesentlicher Punkt dieses Modells, der sonst kaum ausreichend Berücksichtigung findet, ist die Ausprägung und Einführung von „Lean Startup“ Methoden und eine Erfassung der Fähigkeit zu einem kulturellen Wandel hinsichtlich Veränderungsmanagement und Führung. Dies muss nicht gleich die ganze Organisation von heute auf morgen auf den Kopf stellen – jedoch sollten interdisziplinäre Ansätze in verschiedenen Bereichen sicht- und messbar sein, da Innovationsfähigkeit abseits der bisherigen Kernkompetenzen die Basis für den Einstieg in einen weitreichenden digitalen Wandel bildet. Und das betrifft eben nicht nur Software- und Produktentwicklung sondern die komplette Unternehmensstruktur.  

Um innerhalb der gesamten Unternehmensstruktur den Reifegrad der zu schaffenden Vorrausetzungen zu messen, ist ein ganzheitliches Modell für Strategie, Technologie und Organisation das geeignete Instrument.

 

Firewallregeln für SQL Server steuern

Um die entsprechenden Ausnahmen für die Remoteverwaltung einzutragen, verwenden Sie zum Beispiel folgenden Befehl:

netsh advfirewall firewall add rule name=“SQL Server“ dir=in action=allow program=“C:\Program Files\Microsoft SQL Server\MSSQL11.MSSQLSERVER\MSSQL\Binn\sqlservr.exe“ enable=yes profile=domain

Sie müssen die Windows-Firewall auf dem Server konfigurieren, damit SQL-Server kommunizieren kann:

netsh advfirewall firewall add rule name = SQLPorttcp dir = in protocol = tcp action = allow localport = 1433-1434 remoteip = localsubnet profile = DOMAIN

netsh advfirewall firewall add rule name = SQLPortudp dir = in protocol = udp action = allow localport = 1433-1434 remoteip = localsubnet profile = DOMAIN

Damit Anwendungen wie SharePoint auf einen Server zugreifen dürfen, um zum Beispiel selbst Datenbanken zu erstellen, müssen Sie Firewallregeln erstellen und im Konfigurations-Manager Protokolle freischalten. Dazu muss auf dem SQL-Server eine neue Firewallregel erstellt werden, da die Firewall die beiden TCP Ports 1433 und 1434 blockiert. Mit diesen Ports bauen Clients eine Verbindung zum Server auf. Sie können die beschriebenen Wege in der Powershell verwenden, aber auch die grafische Oberfläche:

  1. Geben Sie dazu auf dem SQL-Server im Suchfeld des Startmenüs msc ein.
  2. Klicken Sie auf Eingehende Regeln.
  3. Klicken Sie dann rechts auf Neue Regel.
  4. Aktivieren Sie auf der ersten Seite des Assistenten zum Erstellen von neuen Firewallregeln die Option Port.
  5. Aktivieren Sie auf der nächsten Seite die Optionen TCP und Bestimmte lokale Ports.
  6. Geben Sie im Feld neben der Option Bestimmte lokale Ports den Wert „1433-1434“ ein.
  7. Aktivieren Sie auf der nächsten Seite die Option Verbindung zulassen und auf der folgenden Seite die Profile, für die Sie den Zugriff gestatten wollen. In sicheren Umgebungen reicht es auch aus, wenn Sie nur das Domänenprofil aktivieren.
  8. Weisen Sie abschließend der Regel einen passenden Namen zu und bestätigen Sie die Erstellung.

Auf dem gleichen Weg erstellen Sie Regeln auch über die Konfiguration in den Gruppenrichtlinien. Haben Sie auf dem Server noch benannte Instanzen installiert, und wollen auf diese über das Netzwerk mit dem Management Studio zugreifen, erstellen Sie eine weitere Regel, welche die Ports UDP 1433-1434 zulässt.

Außerdem muss für die Verbindung der Systemdienst SQL Server-Browser gestartet sein. Dieser nimmt Abfragen aus dem Netzwerk entgegen und verteilt diese an die entsprechende Instanz oder Server. Dazu ist es notwendig, dass der Server über das Netzwerk mit TCP/UDP erreichbar ist und die Ports TCP/UDP 1433-1434 in der Firewall freigeschaltet sind.

DSGVO wird auch für das Internet of Things zum Thema

Es wäre falsch, den Berührungspunkt vom IoT zur DSGVO auf den Aspekt der Sicherheit zu reduzieren. Denn auch die Daten, die von IoT-Geräten gesammelt werden, können DSGVO-relevant sein. Die wesentliche Frage hierbei ist, inwieweit diese personenbezogen sind bzw. sein könn(t)en. So gelten etwa IP-Adressen als personenbezogene Daten, Informationen, die beispielsweise von Fitness-Trackern generiert werden (erinnern wir uns an Strava), fallen sicherlich auch hierunter, ebenso wie die Mail-Adresse.

Was sind personenbezogene Daten (PII)?

Die DSGVO definiert sie als „alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person (im Folgenden „betroffene Person“) beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen identifiziert werden kann, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind“ (Art. 4). Diese Definition umfasst damit alle Informationen, die über eine Person etwas aussagen. Dabei reicht es schon aus, dass zu der jeweiligen Person mit vertretbarem Aufwand ein Bezug hergestellt werden kann, also auch Telefonnummern und IP-Adressen oder im persönlichen Umfeld wie der Wohnung generierte Daten.

Diese Daten unterliegen dabei keiner Hierarchie, d.h. es gibt keine mehr oder weniger schützenswerten Daten. Die Blutgruppe einer Person ist damit genauso sensibel wie das bevorzugte TV-Programm. Das Bundesverfassungsgericht stellt in diesem Zusammenhang fest, dass es eben keine „belanglosen Daten“ gibt. Die DSGVO gilt dabei nicht nur für private Nutzer, also Kunden oder Konsumenten, sondern auch im gewerblichen Umfeld. In diesem Bereich rücken dann Themen wie Logins und ähnliches ins Zentrum des Interesses. Voraussetzung ist auch hier, dass technisch diese Tätigkeiten einer bestimmten Person zugeordnet werden könnten.

Datenschutz von Anfang an mitdenken

Die DSGVO verfolgt einen Privacy-by-Design-Ansatz, Datenschutz muss also „eingebaut“ sein und entsprechend bereits bei der Entwicklung berücksichtigt werden. Hierdurch sollen Datenschutzrisiken gering gehalten und Datensicherheit gewährleistet werden. Ebenfalls von Bedeutung in diesem Zusammenhang ist das Gebot der Datensparsamkeit. Hersteller müssen sich fragen, ob wirklich alle Daten (weiterhin) erhoben werden müssen und ob sie tatsächlich für den definierten Zweck bzw. Einsatz notwendig sind. Hierauf zielen auch die geforderten datenschutzfreundlichen Voreinstellungen (Privacy by Default). Weitergehenden Einwilligungen (etwa die Übertragung von Diagnosedaten oder das Teilen von Daten mit anderen Nutzern) muss der Nutzer explizit zustimmen.

Auch wenn Hersteller sich an diese Prinzipien halten, stehen sie dennoch vor einer weiteren großen (und oft vernachlässigten und unterschätzten) Herausforderung: Wo im Unternehmen sind die privaten und sensiblen Daten gespeichert? Wer hat Zugriff hierauf? In aller Regel sind diese nämlich oftmals unstrukturiert und verteilt in den Systemen gespeichert, zum Teil auch in verschiedenen Abteilungen wie Vertrieb, Marketing, Finanzen und Dienstleistungen. Dies ist nicht nur aus Sicht der DSGVO problematisch, auch unternehmerisch kann dies zu Schwierigkeiten und Mehraufwendungen führen.

Frühjahrsputz für die Daten

Wie sollten nun Unternehmen Ordnung in dieses Datenchaos bringen? Der erste Schritt ist dabei, die Umgebung zu analysieren, Risiken zu bewerten und zu priorisieren und die sensiblen Daten zu identifizieren. Dies bildet das Fundament für sämtliche weitere Maßnahmen in Richtung DSGVO-Konformität und erhöhter Datensicherheit. Bei dieser Gelegenheit ist es auch möglich, veraltete und zu weit gefasste Berechtigungen und Zugriffsgruppen zu identifizieren und entsprechend zu korrigieren. Ebenfalls veraltete, länger nicht genutzte Daten können hierbei aufgespürt und archiviert, gelöscht oder in Quarantäne verschoben werden. Nach und nach lichtet sich das Datenchaos, welches der Nährboden für Datenpannen ist. Mit der Etablierung von Data Owners, also Datenverantwortlichen, wird ein weiterer großer Schritt in Richtung Datensicherheit getan: Nicht mehr die IT-Abteilung ist für die Gewährung von Zugriffsrechten zuständig, sondern Mitarbeiter aus den jeweiligen Fachabteilungen oder Projektgruppen. Dies hat den Vorteil, dass diese genau wissen, wer welchen Zugriff benötigt. Auf diese Weise kann das „need-to-know“-Prinzip umgesetzt werden, demzufolge tatsächlich nur diejenigen Zugriff auf sensible Daten erhalten, die diesen auch tatsächlich für ihre Arbeit benötigen. Dies sollte noch mit einer intelligenten Analyse des Nutzerverhaltens (UBA), welche abnormale und auffällige Aktivitäten erkennt und automatisiert unterbindet, ergänzt werden.

Um das Internet der Dinge sicherer zu machen und die neuen Datenschutzanforderungen zu erfüllen, müssen also nicht nur die Apps und Geräte gesichert werden, sondern (vor allem) auch die generierten Daten! Voraussetzung hierfür ist die Identifizierung und Klassifizierung sowie eine sorgsame Datenbehandlung, um darauf aufbauend nachhaltigen Schutz zu gewährleisten.

Verwaltete Dienstkonten nutzen – Managed Service Accounts

Der Vorteil ist, dass die Systemdienste, welche diese Benutzerkonten verwenden, bei Kennwortänderungen nicht von Administratoren konfiguriert werden müssen, sondern die Änderung der Kennwörter automatisch übernehmen.

Sie legen die Dienstkonten über die PowerShell, genauer gesagt über das Active Directory-Modul der PowerShell mit dem Cmdlet New-ADServiceAccount „Name Account“ an.

Bevor Sie gruppierte Konten anlegen, müssen Sie zunächst einen neuen Masterschlüssel für die Domäne erstellen:

Add-KdsRootKey -EffectiveImmediately

Standardmäßig dauert es ab diesem Moment 10 Stunden, bis Sie verwaltete Dienstkonten anlegen können. In Testumgebungen können Sie den Zeitraum mit dem folgenden Befehl umgehen:

Add-KdsRootKey -EffectiveTime ((Get-Date).addhours(-10))

Der Ablauf beim manuellen Anlegen in der PowerShell bei der Verwendung von Managed Service Accounts ist folgender:

  1. Sie legen das verwaltete Dienstkonto in Active Directory an.
  2. Sie verbinden das Konto mit einem Computerkonto, auf dem der Dienst genutzt werden soll.
  3. Sie installieren das verwaltete Dienstkonto auf dem jeweiligen Computer.
  4. Sie passen die Systemdienste auf dem lokalen Computer an, um das neue Konto zu nutzen.