Best Practice: Wie Industrie 4.0 gelingt

Die zentralen Fragen, die Industrie-Entscheider derzeit zur Industrie 4.0 beschäftigen: Wie kann der Übergang ins Digitale gestaltet werden, welche konkreten Projekte sollten wir anstoßen, und welche neuen Fertigkeiten braucht unser Unternehmen in Zukunft?

Bei der Industriedigitalisierung geht es zunehmend weniger um Theorie, und zunehmend mehr um die praktische Umsetzung konkreter Veränderungen. Und die erfordern viel Umsicht und einige Planung – schließlich soll der Umbau für die Zukunft einerseits nicht das Geschäft von heute gefährden.

Wie also bestmöglich Vorgehen? Der Blick auf erfolgreiche Vorreiter-Unternehmen kann ein guter erster Schritt sein.

Die drei Erfolgsrezepte der Vorreiter
Digitale Vorreiter bedienen sich dreier klar erkennbarer Erfolgsrezepte:

Zum einen investieren sie sehr gezielt in bestimmte Schritte zur Digitalisierung, und zwar in einer ganz bestimmten Reihenfolge: Erst rüsten sie Maschinen und Produkte digital um und schließen sie ans Internet an, werten Betriebsdaten aus und gewinnen so Einblicke in die eigenen Fertigungsabläufe. Diese nutzen sie dann, um klügere – lies: effizientere – Entscheidungen zu treffen und so die Produktivität zu steigern. Die dadurch erzielten Erträge bieten wiederum das finanzielle Polster, um in den nächsten Schritten zunächst bereits vorhandene Produkte zu digitalisieren und abschließend sogar ganz neue Produkte, digitale Dienste und Geschäftsmodelle zu entwickeln.

Zum zweiten wählen diese Unternehmen sehr gezielt aus, für welche digitalen Fertigkeiten sie ihr Geld ausgeben. Fast alle investieren beispielsweise in diejenigen, die Accenture als „No-regrets“- oder Grundfertigkeiten beschreibt. Dazu zählt erstens das Einbetten von Software und Konnektivität in sämtliche Produkte. Zweitens, geht es um die Integration von Produkt- und Software-Development-Lebenszyklen – unerlässlich für das Weiterentwickeln der jetzt „smarten“ Produkte, bei denen Hard- und Software bestmöglich aufeinander abgestimmt sein müssen. Drittens: Data Analytics, also das gezielte Auswerten von Verkaufs- und Nutzer- als auch von Betriebsdaten mit dem Ziel, vertriebsförderliche Erkenntnisse zu gewinnen oder die Entwicklung neuer Dienstleistungen anzustoßen. An vierter Stelle kommt dann das „Closed-Loop-Manufacturing“, also die Befähigung von Maschinen, die eigenen Arbeitsgänge selbstständig zu prüfen und automatisch zu korrigieren. Und fünftens und sechstens die Entwicklung von „as-a-Service“-Geschäftsmodellen sowie das Betreiben von Plattformen und Ökosystemen.

Zum Dritten – und dies ist vielleicht der größte Unterschied zu anderen Industrieunternehmen – beschreiten diese führenden Firmen neue Wege in Sachen Innovation und Entwicklung: Sie arbeiten beispielsweise eng mit Kunden, Partnern, Start-ups und Forschungseinrichtungen zusammen, statt neue Ideen allein zu entwickeln. Sie nutzen neue Verfahren wie Design Thinking oder „Rapid Prototyping“, also das schnelle Herstellen und anschließende Testen rudimentärer Prototypen. Und sie denken bei alledem an mehr als nur an die eigenen Produkte und Leistungen. Auch die Kunden- und Käufererlebnisse werden als Unterscheidungsmerkmal immer wichtiger. Ein großes französisches Energie- und Automationsunternehmen hat zu diesem Zweck beispielsweise gerade eine ganze „Fabrik“ für digitale Dienste geschaffen, in der jetzt eigene Ingenieure, Berater, Software-Entwickler und Designer beständig und in sehr kurzer Zeit neue Dienste für die Kunden des Unternehmens entwickeln, testen und im Erfolgsfall auf den Markt bringen. Der Ansatz: Auf schnellstem Wege von ‚null‘ zur verkauf- und skalierbare Anwendungen kommen.

Digitaler werden
Das hier beschriebene Vorgehen hat sich bereits für Unternehmen verschiedener Größe bewährt. Trotzdem bleibt die konkrete Umsetzung natürlich eine Herausforderung. Doch die sollten die Firmen unbedingt annehmen, und zwar bald: Die Digitalisierung der Industrie ist in vollem Gange, nicht mehr aufzuhalten – und voller Chancen.

 

Sicherheitsaspekte bei der Vernetzung von (Embedded) Systemen im IoT

Diese Entwicklung wird noch verstärkt durch die zunehmende Verwendung von IPv6. So soll lt. Marktforschungsunternehmen Gartner die Anzahl von vernetzten Geräten im Jahr 2020 auf über 26 Milliarden anwachsen, d.h. statistisch gesehen gut 3 Geräte pro Kopf der dann erwarteten Weltbevölkerung (7,76 Mrd. in 2020).
Die Sicherheit (Security) in den neu entstehenden Netzen scheint mit dieser Entwicklung allerdings nicht Schritt halten zu können. Immer öfter entdecken Experten, NGOs und Nutzergruppen Sicherheitslücken in vernetzten Systemen. So wurde z.B. Ende 2013 in einer Studie der Fa. Proofpoint aus den USA festgestellt, dass mehrere Hunderttausend infizierte Emails übers Internet verbreitet wurden, die nicht nur von normalen PCs und Computern stammten, sondern auch von Smart-TVs, vernetzten Kühlschränken und Kaffeeautomaten!

Ein Angriff auf eine intelligente Heizungssteuerung in einem Wohnblock beispielsweise erscheint auf den ersten Blick nicht sicherheitskritisch, dennoch sind einige hundert Bewohner bestimmt nicht sonderlich erfreut, wenn sie in Ihren Wohnungen frieren müssen oder kein Warmwasser haben. Angriffe auf andere Einrichtungen wie Strom- und Wasserversorgung oder Verkehrsleitsysteme beinhalten dagegen ein wesentlich höheres Schadenspotential. Man benötigt also neue und ganzheitliche Sicherheitsansätze, um das schnell wachsende IoT zu adressieren.

Typische Sicherheitslücken / Gefährdungspotenziale

Neben der enormen Vielfalt an vernetzten Geräten liegen weitere Gründe für ein erhöhtes Gefährdungspotenzial auch am sorglosen Umgang mit Sicherheitsaspekten bei der Entwicklung und dem Betrieb von vernetzten Geräten:

  • Der Time-to-Market Druck veranlasst viele Hersteller, Sicherheitsaspekte überhaupt nicht oder nur sehr mangelhaft im Design ihrer Produkte in Betracht zu ziehen.
  • Wenn überhaupt berücksichtigt, sind die Implementierungen häufig sehr eingeschränkt und unzureichend ausgeführt.
  • Entwickler herkömmlicher Embedded Systeme kommen oft aus Bereichen, wo die Systeme in isolierten, abgeschirmten Netzwerken betrieben werden. Sie haben daher nicht immer die Sensitivität für die Notwendigkeit, die Systeme selbst umfassend zu schützen.
  • Durch den zunehmenden Einsatz drahtlos vernetzter Sensoren und Aktoren öffnen sich zusätzliche Angriffsflächen für unerwünschte Attacken. Häufig wird dies bei Entwicklung vermeintlich „dummer“ Systeme unterschätzt.
Typische Angriffsszenarien im Internet of Things
Typische Angriffsszenarien im Internet of Things

Eine Studie von HP aus dem Jahr 2015 beschäftigt sich intensiv mitdem Thema Sicherheit im Internet of Things und der dabei verwendeten Geräte. Darin wird u.a. festgestellt, dass bei den untersuchten Systemen

  • 90% mindestens eine persönliche Information enthalten, auf die via Cloud oder Mobilapplikation zugegriffen werden kann;
  • 80% über in Länge und Komplexität unzureichende Passwörter geschützt werden;
  • 70% unverschlüsselte Netzwerk-Services verwenden;
  • 70% es Angreifern ermöglichen, durch einfache Methoden über Cloud- oder Mobilapplikation gültige Benutzer-Accounts zu identifizieren;
  • 60% User Interfaces benutzen, die verwundbar hinsichtlich XSS und aufgrund schwacher Zugangsdaten sind.

Diese Studie hat auch aufgezeigt, dass selbst einfache, seit vielen Jahren bekannte  Security-Prinzipien es offensichtlich nicht in den Entwicklungsprozess des Produkts geschafft haben, beispielsweise „starke“ Passwörter.

 Wie kann die IoT-Security verbessert werden?

Ein Ansatz ist die Entwicklung von einem neuen Security-Modell und -Standards. Die derzeitigen Security-Modelle für PCs und Smartphones lassen sich nicht auf IoT-Geräte abbilden, denn die meisten dieser Geräte sind bezüglich Prozessor- und Speicherkapazität limitiert. Viele der derzeitigen Security-Modelle beinhalten Updates, das Einspielen von Security-Patches, das Installieren und Aktualisieren von Antiviren-Software und das Konfigurieren von Host-basierten Firewalls. 

Zusätzlich zu einem neuen Security-Modell benötigt man unbedingt neue Standards. Nur so garantiert man sichere und kompatible IoT-Geräte. Allerdings sind Standards für Security und Sicherheit eigentlich nicht vorhanden oder erst in der Entstehung. In Märkten wie Medizin, Automatisierung, Automotive und Transportation existieren zwar Security- und Sicherheits-Standards, aber diese müssen hinsichtlich der Einbindung von IoT-Geräten aktualisiert werden. Verschiedene Organisationen und User-Groups befassen sich seit einiger Zeit, zum Teil mit unterschiedlichen Ansätzen, mit der Definition von IoT-Standards und zugehöriger Sicherheitskonzepte. Dazu gehören z.B. das Industrial Internet Consortium (ICC), das Open Interconnect Consortium und auch Arbeitsgruppen im Rahmen der Industrie 4.0 Initiative. Es bleibt also spannend, welcher Standard sich im Endeffekt durchsetzen wird und die breiteste Akzeptanz findet.

Maßnahmen zum Schutz vor Angriffen

Da die Entwicklung neuer Security-Modelle und -Standards noch Zeit benötigt, sollten heute bei der Entwicklung von IoT-Geräten mindestens einige der nachfolgenden Security-Vorkehrungen berücksichtigt werden:

  • Verwendung sicherer Methoden in der Entwicklung:
    Das Open Web Application Security Project (OWASP), eine Non-Profit-Organisation mit dem Ziel, die Sicherheit im World Wide Web zu verbessern, hat eine Liste von Maßnahmen erstellt (OWASP IoT Top Ten), die als Grundlage verwendet werden kann, um IoT-Geräte sicherer zu machen.
  • Verschlüsselung der Daten:
    Alle Daten werden bei Übertragung auf ein anderes Gerät grundsätzlich verschlüsselt. Das gilt insbesondere bei der Übertragung von Daten vom Gerät zu mobilen Apps sowie in eine Cloud. Es empfiehlt sich auch, Software-Updates zu verschlüsseln.
  • Offenlegung der verwendeten persönlich identifizierbaren Informationen (PII’s) und wie sie geschützt werden.
  • Regelmäßige Durchführung von Security Assessments.

Auf übergeordneter Unternehmensebene lässt sich die Sicherheit von bereits existierenden IoT-Geräten verbessern indem:

  • für die Geräte dieselben Sicherheitskonzepte angewandt werden wie für existierende Netzwerke und Computer;
  • alle bereits in den Geräten vorhandenen Sicherheitsmöglichkeiten aktiviert werden, gegebenenfalls durch Änderung der Standardeinstellungen;
  • alle Geräte in ein Sicherheitsüberwachungssystem eingebunden werden;
  • konsequent sichere Updates eingespielt werden;
  • regelmäßig Scans auf den Geräten durchgeführt werden.

Besonderes Augenmerk ist auf IoT-Geräte zu legen, die nicht durch Personen kontrolliert werden, sondern die häufig immer ‚online‘ sind. Meist durchlaufen sie nur einmal bei ihrer Installation einen Authentisierungsprozess. Das macht sie zur perfekten Angriffsstelle für Infiltrierung von Schadsoftware und somit zur Schwachstelle für das gesamte Firmennetz.

Zusätzlich benötigt es Vorkehrungen zur Sicherung der Speicher, in denen von IoT-Geräten gelieferte Daten abgelegt sind. Diese Speicher stellen attraktive Ziele für Firmen-Hacker und Industriespione dar, um die gespeicherten Daten entwenden und damit Geschäfte zu machen.

Konkretes Anwendungsbeispiel aus der Praxis

Um seine Railway Router vor Cyber-Angriffen zu schützen, adressiert NetModule das Thema sichere WAN- und WLAN-Verbindungen in Zügen. Diese stellen beim Ausbau von (P)WLAN in Eisenbahnen eine Schlüsselkomponente für (P)WLAN bereit: Damit wird neben dem Zugang zum Internet der Austausch von Betriebsdaten, die Übermittlung  von Fahrgastinformationen und Werbeinhalten, das Absetzen von Notrufen und Entertainment der Zugpassagiere realisiert. Um Angreifern keine Chance zu geben, hat NetModule verschiedene Sicherheitsmaßnahmen in seine Router integriert, die ständig überprüft und erweitert werden.

Besonderes Augenmerk wurde auf sicherheitskritische Bereiche wie Login, SSL und dem «USB Autorun» Feature gelegt. Letzteres wird beispielsweise erst mit einer Verzögerung von 3 Sekunden nach dem Anstecken des USB-Sticks gestartet. Es kann dabei nicht parallel zu anderen Prozessen laufen und der physikalische Zugang zum Router ist zwingend notwendig. Damit ist das «USB Autorun» Feature weder anfällig für Brute-Force-Angriffe noch für «Wörterbuch-Attacken».

Zudem sind die NetModule Router gegen andere oft genutzte Angriffsmethoden gut geschützt. Zwei davon seien hier erwähnt:

Keine Hinterlegung von privaten Schlüssel auf den Routern:
Die Software der NetModule Router enthält keine festcodierten Schlüssel oder Zertifikate. Der Anwender muss beim Konfigurieren des Geräts die Schlüssel und Zertifikate zur Sicherstellung von Diensten (z.B. HTTP- und SSH-Server) oder zur Implementierung von Authentifizierung und Verschlüsselung (z.B. für VPN-Tunnel und WLAN-Clients) explizit erstellen. Sollte eine noch stärkere kryptografische Absicherung erforderlich sein, wird empfohlen, die Schlüssel mittels eines externen RNG (Random Number Generator)-Geräts zu erstellen oder alle Zertifikate insgesamt auf einem Remote-Zertifizierungsserver zu verwalten.

Keine Verwendung von Standardpasswörter oder –zugangsdaten:
Anstelle von Standardpasswörtern oder –zugangsdaten muss der Anwender das Administrationspasswort beim ersten Start-up des Routers „von Hand“ eingeben und legt damit automatisch das Root-Passwort fest. Erst danach wird dem integrierten WebManager das Erstellen weiterer User mit entsprechenden Berechtigungen ermöglicht.

Schutzmechanismen bei Passagier-WLAN, realisiert mit NetModule Routern
Schutzmechanismen bei Passagier-WLAN, realisiert mit NetModule Routern

Grundsätzlich werden bei NetModule bei der Entwicklung von Software für netzfähige Produkte die Empfehlungen zur Vermeidung der OWASP Top Ten IoT-Sicherheitslücken berücksichtigt. 

 Zusammenfassung

Weil die Definition neuer, der Situation angepasster Sicherheitsstandards zwar im Gange ist, ihre Umsetzung sicher noch einige Zeit benötigt, müssen die Hersteller von „Connected Devices“ sich selbst um die Sicherheit ihrer Produkte kümmern. Schon mit einfachen Maßnahmen lässt sich diese mit einem hinreichenden Niveau erzielen. Wichtige Aspekte dabei sind:

  • Sicheres und kontrolliertes Starten der Systeme
  • Kontrollierter Zugang zu den Systemen
  • Automatische Authentisierung bei der Verbindung mit Netzwerken jeder Art
  • Einsatz von Firewalls und IPS (Intrusion Prevention System) wo immer möglich
  • Regelmässige Security Scans und Updates der Systeme

Bei Berücksichtigung dieser relativ einfachen Vorkehrungen erhält man schon mit überschaubarem Aufwand ein hohes Level an Cyber-Security. Und bei der Kommunikation zwischen den Systemen gilt immer: Verschlüsseln, Verschlüsseln, Verschlüsseln…

Quellennachweise:

„Internet of Things research study, 2015 report“, Hewlett Packard Enterprise
“Internet der Dinge: Was ist zu tun, um IoT-Security Realität werden zu lassen”, Angela Orebaugh 
„Why IoT Security is so critical“, Ben Dickson

Festplattenaktivität mit Diskmon überwachen

Sie haben die Möglichkeit, die Ausgabe auch in eine Logdatei zu speichern.  Aktivieren Sie die Funktion „Minimize to Tray Disk Light“ im Menü „Options“, minimiert sich das Tool in die Taskleiste und zeigt Ihnen die aktuelle Nutzung der Festplatte an. Auf diese Weise sehen Sie den Festplattenzugriff in Echtzeit. In der minimierten Ansicht sehen Sie Schreibzugriffe als rote Anzeige und Lesezugriffe als grün. Klicken Sie auf das Symbol, öffnet sich wieder die ausführliche Ansicht. Wollen Sie das Tool gleich als Symbol starten, verwenden Sie die Option „diskmon /l“ (kleines L).  Damit das Tool Daten auslesen kann, müssen Sie es mit Administratorrechten starten, wenn Sie die Benutzerkontensteuerung aktiviert haben.

Windows Performance Toolkit nutzen

Mit dem kostenlosen Windows Performance Toolkit können Sie die Leistung eines Systems sehr effizient messen und Performance-Probleme beheben. Die neue Version des Windows Performance Toolkits ist für die Verwendung mit Windows Server 2012 R2/2016 und Windows 10 optimiert. Sie können es aber auch älteren Windows Server-Versionen einsetzen.

Mit dem Toolkit lassen sich Leistungsengpässe messen, sowie Startprobleme und Verzögerungen von Anwendungen. Auch die Bootzeit und damit verbundene Verzögerungen können Sie auf diesem Weg überprüfen. Vor allem erfahrene Administratoren und Entwickler erhalten mit dem Toolkit auch die Möglichkeit Ressourcenmessungen von Anwendungen und Interrupts zu messen. Im Gegensatz zur Windows-internen Leistungsüberwachung arbeitet das Tool nicht mit Indikatoren, die Sie starten müssen, sondern verwendet eigene Messpunkte.

Sobald Sie die Installation des ADK für Windows 10 gestartet haben, können Sie auswählen welche Funktionen Sie installieren wollen. Wählen Sie hier „Windows Performance Toolkit“ aus. Nach der Installation sind die verschiedenen Tools aus dem Windows Performance Toolkit verfügbar. Geben Sie in einer Eingabeaufforderung den Befehl „xperf.exe“ ein. Wird das Tool gefunden, können Sie mit der Leistungsmessung beginnen.

Die vier Etappen der DevOps-Reise

Die Umstellung auf DevOps ist kein Spaziergang. Damit ein erfolgreicher Start gelingen kann, benötigen Unternehmen ausreichend Know-how, aussagekräftige Metriken, eine durchdachte Herangehensweise und die richtige Technologie. Vier Etappen gilt es zu bewältigen, in denen jeweils andere Schwerpunkte über Erfolg und Misserfolg der Mission entscheiden:

Am Anfang war das Chaos…

Die Ausgangssituation ist in vielen Unternehmen die gleiche: IT-Betrieb und Entwicklerteam kochen jeweils ihr eigenes Süppchen. Die Zusammenarbeit beschränkt sich auf ein Minimum, Kommunikation zwischen den beiden Abteilungen erfolgt zumeist spontan und ohne feste Agenda. Die meisten Prozesse werden manuell erledigt, Automatisierung gibt es allenfalls in Ansätzen. Der Software Development Lifecycle (SDLC) ist chaotisch, unkontrolliert und unvorhersehbar. Hier beginnt die DevOps-Reise.

In der Anfangsphase ist zunächst entscheidend, erste Automatisierungsinitiativen anzustoßen und den Blick aller Mitarbeiter für das große Ganze zu schärfen. Die Botschaft muss lauten: Entwicklung und IT-Betrieb arbeiten auf das gleiche Ziel hin; alle sitzen in einem Boot.

#1: Managen

Auf der ersten Etappe der DevOps-Reise hat die Kommunikation zwischen Entwickler und IT-Betrieb bereits geregelte Formen angenommen, Entscheidungen werden vermehrt gemeinsam getroffen. Automatisierung existiert, aber verharrt in Silos. Es fehlt noch eine zentralisierte Infrastruktur. Auch die Prozesse haben weiterhin Optimierungsbedarf: Sie werden nun zwar zentral verwaltet, aber sind noch nicht standardisiert.

Zuerst sollten nun Qualitätsmaßstäbe etabliert werden, die verhindern, dass erkannte Fehler ungelöst durch den SDLC wandern. Parallel dazu müssen die IT-Verantwortlichen verhindern, dass Optimierungen von Teilen des Systems derart große Verwerfungen nach sich ziehen, dass das System insgesamt anschließend weniger effizient funktioniert als zuvor.

#2: Definieren

Auf der zweiten Etappe stellen sich erste größere Erfolge ein. Kollaboration und gemeinsame Entscheidungsfindung funktionieren, die Verantwortlichkeiten sind klar verteilt. In der Vergangenheit spielten Entwickler und IT-Betrieb gerne das sogenannte „Blame Game“, wenn etwas nicht funktionierte. Dem ist jetzt die Grundlage entzogen, alle ziehen an einem Strang. Prozesse entlang des SDLCs sind standardisiert und automatisiert.

Die Umsetzung von Bugfixes und neuen Features ist insgesamt schneller möglich, da es häufigere und kürzere Feedback-Loops gibt. Es kommt nun darauf an, die Anforderungen von internen und externen Leistungsnehmern besser zu verstehen.

#3: Messen

Auf der dritten Etappe der Reise hat sich der ehemals chaotische SDLC verwandelt: Er ist jetzt berechenbarer, transparenter und effizienter. Alle Prozesse werden an vordefinierten Erfolgsmaßstäben gemessen. Effizienzhürden und Flaschenhälse sind auf diese Weise leicht zu identifizieren und zu beseitigen. Auch die Qualitätsprüfung wird erleichtert: Qualität und Performance der entwickelten Anwendungen lassen sich leichter vorhersehen.

Jetzt geht es an den Feinschliff: IT-Verantwortliche sollten sich Zeit einplanen, um weiter an der Verbesserung der Prozesse zu arbeiten. Außerdem sollten sie weitere Erfolgsmetriken definieren, die nicht mehr nur unmittelbare Faktoren wie Verfügbarkeit oder Anwendungsperformance abbilden, sondern sich mit konkreten Geschäftszielen befassen.

#4: Optimieren

Wer sich auf der vierten Etappe der DevOps-Reise befindet, hat sein Ziel praktisch erreicht. Entwickler und IT-Betrieb ziehen an einem Strang, die Entwicklungszyklen sind verkürzt und Automatisierungswerkzeuge erhöhen in allen Bereichen die Effizienz. Die Informationsweitergabe funktioniert über den gesamten SDLC hinweg, jeder Mitarbeiter kann außerdem im Selbstbedienungsverfahren auf Lernmaterial zugreifen und sich weiterbilden.

Für Unternehmen gilt jedoch: Wer rastet, rostet. Als Teil der neuen Kultur sollten Teams fortan systematisch dafür belohnt werden, wenn sie Neues ausprobieren und dabei kalkulierte Risiken eingehen. Denn nur so lässt sich die Innovationsgeschwindigkeit dauerhaft hochhalten.

Die richtige Datenmanagement-Strategie für IoT-Projekte

Bei IoT-Projekten fallen Daten an unterschiedlichen Stellen an und werden in verschiedenen Systemen gespeichert und verarbeitet. Von zentraler Bedeutung ist daher das Datenmanagement: Damit stehen die richtigen Informationen zum richtigen Zeitpunkt in der geforderten Geschwindigkeit zur Verfügung – egal aus welchen Quellen sie stammen oder wo sie abliegen.

Viele Projekte setzen Edge Computing ein, das heißt eine erste Analyse findet bereits am Entstehungsort der Daten in der Nähe des vernetzten Objektes statt. Das ist dann sinnvoll, wenn Daten in Echtzeit ausgewertet werden müssen oder nur bestimmte Daten für die Analyse im Rechenzentrum gefordert sind. Unwichtige Informationen filtert das System schon am Rande – at the Edge – heraus und löscht sie gleich wieder. Fließen die Daten anschließend ins zentrale Rechenzentrum, landen sie meist in einem Cloud-Speicher oder auf Enterprise Class Storage-Systemen. Dort setzt dann die Datenanalyse mit Frameworks wie Hadoop oder NoSQL ein. Häufig besteht die Infrastruktur auch aus Multi-Cloud-Lösungen.

Einheitliche Datenprozesse über alle Systeme hinweg

Damit sich die Daten unkompliziert zwischen den verschiedenen Speicherlösungen verschieben oder spiegeln lassen, brauchen Unternehmen ein Datenmanagement, das einheitlich für alle eingesetzten Systeme und Technologien gilt. Unabhängig davon, wo Daten geklont, gesichert oder wiederhergestellt werden, sollten dieselben Prozesse und Tools greifen. Das Datenmanagement sollte eine einheitliche Datenübertragung ermöglichen sowie ein einheitliches Datenformat bieten. Das verringert den Administrationsaufwand und sorgt dafür, dass Daten nicht extra konvertiert werden müssen, wenn man sie aus dem Rechenzentrum in die Cloud verschiebt oder von einer Cloud in eine andere transferiert.

Datenmanagement muss ein unternehmensweites Konzept sein

Auch wenn viele Fragen technischer Natur sind, darf Datenmanagement nicht alleine Aufgabe der IT-Abteilung sein. Vielmehr ist es als Konzept zu sehen, das unternehmensweit Anwendung findet. Zunächst ist wichtig, alle Beteiligten an einen Tisch zu holen und einen umfassenden Blick auf das Thema zu gewinnen. IT- und Fachabteilungen sollten gemeinsam klären, welche Informationen sie benötigen und welche Ziele sie damit verfolgen. Im Idealfall setzen Unternehmen einen zentralen Datenverantwortlichen ein, einen Chief Digitalization Officer oder auch Chief Data Officer (CDO). Dieser kümmert sich darum, wie das Unternehmen am meisten von Daten profitiert und welche Datenmanagement-Lösung am besten geeignet ist.

Zertifikate von Stammzertifizierungsstellen verwalten

Haben Sie die Active Directory-Zertifikatdienste installiert, können Sie den Import des Zertifikats auf Clients und dem Server beschleunigen, wenn Sie auf dem Server über gpupdate /force die Gruppenrichtlinien erneut abrufen.

Die Installation der Zertifikate von internen Zertifizierungsstellen findet über die Gruppenrichtlinie in Active Directory statt. Arbeiten Sie mit einer Zertifizierungsstelle eines Drittanbieters, müssen Sie das Zertifikat der Zertifizierungsstelle in die vertrauenswürdigen Stammzertifizierungsstellen importieren. Zertifikate überprüfen Sie auf folgendem Weg:

  1. Geben Sie msc im Startmenü ein.
  2. Erweitern Sie in der Konsole „Zertifikate/Vertrauenswürdige Stammzertifizierungsstellen/Zertifikate“.
  3. Überprüfen Sie an dieser Stelle ob das Zertifikat der Zertifizierungsstelle hinterlegt ist. Finden Sie das Zertifikat nicht, dann geben Sie in einer Eingabeaufforderung gpupdate/force ein, um per Gruppenrichtlinie das Zertifikat abzurufen. Erscheint auch dann das Zertifikat nicht, exportieren Sie dieses auf dem Zertifikatserver selbst und importieren es auf dem Server.

 

Auf allen beteiligten Servern und Arbeitsstationen muss der Zertifizierungsstelle des Unternehmens auf dieser Registerkarte vertraut werden. Eine weitere Möglichkeit, das Zertifikat der vertrauenswürdigen Stammzertifizierungsstelle zu ex- und importieren, ist das Snap-In zur Verwaltung von Zertifikaten. Um das Zertifikat über die MMC-Konsole zu exportieren, gehen Sie folgendermaßen vor:

  1. Tippen msc auf der Startseite ein.
  2. Erweitern Sie in der Konsole Zertifikate/Eigene Zertifikate/Zertifikate.

SSL für Zertifikatdienste einrichten

Dazu gehen Sie folgendermaßen vor:

  1. Klicken Sie im Internetinformationsdienste-Manager auf Sites/Default Web Site.
  2. Klicken Sie rechts auf Bindungen.
  3. Klicken Sie im neuen Fenster auf Hinzufügen und wählen Sie https
  4. Wählen Sie bei SSL-Zertifikatein Zertifikat aus. Sie können das Zertifikat jederzeit anpassen.
  5. Klicken Sie zweimal auf OK, um die Änderungen zu speichern.

Sobald Sie die Bindung definiert haben, können Sie bereits auf die Seite per SSL zugreifen. Es sind zwar noch Optimierungsarbeiten notwendig die wir in den nächsten Abschnitten behandeln, ein Zugriff ist aber per SSL bereits möglich. Dazu verwenden Sie den Link https://<Servername>/certsrv.

 

Wie sich eine Retourkutsche des Kunden vermeiden lässt

Auch Bearingpoint beleuchtet die Branche in einer aktuellen Studie zu den Zusammenhängen von Digitalisierung und Lean Management. Die Unternehmensberater stellen fest, dass insbesondere in der Retourenlogistik Nachholbedarf besteht, weil in diesem Bereich Prozesse bei drei Viertel der Unternehmen nur teilweise oder gar nicht verschlankt sind. Es geht darum, Rücksendungen effizient zu steuern, in den Warenkreislauf zurückzuführen oder in den Service- und Reparaturzyklus einzutakten.

Rücksendungen machen vor allem Herstellern und Händlern von Unterhaltungselektronik, Elektrokleingeräten und Informationstechnologie zu schaffen. Retouren lassen sich nicht planen und eine Rücknahme – veranlasst von Kunden, Zwischenhändlern oder Herstellern – bedeutet immer Aufwand. Doch jedes Geschäft birgt das Potenzial, die Kundenbeziehung nach dem Kauf zu verbessern. Wer das abschöpfen will, muss wissen: Kunden achten stark darauf, wie schnell, pragmatisch und kulant Unternehmen Rücknahmen handhaben.

Neue Transparenz für Reparatur- & Retourenprozesse

Das Digitalisieren der sogenannten Reparatur- & Retourenprozesse beschleunigt und verbessert das Bearbeiten von Servicefällen. Alle an den Vorgängen Beteiligten profitieren von der neugewonnenen Transparenz für Reparatur-, Retouren- und Garantieabwicklung. Eine digitale Plattform oder Anwendung muss automatisch alle Abwicklungsarten erkennen und unterstützen. Daneben gilt für die Entwickler, den Anwenderunternehmen genügend Spielraum für ihre individuellen Serviceprozesse und Routinen zu lassen. Fachhandel, Call Center oder Kunde bekommen Rollen zugewiesen und erhalten so ihre notwendigen Informationen auf einen Blick. Der Kunde sieht zum Beispiel den Fehler seines defekten Gerätes, den Reparaturstatus und welche Schritte als nächstes erfolgen.

Eine digitale Anwendung muss sich in diesem Umfeld vor allem daran messen lassen, wie zuverlässig sie den Serviceanteil unter den Retouren identifiziert und validiert. Sie soll darüber hinaus Reparatur- & Retourenprozesse automatisieren, um die durch manuelle Eingriffe getriebenen Fehlerquoten zu senken. Empfehlenswert ist außerdem, die Systeme von Lieferanten, Händlern und Servicepartnern zu integrieren.

Diese Kriterien haben wir bei der Software AG beherzigt, um digitale Plattformen für Reparatur- & Retourenprozesse aufzubauen. Im Fokus steht, die Retouren und Reparaturen in hoher Qualität und in kurzer Zeit abzuwickeln.

Prozessketten effizient automatisieren

So besitzt ein geeignetes Business Process Management System mit seinen Komponenten alle notwendigen Fähigkeiten für agile Prozess- und Anwendungsentwicklung, ein interaktives Benutzerportal inklusive Rollenmanagement, Monitoring und Analyse sowie Prozessautomatisierung. Prozesse werden modelliert und visualisiert, wodurch sich Komplexität reduziert und der Weg für schnelle Prozessänderungen frei wird. Das System befähigt dazu, aktiv Fehlerprävention zu betreiben und Prozessketten für alle Beteiligten transparent und effizient zu machen. Für Monitoring & Analyse lassen sich Dashboards leicht aufsetzen, die sich für ein strategisches, situationsgebundenes oder interaktives Management eignen. Zudem bietet das Portal Benutzeroberflächen, die auf die Beteiligten im Retourenprozess zugeschnitten werden können. Kunden, Lieferanten und Partner können besser mit dem Retourenprozess interagieren.

Anwenderfirmen können solche digitalen Plattformen nutzen, um Prozessketten fürs Reparatur- und Retourenmanagement professionell aufzuziehen. Das spart Kosten, ist flexibel und richtet sich an der Praxis aus. In einer raschen Rücknahme und akkuraten Abwicklung liegt die Chance, Kunden zufriedenzustellen – und Retourkutschen zu vermeiden. Denn ein zufriedener Kunde bleibt loyal.