Ohne Verfügbarkeit keine Smart Factory

Die Industrie ist nach wie vor einer der größten und innovativsten Wirtschaftssektoren in Deutschland. Das produzierende Gewerbe sorgte laut Statistischem Bundesamt im Jahr 2016 für immerhin ein Viertel des Bruttoinlandsprodukts. Damit dies auch so bleibt, müssen Industriebetriebe ihre Produktionsprozesse immer weiter optimieren, automatisieren, an individuelle Kundenwünsche anpassen und gleichzeitig eine hohe Produktqualität sicherstellen.

Der Kunststoffverarbeiter Rehau beispielsweise fertigt unterschiedliche Produkte aus polymeren Werkstoffen wie Bauteile für die Automobilindustrie oder Fensterprofile. Dabei fallen große Mengen an Daten an, die für das Unternehmen geschäftskritisch sind und darum permanent verfügbar sein müssen. Leitrechner zeichnen Produktionsdaten wie Temperatur und Stoffzusammensetzung auf, um die Produkte zu überprüfen und die Produkthaftung sicherzustellen. Dementsprechend hoch ist der Stellenwert der Daten – und der Datensicherung – für das Unternehmen: Bis zu fünf Terrabyte an Daten müssen regelmäßig pro Werk gesichert werden. Fünf Terrabyte sind bereits eine nicht zu unterschätzende Datenmenge, die künftig durch neue Technologien im Rahmen von Industrie 4.0 sowie einer steigenden Digitalisierung und Automatisierung der Wertschöpfungskette weiter anwachsen wird. Die strategische Nutzung dieser Daten gewinnt auch in der Produktion immer mehr an Bedeutung – die wichtigsten Stichworte hierbei sind Predictive Maintenance und flexible Fertigungsprozesse.

Industriespezifische Clouds eröffnen eigene Gestaltungsmöglichkeiten

Ob nun aus Sicherheitsgründen wie bei Rehau oder zur Umsetzung einer vernetzten Fabrik: Produktionsdaten sind in der Industrie eine wesentliche Komponente des Geschäftsmodells. Die Frage, wo diese Daten gespeichert, wie sie gesichert werden und wie schnell sie nach Ausfällen wieder zur Verfügung stehen, rückt daher weiter ins Zentrum der Unternehmensstrategie. Aktuell entstehen immer mehr industriespezifische Cloud-Umgebungen. Treiber hierfür sind die Unternehmen selbst: Sie vernetzen ihr gesamtes Ökosystem auf einer Plattform, um so agiler und schneller am Markt agieren zu können. Auf der Basis von Industrie 4.0-Technologien können Produktionsprozesse für ein neues Produkt schnell angepasst werden, sodass auch alle Zulieferteile automatisch und rechtzeitig zur Verfügung stehen. Auch die Fertigung kleinerer Stückzahlen lässt sich so wirtschaftlich realisieren. Dabei eröffnet die Cloud den schnellen und relativ unkomplizierten Aufbau einer neuen IT-Plattform: Die benötigten Anwendungen werden in der Cloud auf virtualisierten Umgebungen betrieben, Storage-Systeme sind weltweit über die großen Public Cloud-Provider verfügbar. Die damit geschaffene Anwendungsplattform steht dann allen Teilnehmern des Ökosystems zur Verfügung, die dort Daten austauschen, ihre eigenen Prozesse und Services integrieren oder die Produktentwicklung gemeinsam vorantreiben.

Die Vernetzung von externen Lieferanten sowie die Automatisierung von Fertigungsanlagen, Verkehrssystemen oder Logistikketten sind nur einige Beispiele für die enormen Effizienzsteigerungen, die sich in einem solchen Ökosystem ergeben. Daher treiben beispielsweise Automobilhersteller wie Volkswagen oder Ford den Aufbau spezieller Clouds voran, so genannte Industry Collaborative Clouds. Laut den Analysten von IDC wird sich die Anzahl dieser speziellen Clouds bis 2018 auf weltweit rund 450 erhöhen und damit im Vergleich zu 2016 verdreifachen.

Datenverfügbarkeit in komplexen IT-Umgebungen sicherstellen

Die Integration externer Geschäftspartner und der Einsatz von Cloud-Ressourcen führen aber schnell zu einem weltweit verzweigten Netzwerk an Standorten, in dem die Daten verteilt liegen. Auch in einer solchen Infrastruktur muss der CIO die Enterprise Continuity gewährleisten: Unternehmenskritische Daten müssen jederzeit verfügbar sein, um die Geschäftsprozesse am Laufen zu halten. Für IT-Verantwortliche wird es daher immer wichtiger, ausfallsichere IT-Infrastrukturen zu betreiben, um innerhalb dieser Industrie-spezifischen Cloud-Ökosysteme für alle Beteiligten als zuverlässiger Partner aufzutreten – Stichwort „Race to Zero“, das Rennen um Verfügbarkeit ohne Ausfälle und Datenverlust.

Eine aktuelle Studie zeigt jedoch, dass gerade das Thema Ausfallsicherheit ein wesentliches Hindernis für die Digitalisierung von Geschäftsmodellen ist. Laut der Umfrage sehen 70 Prozent der Befragten – weltweit und in Deutschland – die Verfügbarkeit, also den unterbrechungsfreien Zugang zu IT-Services, als zentrale Voraussetzung für die digitale Transformation. Gleichzeitig geben 77 Prozent der befragten Firmen an, die Erwartungen der Anwender in Bezug auf permanenten Zugang zu Daten und Anwendungen nicht erfüllen zu können. Mindestens ebenso gravierend ist die Datensicherungslücke durch die schnell wichtige Produktionsdaten verloren gehen und -prozesse verzögert werden. Dieses „Protection Gap“ entsteht, wenn die Zeitfenster zwischen Datensicherungen größer sind, als der maximal tolerierbare Datenverlust. In Deutschland geben IT-Verantwortliche an, geschäftskritische Daten im Schnitt alle 102 Minuten zu sichern. Für tolerierbar halten sie jedoch ein Zeitfenster von 48 Minuten.

Digitale Transformation nicht ohne Datensicherungsstrategie

Industriebetriebe, die aktuell ein Industrie 4.0-Konzept umsetzen und dabei auf Cloud-Ressourcen setzen, müssen die permanente Verfügbarkeit ihrer unternehmenskritischen Daten direkt in ihre Planung einbeziehen. Für jeden Workload sollten anforderungsgerechte Datenschutzlösungen, wie etwa Backups, Snapshots, Replikation und Verfügbarkeitstechnologien, implementiert werden. Wer bereits über eine hybride IT-Umgebung verfügt, tut sich auch bei der Datensicherung einen Gefallen, wenn unterschiedliche Cloud-Konzepte, also Public, Private oder Managed Cloud flexibel eingesetzt werden. Auch bestehende Backup-Systeme können aus dem lokalen Rechenzentrum in eine Private- oder Public-Cloud-Umgebung, beispielsweise Microsoft Azure, verlagert oder dorthin erweitert werden.

Dennoch dürfen keine Inseln entstehen, die IT-Infrastrukturen nur noch komplexer machen würden. Integriert in eine Plattform können Datensicherungsmechanismen weitgehend automatisiert sowie zentral gesteuert und überwacht werden. Eine solche Plattform berücksichtigt idealerweise virtuelle, physische und cloudbasierte Workloads, damit auch in komplexen IT-Umgebungen die Verfügbarkeit sichergestellt werden kann. Dann können Unternehmen Industrie 4.0-Initiativen schrittweise umsetzen, ohne den bestehenden Produktionsbetrieb unnötigen Risiken auszusetzen.

KCC überprüfen

Gehen Sie dazu folgendermaßen vor:

  1. Öffnen Sie das Snap-In „Active Directory-Standorte und -Dienste“.
  2. Navigieren Sie zu dem Standort, von dem aus Sie die Überprüfung starten wollen.
  3. Klicken Sie auf den derzeitigen ISTG-Rolleninhabers des Standorts.
  4. Klicken Sie mit der rechten Maustaste auf den Konsoleneintrag NTDS-Settings und wählen Sie im Kontextmenü den Untermenüeintrag Alle Aufgaben/Replikationstopologie überprüfen aus.

Die Überprüfung dauert einige Zeit, abhängig von der Anzahl der Standorte und Domänencontroller. Alle Verbindungen werden überprüft und gegebenenfalls neu erstellt. Sie erhalten eine entsprechende Meldung.

Sie können die Replikation zwischen zwei Domänencontrollern jederzeit manuell starten. Die Verbindungen, die der KCC erstellt hat, werden automatisch angezeigt. Wenn Sie eine solche Verbindung mit der rechten Maustaste anklicken, können Sie die Replikation zu diesem Server mit der Option Jetzt replizieren sofort ausführen. Starten Sie die Replikation zu einem Domänencontroller, der in einem anderen Standort sitzt, wird die Replikation allerdings nicht sofort durchgeführt, sondern erst zum nächsten Zeitpunkt, den der Zeitplan zulässt.

Bevor die Daten repliziert werden, stellt der Domänencontroller zunächst sicher, ob er eine Verbindung zu dem Domänencontroller herstellen kann, zu dem die Daten repliziert werden. Wenn mit dem Replikationspartner erfolgreich kommuniziert werden kann, erhalten Sie eine entsprechende Erfolgsmeldung. Kann

Konsistenzprüfung bei der AD-Replikation

Sind zwei Standorte nicht durch Standortverknüpfungen verbunden, erstellt er automatisch Standortverknüpfungsbrücken, wenn eine Verbindung über einen dritten Standort hergestellt werden kann. Der KCC verbindet nicht jeden Domänencontroller mit jedem anderen, sondern erstellt eine intelligente Topologie.

Er überprüft die vorhandenen Verbindungen alle 15 Minuten auf ihre Funktionalität und ändert bei Bedarf automatisch die Replikationstopologie. Innerhalb eines Standorts erstellt der KCC möglichst eine Ringtopologie, wobei zwischen zwei unterschiedlichen Domänencontrollern maximal drei andere Domänencontroller stehen sollten.

Zwischen verschiedenen Standorten werden die Active Directory-Daten nicht von allen Domänencontrollern auf die anderen Domänencontroller der Standorte übertragen, sondern immer jeweils nur von einem Domänencontroller. Dieser Domänencontroller, auch Bridgeheadserver (Brückenkopfserver) genannt, repliziert sich mit den Bridgeheadservern der anderen Standorte automatisch.

Der KCC legt automatisch fest, welche Domänencontroller in einer Niederlassung zum Bridgeheadserver konfiguriert werden, Sie müssen keine Eingaben oder Maßnahmen vornehmen. Die Auswahl der Bridgeheadserver in einem Standort übernimmt der Intersite Topology Generator (ISTG), ein Dienst, der zum KCC gehört.

Der KCC wiederum legt für jedem Standort fest, welcher Domänencontroller der ISTG sein soll. Wenn Sie einen Standort im Snap-In Active Directory-Standorte und -Dienste anklicken, wird auf der rechten Seite der Eintrag NTDS Site Settings angezeigt. Rufen Sie die Eigenschaften dieses Eintrags auf, wird Ihnen im Abschnitt Generator für standortübergreifende Topologie der derzeitige ISTG angezeigt.

Den Drittanbietern auf die Finger schauen

Software von Drittanbietern spielt bei der Entwicklung von Anwendungen eine immer größere Rolle. Experten gehen davon aus, dass heute bereits über 30 Prozent des Codes von Embedded-Applikationen aus den Händen von Zulieferern stammt. Meist handelt es sich dabei um spezielle Komponenten wie Grafik- und Windowing-Toolkits, Kryptografie-Bibliotheken oder Datenbanken. Diese Form des Outsourcings ist durchaus sinnvoll, die Entwickler können sich mehr auf die Kernfunktionen konzentrieren und so die Time to Market senken. Allerdings: Veröffentlicht ein Unternehmen Software mit Bestandteilen von Drittherstellern, übernimmt es gleichzeitig auch die Verantwortung für den gesamten Code.

Bei Open-Source-Komponenten ist das nicht weiter tragisch. Der Quellcode liegt vor, das Programm oder die Bibliothek kann mit den üblichen Test- und Analysemethoden geprüft werden. Ganz anders sieht es jedoch aus, wenn die Komponenten nur binär vorliegen. Diese können mit den meisten Analyse-Tools nicht überprüft werden. Somit bleibt nur das aufwändige Testing mit definierten Testfällen. Oder der Code bleibt ungeprüft. Blindes Vertrauen in den Drittanbieter birgt jedoch zahlreiche Risiken. Die Binärdateien können böswillige manipuliert werden, können einfach Programmierfehler enthalten oder die Binärdatei kann gefälscht sein. Leider kommen solche Dinge immer wieder vor, meist mit dem Ziel, die Hersteller der Software zu kompromittieren.

Fehlerquelle Compiler

Ein weiterer Grund, in der Entwicklung auch Binär-Code genauer unter die Lupe zu nehmen, sind die Compiler. Quellcode ist nicht der Code, der später im System tatsächlich ausgeführt wird. Die meisten Programmiersprachen sind in manchen Fällen ambig und inkonsistent. In solchen Fällen entscheidet der Compiler, wie der Code zu interpretieren ist. Das Ergebnis kann je nach eingesetztem Compiler deutlich variieren – mit weitreichenden Folgen. Ein prominentes und oft zitiertes Beispiel zeigte sich 2002 bei einem Sicherheits-Review bei Microsoft. Der Code

     {
         char password[MAXLEN];
         …
         memset(password,‘\0‘,len);
     }

 

wurde vom Compiler so interpretiert, dass auf den Speicherbereich nach memset nicht mehr zugegriffen wird und deswegen der memset() Call ignoriert werden kann. Das Ergebnis war, dass das Passwort im Klartext im Stack blieb.

Aufwändiger als Quellcode-Analyse

Auf die Analyse von Binär-Code zu verzichten, birgt also erhebliche Risiken. Ein Analyse-Tool, das sowohl Binär- als auch Quellcode statisch analysieren kann, ist CodeSonar von GrammaTech. CodeSonar ist in der Lage, sowohl ausführbare Dateien als auch binäre Bibliotheken auf Fehler und Schwachstellen zu prüfen. Dabei macht es keinen Unterschied, ob die Executables Symboltabellen und Debugging-Informationen enthalten (unstripped) oder nicht (stripped). Für viele Tools zur Analyse von Binärdateien stellen gestrippte Files eine große Hürde dar, CodeSonar kann auch aus diesen die relevanten Informationen gewinnen.

Binär-Code macht die Analyse einer Anwendung signifikant aufwändiger.

Und genau hierin liegt die Schwierigkeit bei der Analyse binärer Dateien: Viele der Informationen, die für eine statische Analyse notwendig sind, müssen erst aufwändig aus dem kompilierten Code generiert werden. Es sind also andere Analysemethoden gefordert als bei der Untersuchung von Quellcode. Auf der anderen Seite erzeugt die Analyse der Binaries auch Informationen, die sich aus den Quellen nicht ableiten lassen.

Einheitliches Modell

Das Tool erzeugt dazu ein Modell des gesamten Programms mit allen Source- und Binary-Bestandteilen: Was als Quellcode vorliegt, wird geparst und Binär-Code wird disassembliert. CodeSonar erzeugt daraus eine einheitliche Präsentation, die die Semantik beider Teile konsistent abbildet. Um mögliche Fehler zu erkennen, durchläuft das Werkzeug das Modell interprozedural und sucht nach Anomalien.

CodeSonar liefert den Entwicklern zahlreiche Informationen und Hinweise zur Fehlerbeseitigung.

Werden potenzielle Fehler gefunden, zeigt CodeSonar eine Warnung mit weiterführenden Hinweisen an. Im obenstehenden Screenshot entdeckte CodeSonar einen Buffer Overflow im Programm gnuchess. Alle relevanten Codebestandteile werden dabei automatisch markiert, eine detaillierte Meldung hilft bei der Fehlerbeseitigung. Wichtig sind diese Informationen nicht zuletzt deshalb, weil der erzeugte Assembler-Code kaum lesbar und völlig anders aufgebaut ist als ein Quellcode in einer modernen Programmiersprache. Binärcode kennt keine strukturierten Funktionen, somit lassen sich diese Hilfskonstrukte auch nicht beim Disassemblieren erzeugen. Man sieht nur, dass zum Beispiel die Funktion return_append_str ihren Platz in der Sektion _text hat und an die Adresse 0x419350 geladen wird. Eine manuelle Überprüfung dieses Codes wäre hier nicht nur sehr mühsam, sondern auch extrem fehleranfällig.

Schneller zu besserer Software

Der Einsatz von statischer Analyse bei Binär-Code hilft also dabei, eine hohe Software-Qualität auch dann sicherzustellen, wenn Komponenten Dritter in die Anwendung mit einfließen. Der Ansatz der statischen Analyse hat dabei einige Vorteile gegenüber anderen Methoden: Bei der statischen Analyse wird der Code nicht ausgeführt. Das Analyse-Tool ermittelt alle möglichen Zustände, die das Programm einnehmen kann. So können auch Fehler gefunden werden, die in definierten Test-Szenarien nicht auftreten. Durch die Möglichkeit, die Analyse zu automatisieren, skaliert das bei CodeSonar implementierte Verfahren auch für große und komplexe Software-Projekte. Für die Entwickler und für das Unternehmen bedeutet das: Sichere Software bei einer kürzeren Time to Market. Und gleichzeitig muss den externen Herstellern nicht mehr blind vertraut werden. Denn Vertrauen ist gut, Code-Analyse besser.

Ausfallsicherheit durch Konflikterkennung

Gibt es bereits einen Client mit der gleichen IP-Adresse, erkennt das der Server und verwendet einfach die nächste Adresse aus seinem IP-Bereich. Sind im Unternehmen mehrere DHCP-Server im Einsatz, ist der beste Weg beide mit den exakt gleichen Bereichen aus einem identischen Adresspool zu konfigurieren.

Die Konflikterkennung stellen Sie in den Eigenschaften von IPv4 oder IPv6 auf der Registerkarte Erweitert ein. Standardmäßig ist diese auf 0 gesetzt und damit nicht aktiv.Durch das Abändern dieses Wertes auf 1 oder 2 aktivieren die Server diese Erkennung, und die Gefahr der Vergabe von gleichen IP-Adressen besteht nicht mehr.

Der Nachteil dabei ist, dass sich die Dauer der Adressvergabe erhöht. Das stellt aber normalerweise kein Problem dar, vor allem Angesichts der Tatsache, dass dadurch die Ausfallsicherheit deutlich verbessert ist.

Beachtet werden muss dabei aber auch, dass alle eingesetzten DHCP-Server hinsichtlich ihrer Hardware so ausgestattet sind, dass diese den Ausfall eines Servers abfangen können. Dazu gehören neben CPU- und Speicherausstattung auch entsprechende Leistung im Netzwerk. Am besten sind in einem DHCP-Server mehrere Netzwerkkarten integriert, welche sich die Last teilen. Für jeden zusätzlichen Konflikterkennungsversuch des DHCP-Diensts, verzögert sich die Adressvergabe um zusätzliche Sekunden. Aus diesem Grund sollte die Anzahl der Konflikterkennungsversuche zwei Versuche nicht übersteigen.

Windows Performance Toolkit nutzen

Mit dem Toolkit lassen sich Leistungsengpässe messen, sowie Startprobleme und Verzögerungen von Anwendungen. Auch die Bootzeit und damit verbundene Verzögerungen können Sie auf diesem Weg überprüfen. Vor allem erfahrene Administratoren und Entwickler erhalten mit dem Toolkit auch die Möglichkeit Ressourcenmessungen von Anwendungen und Interrupts zu messen. Im Gegensatz zur Windows-internen Leistungsüberwachung arbeitet das Tool nicht mit Indikatoren, die Sie starten müssen, sondern verwendet eigene Messpunkte.

Sobald Sie die Installation des ADK für Windows 10 gestartet haben, können Sie auswählen welche Funktionen Sie installieren wollen. Wählen Sie hier „Windows Performance Toolkit“ aus. Nach der Installation sind die verschiedenen Tools aus dem Windows Performance Toolkit verfügbar. Geben Sie in einer Eingabeaufforderung den Befehl „xperf.exe“ ein. Wird das Tool gefunden, können Sie mit der Leistungsmessung beginnen.

Eine erste Leistungsmessung beginnen Sie mit dem Windows Performance Recorder in der grafischen Oberfläche. Starten Sie das Tool und klicken Sie auf „Start“ um die Messung zu beginnen. Führen Sie typische Aufgaben mit dem Server durch. Über „More Options“ können Sie noch mehr Einstellungen vornehmen.

Edge-Server mit der Organisation verbinden

Die Abonnierung von Edge-Transport-Servern läuft in vier Schritten ab:

  1. Sie erstellen eine spezielle Abonnierungsdatei auf dem Edge-Transport-Server. Wir gehen darauf noch ein.
  2. Sie kopieren und importieren die Datei auf einen internen Exchange-Server.
  3. Sie überprüfen die erfolgreiche Synchronisierung durch die Überprüfung von Ereignismeldungen des Dienstes Microsoft EdgeSync auf dem Server und starten die Synchronisierung in der Exchange Management Shell.
  4. Sie löschen aus Gründen des Datenschutzes die Importdatei, da diese nach der Synchronisierung nicht mehr benötigt wird.

Starten Sie zunächst auf dem Edge-Transport-Server die Exchange Management Shell und geben Sie den folgenden Befehl ein:

new-edgesubscription -filename C:\EdgeSubscriptionInfo.XML

Sie müssen die XML-Datei dazu auf einen Postfachserver mit Exchange Server 2016 kopieren, im folgenden Beispiel in das Verzeichnis C:\temp. Öffnen Sie anschließend die Exchange Management Shell und geben Sie den folgenden Befehl ein: 

New-EdgeSubscription -FileData ([byte[]]$(Get-Content -Path „C:\Temp\EdgeSubscriptionInfo.xml“ -Encoding Byte -ReadCount 0)) -Site „Default-First-Site-Name“

Geben Sie den Befehl Start-EdgeSynchronization ein. Funktioniert der E-Mail-Verkehr vom Edge-Transport-Server zum Exchange 2016-Server nicht, stellen Sie auf dem Server mit Exchange Server 2016 für den entsprechenden Empfangsconnector die Authentifizierung auf die Exchange-Serverauthentifizierung um.

Edge-Transport mit Exchange 2016

Ein Exchange 2007- oder Exchange 2010/2013-Edge-Transport-Server erfordert eine Verbindung mit einem Hub-Transport-Server. In Exchange 2016 befindet sich der Transportdienst auf dem Postfachserver. Daher verläuft der Internetnachrichtenfluss zwischen dem Transportdienst auf dem Postfachserver und dem Edge-Transport-Server.

Sie können auf einem Exchange 2010/2013-Edge-Transport-Server ein Abonnement für einen eigenständigen Exchange 2016-Postfachserver oder für einen Server, bei dem der Postfachserver auf einem Computer installiert sind, einrichten.

Sie müssen das EdgeSync-Abonnement nicht neu erstellen, wenn Sie die vorhandene Exchange 2010/2013-Organisation auf Exchange 2016 aktualisieren. Alle Verfahren, die in Exchange 2010/2013 ausgeführt werden, führen Sie in Exchange 2016 auf dem Postfachserver aus. Sie können auch in Exchange 2016-Organisationen jederzeit weitere Edge-Transport-Server einrichten.

Die Edge-Transport-Rolle kann in Exchange 2010/2013 nicht mit anderen Rollen zusammen installiert werden, das gilt auch für Exchange 2016. Ein Edge-Transport-Server muss nicht Mitglied einer Windows-Domäne sein. Sie sollten aber dennoch den FQDN des Servers so festlegen, dass dieser die gleiche DNS-Domäne hat wie die Domäne, in der sich die anderen Server befinden.

Außerdem müssen Sie sicherstellen, dass der eingetragene DNS-Server in den IP-Einstellungen des Edge-Transport-Servers während der Installation erreichbar ist. Sie können dazu entweder den internen DNS-Server verwenden oder in der DMZ einen eigenen DNS-Server betreiben. Der beste Weg ist jedoch, dass der Edge-Transport-Server die internen DNS-Server verwenden kann, die auch die Active Directory-Domänen verwalten. Kann der konfigurierte DNS-Server während der Installation nicht erreicht werden, spielt das zunächst keine Rolle.

Soll der Edge-Transport-Server auch E-Mails aus dem Internet empfangen, müssen Sie den MX-Eintrag der entsprechenden E-Mail-Domäne auf die öffentliche IP-Adresse des Edge-Transport-Servers anpassen.

Die Firewall zwischen DMZ und dem internen Netzwerk muss den Datenverkehr zum  Port 50636 (TCP, Secure LDAP) und Port 25 (TCP, SMTP) durchlassen.

Auf dem Edge-Transport-Server müssen Sie dagegen keine Anpassungen vornehmen, hier wird die Windows-Firewall automatisch konfiguriert.

Zeitkritische Logistik – Wenn jede Minute zählt

In fast allen deutschen Großstädten ist Same Day Delivery inzwischen Gang und Gebe und Experten sprechen in zwei, drei Jahren bei Lieferungen über ein Zeitfenster von zehn Minuten. Auch bei Transporten über Länder- und Kontinentgrenzen hinweg werden neue Technologien und spezielle Lösungen immer notwendiger, um Touren effizienter zu planen und schneller umsetzen zu können. Bei Lieferungen von eiligen Ersatzteilen, wichtigen Dokumenten, lebensrettenden Medikamenten oder auch anderen zeitkritischen Sendungen muss die Logistikbranche auf die jeweiligen Bedürfnisse verschiedenster Industrien reagieren, um weltweite Transportoptionen zuverlässig und schnellstmöglich anbieten und umsetzen zu können.

Königsdisziplin der Logistik

Nicht umsonst wird dieser Bereich auch als Königsdisziplin der Logistik bezeichnet, da die Anforderungen oft äußerst komplex, zeitkritisch und immer wieder mit Unwägbarkeiten verbunden sind. Der Spielraum für Fehler geht in dieser Branche gen null, sodass ein Rad in das nächste greifen muss. Unternehmen müssen mit ihren jeweiligen Teams perfekt zusammenarbeiten, aber auch flexibel sein, um auf jegliche Situationen und Änderungen im Ablauf reagieren zu können. Denn teure Produktionsausfälle aufgrund fehlender Ersatzteile, verspätete Anlieferung von wichtigen Dokumenten oder lebensrettenden Medikamenten gilt es unbedingt zu vermeiden. Daher gewinnt die Geschwindigkeit bei der Distribution und Bereitstellung oberste Priorität, da oft jede Minute zählt.

So gilt es sich den Herausforderungen der steigenden Geschwindigkeit innerhalb der Logistikbranche zu stellen. Diese gehen unweigerlich auch mit der Bewältigung der Aufgaben hinsichtlich der Digitalisierung einher. Ob autonome Fahrzeuge oder Roboter, ob intelligente Buchhaltung oder Bestellsysteme, die Logistik steht immer wieder vor neuen Umwälzungen, auf die die einzelnen Unternehmen schnellstmöglich reagieren müssen, um ihre vorhandenen Potentiale optimal auszuschöpfen.

Digitalisierung des Service-Angebots

Auch Unternehmen, die weltweite Special Speed Logistik anbieten, müssen sich diesen Herausforderungen stellen, um in der schnelllebigen Branche nicht nur Mitläufer zu sein, sondern auch das Tempo vorzugeben. Deshalb bieten viele Unternehmen bereits heute einen begleiteten Transport von wichtigen Sendungen um die ganze Welt an, bei der eine dauerhafte, persönliche Überwachung erforderlich ist. Mithilfe von On-Board Kurieren wird wichtiges Transportgut aus unterschiedlichen Industrien sicher und zuverlässig von Tür zu Tür gebracht. Der nächste Schritt, den Unternehmen aus dieser Branche nun gehen müssen, ist die vollständige Digitalisierung des Service Angebots und der Prozesse, sowohl für den Kunden als auch die Kuriere.

Erste Experten für Special-Speed Logistik erhöhen bereits das Tempo innerhalb der Branche  mit der Entwicklung einer software-basierten Plattform für On-Board-Kurier Services, die eine komplett automatisierte, vernetzte Kurierdatenbank mit vollautomatisierter Flugsuche und Transparenz über den Sendungsverlauf in Echtzeit bietet. Dadurch werden die Prozesse um ein vielfaches effizienter und globaler bearbeitet. Den Kunden wird durch optimierte Abläufe und globale Skalierung der Prozesse maximale Geschwindigkeit bei höchster Zuverlässigkeit und bestem Preis angeboten.

Indem über die Plattform weltweit Transportpartner angebunden sind, kann jederzeit auf im Markt verfügbare Kapazitäten zurückgegriffen werden. Auch die Systeme der Kunden können direkt an das Order-Management-System des Unternehmens angebunden werden. Dadurch wird über ein digitalisiertes Netzwerkmanagement eine hohe Qualität sichergestellt. Denn bei all der Geschwindigkeit am Markt, darf vor allem bei hochsensiblen Gütern der Servicegedanke nicht in Vergessenheit geraten. Vielmehr muss die Digitalisierung der Leistungen auch dazu führen, dass die Services nicht nur schneller und zuverlässiger werden, sondern auch zu einer höheren Zufriedenheit beim Kunden führen.

Wenn Digitalisierung blendet

Kontrolle ist gut – Vertrauen ist besser. Was idealistisch klingt, ist das Zukunftsrezept für gelungene Digitalisierung. Die sogenannte vierte industrielle Revolution kreiert eine Welt, in der alles und jeder schneller, präziser und effektiver arbeitet. Blendende Aussichten, keine Frage. Doch wer geblendet ist, sieht die Risiken nicht. Deshalb braucht es neue Ansätze für Sicherheit und Compliance.

Ohne auf die Euphorie- oder Innovationsbremse zu treten: Ein Erfolgsfaktor in einer Zeit voller fundamentaler Umwälzungen ist es, sich mit der Governance- und Compliance-Perspektive der Digitalisierung auseinanderzusetzen. Dass im Zuge dessen nicht nur Kulturen aufeinanderprallen, sondern auch völlig neue Sicherheitsanforderungen erwachsen, droht geflissentlich übergangen zu werden. Datendiebstahl, Hackerangriffe, das Ausspionieren geistigen Eigentums und viele andere Formen von Cyberkriminalität werfen Fragen auf, die bisher von den wenigsten Unternehmen strukturiert betrachtet, geschweige denn beantwortet wurden.

Was gerade geschieht
Komplettlösungen für die neu gestalteten Risiken in der Wirtschaft gibt es nicht. Das ist vor allem durch die hohe Komplexität und Dynamik der Einflüsse zu erklären, denen sich Entscheider täglich stellen müssen. Denn die Geschwindigkeit steigt und Kontrollverlust ist unvermeidbar, während der regulatorische Druck zunimmt. Konventionelle Ansätze, die allein auf Kontrolle setzen, können hier kaum Schritt halten. Sie werden viel kosten und wenig leisten – bis sie sich im Ernstfall als wirkungslos erweisen.

Wie sehen unter den veränderten Rahmenbedingungen wirkungsvolle Konzepte aus? Viele Aufsichtsfunktionen wandeln sich grundlegend angesichts der nächsten Generation von Datenverarbeitung und Big-Data-Technologie. Neue Detektionssysteme werden Milliarden von Daten in Sekunden auswerten können. Wo zuvor Regeln abgeprüft wurden, entstehen lernende Systeme, die sich nahtlos in die bestehende IT-Infrastruktur einfügen. Sie erkennen Ausnahmen, bilden eigenständige Muster, visualisieren Erkenntnisse in Echtzeit und können sogar Vorhersagen über die Zukunft treffen und geografisch verorten.

Worauf es ankommt
Es wäre dennoch ein fataler Fehler, sich blindlings auf Sicherheitsstrukturen und Compliance-Management-Systeme zu verlassen. Denn am Ende geht es nicht um analoge oder digitale Lösungen, noch nicht einmal um Technologie, sondern um menschliches Verhalten. Was nutzt ein ausgetüfteltes Regelwerk, wenn sich die Mitarbeiter nicht daran halten?

Hochleistungsfähige Technologien machen die Risikominimierung schneller, präziser und günstiger. Sie sind aber nur ein Baustein eines tiefer greifenden Wandels, der gute Führung und Sicherheitsvorkehrungen nicht als Pflichtübung versteht, sondern als Treiber von Wert und Werten des Unternehmens.

Verhaltensökonomische Ansätze verbinden die intelligente und unternehmensspezifische Risikominimierung mit neuen Führungsinstrumenten, beispielsweise indem man Incentive- und Anreizsysteme daran ausrichtet, wie sich der Einzelne in ethischen Dilemmasituationen verhält. Mitarbeiter werden dafür sensibilisiert, geistiges Eigentum und vertrauliche Daten zu schützen und Sicherheitslücken zu schließen. Vertrauen und Integrität spielen hier eine wesentlich wichtigere Rolle als Kontrolle.

Es ist eine Zukunftsaufgabe, den eigenen Ansatz genau in diesem Sinne zu verbreitern. Die Digitalisierung zeigt uns, dass sich die Instrumente durchaus drastisch verändern mögen, echte Prinzipien aber auch die schillerndsten technologischen Revolutionen überdauern.