Ein Traumpaar: IoT und Edge Computing

Damit das Internet of Things funktioniert, sind viele unterschiedliche Sensoren und Mikroprozessoren nötig, die in den IoT-Geräten integriert sind. Doch diese erzeugen überall und jederzeit eine Unmenge an Informationen, die möglichst in Echtzeit verarbeitet werden müssen.

Dies ist jedoch mit herkömmlichen Netzwerk-Architekturen immer schwieriger. Denn hier muss die Datenmenge über weite Strecken zu zentralen Rechenzentren übertragen werden. Alleine dadurch entsteht schon eine gewisse Latenzzeit. Die Data Center sind dann zunehmend mit der Bearbeitung der Daten überfordert, da die Informationsflut schneller steigt als deren Kapazitäten. Und nach Ermittlung der Ergebnisse müssen die darauf basierenden Befehle an die IoT-Geräte übermittelt werden. Das kostet weitere Zeit.

Zudem ist bei mobilen IoT-Geräten die meist funkbasierte Kommunikation nicht immer und überall hochperformant möglich – etwa bei Drohnen oder Fahrzeugen. Dadurch entstehen weitere Verzögerungen oder gar Ausfälle. Eine schnelle Reaktion auf neue Anforderungen ist damit unmöglich.

Anwendungsbeispiele von Edge Computing

Ein gutes Beispiel bieten hier autonome Autos: Fahren sie auf einer Straße, kann ein unaufmerksamer Fußgänger vor das Fahrzeug laufen. Dieses erkennt zwar durch seine eingebauten Kameras die Person, muss aber die Bilder erst an das zentrale Rechenzentrum schicken, dort werden sie verarbeitet und der Bremsbefehl wiederum von dort an das Auto übertragen. In diesem Fall wäre die Reaktion viel zu spät.

Daher baut die Automobilindustrie Prozessoren in die Fahrzeuge ein, welche die Bilder der Kameras sofort bearbeiten und in Echtzeit auf unerwartete Gefahren reagieren. Genau dies ist Edge Computing. Darunter versteht man die Verarbeitung der Daten am oder nahe dem Ort ihrer Entstehung – hier dem vernetzten Auto. Und jedes autonome Fahrzeug produziert und nutzt schon heute bei einer Tagesfahrt mehrere Terabyte an Informationen.

Die Vorteile dieser dezentralen Datenverarbeitung haben natürlich auch verschiedene andere Branchen erkannt. Zum Beispiel müssen in der Fertigungsindustrie die durch vernetzte Geräte entstehenden Daten ebenfalls möglichst schnell verarbeitet werden. So lässt sich  eine Maschine sofort an neue Produktionsvorgaben anpassen oder ein defektes Teil erkennen und vorausschauend reparieren.

Auch hier kann die Einspeisung dieser IoT-generierten Daten über ein Netzwerk in ein zentrales Rechenzentrum oder Cloud-System zu zeitaufwändig sein sowie zu Latenzzeiten und sogar Datenverlusten führen. Edge Computing ermöglicht dagegen die Verarbeitung und Analyse sämtlicher Daten in Echtzeit, wodurch sich Konsistenz und Antwortzeiten verbessern. Aufgrund dieser Vorteile soll laut Gartner der Anteil an Daten, die außerhalb von zentralisierten Rechenzentren oder Cloud-Systemen erstellt und bearbeitet werden, von derzeit 10 auf 50 Prozent im Jahr 2022 steigen.

Erweiterung des Rechenzentrums

Edge Computing ist aber nur selten eine Standalone-Lösung, sondern wird in der Regel als Erweiterung des Rechenzentrums eingesetzt. Denn während sich die Technologie hervorragend für die schnelle Datenverarbeitung eignet, kann sie nicht viele Daten speichern und damit langfristige Trends erkennen oder umfassende Analysen durchführen.

Aus diesem Grund werden die Daten zwar am Edge verarbeitet, zusammengefasst und komprimiert, aber dann gesammelt und regelmäßig an das zentrale Rechenzentrum übertragen. Dieses dokumentiert und speichert die Informationen und wertet sie anschließend im Rahmen von Big-Data-Analysen aus. Damit lassen sich etwa Prozesse optimieren oder neue Lösungen entwickeln.

Ein konkretes Einsatzbeispiel bieten Bodycams, die von Polizeikräften getragen werden. Hier kann ein tragbarer Mini-Computer oder die Kamera selbst die aufgenommenen Videos sozusagen am Mann oder an der Frau komprimieren und kodieren. Anschließend werden sie an ein lokales Edge-Center gesendet, um den Upload-Prozess zu beschleunigen und die Belastung für das zentrale Netzwerk zu reduzieren.

Auch Point of Service (PoS)-Maschinen im Einzelhandel können von diesem Prozess profitieren. Zum Beispiel senden sie die Kartendaten der Kunden an einen Edge-Computer, der die notwendigen Prüfungen und die Transaktion durchführt. Dies beschleunigt nicht nur den Prozess. Es entfällt auch die Notwendigkeit, sensible Informationen über das Netzwerk zu senden und sie dadurch möglicherweise angreifbar zu machen.

Sicherheitsaspekte

Edge Computing ist nicht automatisch sicherer als herkömmliche Architekturen. Daher müssen Unternehmen auch für diesen Ansatz eine Risikoanalyse durchführen und eine ganzheitliche Security-Architektur entwerfen.

Einerseits kann Edge Computing das Sicherheitsmanagement vereinfachen, da dadurch transparenter wird, woher die Daten kommen und wohin sie gehen. Im Falle eines zentralen Rechenzentrums oder Cloud-Systems kann das hohe Verkehrsaufkommen für ein Unternehmen, das nicht über genügend Ressourcen verfügt, schwer zu überwachen sein. Cyberkriminelle können dies ausnutzen, indem sie die Daten unbemerkt abfangen. Daher schafft Edge Computing in der Regel eine bessere Kontrolle über diese Verbindungen und deren Sicherheit.

Andererseits vergrößert eine höhere Anzahl an Sensoren auch die Angriffsfläche, da mehr Verbindungspunkte zu sichern sind. Unternehmen benötigen daher ein striktes Patch Management, das sich schnell replizieren und auf die verschiedenen Sensoren übertragen lässt, welche die Daten sammeln und senden. Sind die Sensoren nicht abgesichert, können Hacker diese angreifen und IoT-Systeme empfindlich stören – bis hin zum bekannten Beispiel der Bremsen-Manipulation bei vernetzten Autos. Sie können aber auch über Sicherheitslücken, die nicht gepatcht wurden, in das Netzwerk einer Organisation eindringen oder die IoT-Geräte in Botnets eingliedern, um DDoS-Angriffe durchzuführen.

Das bedeutet: Nur mit umfangreichen Security-Maßnahmen können Unternehmen von IoT und Edge Computing profitieren. Dann ermöglichen sichere Edge-Lösungen auch neue IoT-Anwendungen, da sich noch mehr Daten vor Ort verarbeiten lassen sowie eine schnellere Reaktion auf neue und komplexe Anforderungen möglich wird. So entstehen demnächst wohl wirklich intelligente Roboter, Drohnen, Maschinen und Fahrzeuge. Und wer weiß, vielleicht gibt es eines Tages auch völlig selbstlernende IoT-Edge-KI-Systeme.

Speicherpools in Storage Spaces Direct optimieren

Zur Optimierung des Speicherpools wird folgendes CMDlet verwendet:

Optimize-StoragePool <PoolName>

Den aktuellen Status der Aktion können Sie in der PowerShell ebenfalls abfragen:

Get-StorageJob | ? Name -eq Optimize

Storage Spaces Direct können auch in System Center Virtual Machine Manager 2016 verwaltet werden. Hier lassen sich neue Cluster erstellen, die gleich Storage Space Direct nutzen, oder bestehende Cluster werden zu Clustern umgewandelt, die Storage Spaces Direct unterstützen. Außerdem gibt es die Möglichkeit der automatischen Konfiguration.

Um sich zum Beispiel Informationen zu bereits erstellten Fault Domains anzeigen zu lassen, verwenden Sie:

Get-ClusterFaultDomain

Get-ClusterFaultDomain -Type Rack

Get-ClusterFaultDomain -Name „server01.contoso.com

Sie können also auch mit verschiedenen Typen arbeiten. Um eigene Fault Domains zu erstellen, stehen zum Beispiel folgende Befehle zur Verfügung:

New-ClusterFaultDomain -Type Chassis -Name „Chassis 007“

New-ClusterFaultDomain -Type Rack -Name „Rack A“

New-ClusterFaultDomain -Type Site -Name „Shanghai“

SSD und NVMe in Storage Spaces Direct in Server 2016

In Windows Server 2016 kann ein solcher Speicher nicht nur mehrere Festplatten umfassen, sondern auch mehrere Server. Das erhöht die Flexibilität der Datenspeicherung. Die Server werden dazu mit einem Cluster verbunden. Die Lösung trägt die Bezeichnung Storage Spaces Direct, und lässt sich auch hochverfügbar betreiben. Storage Spaces Direct stellen sicherlich die wichtigste Neuerung im Storage-Bereich von Windows Server 2016 dar. Mit diesem System können Sie lokal zugewiesenen Speicherplatz von Clusterknoten zu einem gemeinsamen, virtuellen Speicher im Cluster zusammenfassen. Der Speicher lässt sich im Cluster als gemeinsamer Datenträger nutzen, zum Beispiel zur Datenablage von virtuellen Servern im Cluster.

Hochverfügbarkeit mit Geschwindigkeit verbinden

Als Datenspeicher in einem Cluster mit Storage Spaces Direct werden die lokalen Datenträger der Clusterknoten verwendet. Storage Spaces Direct benötigen einen Cluster mit mindestens drei Hosts. Unter vier Hosts unterstützt die Technik nur die Spiegelung der Daten zur Absicherung (mirrored resiliency). Sollen auch Paritiäts-basierte Datenträger (parity-based resiliency) erstellt werden, sind mindestens vier oder mehr Hosts notwendig. Storage Spaces Direct sind standardmäßig vor dem Ausfall eines Hosts geschützt. Die Technik kann den Ausfall eines ganzen Racks mit Servern verkraften, die Bestandteil eines Storage Spaces Direct sind.  Das hängt natürlich von der Konfiguration ab sowie der Anzahl der Server, die Bestandteil des Clusters sind.

In Windows Server 2016 lassen sich in den Storage Spaces drei Storage-Tiers nutzen: NVMe, SSD und HDD. Windows Server 2012 R2 hat für Storage Tiers in den Speicherpools und Storage Spaces nur zwei Tiers unterstützt. NVMe-Speicher wird zum Zwischenspeichern der Daten verwendet, während die SSD und HDD zur herkömmlichen Datenspeicherung und zur Archivierung dienen. Administratoren können aber auch verschiedene Kombinationen von Storage Tiers mit diesen drei Datenträgertypen erstellen.

Projekte agil umsetzen mit SCRUM und Microsoft Planner

Ziel des vorgestellten Projekts war es, Räumlichkeiten effizienter zu nutzen und zum Beispiel Besprechungsräume bei nichtgenutzter Buchung wieder automatisiert freizugeben. Damit lassen sich der Energieverbrauch von Klimaanlagen und Lichtsysteme optimieren. Angesichts der Zeitvorgabe waren zur Lösungsentwicklung nach der SCRUM-Methodik sechs Sprints mit jeweils drei Stunden geplant. Um diese agile Vorgehensweise zu unterstützen, kam Microsoft Planner für das Management der Backlogs und Sprints zum Einsatz. Dabei wurde folgendes Konzept entwickelt:

  • Der SCRUM-Prozess funktionierte auf der Oberfläche des Microsoft Planner von rechts nach links. Neue Punkte wurden in die Karte „User Stories (Backlog)“ hinzugefügt. Der Product Owner schob anschließend die Karte je nach Fortschritt nach links durch die Prozesse „In Preparation“ und „Ready“.
  • Während der Sprint-Planung wurde eine weitere Spalte (Bucket) für jeden neuen Sprint erzeugt – zwischen dem letzten Sprint und dem Schritt „Ready & Understood“. Das Team und der Product Owner bearbeiteten die User Stories. Die Karten wurden anschließend als „Ready & Understood“ markiert. Die geplanten User Stories für den nächsten Sprint wurden in die neue Spalte zu „Sprint X“ geschoben. Weiter oben befindliche Karten besaßen dabei eine höhere Priorität.
  • Während des Sprints nahmen Team-Mitglieder die Karten, ordneten sich selbst hinzu und setzten den Status auf „In Progress“.
  • Beim Sprint Review wurde das fertige Produktteil gezeigt. Der Product Owner setzte den Status der User Story auf „abgeschlossen“ oder bewegte sie in den nächsten Sprint, falls Nacharbeiten zu erledigen waren. Offene Aufgaben bei jeder Story wurden zur Checkliste der Karte hinzugefügt. Neue Ideen gingen direkt in das Backlog.
  • Die Retrospektive wurde in OneNote dokumentiert. Jedes Teammitglied schrieb dazu einen kurzen Kommentar. Anschließend wurde der Sprint im Team besprochen.

Bildunterschrift

Stärken und Schwächen von MS Planner

Neben diesen Vorteilen lassen sich in Microsoft Planner auch Aufgaben sehr einfach in Unteraufgaben aufteilen. Das Reporting funktioniert ohne Konfiguration, selbst bei mehreren laufenden Projekten. Die Lösung lässt sich einfach in Microsoft Teams integrieren, in kurzer Zeit installieren und flexibel nutzen.

Allerdings hat Microsoft Planner auch einige Schwächen (Stand Juli 2018). So gibt es zum Beispiel keine Exportfunktion, etwa für die Erzeugung von Reports wie Burndown-Charts oder die Migration von Listen und Aufgaben. Die eingebauten Reporting-Funktionen ermöglichen nur einige Standardangaben und lassen sich nicht anpassen oder erweitern. Selbst innerhalb der Microsoft Office 365-Welt sind nicht zu allen Programmen native Integrationen möglich, etwa zu Outlook, SharePoint oder ToDo. Zudem lassen sich Statusfelder nicht anpassen und es sind keine quantitativen Werte für Aufgaben wie Priorität/Nutzen oder Story-Points/Aufwand möglich. 

Fazit

Insgesamt bildet Microsoft Planner für das agile Management kleiner Projekte eine solide, gute Grundlage. Unternehmen sollten bei SCRUM-Werkzeugen jedoch auf Lösungen setzen, die sie bereits im Einsatz haben und die ihren Mitarbeitern bekannt sind. Je nachdem, ob Unternehmen eine Single-Vendor-Strategie verfolgen oder auf Microservices setzen, kann bei einer sauberen Service-Orchestrierung das Werkzeug ebenso schnell gewählt werden. So ließ sich auch in diesem konkreten Fall dank der SCRUM-Methodik und dem Werkzeug Microsoft Planner innerhalb kürzester Zeit eine gute Smart-Office-Lösung erstellen.

Produktdatenmanagement: Von Kinderspielzeug und hochkomplexen Autos

Datensilos, historisch gewachsene Systeme und heterogene Produktdaten stellen Hersteller vor eine zentrale Herausforderung: Wie lässt sich eine ganzheitliche Betrachtung entlang der Wertschöpfungskette realisieren? Herkömmliche Produktdatenmanagement-Systeme (PDM-Systeme) können die verschiedenen Produkt- und Prozessdaten nur speichern. Um aber die abteilungsübergreifenden Zusammenhänge zu erfassen – vom Design über Materialbeschaffung und Produktion bis zum Vertrieb und After-Sales-Management – eignen sie sich nur begrenzt. Andere Datenbanktypen sind deutlich besser geeignet, um vernetzte Daten abzufragen, Workflows zu vereinfachen und einen echten Mehrwert zu erzeugen.

Informationen im Kontext durch Graphtechnologie

Graphdatenbanken ermöglichen es, Datensätze und ihre Beziehungen untereinander in Echtzeit abzufragen. Ein Graph besteht dabei aus Knoten (z. B. Produkt, Materialkomponente, Lieferant) und Kanten (z. B. „enthält“, „geliefert“, „erfüllt Norm“). Beiden kann eine beliebige Anzahl qualitativer und quantitativer Eigenschaften zugewiesen werden, z. B. Spezifikationen und Liefermenge.

Überträgt man dieses Datenmodell auf PDM-Systeme entsteht ein reichhaltiger Kontext an Informationen, der den Datenverbindungen einen besonderen Stellenwert einräumt. Anwender können in Echtzeit Informationen wie Stücklisten, CAD-Daten, 2D- und 3D-Daten und Fertigungsanweisungen von einem bestimmten Produkt abrufen. Ein weiterer Vorteil dieser Technologie ist die Skalierbarkeit des Systems und die Möglichkeit Daten jederzeit zu ergänzen. Informationen zu neuen Materialien, Lieferanten, gesetzlichen Vorgaben oder Vertriebspartnern lassen sich daher schnell und einfach aktualisieren.

Mit vordefinierten Zugriffsrechten können Zugangsberechtigungen an Partner und Lieferanten vergeben werden. Auch intern lässt sich so sicherstellen, dass Mitarbeiter nur auf die für ihre Aufgaben nötigen Daten Zugriff erhalten. Unterm Strich können Hersteller so Zeit in der Entwicklung und Produktion sparen, ihre Time-to-Market verkürzen und folglich Kosten reduzieren. Gleichzeitig unterstützen graphbasierte PDM-Systeme die Hersteller dabei, alle Anforderungen in Bezug auf Qualität, Norm und Rückverfolgbarkeit einzuhalten – von der Spielfigur bis zum Auto.

Graph-Produktdaten

Quelle: Neo4j

Heterogene Daten bei Spielwarenherstellern

Der Spielzeughersteller Schleich nutzt für sein PDM-System die Graphdatenbank Neo4j für die effiziente Entwicklung und Herstellung seiner Spielwaren. Alle produktspezifischen Daten sind in der Graphdatenbank konsolidiert mit dem Ergebnis, dass eine zentrale Informationsplattform mit Schnittstellen zu anderen Systemen entsteht. Mit anderen Worten: Mit wenigen Klicks stehen den Mitarbeitern umfassende Informationen zu jedem Spielzeug zur Verfügung: Aus welchen Materialien besteht eine Schleichfigur? Von welchem Lieferanten stammen die einzelnen Komponenten? Welche Inhaltsstoffe müssen angegeben werden? Und auf welchen Absatzmärkten gelten welche Compliance-Richtlinien? Gerade im Spielwarenbereich müssen länderspezifische Qualitäts- und Sicherheitsstandards eingehalten und stetig auf Änderungen überprüft werden.

Die hohe Skalierbarkeit und Flexibilität vereinfacht und beschleunigt zudem die Entwicklung von abteilungsspezifischen Software-Lösungen. Schleich erarbeitet auf dieser Basis in nur wenigen Tagen Mini-Apps mit flexiblen Front-Ends, die auf die Bedürfnisse verschiedener Fachabteilungen zugeschnitten sind. Die Apps unterscheiden sich unter anderem in ihrer Oberfläche und Bedienbarkeit und können auf funktionale Bausteine zugreifen.

Teilkomponentenmanagement in der Automobilindustrie

Noch komplexer als die Produktion eines Kinderspielzeugs ist das Teilkomponentenmanagement in der Automobilindustrie. Moderne Fahrzeuge verfügen über rund 30.000 Baugruppen, 2.000 Softwarekomponenten, 200 elektronische Steuereinheiten und 100.000 verschiedene Konfigurationen. Systeme wie Infotainment, ADAS und weitere Anwendungen sorgen dafür, dass die Anzahl an Teilkomponenten mit unterschiedlichen Spezifikationen in den Fahrzeugen weiter zunimmt – und somit auch die Notwendigkeit für ein effizientes PDM-System. Oftmals werden die riesigen Datenmengen von Automobilherstellern in verschiedenen Tools eingespeist, wodurch abteilungseigene Datensilos entstehen, die die Sicht auf das „Big Picture“ verstellen.

Auch hier können Graphdatenbanken Abhilfe schaffen, da sie es ermöglichen, zentral auf Daten zu zugreifen. Das Potenzial der Technologie für Automobilhersteller und -zulieferer ist groß. Verschiedene Systeme, wie ERP, PDM oder Procurement können miteinander verbunden werden, um Datenzusammenhänge und neue Perspektiven aufzuzeigen und um ein besseres Verständnis für komplexe Abhängigkeiten zu gewinnen. Gleichzeitig lässt sich das Datenmodell jederzeit bei Änderungen anpassen. So nutzt beispielsweise auch der Automobilhersteller Volvo die Graphdatenbank Neo4j als Schnittstelle zwischen verschiedenen Systemen, um Abhängigkeiten aufzuzeigen und zentral auf das gesammelte Know-how zurückzugreifen.

Graphbasierte PDM-Systeme schaffen so ein neues Maß an Transparenz in der Supply Chain. Sie versetzen Hersteller in die Lage, echten Mehrwert aus ihren Produkt- und Prozessdaten zu ziehen.

Brexit in Logistics – abwarten oder aktiv werden?

Die gesamte politische Debatte um den Austritt Großbritanniens aus der Europäischen Union ist geprägt von Unsicherheit, neben dem ungewissen Ausgang der Verhandlungen zwischen Großbritannien und der EU sind die Folgen der Verhandlungsergebnisse noch unabsehbar. Dabei bleibt noch nicht einmal ein Jahr Zeit für die Entscheidungen – und dann sind sie noch lange nicht umgesetzt. Ganz aktuell warnt sogar die EU-Kommission vor einem „Brexit-Desaster“.

Was kann logistisch passieren?

Was all dies für die englische Wirtschaft, Währung und Markt bedeutet, bleibt hier erst einmal außen vor – aber selbst ohne diese Punkte zu betrachten, kann man heute schon Szenarien entwickeln, die zumindest eine Idee aufzeigen können, welche logistischen Herausforderungen der Brexit mit sich bringen könnte. Zwar steht der Finanzsektor mit angedrohten Standortverlagerungen medial seit einiger Zeit verstärkt im Fokus, für die Logistik – egal ob Dienstleister oder Hersteller – wird  der Brexit ebenfalls zu einer großen Herausforderung.

Auch wenn es logistisch noch nie wirklich einfach war, den Ärmelkanal zu überwinden, können durch den Austritt Großbritanniens aus der EU weitere Hemmnisse entstehen. Zölle, Lkw-Wartezeiten bei der Grenzabfertigung oder Behinderungen im Hafenumschlag und Bahntransport sind nur einige offensichtliche logistischen Probleme, die auftreten werden.

Schlimmstenfalls könnte der Brexit dazu führen, dass ein freier Waren- und Personenverkehr nicht nur erschwert, sondern ganz zum Erliegen kommt. Aber selbst wenn ’nur‘ anfangs – bedingt durch Unsicherheiten – in Randbereichen Verzögerungen entstehen, kann dies große Auswirkungen auf die logistische Lieferkette haben.

Ein relativ einfacher Punkt scheinen auf den ersten Blick zu erwartende Zölle zu sein: Zollabwicklung ist heute standardisiert, es gilt also nur die neuen Zolltarife einzuspielen. Gerade in der ersten Zeit neuer Handelsbeziehungen kann es aber auch hier zu vielen Ungereimtheiten kommen – und schon bleibt der LKW mit den dringend benötigten oder verderblichen Gütern stehen.

Eine „einfache“ wie naheliegende Vermeidungsstrategie besteht in der Einrichtung neuer Läger, auf beiden Seiten des Kanals, um das Wegbrechen ganzer Märkte zu verhindern. Die ersten Unternehmen bereiten sich bereits vor, so gibt es in der letzten Zeit vermehrt Anfragen kontinentaleuropäischer Unternehmen zu Standortfragen in Großbritannien. Aber auch umgekehrt bereiten sich britische Unternehmen durch die Suche und den Aufbau von Standorten und Strukturen außerhalb von Großbritannien auf den Brexit vor. Dies ist ein nachvollziehbarer Schritt, der jedoch manchmal nicht ausreicht und zu deutlich höheren Kosten führen wird. Insofern bedarf es vielfach einer weitaus komplexeren Analyse und kosteneffizienteren Antwort auf die Folgen des Brexits.

Wie vorbereiten?

Die Analyse der Frage bzgl. der Folgen des Brexits für Ihr Unternehmen beginnt mit der einfachen Frage: Was kann der Brexit für mein Unternehmen und meine Supply Chain bedeuten? Hier gilt es nicht nur, den Absatzmarkt Großbritannien zu betrachten, sondern auch die Lieferanten – und deren Lieferanten. Wissen Sie, welche Roh-, Hilfs- und Betriebsstoffe Sie aus Großbritannien beziehen? Was passiert, wenn hier keine Lieferungen mehr eintreffen, oder mit 1, 2, vielleicht vier Wochen Verzögerung? Entwickeln Sie Ihr Worst Case Szenario und prüfen Sie mögliche Risiken und Beeinträchtigungen in Ihrer Supply Chain, und zwar der gesamten Supply Chain. Eine Eintrittswahrscheinlichkeit zu prognostizieren wäre zwar wünschenswert, dies scheint aber zur Zeit schlecht möglich.

Lösungen

Auf der Inbound-Seite gilt es, Redundanzen aufzubauen, Lieferanten zu finden, die in der Lage sind, auch ohne Produktionsstätten in Großbritannien lieferfähig zu sein und zu bleiben. Hier sollte man – gerade bei kritischen (Vor-)Produkten genauer hinschauen, vielleicht sind Sie nicht der einzige Kunde, der eine solche Idee hat? Obwohl schon lange vom ‚Single Sourcing‘ abgeraten wird – was nutzt es, wenn mehrere Ihrer Hauptzulieferer ausschließlich auf Vorprodukte aus Großbritannien angewiesen sind? Deshalb: Analysieren Sie Ihre Zuliefererkette! Für die wichtigsten Artikel scheint das einfach. Gerade bei C-Artikeln kann dies aufwendig werden, aber nicht weniger wichtig, hier lohnt ein genauerer Blick.

Absatzmarkt Großbritannien

Sollte Großbritannien für Sie ein wichtiger Absatzmarkt sein, gilt es, zu prüfen, welche Maßnahmen Sie zur Sicherstellung der Versorgung Ihrer Kunden heute schon treffen können. Dabei reichen allerdings einfache Verträge mit Distributoren längst nicht aus, denn nicht die Distribution ist der Knackpunkt, sondern der kontinuierliche Nachschub der Waren nach Großbritannien – auch in einem zu erwartenden ‚chaotischen Zeitraum‘, der von einer Übergangszeit und neuen Regularien geprägt sein wird. Einige unserer Kunden reagieren derzeit bereits mit einer Reorganisation Ihres europäischen Logistik-Set Ups – aber ist dies die wirklich optimale Lösung und wenn ja, für welche Sortimente und Kunden?

Abwarten oder aktiv werden?

‚Nichts Genaues weiß man nicht‘ – zur Zeit gibt es keinen Ratschlag, der eine Lösung garantiert. Noch aber ist Zeit, verschiedene Szenarien zu entwerfen, zu prüfen und Lösungen zeitgerecht zu evaluieren und Maßnahmen in die Wege zu leiten. Konkrete Schritte umzusetzen muss nicht unbedingt notwendig sein, zumindest sollte man aber aktiv werden, um beim Eintreten verschiedener Szenarien entsprechende Pläne zu haben und diese umsetzen zu können – um im Fall der Fälle handlungsfähig zu bleiben. Alternativ gilt noch immer: Eine Strategie des robusten ersten Schrittes kann nicht falsch sein – Nichts tun aber schon!

Ganzheitliches Konzept für IT-Security im IIoT

Industrial Gateways für IT-Sicherheit und Konnektivität

Das Thema IT-Sicherheit spielt bereits bei der Anbindung von Maschinen und Anlagen eine wesentliche Rolle. Ein Industrie-Gateway hat zwei Aufgaben zu meistern: Es muss die Integration der Daten in die übergeordneten Leitsysteme ermöglichen und gleichzeitig die Maschinen und Anlagen sowie die Kommunikation absichern. Innovative Gateways basieren auf einem Unified Threat Management (UTM), das den schnellen Rollout mehrerer Sicherheitsfunktionen gelichzeitig ermöglicht: Eine Firewall schützt vor Angriffen von außen, Virtual Private Network (VPN)-Applikationen verschlüsseln den Datenfluss, eine Antiviren-Software sowie ein Intrusion Detection/Prevention System (IDS/IPS) sorgen für zusätzlichen Schutz. Außerdem sollte das Gateway über Speichermöglichkeiten verfügen, um bei einem Ausfall der Internetverbindung die Maschinendaten puffern und damit sichern zu können. Ein weiteres Entscheidungskriterium bei der Auswahl eines Gateways sollte die Benutzerfreundlichkeit sein.

IIoT-Plattformen: Security-by-Design

Die Wahl der richtigen IIoT-Plattform ist ein weiterer Schritt in Richtung IT-Sicherheit. Bei einer Plattform, die tausende von Maschinen, Anwendungen und Menschen über das Internet verbindet, müssen schon in der Entwicklungsphase zahlreiche Sicherheitsaspekte Beachtung finden. Dieser Security-by-Design-Ansatz erhöht den Widerstand gegen Angriffe und sichert damit die Investitionen in die digitale Zukunft.

Ein mandantenfähiges Berechtigungsmanagement ist wesentlich für die einfache und zentrale Verwaltung aller Nutzer, Geräte und Berechtigungen und erhöht die Datensicherheit. In Abhängigkeit von ihren Rollen bekommen Anwender damit nur Zugriff auf die Maschinen und Anlagen, die für sie auch relevant sind. Außerdem lässt sich definieren, welche Aktionen die unterschiedlichen Nutzer- oder Nutzergruppen auf den Maschinen durchführen dürfen und welche Daten sie einsehen können. Der Kunde braucht außerdem die Möglichkeit, mit einer digitalen Schnittstelle den Zugriff des Dienstleisters oder Maschinenherstellers auf die Geräte vor Ort zu kontrollieren. Die Speicherung detaillierter Logdateien sorgt für die notwendige Transparenz und protokolliert Zugriffe und Aktionen.

Visualisierung für mehr Sicherheit

Eine Visualisierung komplexer Netzwerke über eine Live-Map schützt vor der Verwechslung von Maschinen, beispielsweise bei der Fernwartung. In Echtzeit lässt sich nachvollziehen, welche Geräte online sind und ob gleichzeitig noch ein anderer Nutzer auf der Maschine tätig ist.

Netzwerke segmentieren – Schutzzonen errichten

Eine Segmentierung von Netzwerken in unterschiedliche Bereiche steigert das Sicherheitsniveau in digitalisierten Produktionsunternehmen. Dazu werden Bereiche mit vergleichbarem Schutzbedarf mit technischen Maßnahmen voneinander abgetrennt, im Ernstfall lässt sich ein gestörtes Subnetz schnell isolieren. Für eine reibungslose Kommunikation zwischen den Segmenten gilt es, die Schnittstellen klar zu definieren und abzusichern.

Der Übergang zwischen Office-IT und den unteren Ebenen der Produktion hat sich in der Vergangenheit immer wieder als kritisch herausgestellt. Eine Abtrennung von Rechnern mit Zugang zum E-Mailsystem kann gerade für kleine und mittlere Unternehmen ein erster Schritt sein, wenn sie nicht über die Ressourcen für eine aufwendige Risikoanalyse verfügen.

Unsicherheitsfaktor Mensch – Mitarbeiter schulen

Hacker haben schon lange die Mitarbeiter als Unsicherheitsfaktor in der Cyberabwehr identifiziert und nutzen diese Schwachstelle, um an sensible Unternehmensdaten und technisches Know-how heranzukommen. Um ihre Ziele zu erreichen, setzen sie auf Social Engineering: Dabei forschen Angreifer ihre zukünftigen Opfer aus, analysieren ihr soziales Umfeld und ihre Aufgabe im Unternehmen, um einen möglichst gezielten Angriff vorzubereiten. Unternehmen sollten deshalb ihre Mitarbeiter schulen und auf die möglichen Gefahren hinweisen. Für den Einsatz von Smartphones müssen sinnvolle Regeln gefunden werden.

Silodenken beenden

Auch die Organisation eines Unternehmens hat Einfluss auf die Cybersicherheit. Bislang war es normal, dass Produktions-IT und Office-IT getrennte Bereiche waren, bei denen man weder Prozesse abgesprochen, noch Wechselwirkungen bedacht hat. Mit der Digitalisierung werden diese getrennten Bereiche zwangsläufig miteinander verwoben. Eine genaue Koordination der einzelnen Maßnahmen ist Voraussetzung für eine durchgängige Sicherheit im Unternehmen. Idealerweise gibt es deshalb einen Verantwortlichen für Digitalisierung, der in der Führungsetage im Unternehmen angesiedelt ist und beide Bereiche koordiniert.

Migration öffentlicher Ordner zu Office 365-Gruppen

Vor der Migration zu Office 365-Gruppen sollten Fehler in den öffentlichen Ordnern behoben werden. Ob das Postfach für öffentliche Ordner auf den Exchange-Servern erfolgreich erstellt wurde, sehen Sie entweder im Exchange Admin Center oder in der Exchange Management Shell. Dazu verwenden Sie den Befehl:

„Get-OrganizationConfig |fl DefaultPublicFolderMailbox“

oder

„Get-OrganizationConfig |fl RootPublicFolderMailbox“

Erhalten Sie keinen Servernamen zurück, sondern nur eine GUID, kann Exchange nicht korrekt auf das Postfach für die primäre Hierarchie zugreifen. Solche Fehler sollten vor der Migration behoben werden, da ansonsten die Gefahr besteht, dass die Migration nicht funktioniert, oder nicht alle Daten übernommen werden.

Office 365-Gruppen stellen ein Sicherheitskonzept dar, mit dem Gruppenarbeit in Office 365 effektiver dargestellt werden kann. Grundsätzlich sind Office 365-Gruppen ein Objekt in Azure Active Directory, das mit Office 365 verbunden ist. Administratoren können einer Office 365-Gruppe verschiedene Benutzer zuordnen. Dadurch stehen den Gruppen verschiedene Funktionen zur Verfügung, mit denen sich auch Daten speichern lassen.

Office 365-Gruppen erhalten ein Exchange-Postfach in Office 365, so wie es bei öffentlichen Ordnern möglich ist. Außerdem erhalten Office 365-Gruppen einen gemeinsamen Kalender. Dieser erlaubt die Koordination von Terminen für die ganze Gruppe.

Die Erstellung einer Office 365-Gruppe kann an verschiedenen Stellen durchgeführt werden. Administratoren können Gruppen über die Office-365-Admin-Umgebung, in Azure Active Directory (AAD) oder mit der PowerShell erstellen.

Microsoft Teams bietet den Vorteil, dass verschiedene Kollaborationsdienste gemeinsam zur Verfügung stehen. Dazu gehören Dateiablage, Notizbuch, Planer und PowerBI. Diese Bereiche stehen über Office 365-Gruppen zur Verfügung.

Wie Sie den Anwendungsproxy in Windows Server 2016 einsetzen

Webanwendungsproxy ist ein Rollendienst der Serverrolle Remotezugriff. Diese installieren Sie im Server-Manager über Verwalten\Rollen und Features hinzufügen, wie jede andere Rolle auch. Sie können die Active Directory-Verbunddienste und den Rollendienst Webanwendungsproxy allerdings nicht auf dem gleichen Server installieren, sondern müssen den Einsatz mindestens zwei Server betreiben.

Haben Sie den Assistenten für die Einrichtung des Webanwendungsproxys erfolgreich abgeschlossen, besteht der nächste Schritt darin, Active Directory anzupassen. Hier stellen Sie sicher, dass Outlook Web App, SharePoint oder andere Webdienste und der neue Webanwendungsproxy zusammenarbeiten. Zunächst müssen Sie einen „Service Principal Name“ festlegen. Dieser stellt sicher, dass der Webanwendungsproxy auch Kerberos-Tokens für http-Basierte Anfragen anfordern kann. Zusätzlich müssen Sie hier festlegen, dass der Webanwendungsproxy das Recht erhält sich am Exchange-Server im Namen zugreifenden Anwenders anzumelden, das gilt auch für andere Webdienste.

Haben Sie ADFS, Webanwendungsproxy und Active Directory sowie die Computerkonten angepasst, müssen Sie im Anschluss noch Anpassungen in Exchange vornehmen, damit sich Anwender über den Webanwendungsproxy mit dem Netzwerk verbinden können.

Die Einstellungen dazu nehmen Sie im Exchange Admin Center vor. Navigieren Sie zu den entsprechenden Servern und rufen Sie im Bereich ClientAccess die Eigenschaften für das virtuelle Web auf.

Rufen Sie danach die Verwaltung des Remotezugriffs im Server-Manager auf. Dazu klicken Sie auf Tools\Remotezugriffsverwaltung. Im Fenster erstellen Sie neue Veröffentlichungen für den Webanwendungsproxy.  Für die Einrichtung starten Sie in der Verwaltungskonsole einen Assistenten, mit dem Sie Webanwendungen über den Webanwendungsproxy veröffentlichen.

Big Data richtig interpretieren: Korrelation vs. Kausalität

Zusätzlich zu intelligenten Algorithmen, die aus Big Data wertvolle Informationen berechnen können, benötigen wir vor allem Experten mit Fachwissen, um zu wirklich plausiblen Ergebnissen zu kommen.

Dass das so ist, zeigt zum Beispiel eine Reihe vermeintlicher Korrelationen, also Zusammenhänge, die der Harvard Student Tyler Vigen auf seiner Website auflistet. Er ermittelt mithilfe von Algorithmen kuriose Szenarien. So geht aus seinen Berechnungen beispielsweise hervor, dass die Scheidungsrate in Maine (USA) in gleichem Verhältnis mit dem Pro-Kopf-Verbrauch von Margarine sinkt. Wer seine Ehe retten möchte, sollte demnach auf Margarine verzichten. Eine weitere Berechnung besagt, dass der Verzehr von Mozzarella-Käse die Anzahl der Promotionen von Bauingenieuren beeinflusst – oder umgekehrt. Auch wenn sich mancher Bauingenieur jetzt möglicherweise freuen mag und seine Fachkenntnis gleich durch etwas Käse vertiefen möchte, so identifizieren wir doch mit unserem bloßen Menschenverstand diese Beispiele schon als irreführend und ziehen eine wichtige Erkenntnis: Eine Korrelation ist nicht zwangsläufig auch eine Kausalität. Eine Korrelation beschreibt den reinen Zusammenhang von zwei Situationen, eine Kausalität ist die konkrete Beziehung zwischen Ursache und Wirkung.

Es geht also darum, Daten intelligent zu verknüpfen und zu zuverlässigen und logischen Informationen zu machen, die dann wiederum erfolgsbringend für Unternehmen sein können. Im Mozzarella-Fall sind wir alle Experten, die die Glaubwürdigkeit und Relevanz dieses vermeintlichen Zusammenhangs beurteilen können. Doch in wirtschaftlichen Zusammenhängen und Planungssituationen im Supply Chain Management und in der Logistik von Industrie und Handel sind die Ergebnisse von Berechnungen und Statistiken häufig schwieriger zu beurteilen – dafür braucht es Fachexpertise.

Wichtige Zusammenhänge im Supply Chain Management

In einem Unternehmen sind zum Beispiel in der Bedarfsplanung im Supply Chain Management verschiedene Faktoren wichtig: Historische Werte, Saisonverkäufe, Produkteinführungen oder Neuheiten, Verkaufsaktionen usw. Sie dienen als Datengrundlage um herauszufinden, welchen Artikel der Kunde in welcher Menge in Zukunft kaufen wird. Mithilfe von Prognoseberechnungen und durch das Wissen erfahrener Planer kann an dieser Stelle schon ein Blick in die Zukunft geworfen werden.

Doch die Märkte verändern sich. Die Anforderungen an Verfügbarkeit wachsen und Individualisierung und Schnelligkeit werden zunehmend zum Wettbewerbsvorteil. Um in einer sich wandelnden Welt clever agieren zu können, darf nicht „ins Blaue hinein“ geplant werden. Die richtigen Kausalitäten zu erkennen ist wichtig.

Korrekte Kausalitäten durch Algorithmen und Fachexpertise erkennen

Wenn wir intelligente Algorithmen effektiv nutzen möchten, um den Bedarf an Produkten in Zukunft gut und verlässlich abschätzen zu können, müssen Fachexperten vorher festlegen, welche Einflüsse überhaupt auf den Absatz einwirken (wo die Kausalitäten bestehen). Zu diesen Einflüssen können neben den offensichtlichen Gründen, wie der Verkaufsaktion, auch das Wetter oder Großereignisse gehören. Denken wir nur einmal an die vergangene Weltmeisterschaft, dann wird deutlich, dass einem Algorithmus die Information über die Kausalität zwischen der WM und dem steigenden Absatz von beispielsweise Bier gegeben werden muss. Dann kann er mittels der richtigen Daten auch sehr verlässliche Vorhersagen treffen, auf deren Basis das gesamte Supply Chain Management effizienter und sicherer wird.

Der Mensch als Experte

Im Supply Chain Management bringt Big Data allein uns also nicht weiter, solange kein Algorithmus ein nützliches Ergebnis daraus produziert und ein Fachexperte stets im Auge behält, wie sinnvoll dieses Ergebnis tatsächlich ist. Moderne Algorithmen sind so weit entwickelt, dass sie aus einem Datenpool eine Korrelation und oft auch bereits die richtige Kausalität erkennen kann. Doch die Beispiele von Tyler Vigen haben uns gezeigt, dass es auch Irrtümer geben kann. Gibt der Experte die richtige Richtung vor und hält die Kontrolle, liefert die Maschine bessere Ergebnisse, als der Mensch es könnte. Für das zukunftsfähige Supply Chain Management benötigen wir also die Kombination aus Big Data, intelligenter Software und menschlicher Expertise.