Dienste in der PowerShell und Befehlszeile steuern

Am schnellsten rufen Sie die Verwaltungsoberfläche der Systemdienste in Windows durch die Eingabe von „services.msc“ auf. In der Eingabeaufforderung sehen Sie die gestarteten Dienste über „net start“. Mit „net start >dienste.txt“ werden alle gestarteten Dienste in die Datei „dienste.txt“ gespeichert.

Eine weitere Möglichkeit ist der Befehl „sc query“, der deutlich mehr Informationen liefert. Dienste lassen sich, neben der grafischen Oberfläche, in der Eingabeaufforderung über „net stop <Dienstname>“ stoppen und über „net start <Dienstname>“ wieder starten.

Eine häufige Administrationsaufgabe ist die Verwaltung der laufenden Prozesse auf einem Server. Über den Befehl „Get-Process“ können Sie sich alle laufenden Prozesse eines Computers anzeigen. Wollen Sie aber zum Beispiel nur alle Prozesse mit dem Anfangsbuchstaben »S« angezeigt bekommen, geben Sie den Befehl „Get-Process s*“ ein. Sollen die Prozesse zusätzlich noch sortiert werden, zum Beispiel absteigend nach der CPU-Zeit, geben Sie „Get-Process s*“ gefolgt von der Pipe-Option „|Sort-Object cpu -Descending“ ein.

PowerShell Direct – Virtuelle Betriebssysteme steuern

Hier stehen dann die gleichen Befehle zur Verfügung, wie bei normalen Sitzungen. Der Unterschied liegt darin, dass in einer PowerShell Direct-Sitzung die Befehle direkt in der jeweiligen VM gestartet werden. Um eine Sitzung zu starten, geben Sie in der PowerShell-Sitzung auf dem Host einen der folgenden Befehle ein:

Enter-PSSession -VMName <Name der VM im Hyper-V-Manager>

Invoke-Command -VMName <Name der VM im Hyper-V-Manager> -ScriptBlock { Commands }

Für die erfolgreiche Verbindung müssen Sie sich unter Umständen an der Sitzung erst authentifizieren. Weitere Konfigurationen oder Einstellungen in der Firewall sind dazu nicht notwendig.

Wollen Sie sich mit einem anderen Benutzer authentifizieren, verwenden Sie Enter-PSSession -VMName <Computer> -Credential <Benutzer>. Mit Exit-Session beenden Sie diese Sitzung wieder. Sie können in Windows Server 2016 und Windows 10 auch Sitzungen unterbrechen und erneut aufzubauen. Bei unterbrochenen Sitzungen laufen die Cmdlets in der Sitzung weiter. Dazu nutzen Sie die Cmdlets Disconnect-PSSession, Connect-PSSession und Receive-PSSession.

Vernetzung von IoT-Plattformen: Wer hat das Nachsehen?

Ging man durch die Hallen des Kongress Centers Wien am 16. Mai wurde man direkt drei Wochen zurückversetzt, obwohl man durch die technischen Innovationen immer weiter in die Zukunft getrieben wird. Stände, Aussteller, vieles erinnert an die vergangene Hannover Messe – zugegebenermaßen, etwas kleiner. Vom 16. bis 17. Mai 2018 stellten Vertreter aus dem Industriesektor unter dem Motto Industrie 6.0 gemeinsam mit einem breiten Feld von IoT & M2M Anbietern im IoT Forum CE in Wien aus. 

Vielfältige Vorträge

In Vorträgen während des IoT Forum CE wurden durch die Bank Themen behandelt, die die Tragweite der neuen Technologien abermals aufdeckten. Von Smart Grit über 5G hin zu Mixed Reality, kaum ein Themenbereich fand keinen Platz im Veranstaltungsprogramm. Blockchain und AI durften natürlich auch nicht fehlen. Viele der Teilnehmer waren von der Vielfalt angetan. Use Cases beeindruckten und förderten den aufkommenden Diskurs, was eine IoT-Plattform alles leisten muss. 

Weit davon entfernt sah sich der deutsche Maschinenbau. Nicht AI oder Augmented Reality beschäftigten ihn, viel mehr die Frage, welcher Anbieter ist der richtige für eine langfristige vertrauensvolle Partnerschaft, um technologisch nicht abgehängt zu werden.

IoT-Plattform-Anbieter agieren nicht nahe genug am Kunden

Diese Tage stellte sich erneut heraus, wie bereits vor drei Wochen beobachtet, dass wenige große IoT-Plattform-Anbieter nahe genug an der Domäne des Kunden ansetzen können oder wollen. Beginnend bei der Kommunikation verhalten sie sich sehr schwammig um jeden, für den Fall der Fälle, willkommen zu heißen. Dies zieht sich wie eine rote Linie bis hin zu ihrem Offering, das weder für das eine noch das andere Vertical angepasst ist. Ein großer Blumenstrauß ohne sich im Speziellen mit den täglichen Problemen von Produktionsbetreibern und Maschinenbauern in dieser Subindustrie oder Segment ausschlaggebend beschäftigt zu haben. 

Ganz anders agieren Software Konzerne im IoT Segment. Stets bemüht, technologisch in Führung zu liegen, nicht zuletzt mit enormen Investments, bewerben sie Plattformanbieter, die Nutzer ihrer Infrastruktur sind, für die verschiedenen Verticals. Sie schließen diese Lücke zur schnellen Problemanalyse und -lösung der Unternehmen durch subindustrielle, teilweise sogar durch segmentspezifische Plattformanbieter. Vorteile entstehen dadurch für alle in diesem Szenario. Und sie können in Zukunft wohl weiter ausgebaut werden, denn Use Cases, die standardisiert für eine Subindustrie funktionieren, sind die Grundlage um kosteneffizient in Ökosystemen agieren zu können. Darüber hinaus können neueste Technologien beschleunigt in diesen Nischen zum Einsatz kommen, ohne den langen Weg über den breiten Marktansatz mit Nischensuche durch Use Cases nehmen zu müssen.

Marktplatzierung bleibt Priorität

Entsprechend momentaner Entwicklungen werden Anbieter von IoT-Plattformen auch zukünftig versuchen, ein möglichst großes Spektrum des Marktes abdecken zu können. Marktplatzierung als Priorisierung, ein durchaus gefährliches Spiel. Die Kundenschnittstelle steht für Stabilität, auch und gerade im IoT Markt. Wer diese durch schnelle, spezifische Use Cases und Applikationen besetzt, wird Transaktionskosten erzeugen können, die einen Wechsel der Plattform sehr teuer machen. Demnach empfiehlt es sich für horizontale Plattformanbieter (über mehrere Verticals oder gar nur eine Industrie hinweg) Nischenplattformen als Partner zu nutzen um das Ökosystem zu stärken. Die Software Konzerne machen es vor – immer den Kundennutzen im Vordergrund!

IoT und Compliance haben viel gemeinsam

„Sicherheit, Sicherheit, Sicherheit“, ist das derzeit beliebteste Mantra vieler Manager in der Industry of Things. Doch absolute Sicherheit gibt es nicht, sie ist ein Ideal. Allerdings kann es gelingen, das IoT bestmöglich zu nutzen und sich zugleich auf mögliche Konflikte vorzubereiten. Genau dabei hilft Compliance.

Fast alles ist smart – aber auch angreifbar

Wir wollen die ideale Welt erschaffen: Gerät und Mensch sind optimal vernetzt, Kommunikation ist einfach wie nie. In seinem Aufsatz The Computer for the 21st Century sinniert Mark Weiser über Smarthomes, Tablets und Co. Was für den Informatiker aus den USA 1991noch eine Science-Fiction-Vision war, ist längst Realität. Fast alles ist smart. Unsere Fabriken, unsere Telefone, selbst unsere Kühlschränke. Smart, aber eben auch angreifbar. Wer in dieser risikoreichen Welt wenig in die Sicherheit der Produkte und die Schulung seiner Mitarbeiter investiert, wird Probleme bekommen.

Potenzielle Risiken lassen sich auch mit einem funktionierenden Compliance Management-System erkennen und vermeiden. Dies geschieht heute nicht mehr, indem praxisferne Regeln penibel durchgesetzt werden. Vielmehr kristallisiert sich heraus, dass Normen, Einstellungen und Werte der Mitarbeiter die Erfolgsfaktoren sind. Der nächste Schritt: Weiterdenken, den Radius vergrößern. Compliance-Systeme richteten bisher den Scheinwerfer auf Anti-Korruption sowie Wettbewerbs- und Kartellrecht. Doch die Risiken verändern sich stetig. Auf der Agenda eines Compliance-Officers stehen inzwischen auch Fragen zu Steuern, Social Media, Exportkontrolle, Cybercrime oder Datenschutz. Dazu noch die sich verändernde Unternehmenskultur. So besteht Handlungsbedarf.

Welche Faktoren sind wichtig?

Wer wirksame Programme für solche Schwerpunkte entwickelt, sollte unterschiedliche Faktoren berücksichtigen. Beim Blick aufs Detail offenbart sich, dass Compliance und IoT viel gemeinsam haben:

Kommunikation

Das Internet der Dinge arbeitet als System – alles ist verbunden und in ständiger Kommunikation miteinander. Genauso funktioniert auch Compliance Management: Mitarbeiter und Führungsetagen sollten den steten Dialog pflegen und ein System entwickeln, Integrität und Werte greifbarer zu machen. Dabei sind alle Mitarbeiter idealerweise auf dem gleichen Wissensstand und Richtlinien werden regelmäßig aktualisiert.

Überwachung

Was zunächst nach NSA-Skandal klingt, ist weitaus harmloser. Das IoT ermöglicht uns, sämtliche verbundenen Geräte zu kontrollieren. Wir können etwa unser Zuhause mit IP-Kameras beobachten und fernsteuern. Überwachung spielt auch bei Compliance eine wichtige Rolle. Denn Prozesse müssen kontrolliert und gesteuert werden, um Unregelmäßigkeiten frühzeitig zu erkennen und einzugreifen. Klar verständliche Regeln helfen den Mitarbeitern, Anomalien leichter auf die Schliche zu kommen.

Einfachheit

Die direkte Verbindung zwischen Gerät und Mensch trägt dazu bei, Ideen schnell und einfach umzusetzen. Genauso sollte es auch mit Compliance-Richtlinien laufen: Sie müssen schnell umsetzbar und handhabbar sein, um sie in Betriebsabläufe alltagsnah zu integrieren. Als Hilfestellung und nicht als Hindernis. Und das portioniert für die Zielgruppe – denn nichts ist besser als bedarfsorientiert zu informieren; und nicht mit der Gießkanne.

Wachsamkeit

All diese Punkte sollen vor allem eines verbessern: die Sicherheit. Ob wir nun Wertsachen zu Hause oder Betriebsgeheimnisse im Unternehmen schützen wollen – ungeladene Gäste kommen nicht mehr nur durch Türen und Fenster. Sie nutzen Lücken im IT-System. Mit Überwachungskameras und Sicherheitssoftware allein ist es da nicht getan. Denn jeder noch so ausgeklügelte Kontrollmechanismus hat Grenzen und wird früher oder später ausgehebelt. Daher ist es umso wichtiger, sich eines bewusst zu machen: Nichts schützt besser vor Einbrechern als ein wachsamer Nachbar. Genauso ist es auch im Unternehmen: wachsame Mitarbeiter sind immer noch der beste Schutz vor Korruption, Wirtschaftskriminalität und Cybercrime.

Fazit

Dies illustriert, wie Compliance in der Industry of Things wirken kann. Vorausgesetzt, Unternehmen richten ihre Führungsstrategie an aktuellen Entwicklungen aus und beginnen an der zentralen Stelle: bei den Mitarbeitern. Dann kann Compliance auch in der vernetzten Welt erfolgreich unterstützen. Zugleich entwickelt sich ein integrierter und nachhaltiger Umgang mit der Thematik. Dieser Paradigmenwechsel ist nötig. Ganz ehrlich – es wird nie die absolute Sicherheit geben, ebenso wenig wie einheitliche, flächendeckende Compliance. Aber gemeinsame Faktoren, die sich andernorts bereits bewährt haben, lassen sich übertragen und optimieren. Hier ist kopieren und abgucken ausdrücklich erlaubt.

Zu den Autoren: Dieser Text wurde in Zusammenarbeit mit Stefan Schaffer, Partner im Fraud Investigation & Dispute Services in Eschborn, verfasst; sein Beratungsschwerpunkt liegt in der Konzeption von Management-Systemen zur IT-gestützten Betrugsprävention.

Analytics: Auswertung von Fahrzeugdaten verbessert die Verkehrssicherheit

IDC schätzt, dass bis 2020 im IoT 20,4 Milliarden vernetzte Geräte gigantische Datenmassen erzeugen. Der Analytics-Markt im Bereich IoT soll in dieser Zeit auf über 23 Milliarden US-Dollar anwachsen. Damit Unternehmen aus Zustands-, Positions- und Bewegungsdaten direkt schnelle Entscheidungen ableiten können, müssen diese Daten jedoch ohne Zeitverlust und ohne aufwendige Datentransfers ausgewertet werden.

Erfolgsfaktoren im IoT

Gemäß einer Studie des Internet of Things Institute (IoTi), die den Return on Investment (RoI) im Zusammenhang mit IoT-Daten untersucht, ist der wichtigste Erfolgsfaktor die effektive Nutzung von Analytics für die Entscheidungsfindung. 59 Prozent der „Leaders“ (und immerhin noch 33 Prozent aller Befragten) unter den Unternehmen, die bereits IoT-Technologie einsetzen, sehen darin ihre Stärke. Die Unterstützung durch die Führungsetage steht an zweiter Stelle mit 32 Prozent aller Nennungen. Darauf folgt die Kollaboration mit Kunden (31 Prozent) und Lieferanten (30 Prozent) sowie eine konkrete IoT-Strategie (29 Prozent).

Datenschutzkonform und relevant

Eine besondere Herausforderung stellt sich bei der Auswertung von Telematik- (und anderen personenbezogenen) Daten spätestens seit dem 25. Mai durch die Datenschutz-Grundverordnung (DSGVO), die sämtliche Unternehmen mit Kunden in der EU betrifft. Eine aktuelle SAS Studie zeigt, dass 93 Prozent der Umfrageteilnehmer meinen, noch nicht vollständig richtlinienkonform zu sein. Und weniger als die Hälfte (46 Prozent) der befragten globalen Unternehmen geht davon aus, dass sie bis zum Stichtag bereit sein wird. Anderseits erkennen die Befragten auch mögliche Vorteile in unterschiedlichsten Bereichen: 68 Prozent beispielsweise sehen in der Erfüllung der Richtlinien ein Potenzial, das Vertrauen zwischen ihnen und ihren Kunden zu stärken.

Sicheres Fahren und maßgeschneiderte Policen

Das Telematikunternehmen Octo Telematics stellt der Versicherungs- und Automobilbranche Big Data und Analytics Services bereit. Dafür sammelt Octo Telematics jede Minute Daten zu fast 200.000 Kilometern Fahrstrecke, darunter Werte zur Fahrzeugnutzung (beispielsweise, wie schnell ein Fahrer beschleunigt und bremst) und Unfalldaten. Auf Basis dieser Informationen hat das Unternehmen die weltweit größte Datenbank zum Fahrverhalten aufgebaut.

„Octo Telematics hilft dabei, das Versicherungsgeschäft im Zeitalter des vernetzten Verbrauchers neu zu gestalten“, sagt Gianfranco Giannella, COO bei Octo Telematics. „Unsere Lösungen ermöglichen es Versicherern, ihren Kunden maßgeschneiderte Policen anzubieten, und tragen gleichzeitig dazu bei, dass diese sicherer fahren. Die Intelligenz, die SAS Analytics liefert, bildet das Herzstück unseres Business. Indem sie sich nicht mehr auf statische Daten verlassen müssen, sondern dynamische oder Streaming-Daten auswerten können, erreichen Versicherer das, was wir ‚Internet of Insurable Things‘ nennen.“

Octo Telematics arbeitet mit Analytics, um Echtzeit-Services wie Risiko-Scores bereitzustellen. Mit diesen Dienstleistungen können Versicherer Risiken genauer einschätzen, ihre Prämien einpreisen und Unfälle besser beurteilen. Vergünstigungen für umsichtiges Fahren führen zum einen zu mehr Sicherheit auf den Straßen und bieten zum anderen die Option für relevante Interaktionen mit den Versicherungsnehmern.

Fazit

Bisher wurde IoT vorwiegend in Verbindung mit Konzepten wie Smart Grid, Smart Cities und vernetzten Fabriken betrachtet. Inzwischen zeigt sich jedoch zunehmend der Wert einer Analyse von Sensordaten – für verschiedenste Branchen. Telematikdaten, die aus Fahrzeugen ausgelesen werden, um Rückschlüsse auf das Fahrverhalten zu ziehen, sind nur ein Beispiel. Aber eines mit Wirtschaftsstärke: McKinsey hat der Auswertung von Fahrzeugdaten immerhin ein Umsatzpotenzial von 750 Milliarden Dollar jährlich bis 2030 bescheinigt.

EU-DSGVO erfordert transparente Netzwerke

Gestern, am 25. Mai, ist die Schonfrist für Unternehmen abgelaufen. Jetzt müssen Sie die DSGVO umgesetzt haben. Doch vier von fünf Unternehmen in Deutschland haben nach eigener Aussage die DSGVO-Deadline verpasst. Und selbst bis Ende des Jahres werden es voraussichtlich nur drei von vier Unternehmen schaffen, regelkonform zu werden, so Capgemini. Für Industrie-Unternehmen ist der Schutz von Daten mit Personenbezug eine besondere Herausforderung. Gerade im Rahmen des IIoTs (Industrial Internet of Things) und damit bei der Maschine-zu-Maschine-Kommunikation (M2M) fallen neben technischen, unpersönlichen Informationen auch personenbezogene Daten an. Industrie-Unternehmen müssen also unterscheiden, welche Daten unter die DSGVO fallen und welche nicht. So hat beispielsweise auch eine IP-Adresse bereits einen Personenbezug. Aber auch Maschinendaten enthalten oft Kennnummern, Standortdaten oder andere eindeutige Kennzeichen, die sich auf Personen wie den Maschinenführer beziehen lassen.

 Datenfluss im Netzwerk überwachen

Dementsprechend sollten Industrie-Unternehmen ihre Arbeitsabläufe nochmals genau auf die DSGVO-Konformität untersuchen. Ein wichtiger Aspekt sollte hierbei unbedingt die laufende Überwachung der Datenverarbeitungsprozesse sein. Denn wer zwischen „DGSVO-relevanten“ und nicht personenbezogenen Daten unterscheiden will, muss nachvollziehen können, welche Daten wann und wo ausgetauscht und verarbeitet werden. Dabei reicht es allerdings nicht aus, nur unmittelbar beteiligte Prozesse zu überwachen. Da die IT-Landschaften von Industrie-Unternehmen im Zeitalter des IIoT immer komplexer und Maschinen zunehmend voneinander abhängig sind, sollte das gesamte Netzwerk analysiert werden. Mit einem Netzwerk-Monitoring können sich Unternehmen einen vollständigen Überblick über alle Netzwerkaktivitäten in Echtzeit verschaffen. Sie können nachvollziehen, welche Daten zwischen den Maschinen ausgetauscht und wo sie gespeichert werden – etwa im Rechenzentrum oder in der Cloud. Diese Einsicht ist wichtig, um beispielsweise der Auskunftspflicht (Artikel 15) oder dem Recht auf Vergessenwerden (Artikel 17) der DSGVO nachkommen zu können.

Artikel 32 DSGVO verlangt ständige Verfügbarkeit von Daten

Aber auch der Artikel 32 der DSGVO ist ein wichtiger Paragraf, der die Überwachung des gesamten Netzwerks erfordert. Er schreibt unter anderem vor, dass personenbezogene Daten…

  • anonymisiert und verschlüsselt werden müssen
  • ihre Integrität nicht verlieren, vertraulich behandelt werden und Unternehmen fähig sind, die Verfügbarkeit der Daten und ihrer Datenverarbeitungssysteme sicherzustellen
  • im Falle eines Datenverlusts oder technischen Ausfalls schnell wiederhergestellt werden können
  • einem angemessenen Schutzniveau bei der Datenverarbeitung unterliegen und die Schutzmaßnahmen regelmäßig überprüft, bewertet sowie evaluiert werden.

Diese Anforderungen können Unternehmen nur erfüllen, wenn sie völlige Transparenz über alle Datenflüsse haben. Vor allem bei verschlüsselten Daten muss ganz genau hingeschaut werden. Es darf nicht passieren, dass personenbezogene Daten widerrechtlich an falsche Empfänger verschickt werden oder im Netzwerk „verloren gehen.“ Ebenso müssen Unternehmen potenzielle Netzwerkausfälle und drohenden Datenverlust frühzeitig erkennen können, um entsprechend schnell darauf zu reagieren.

Cyberattacken frühzeitig erkennen

Darüber hinaus stellen besonders Cyberattacken eine große Gefahr für den Datenschutz dar. Gerade sogenannte Distributed-Denial-of-Service (DDoS) -Angriffe bergen enorme Risiken für Unternehmen, die auf Netzwerke und Webseiten als integrale Bestandteile ihrer Geschäftstätigkeit angewiesen sind. Und dies trifft heute im Prinzip auf fast alle Unternehmen und deren Dienste zu, ob Online-Banking, Internet-Handel, Reisebuchungen, Patientenportale, Telekommunikation oder B2B-Lösungen. Server oder andere Komponenten werden im Falle eines Angriffs solange mit Anfragen, also mit Datenverkehr, überlastet, bis diese nicht mehr verfügbar sind. Wird das Netzwerk lahmgelegt, gestaltet sich auch der Zugriff auf sowie der Schutz von Daten schwierig. 2017 waren Unternehmen in der DACH-Region mit 22 DDoS-Angriffen pro Stunde konfrontiert. Wer also seinen Geschäftsbetrieb und auch die Sicherheitsanforderungen entsprechend Artikel 32 der DSGVO nicht gefährden will, muss sich auf solche Attacken vorbereiten. Ein netzwerkübergreifendes Monitoring kann Auffälligkeiten und Anomalien aufdecken bevor diese zu einem Netzwerkausfall führen.

Egal, ob Unternehmen die DSGVO bereits umgesetzt haben oder nicht, es bleibt die Herausforderung, bereits initiierte Schutzmaßnahmen auch kontinuierlich zu überprüfen. aus diesem Grund ist es wichtig, sich einen ständigen Überblick über alle Datenflüsse zu verschaffen. Denn nur dann sind Unternehmen in der Lage, Daten auch künftig DSGVO-konform zu verarbeiten.

Verwalten von Richtlinientipps

Richtlinientipps erstellen Sie am im Exchange Admin Center. Dazu gehen Sie folgendermaßen vor:

  1. Navigieren Sie im Exchange Admin Center zu „Verwaltung der Compliance/Verhinderung von Datenverlust“.
  2. Doppelklicken Sie auf eine der Richtlinien in der Richtlinienliste.
  3. Klicken Sie auf der Seite „DLP-Richtlinie bearbeiten“ auf „Regeln“.
  4. Zum Hinzufügen von Richtlinientipps zu einer vorhandenen Regel markieren Sie die Regel und klicken auf „Bearbeiten“.
  5. Zum Hinzufügen einer neuen leeren Regel zu einer DLP-Richtlinie, klicken Sie auf „Hinzufügen“ und dann auf „Weitere Optionen“.
  6. Zum Hinzufügen einer Aktion, zum Anzeigen eines Richtlinientipps, klicken Sie auf die Schaltfläche „Aktion hinzufügen“.
  7. Wählen Sie  „Absender mit Richtlinientipp benachrichtigen“ aus, und wählen Sie „Absender benachrichtigen, aber Sendevorgang zulassen“. Sie haben an dieser Stelle auch die Möglichkeit, festzulegen, dass Exchange den Anwender daran hindert die E-Mail abzusenden. Beide Aktionen lassen sich getrennt voneinander aktivieren und anpassen.
  8. Klicken Sie auf OK und auf Speichern. Die Benachrichtigung ist sofort aktiv.

Es gibt mehrere Optionen für Richtlinientipps, mit denen Exchange  E-Mails blockiert. Sie können verhindern, dass E-Mails den Postausgang des Absenders in Outlook verlassen.

  1. Navigieren Sie im Exchange Admin Center zu „Verwaltung der Compliance/Verhinderung von Datenverlust“.
  2. Doppelklicken Sie auf eine der Richtlinien.
  3. Klicken Sie auf der Seite „DLP-Richtlinie bearbeiten“ auf  „Regeln“.
  4. Zum Hinzufügen von Richtlinientipps zu einer vorhandenen Regel markieren Sie die Regel und klicken auf „Bearbeiten“.
  5. Zum Hinzufügen einer neuen leeren Regel, klicken Sie auf „Hinzufügen“ und dann auf  „Weitere Optionen“.
  6. Zum Hinzufügen einer Aktion, durch die ein Richtlinientipp angezeigt wird, klicken Sie auf die Schaltfläche Aktion hinzufügen.
  7. Wählen Sie im Dropdownlistenfeld den Eintrag Absender mit Richtlinientipp benachrichtigen aus, und wählen Sie die gewünschte Blockieraktion aus.
  1. Klicken Sie auf „OK“ und dann auf „Speichern“.

Neben dem Standardtext in Exchange können Sie auch einen benutzerdefinierten Text angeben, den Outlook den Anwendern anzeigen soll.

Fallstudie: Energieversorgung vor dem Blackout schützen

Kritische Infrastrukturen sind einer zunehmenden Vernetzung der Anlagen und Prozesse unterworfen. Die Auswirkungen dieser Entwicklung für die Cybersicherheit zeigte sich jüngst anhand der Hackerattacke auf die Netzwerke des Energieversorgers EnBW. Eine bislang unbekannte Hackergruppe hatte demnach die IT-Infrastruktur der EnBW-Tochter Netcom BW infiltriert. Doch auch die operative Prozessstabilität und Kontinuität sind betroffen. Dass beide Gefahrenpotentiale eine Rolle spielen, zeigen Ergebnisse aus dem Projekt eines kontinuierlichen Netzwerkmonitorings bei einem Energieunternehmen.

Bei einem deutschen Netzbetreiber wurde 2017 eine industrielle Anomalieerkennung zur lückenlosen Überwachung seiner Netzleittechnik installiert. Das Energiewirtschaftsunternehmen reagierte damit auf die zunehmenden Gefährdungen für  Steuerungsnetze der Anlagen (Industrial Control Systems, ICS). In der Netzleittechnik fanden sich mehrere Hundert Einzelkomponenten, die potentiell angegriffen werden können. Zudem begegnete das Unternehmen mit der Lösung den Anforderungen aus dem IT-Sicherheitsgesetz, dem Industriestandard ISO 27002 sowie den Empfehlungen des BDEW. Diese fordern sowohl eine lückenlose Detektion jeglicher verdächtiger Vorgänge in der informationstechnischen Infrastruktur, als auch die detaillierte Meldung von Vorfällen, welche die Versorgungssicherheit beeinträchtigen könnten.

Komplexität von Steuerungssystemen steigt

Seit Beginn des Netzwerkmonitorings wurden seit Inbetriebnahme Anfang 2017 mehrere Kommunikationsvorgänge in Echtzeit identifiziert, die zu Störungen der Versorgungssicherheit hätten führen können. Zu diesen Anomalien gehörten nicht nur sicherheitsrelevante Vorgänge. Es fanden sich zudem Kommunikationsstrukturen, die auf versteckte Netzwerkprobleme und Fehlkonfigurationen hinwiesen.

Im Bereich Cybersicherheit fanden sich beispielsweise unverschlüsselte SMB- und NetBIOS-Protokolle, die ungewollte Fernkonfiguration und Filesharing erlaubten. Zudem meldete die Anomalieerkennung unbekannte Kommunikation eines stark vernetzten Geräts mit externen IP-Adressen über SSH, ungesichertem FTP sowie HTTP.

Die Übertragungsqualität in der Netzleittechnik wurde wiederum durch verschiedene zuvor unbekannte Netzwerkfehler gefährdet. Hierzu gehörten u.a. Checksummen-Fehler, Retransmissions, fehlende Pakete in TCP-Handshakes und TCP-Verkehr nach Verbindungsende.

Die Anomaliedaten wurden automatisch nach Risiko bewertet und detailliert als PCAP gespeichert. Der Netzbetreiber konnte so binnen kürzester Zeit die forensische Analyse durchführen und die potentiellen Störungen abschalten.

Stabilität, Compliance und Cybersicherheit

Mit der industriellen Anomalieerkennung erlangte der Verteilnetzbetreiber vollständige Transparenz über Teilnehmer und Kommunikationsbeziehungen innerhalb seiner Netzleittechnik. Die industrielle Anomalieerkennung unterstützt als integraler Bestandteil des ISMS den Netzbetreiber damit auch nachhaltig und effizient beim Aufbau der Industrial Security entsprechend gesetzlicher und normativer Anforderungen.

Data Loss Prevention in Exchange 2016/Office 365

Verhinderung von Datenverlust ist ein Premium-Feature, für das eine Enterprise-Clientzugriffslizenz (Client Access License, CAL) erforderlich ist. Diese müssen Sie für Postfächer erwerben, welche diese Funktion nutzen wollen.

Mit den  Funktionen zur Verhinderung von Datenverlust können Sie verschiedene Kategorien vertraulicher Informationen festlegen. Beispiel dafür sind wichtige interne Daten wie Personalausweis- oder Kreditkartennummern. 

Sie müssen keine eigenen Regeln erstellen, sondern können vorgefertigte Regeln verwenden. Dazu bietet Exchange Vorlagen auf deren Basis Sie die Einrichtung starten.  

Navigieren Sie im Exchange Admin Center zu „Verwaltung der Compliance/Verhinderung von Datenverlust“, und klicken Sie auf „Hinzufügen“. Wählen Sie die gewünschte Vorlage aus, auf deren Basis die DLP-Richtlinie erstellt werden soll.

Wählen Sie über „Weitere Optionen“ die von Ihnen gewünschten Einstellungen aus. Der Standardmodus für eine Richtlinie besteht aus einem Test ohne Aktionen. Das heißt Exchange kann DLP einführen, ohne tatsächlich die E-Mails zu beeinflussen. Auf diese Weise lassen sich besser Tests durchführen.

Sie können nach der Erstellung der Richtlinie weitere Aktionen zur Vorlage hinzufügen. Die Richtlinien lassen sich jederzeit ändern. Sie können die Regeln in der Richtlinie nachträglich bearbeiten.

 

Netzwerk der Digitalen Zwillinge als „Facebook für Maschinen“

Stellen Sie sich ein Getriebe, eine Pumpe oder einen Filter vor. Je nachdem, ob Sie Hersteller, Anwender oder Service-Partner dieser Dinge sind, gibt es unterschiedliche Sichten, unterschiedliche Interessen und unterschiedliche Informationsbedarfe. Als digitales Abbild in einem Internet der Dinge kann dieser Digitale Zwilling alle diese unterschiedlichen Sichten bedienen, bei Bedarf von jedem Punkt der Erde.

Der Hersteller von Geräten möchte vermutlich mehr über die Verwendung seiner Produkte erfahren und möchte für die korrekte Verwendung die technischen Parameter bereitstellen. Idealerweise ist mit dem Gerät gleich ein Komponenten- und Ersatzteilkatalog verknüpft, so dass im Wartungsfall schnell die richtigen Original-Teile nachbestellt werden können. Davon profitiert auch der Service-Partner, der sofort sieht, welche Ersatzeile genau für dieses Gerät in der verbauten Ausstattung notwendig sind. Der Anwender möchte sich nicht in unzähligen, unterschiedlichen Hersteller-Portalen einloggen, um die Datenblätter und Wartungsanleitungen abzurufen. Ziel ist eine einzige Plattform, in der alle verwendeten Geräte zu finden sind und die Richtigkeit der Daten durch den Hersteller (as designed, as built) und den Service-Partner (as maintained) über den Lebenszyklus zentral zur Verfügung stehen.

Struktur des virtuellen Abbildes

Wie aber muss ein Digitaler Zwilling ausgestaltet sein, damit er den unterschiedlichen Anforderungen gerecht wird? Der Digitale Zwilling ist eine virtuelle Beschreibung über die Beschaffung, Funktionen und Prozesse von Dingen, die kontextsensitiv notwendig sind. Dafür bedarf es der Beschreibung der technischen Infrastruktur und des Ding-Modells über den gesamten Lebenszyklus von Design und Erstellung über Wartung und Pflege bis zum Ende des Produktlebenszykluses. Die Abbildung der technischen Infrastruktur ist notwendig, damit das Modell unabhängig verwendet werden kann. Die technische Infrastruktur lässt sich aufteilen in Prozesse, Stammdaten und Schnittstellen.

Digitale Infrastruktur für den Digitalen Zwilling
Abb. 1: Digitale Infrastruktur für den Digitalen Zwilling (Quelle: Trebing+Himstedt)

Die Prozesse beschreiben die Methoden und Verfahren wie z. B. Arbeitsanweisungen für Wartungsarbeiten. Stammdaten sind das Herz des Digitalen Zwillings, sie beschreiben die genaue Beschaffenheit des Dings im Internet der Dinge. Der Stammdatenpflege über den Lebenszyklus wird somit zukünftig ein noch wichtigerer Stellenwert zukommen, als es bereits heute ist. Saubere Stammdaten werden dafür sorgen, dass der Digitale Zwilling hilft, Arbeitsschritte und Prozesse zu vereinfachen. Die Beschreibung der Schnittstellen ermöglicht erst die automatische Anbindung und das Netzwerken des virtuellen Zwillings in einem Verbund von Zwillingen sowie den Austausch von Daten mit dem realen Pendanten.

Modellierung des Dings

Umgesetzt wird das Abbild hierarchisch strukturiert als so genanntes „Thing Model“. Dieses Modell bringt alle notwendigen Eigenschaften mit, um im Internet der Dinge Aufgaben zu übernehmen. Das Thing Model bildet zunächst die Struktur und das Modell des Originals ab. Dafür wird das Modell in unterschiedliche Schichten zerlegt, die als Vorlage für mehrere Zwillinge dienen können, also z. B. ein Auto hat vier Reifen und ein Lenkrad. Die einzelnen Templates werden dann wiederum mit Modell-spezifischen Details ergänzt, wie beispielsweise Stufenheck oder Fließheck, bis hin zum Lederlenkrad und dieses wiederum kann über den as-built-Prozess mit der Herkunft der Kuh für das Leder ergänzt werden. Diese Detailtiefe, die über den Lebenszyklus wächst, erlaubt es, bestimmte Funktionen über den digitalen Zwilling abzubilden. Also beispielsweise ist bekannt, welcher Dichtungsring in einer Pumpe verbaut ist und für welche Flüssigkeiten dieser Dichtungsring zugelassen ist – also z. B. keine Säuren. Diese Funktion hängt an dem Digitalen Zwilling der physischen Pumpe und kann so dafür Sorge tragen, dass im Prozess bestimmte Funktionsparameter eingehalten werden.

Dimensionen des Digitalen Zwillings
Abb. 2: Dimensionen des Digitalen Zwillings (Quelle: Trebing+Himstedt)

Über den Betrieb können dem Digitalen Zwilling dann auch Performance-Daten zugeschrieben werden. Neben beispielsweise Druck- oder Temperaturdaten oder den erwähnten Flüssigkeiten können und müssen auch Veränderungen am realen Produkt an der virtuellen Kopie dokumentiert werden. Also bspw. wenn bei der Wartung ein Bauteil getauscht wurde, wie der erwähnte Dichtungsring, der nun für Säuren geeignet ist, so dass der virtuelle Zwilling wieder dem realen Gegenstück entspricht.

Das SAP Asset Intelligence Network (AIN) als Teil des SAP Leonardo Portfolios bringt alle diese Dimensionen in einer cloudbasierten Netzwerkplattform zusammen. Hersteller können ihre Geräte mit den spezifischen Eigenschaften dort ablegen und als zusätzlichen Dienst „Verfügbar auf AIN“ für ihre Kunden zur Verfügung stellen. Dieses „AIN-ready“-Label kann zukünftig bereits ein wichtiges Verkaufskriterium und Alleinstellungsmerkmal sein. Aber auch Unternehmen, vor allem diejenigen, die sehr Asset-Intensiv sind, wie die Chemieindustrie, können von Ihrer Seite ein Netzwerk initialisieren und ihre Hersteller- und Service-Partner einladen, ihre Produkte als Digitalen Zwilling dort bereitzustellen. Das digitale Modell bleibt in jedem Fall das Gleiche nur die Rechtevergabe und Sichten ändern sich. Also doch kein Facebook, sondern eine Business-Plattform, die sich an (Geschäfts-)Prozesse und Sicherheitsanforderungen von Unternehmen ideal anpassen lässt.

Praxisrelevante Anwendungsfälle

Wie sähe ein typischer Anwendungsfall dafür nun aus? Ein Pumpenhersteller könnte seine Pumpe gemäß den as-designed- und as-built-Daten im Netzwerk bereitstellen. Zusätzlich verknüpft er die Pumpe mit Daten, wie den zugehörigen Ersatzteilen und ggfs. dem Vorgänger- und Nachfolger-Produkt. Die Dokumente hält er dort zentral auf dem neusten Stand. Außerdem nutzt der Hersteller die Plattform, um über Neuerungen (bspw. Software-Upates) proaktiv zu informieren. Der Chemiepark bindet diese Pumpe in seine Asset-Sicht ein und ergänzt den Zwilling mit Performance-Daten, die über die Sensoren gesammelt werden, also beispielsweise auch Stromverbrauch für den Pumpvorgang. Der Service-Partner wiederum bekommt eine Dienstleister-Sicht auf die Dinge. Neben regulären Wartungsintervallen können es auch vorausschauende Parameter sein, so ließe sich eventuell aus dem steigenden Stromverbrauch ablesen, dass die Pumpe bald eine Wartung benötigt, damit sie nicht ausfällt. Notwendige Ersatzteile können direkt über das Netzwerk bestellt werden, da der Hersteller bereits angegeben hat, welche Ersatzteile für diese Pumpe passend sind. Dieses Netzwerk aus Herstellern, Anwendern und Servicepartnern mit dem Digitalen Zwilling im Zentrum führt dann zu einer effizienteren Zusammenarbeit.