Archiv der Kategorie: IOT

Kundendaten in DSVGO-zertifizierter Blockchain

Ziel der Datenschutz-Grundverordnung (DSGVO) war es, die Datenregulierung in Europa zu vereinheitlichen und zu vereinfachen. Zudem sollten Endverbraucher ein größeres Mitspracherecht bei der Speicherung und Nutzung ihrer personenbezogenen Daten erhalten. Seit nunmehr fast zwei Jahren haben Kunden in Europa somit also das Recht, eine Änderung personenbezogener Daten zu verlangen, wenn diese nicht oder nicht länger stimmen. Per Definition handelt es sich immer dann  um personenbezogene Daten, wenn die Informationen in Verbindung zu einer Person stehen beziehungsweise im weitesten Sinne eine Aussage zu dieser Person enthalten. Mitunter können Unternehmen sogar dazu verpflichtet sein, bestimmte Daten komplett zu löschen. Unternehmen, die Blockchain-Technologie in Verbindung mit Kunden-Daten nutzen wollten, hatten somit ein Problem. Denn selbst simple Daten wie der Wohnsitz eines Kunden können nicht ohne Weiteres geändert oder gar gelöscht werden, wenn diese dezentral in einer Blockchain gespeichert werden. Wie es schien, schlossen sich Blockchain und DSGVO hier also aus.

Deutsches Unternehmen hat DSGVO-kompatible Blockchain-Lösung entwickelt

Nun ist es einem Unternehmen aus Deutschland allerdings gelungen, eine Plattform zu entwickeln, die Verbrauchern die Kontrolle über ihre Daten gibt und dennoch Blockchain-Technologie nutzt. „Endnutzer behalten die volle Handlungsmacht über ihre Daten und können entscheiden, welche Daten wofür und an wen weitergegeben werden“, sagt Sascha Hellermann vom Software- und Beratungsunternehmen Cocus, das die neuartige Lösung entwickelt hat. „Die Daten werden dezentral und kryptografisch abgelegt und schaffen eine sichere Identität, die für unterschiedlichste Szenarien und Services genutzt werden kann“, erläutert Sascha Hellermann.

Für Verbraucher bedeutet dies, dass sie Vorgänge wie Check-ins, Altersverifikationen, Zahlungen, Vertragsänderungen oder auch personalisierte Service-Angebote mit Hilfe der ownid-Lösung einfach per Klick selbst durchführen können. Somit sparen sie Zeit und Aufwand. Unternehmen können wiederum ihr Angebot erweitern, ihre Kosten senken und beispielsweise auch ihre Registrierungsprozesse optimieren. Die Lösung macht eine manuelle Dateneingabe seitens des  Kunden überflüssig. Selbst Passwörter müssen nicht mehr angelegt und gemerkt werden. Das dürfte letztlich auch zu einer höheren Conversion-Rate in Online-Shops führen. Derzeit liegt diese Quote in Deutschland gerade einmal bei 2 Prozent. Das bedeutet, dass von 100 Besuchern eines Online-Shops lediglich zwei etwas kaufen. Zum Vergleich: Ein gut frequentiertes Geschäft in Innenstadtlage erzielt 15-20 Prozent.

Dass die Conversion-Rate in Online-Shops bei 2 Prozent liegt, ist auch darauf zurückzuführen, dass nicht jeder Besucher der Webseite die Absicht hat etwas zu kaufen. Doch selbst beim Checkout geht in deutschen Online-Shops noch fast jeder zweite, eigentlich kaufwillige Kunde verloren – häufig, weil ein Benutzer-Konto angelegt werden muss. Mit der neuen Blockchain-basierten Lösung fallen derartige Benutzerkonten weg.

Datenhoheit für die User, mehr Umsatz und weniger Aufwand für die Unternehmen

Dank des modularen Aufbaus der Lösung, die bereits zum Patent angemeldet ist, können Unternehmen ihren Kunden je nach Bedarf eine individuelle Zusammenstellung von Funktionalitäten zur Verfügung stellen. Welche Informationen er welchem Unternehmen bereitstellt, entscheidet wiederum der User. Daten mit direktem Personenbezug werden dabei nicht in der Blockchain gespeichert. Der Kunde hat also stets die Hoheit über seine Daten und Unternehmen eine DSGVO-konforme Lösung, mit der sich Umsatz und Angebot erhöhen lässt und gleichzeitig den Aufwand reduziert. Richtig umgesetzt, bilden Blockchain und DSGVO offenbar doch ein gutes Team.

 

Testbeitrag

 

Er hörte leise Schritte hinter sich. Das bedeutete nichts Gutes. Wer würde ihm schon folgen, spät in der Nacht und dazu noch in dieser engen Gasse mitten im übel beleumundeten Hafenviertel?

Gerade jetzt, wo er das Ding seines Lebens gedreht hatte und mit der Beute verschwinden wollte!

Hatte einer seiner zahllosen Kollegen dieselbe Idee gehabt, ihn beobachtet und abgewartet, um ihn nun um die Früchte seiner Arbeit zu erleichtern? Oder gehörten die Schritte hinter ihm zu einem der unzähligen Gesetzeshüter dieser Stadt, und die stählerne Acht um seine Handgelenke würde gleich zuschnappen? Er konn

 

Sharing Economy für Daten? Raus aus den Silos – Free your Data!

„Sharing Economy“, „Platform Economy“ und natürlich die nicht totzukriegende Phrase von den Daten als dem „neuen Gold“, respektive dem „Öl des 21. Jahrhunderts“ prägen schon seit langem die Diskussion um die digitale Transformation. Dabei zeigt sich jedoch, dass es – gerade hierzulande – offensichtlich schwierig ist, diese Themen von einer rein theoretischen Betrachtung auf eine praktische Ebene zu hieven. In der Theorie mag das alles nachvollziehbar und vernünftig klingen, aber warum hapert es dann sooft an der Umsetzung in der Unternehmensrealität?

Daten als Kern der Plattformökonomie


In der Plattformökonomie geht es um die Etablierung von Standards, um die Schaffung von Netzwerkeffekten durch die Errichtung einer zentralen Plattform, die die Zugänge auf einem bestimmten Markt herstellt und damit kontrolliert – wir alle kennen die vielzitierten einschlägigen Beispiele von Uber („das weltgrößte Taxisunternehmen besitzt selbst kein einziges Taxi…“), Booking.com, Facebook, Amazon oder Google. Daten spielen hierbei eine ganz entscheidende Rolle. Nur durch deren Auswertung und durch den zielgerichteten Einsatz der daraus gewonnenen Erkenntnisse lassen sich die Kundenbeziehungen organisieren und das System insgesamt mit Leben füllen. Daten sind damit gleichzeitig DNA und zentrales Nervensystem der Plattformen.

Plattformökonomie: Gatekeeper mittels Daten

Der Plattformökonomie wird attestiert, dass sie tradierte Märkte aushebelt: Erfolgreiche Plattformen zwängen sich als Gatekeeper zwischen Endkunde und ursprünglichem Anbieter. Letztere verfügen zwar eigentlich über die notwendigen „Hard Assets“ – die Taxis, Hotels oder Content – werden somit aber gewissermaßen zum bloßen Zulieferer „degradiert“, mit entsprechenden Folgen für Autonomie und Ertragskraft. Wer diesem Schicksal enteilen will, hat nur die Chance, entweder eigene Plattformen zu gründen oder sich selbst mit entsprechenden Netzeffekten und datenökonomischen Instrumenten zu wappnen.

Skaleneffekte in der Datenökonomie

Die zentrale Frage lautet dabei stets: Wie lässt sich das eigene Leistungsversprechen durch die Verknüpfung mit Daten aufwerten? Entscheidend in diesem Kontext ist, dass nur der Zugang zu massenhaften Daten echte Wertschöpfung ermöglicht. Ein einzelner Datensatz ist stets wertlos. Werte entstehen in der Datenökonomie erst, wenn Verknüpfungen hergestellt und Muster identifiziert werden, wenn es gelingt, daraus die „Soft Assets“ zu schaffen, die das ursprüngliche Leistungsversprechen auf diese Weise entscheidend anreichern.
Schiere Größe ist in der Plattformökonomie wie überhaupt in der Digitalen Wirtschaft meist ein entscheidender Vorteil. Alle Technologieunternehmen, die heute die digitalen Märkte dominieren, haben ab einem bestimmten Zeitpunkt auf die Generierung von Skaleneffekten gesetzt. Für den hiesigen Mittelständler, selbst auch für die großen, global tätigen Unternehmen hierzulande, etwa aus dem Automobil- und Maschinenbau, stellt sich dann natürlich die Frage, wie es möglich ist, da mitzuhalten – auf den ersten Blick ein unmöglich erscheinendes Unterfangen. Im eigenen Verfügungsbereich sind meistens nur beschränkte Datenressourcen vorhanden. Wertzuwächse hängen gleichwohl aber sehr wesentlich von der Menge der verarbeitbaren Daten ab.

Synergieeffekte entstehen nur, wenn Daten aus ihren Silos befreit werden

Die Antwort darauf kann nur in der Erzeugung von Synergieeffekten liegen. Diese entstehen jedoch nur, wenn es gelingt, Daten aus ihren Silos zu befreien und für die Vernetzung freizugeben. In vielen Unternehmen werden Daten streng getrennt von einander vorgehalten. Das hat einerseits natürlich technische Gründe – die Hürden bei der Zusammenführung – Systeminkompatibilitäten, unterschiedliche Datenstrukturen und Dopplungen – erscheinen nicht selten beträchtlich. Andererseits stehen allzu oft auch Revierstreitigkeiten und Befindlichkeiten von „Provinzfürsten“ im Unternehmen einer Zusammenführung im Weg.

Jenseits des eigenen Horizonts

Natürlich muss es gelingen, diese Hindernisse aus dem Weg zu räumen, entweder durch gute Führungsleistung oder technisch, mittels ausgefeilteren technologischen Ansätzen zur Datenstrukturierung, etwa auch aus dem Bereich des maschinellen Lernens. Allein das wird in den meisten Fällen nicht reichen. Selbst wenn es gelingt, diese internen Erschwernisse zu beseitigen, ist der Bedarf an Daten und die Anforderungen an die Anzahl und Detaillierung von Datensätzen kaum von einem Unternehmen allein zu bewerkstelligen. Zukunftstechnologien wie Künstliche Intelligenz und Virtual Reality sind in großem Maße Daten getrieben. Wenn die einzige Quelle zu deren Erzeugung und Sammlung das eigene Unternehmen ist, dürfte das kaum ausreichen, um hier Erfolge zu erzielen.

Hoher Datenbedarf: Künstliche Intelligenz, Blockchain & Co

Insbesondere das Training von KI, im Wege von Deep Learning und mittels Künstlicher Neuronaler Netzwerke, erfordert riesige Mengen von Datensätzen. Nur wenn diese Vielfalt gewährleistet ist, kann es dem System gelingen, Muster zu identifizieren und „Erlerntes“ eigenständig auf neue oder wenigstens „verwandte“ Sachverhalte zu projizieren.

Sharing Economy für Daten

Daher gilt es, den Blick auch über den Tellerrand hinaus kreisen zu lassen und die notwendigen Synergien auch außerhalb des eigenen exklusiven Zugriffsbereich zu suchen. Vielleicht ist es notwendig, hier neue Formen der Kooperationen zwischen einzelnen, unter Umständen sogar konkurrierende Marktteilnehmern zu etablieren: eine Art „Sharing Economy“ für den Datenaustausch und den Betrieb gemeinsamer Datenplattformen. Denkbar wären beispielsweise Cloud basierte Lösungen, die Skalierungen und die Einbindung von Drittdaten sowie auch den Rückgriff auf externe Rechnerkapazitäten ermöglichen. Das Zusammentreffen von Machine- und Deep-Learning und nahezu unlimitierter, kostengünstiger Rechenleistung aus der Cloud könnte vielen Unternehmen einen “barrierefreien” Einstieg in die Arbeit mit Künstlicher Intelligenz ermöglichen.

Kooperationen in der Cloud?

Tatsächlich gibt es bereits erste derartige Kooperationen und Plattformen, die den gegenseitigen Austausch von Daten sowie auch kompletter Lern- und Trainingsmodelle für KI ermöglichen. NVIDIA, als Hersteller von Grafikkarten ursprünglich bekannt und groß geworden, betreibt etwa eine eigene Cloud basierte Plattform zum Simulieren und Testen des Fahrbetriebs autonomer Fahrzeuge. Zu den teilnehmenden Unternehmen gehören die großen Automobilhersteller, wie Daimler, Toyota, Audi und VW oder Tesla. Die „offene“ Plattform ermöglicht es, so NVIDIA, „selbstfahrende Autos, Lkws und Shuttles zu entwickeln und einzusetzen, die funktionssicher sind und nach internationalen Sicherheitsnormen zertifiziert werden können.“

Blockchain & KI

Auch aus der Kombination von Blockchain und KI ergeben sich Anwendungsszenarien. Das Berliner Start-Up XAIN arbeitet unter anderem mit Infineon zusammen, um Zugriffsrechte auf Fahrzeugfunktionen durch KI-Algorithmen zu regeln, ohne dass dabei private Daten der Automobilnutzer zentral gespeichert werden müssen. Über das so geschaffene Netzwerk können lokale KI-Algorithmen voneinander lernen, ohne Datenhoheit und die Privatsphäre der beteiligten Anwender zu tangieren.

Blockchain für Datentransaktionen

Das finnisch-schweizerische Unternehmen Streamr bietet den Blockchain basierten Zugang zu einer „Open-Source-Plattform für den freien und fairen Austausch der Echtzeitdaten weltweit“ an und will Datenströme auf diese Weise dezentral zwischen vielen möglichen Beteiligten handelbar machen. Auf diese Weise wäre ein breiter Austausch und der Zugriff auf eine Vielzahl von Daten insbesondere auch für Trainingszwecke möglich, der zudem auch einen finanziellen Anreiz für die Teilnehmer bereithält, ihre Daten zur Verfügung zu stellen. Ähnliche Ansätze existieren zu Hauf im Silicon Valley. Der dezentrale, „distribuierte“ Handel mit Daten ist von einer Reihe von Unternehmen bereits zum Geschäftsmodell erkoren worden. SingularityNET etwa bietet eine Plattform, auf der Entwickler ihre Leistungen im Austausch für andere KI-Dienste oder auch Krypto-Entgelte anbieten können.

Neues Denken erforderlich

Der Rückgriff auf solche Angebote und Verfahren setzt jedoch ein Umdenken, ein grundsätzlich anderes „Mindset“ voraus als vermutlich in den meisten Unternehmen derzeit vorherrscht. Natürlich auch bedingt durch gesetzliche Vorgaben wie DSGVO und ePrivacy-Verordnung, aber eben auch durch eine grundsätzlich restriktive Denkweise, tendieren viele Entscheider dazu, Daten als „exklusiv“ zu betrachten. Das freie und freigiebige Teilen des „Datengoldes“ erscheint vielen schlichtweg abwegig.

“Nur zusammen sind wir stark”

Doch wenn gleichwohl Daten immer ein exklusiver Vorteil innewohnt: in der digitalen Ökonomie lässt sich echter Wert nur durch Größe und vielfältige Anreicherung erzielen. Wenn – was die Regel ist – ein Einzelner dazu nicht in der Lage ist, bleibt nur, das Heil in der Kooperation und im intensiven gegenseitigen Austausch, auch gerade mit vermeintlichen Konkurrenten, zu suchen. Nur so könnte langfristig die Chance gewahrt wären, gegen die Technologie-Riesen aus USA und zunehmend auch aus China zu bestehen.

Daher gilt: Free Your Data – Gebt den Daten ihre Freiheit zurück!

Drohnen-Geschäft auf Höhenflug

Mit der Marktstudie „Analyse des deutschen Drohnenmarktes“ hat der Verband Unbemannte Luftfahrt (VUL) erstmals eine Untersuchung des deutschen Drohnenmarktes vorgelegt, die auf tatsächlichen Marktdaten beruht. Um die Ergebnisse der Studie zu verifizieren, wurden Experten von 20 deutschen Unternehmen interviewt, die am Drohnenmarkt tätig sind – unter anderem auch von FlyNex.

Die aktuelle Nachfrage am kommerziellen Markt bei sogenannten UAV (Unmanned Aerial Vehicle) beläuft sich in der Bundesrepublik auf etwa 404 Millionen Euro – und der wahre Boom kommt erst noch. Bis 2030 erwartet der VUL ein Marktwachstum auf knapp 2,5 Milliarden Euro. Das bedeutet ein jährliches Wachstum um 16 Prozent.

Einer der wichtigsten Faktoren für den Erfolg kommerzielle Drohnennutzung sind dabei Karten- und Flugdaten. Zentraler Ausgangspunkt bildet dabei immer die Planung von Flügen, basierend auf derzeit noch z.T. unklaren gesetzlichen Vorgaben. Das Leipziger Unternehmen FlyNex hat sich auf den Einsatz kommerzieller Drohnen-Einsätze spezialisiert. Damit ist FlyNex derzeit als einziger Anbieter für digitale Luftraumdaten, die für Drohnen und unbemannte Flüge gebraucht werden.

Immer mehr Branchen greifen auf die kosten- und zeitsparende Nutzung von Drohnen zurück. Nicht nur Forst- und Landwirtschaft, sondern auch Bau- und Energie-Unternehmen steigen wiederholend auf Drohnen um. Laut FlyNex sind es gerade Energienetzbetreiber und die Bauchwirtschaft, die hauptsächliche Nutzer und Auftraggeber für professionelle Drohnenpiloten sind. Insgesamt 19.000 Drohnen wurden von Unternehmen in 2018 schon zu kommerziellen Zwecken eingesetzt.

Das Wachstum für kommerzielle Anwendungen klingt vielversprechend. Es wird erwartet, dass der Markt im kommenden Jahrzehnt um ganze 22 Prozent pro Jahr auf über 400 Millionen Euro im Jahr 2030 anwächst. Schon heute zeigen von FlyNex erhobene Daten das wachsende Interesse an kommerzieller Drohnentechnologie und der dazugehörigen Software. Dieses Interesse schlägt sich unter anderem in den rasant steigenden Zahlen von beruflichen Drohnenpiloten nieder. Nutzten im vergangenen Jahr knapp 1.000 Anwender Software und Karten von FlyNex für den kommerziellen Einsatz, ist die Anzahl an professionellen Betreibern bereits um das Vierfache im Jahr 2019 gestiegen.

Sollte die VUL-Studie recht behalten steht der kommerziellen Drohnenbranche also eine rosige Zukunft bevor. Jedoch, und das bleibt zu betonen, ist auch hier ein wichtiger Faktor für die weitere Entwicklung, auf welche Auflagen und Vorschriften sich der Gesetzgeber und die Industrie in den nächsten Jahren einigen. Das Potenzial für geringere Wartungskosten und Zeitaufwand konnte schon bewiesen werden.

Die Cloud ist wesentlicher Treiber der digitalen Transformation

Viele Manager und Unternehmer winken genervt ab, wenn sie mit Buzzwords wie „Digitale Transformation“, „Digitalisierung“ oder auch „digitaler Wandel“ konfrontiert werden. Ihre ablehnende Haltung ist durchaus verständlich: Während es manchen Unternehmen bereits gelungen ist, ihr Geschäftsmodell, ihre Prozesse, ja sogar das Mindset ihrer Mitarbeiter zu „digitalisieren“, sieht die Realität im Gros der Unternehmen anders aus: Sie wissen eher schlecht als recht, an welchen Stellschrauben sie zuerst drehen sollen, um das Ruder in Richtung digital herumzureißen.

Digitalisierung ist in vollem Gange

Die Lünendonk-Studie „Fit für die digitale Transformation. Status quo und Ziele bei Legacy-Modernisierung und Cloud-Migration“, die in Zusammenarbeit mit Arvato Systems entstanden ist, gibt einen sehr detaillierten Einblick in die IT-Modernisierungsstrategien großer mittelständischer Unternehmen und Konzerne. Die Datenerhebung erfolgte im Herbst 2018 auf Basis von Telefoninterviews mit IT-Führungskräften von 122 Unternehmen aus dem gehobenen Mittelstand, Großunternehmen und Konzernen. Viele Unternehmen befinden sich inmitten eines weiteichenden Digitalisierungsprozesses, es gibt viel zu tun – und zwar gleich auf mehreren Ebenen. Neben der Strategie sind auch die Produktentwicklung, die Aufbau- und Ablauforganisation sowie die IT-Landschaft zu transformieren.

Start-ups haben strategische Vorteile

Wie zielführend und schnell das gelingt, hängt maßgeblich davon ab, wie lange ein Unternehmen bereits am Markt ist. Start-ups können ihre Business- und Operating-Modelle, ihre Prozesse und ihre IT-Landschaft von Beginn an agil, kundenzentriert und datenbasiert gestalten. Darin liegt im Übrigen auch der Erfolg der großen Internetkonzerne wie Google und Amazon begründet. Hier sind die Geschäftsprozesse eng miteinander verzahnt, über Microservices und APIs ist es möglich, Plattform-Geschäftsmodelle aufzubauen und Drittsysteme nahtlos an die eigene IT-Landschaft anzubinden. Zudem können sie auf einen großen Datenbestand zugreifen und gewinnbringend auswerten.

Etablierte Unternehmen müssen radikal umdenken

Demgegenüber stehen etablierte Firmen und Konzerne vor der Herausforderung, zunächst komplexe Legacy-Prozesse zu digitalisieren und inhomogene IT-Strukturen, basierend auf historisch gewachsenen Altsystemen, aufzulösen. Auch etablierte Unternehmen brauchen eine schnittstellenoffene, flexible, hochskalierbare und agile IT.

Dementsprechend kommt die Studie zu folgenden Ergebnissen:

  • Treiber der IT-Modernisierung gibt es viele: Legacy-Systeme sind üblicherweise nicht in der Lage, neue Technologien wie KI oder Big-Data-Analytics zu unterstützen, was eine Modernisierung dringend erforderlich macht. Erschwerend kommt hinzu, dass viele Altsysteme keine offenen Schnittstellen (APIs) haben und darum nicht mit neuen digitalen Lösungen integrierbar sind.
  • Die Mehrheit der befragten Unternehmen modernisiert aktuell ihre IT-Infrastruktur. Altanwendungen in die Cloud zu migrieren und sie anschließend zu modernisieren, ist dabei die präferierte Vorgehensweise.
  • Ein Fünftel der befragten Unternehmen setzt bereits auf eine Cloud-First-Strategie, gut ein Viertel plant dies. Auch wenn die meisten Unternehmen derzeit eine Private-Cloud nutzen, sind viele gegenüber der Public Cloud zunehmend aufgeschlossener. 67 Prozent der Befragten planen, ihre Investitionen in die Public-Cloud stark bis sehr stark zu erhöhen.
  • Die Gründe, aus denen Unternehmen ihre IT-Systeme in die Cloud migrieren, sind vielfältig. Sie wollen Lastspitzen abfangen, Daten schneller verfügbar machen und flexibler agieren können. Bedenken bestehen allerdings hinsichtlich Sicherheit. Für bestimmte, geschäftskritische Anwendungen mit sensiblen Daten ist und bleibt die Legacy-Modernisierung im On-premise-Modell eine realistische Alternative.
  • Für Dreiviertel der befragten Unternehmen ist es eine Herausforderung, Cloud-Lösungen an die bestehende IT-Systemlandschaft anzubinden. Dass Daten häufig nicht interoperabel und Security- sowie Compliance-Anforderungen nur mangelhaft umgesetzt sind, ist ein weiteres Problem. Bei der Modernisierung von Legacy-Systemen haben Unternehmen vornehmlich Schwierigkeiten, Sicherheitsanforderungen zu erfüllen. Zudem betrachten sie den möglicherweise hohen Zeitaufwand als kritischen Faktor.
  • Um ihre Unternehmensorganisation an die veränderte IT-Infrastruktur anzupassen, setzen 90 Prozent der Unternehmen auf eine stärkere Vernetzung von Bereichen, Prozessen und Systemen. Daneben bilden sie ihre Mitarbeiter fort und arbeiten verstärkt mit IT-Partnern zusammen. Zweidrittel der Befragten greifen auf DevOps zurück.

Investitionen in die Cloud erhöhen

Da es viele Unternehmen in der Vergangenheit versäumt haben, ihre Legacy-Systeme radikal zu modernisieren, ist der Handlungsdruck nun sehr hoch. Vor allem die Fachbereiche erwarten automatisierte Prozesse und vollintegrierte digitale Lösungen. Ein wichtiger Baustein der Modernisierung besteht darin, Altsysteme sukzessive cloudfähig zu machen beziehungsweise durch APIs und Microservice so zu verändern, dass sie hybride Modelle abbilden können. Dementsprechend investieren Unternehmen immer stärker in die Cloud.

Ohne externe Partner geht es nicht

Die meisten deutschen Unternehmen sind zwar auf einem guten Weg, benötigen bei der digitalen Transformation jedoch externe Unterstützung. Neue strategische Partnerschaften sind für die meisten der befragten Unternehmen eine wichtige Voraussetzung, um ihre IT digital aufstellen zu können. Der Mangel an IT-Fachkräften und der Zeitdruck sind jedoch zu groß, als dass Unternehmen dies alleine bewältigen könnten.

Die Ergebnisse der Studie sind unter https://www.arvato-systems.de/arvato-systems/beratung-innovation/innovation verfügbar.

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.

Warum die Welt nicht wirklich vernetzt ist – noch nicht.

Auch wenn es so aussieht, als würden wir in einer vollständig verbundenen Welt leben, sind wir es nicht. Und da das Internet der Dinge die Anzahl und den Umfang der angeschlossenen Geräte drastisch erweitert, bietet das traditionelle Modell der Kommunikationsverbindung nicht mehr die Flexibilität und Autonomie, die die Verwaltung von länderübergreifenden IoT-Projekten erfordert. Eigentlich benötigen Unternehmen ein einziges, globales Mobilfunknetz – oder zumindest eines, dass nahtlos erscheint.

Doch die Realität sieht anders aus: Das Internet der Dinge steckt noch in den Kinderschuhen. Im Moment ist die Konnektivität oft auf die Vertragsgefüge der Carrier beschränkt. Wenn AT&T beispielsweise nicht in einer bestimmten Region aktiv ist, haben AT&T-fähige Geräte eine zunächst einmal eine Verbindungsproblematik. Mit einer globalen IoT-Plattform können Geräte – unabhängig vom Standort – zu einem möglichst niedrigen Preis ständig verbunden bleiben oder für eine bestmögliche Konnektivität ständig verbunden werden.

Die Datennutzung nimmt sehr schnell zu, und die meisten Mobilfunkbetreiber können ihre Netze nicht im gleichen Tempo bereitstellen. Dadurch ergeben sich Möglichkeiten für Unternehmen, ihre eigenen globalen Konnektivitätsnetzwerke aufzubauen. Ein globaler Anbieter von virtuellen Netzwerken kann in allen wichtigen Jurisdiktionen tätig sein, in denen die meisten Mobilfunkbetreiber nicht erreichbar sind, wodurch ein wirklich globaler und flächendeckender Zugang zu Konnektivitätsdienstleistungen erst möglich wird.

Globale Auswirkungen

Das Internet der Dinge bietet Einblicke und erhellt Situationen, die bisher verborgen lagen: Transparenz und Einblicke in Aktivitäten vom verbesserten Flottenmanagement für Nutzfahrzeuge über den effizienten Betrieb von Fluggesellschaften bis hin zur verbesserten medizinischen Versorgung und vernetzten Fahrzeugen. Die Erschließung des Potenzials des Internet der Dinge (IoT) ist heute ein Schlüsselelement in digitalen Transformationsprogrammen für Unternehmen.

Nehmen wir ein Beispiel aus der Logistik: Sie geben ein Paket an DHL oder FedEx weiter und es landet an der Lieferadresse. Während es möglich ist, online einzusehen, wann und wo es angenommen wurde, ob es in einem Versanddepot liegt und ob es auf dem Weg zum Ziel ist, ist das nur ein Teil der Geschichte. Mit einem global vernetzten Netzwerk können verschiedene Sensoren, die den Standort des Pakets übermitteln, genau sagen, wo sich das Paket auf seiner Reise befindet und welche Umweltbedingungen während der Fahrt herrschen. Dadurch ergeben sich neue Geschäftsmöglichkeiten, etwa bei verderblichen Waren.

Jetzt können Unternehmen aus den Bereichen Logistik und Spedition sicherstellen, dass ihre Fahrer immer mit dem Heimatstandort verbunden sind. Und Manager können mit der Analysesoftware die wichtigsten Leistungsaspekte ihrer Flotten weltweit und zu jeder Zeit verfolgen und analysieren. Dies hat derivative Effekte wie niedrigere Versicherungsprämien und eine bessere Verfügbarkeit der Wartungsdaten.

So unterstützt beispielsweise die thailändische DRVR Unternehmen in Europa und Asien bei der Disposition von Fahrzeugen und senkt die Kraftstoffkosten. Die angeschlossenen Sensoren von DRVR können erkennen, ob die Tür eines Fahrzeugs für einen bestimmten Zeitraum offen war oder ob sich eine bestimmte Position außerhalb der zulässigen Grenzen befindet. Die Herausforderung besteht darin, dass es in den Gebieten, in denen die Kunden von DRVR unterwegs sind, mehrere lokale Mobilfunkanbieter gibt. Bisher ist der einzige Weg, auf Daten in all diesen Regionen zuzugreifen, ein Vertrag mit jedem Mobilfunkbetreiber in jeder Region. Das wäre teuer und ein operativer Alptraum. Mit einem globalen Netzwerk, das grenzüberschreitende Verbindungen bietet, wäre das kein Problem.

Ein weiteres Beispiel ist die Luftfahrtindustrie. Die Mitarbeiter benötigen eine Konnektivitätsplattform, die ein besseres Kundenerlebnis bietet, während sie den Betrieb in länderübergreifenden Einsätzen koordiniert. Unsere MOVE-Plattform hilft beispielsweise einer im Mittleren Osten ansässigen, global operierenden Fluggesellschaft, sicherzustellen, dass ihr Betrieb in jedem Teil der Welt funktionsfähig ist. Wir bieten lokale Mobilfunkbetreiberverbindungen und Betreiber-unabhängige Roaming-Kostenverwaltung und Signalstärke. Diese Vereinbarung hilft der Fluggesellschaft, die beste Servicequalität auf allen Kontinenten, auf denen ihre Flotten tätig sind, zu gewährleisten.

Die Automobilindustrie ist eines der besten, aber auch anspruchsvollsten Beispiele für das Potenzial eines globalen Netzwerks. Die Fähigkeit eines Fahrzeugs, sich mit der Außenwelt zu verbinden, verbessert ohne Zweifel das Fahrer- und Passagiererlebnis und bietet spannende neue Möglichkeiten für Dienstleistungen. Automobilhersteller, Versicherungen und Telematikanbieter haben ein großes Interesse an den Leistungsdaten eines Fahrzeugs, mit denen sie Aspekte des eigenen Betriebs und der Instandhaltung optimieren, Infotainment-Dienste der nächsten Generation mit zusätzlicher Sicherheit und immer größeren Mehrwert für den Fahrzeughalter bieten können.

Dennoch: Neue vernetzte Fahrzeuglösungen, insbesondere solche in der Anfangsphase, sind komplex und entstehen aus einer fragmentierten Kombination des Know-hows unterschiedlicher Anbieter. Die Herausforderung für den Automobilhersteller besteht darin, Anwendungsfälle zu entwickeln, die den Bedürfnissen seiner Kunden am besten entsprechen und diese mit höchster Effizienz und geringster Komplexität erfolgreich umzusetzen. Mit einer globalen, einheitlichen Integrationsplattform wie Tata Communications MOVE wird der Zugang zu 600 Mobilfunknetzen in 200 Ländern der Welt ermöglicht. Damit ist sichergestellt, dass die für „angeschlossene“ Geräte lebenswichtige Kommunikationsverbindung immer unter Kontrolle ist, während die Möglichkeit des Providerwechsels nicht mehr die logistischen und operativen Auswirkungen hat, die sie bisher hatte.

Zuletzt bietet das Internet der Dinge auch im Gesundheitswesen Vorteile mit sich. So können, je nach Konfiguration, alle Beteiligten (etwa Ärzte, Patienten und Mitarbeiter) Zugang zu den Daten und Anwendungen erlangen, die sie benötigen, wo und wann immer sie gebraucht werden. Dies ermöglicht es der ganzen Branche, einheitliche Standards in der Patientenversorgung aufrechtzuerhalten und auch neue Dienstleistungen, etwa die Telemedizin, auszuloten, die eine wichtige und wirtschaftliche Möglichkeit ist, Patienten in abgelegenen Gebieten und bevölkerungsärmeren Ländern zu erreichen.

Gerade können wir erleben, wie die vernetzte Gesundheitsversorgung in Asien zum Leben erwacht. Ein aktuelles Beispiel ist TaiDoc Technology, ein Hersteller von hochwertigen Medizinprodukten zur Verbesserung der Gesundheit und Lebensqualität der Menschen, der ein globales Netzwerk nutzt, um die Reichweite seiner Geräte auf Länder wie China, Thailand und die USA auszudehnen.

Hier ist das Fazit: Um ihr volles Potenzial auszuschöpfen, benötigen IoT-Geräte eine wirklich grenzenlose, sichere und skalierbare Konnektivität, die die Erfassung, Bewegung und Verwaltung von Informationen weltweit ermöglicht. Während die Mobilfunkverbindung eine effektive Grundlage für IoT-Dienste ist, sind die heutigen Mobilfunknetze von Natur aus lokal. Wir müssen ein globales Ökosystem der Konnektivität aufbauen, um die Einführung des IoT durch Unternehmen weltweit voranzutreiben.

In fünf Schritten zu Sicherheit und Stabilität in Kritischen Infrastrukturen

Das Mai 2018 in zweiter Fassung veröffentlichte Whitepaper »Anforderungen an sichere Steuerungs- und Telekommunikationssysteme« übersetzt die Highlevel-Forderungen aus dem deutschen IT-Sicherheitsgesetz und dem »Österreichische Programm zum Schutz Kritischer Infrastrukturen« (APCIP) in technische Anforderungen. Trotz des vergleichsmäßig hohen Detailgrades, auf den sich der deutsche Bundesverband der Energie- und Wasserwirtschaft (BDEW) und Österreichs Energie (OE) geeinigt haben, bleiben die Maßnahmen vage in der konkreten Umsetzung.

Das Whitepaper beschreibt auf 80 Seiten und in acht Maßnahmengruppen, wie die Prozess- und Netzleittechnik (PNLT) von Energie-, Wasserwirtschafts- und Öl/Gas-Unternehmen vor Störungen geschützt werden soll. Die Gruppen umfassen:

  1. Allgemeine Anforderungen (Sichere Systemarchitektur, definierte Verwaltungsprozesse, Sicherstellung der Datensicherheit und -integrität)
  2. Projektorganisation (Ansprechpartner, Tests, Datenspeicherung und -übertragung, Übergabeprozesse)
  3. Basissystem (Systemhärtung, Schadsoftware-Schutz, Authentifizierung, Virtualisierung)
  4. Netzwerk und Kommunikation (Protokolle, Segmentierung, Fernzugänge, Dokumentation)
  5. Anwendung (Rollen, Authentifizierung, Autorisierung, Umgang mit Webapplikationen, Integritätsprüfung, Logging)
  6. Entwicklung (Standards, Freigabe, Integrität)
  7. Wartung (Updates, Konfigurations- und Change Management, Sicherheitslücken)
  8. Datensicherung und Notfallplanung (Backup, Wiederanlauf)

Am Tagesgeschäft vorbei gedacht

Die Maßnahmengruppen des Whitepapers folgen damit der Architektur und Struktur der PNLT. Das Whitepaper verfehlt damit jedoch die Day-to-Day-Workflows und Zusammenhänge zwischen einzelnen Maßnahmen. Die Prozess- und Organisationslogik der IT/OT-Sicherheit wird nicht abgebildet. Insbesondere fehlt die Eingliederung in die etablierten Managementsysteme (wie QMS oder ISMS), die der Logik des kontinuierlichen Verbesserungsprozesses (Plan, Do, Check, Act) folgen. In der IEC 62443 wird dies zumindest in Teilen mit der Beschreibung der Risikoanalyse begonnen. In der Schweiz orientiert sich das »Handbuch Grundschutz für «Operational Technology» in der Stromversorgung« des VSE explizit am US-amerikanischen NIST-Standard. Dieser bricht die Cybersicherheit in Kritischen Infrastrukturen auf fünf logische Ebenen eines Defense-In-Depth-Konzepts herunter, die in einem Verbesserungsprozess münden:

  1. Identifizieren (Identify)
  2. Schützen (Protect)
  3. Erkennen (Detect)
  4. Reagieren (Respond)
  5. Wiederherstellen (Recover)

Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)
Abb. 1: Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)

BDEW-Whitepaper im Prozesskontext

Es ergibt daher Sinn, die Anforderungen des BDEW-/OE-Whitepapers auf die fünf Schritte des NIST-Frameworks zu beziehen.

Schritt 1: Identifizieren

Hinter dem Identifizieren verbergen sich alle Aspekte einer detaillierten Risikoanalyse. Der erste Schritt ist hierbei die Herstellung vollständiger Transparenz in Bezug auf:

  • Netzwerkstruktur
  • Komponenten, ihre Eigenschaften, Prozesse und Services
  • Bestehende Sicherheitslücken
  • Kommunikationsverbindungen (intern und mit externen Netzen)
  • Kommunikationsverhalten der einzelnen Komponenten
  • Kommunikationsprotokolle
  • Kommunikationsinhalte
  • Unterliegende Prozesse

Letztlich verbirgt sich hierunter vor allem die Maßnahmengruppe 4 »Netzwerk und Kommunikation«. Aber auch Aspekte der Gruppen »Allgemeine Anforderungen« (bestehende Sicherheits- und Monitoringstrukturen, Verwaltungsprozesse), »Projektorganisation« (Verantwortliche) und »Wartung« (Updates, Konfigurationen, Sicherheitslücken) fallen hierunter.

Grundsätzlich geht es darum, eine ganzheitliche Istanalyse der PNLT, organisatorischen Struktur und Gefährdungslage durchzuführen. Sie bildet die Basis, um festzulegen, worüber überhaupt gesprochen werden muss. Damit die nachfolgenden Schritte der Sicherung weder im Gießkannenprinzip ausgeführt werden, noch zu kurz gedacht werden, muss zwingend vollständige Transparenz hergestellt werden. Technologisch sollte hierbei über diesen Zeitraum der Istanalyse hinaus gedacht werden, denn auch im laufenden Betrieb der Sicherung, Erkennung und Reaktion steht und fällt die Handlungsfähigkeit der Verantwortlichen mit der Transparenz.

Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)
Abb. 2: Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)

Die Istanalyse ist auch nicht nur relevant, um die eigene PNLT besser zu verstehen. Sie offenbart in der Regel auch bestehende Engpässe, Gefährdungen und Fehlerzustände. In Stabilitäts- und Sicherheitsaudits, die wir regelmäßig in Kritischen Infrastrukturen im Rahmen der Erst- und Wiederholungsanalyse durchführen, finden sich im Schnitt rund 22 Gefährdungskategorien, die bislang den Verantwortlichen unbekannt waren. Die Analyse erfolgt hierbei mittels der industriellen Anomalieerkennung Rhebo Industrial Protector, die jegliche Kommunikation und Komponenteneigenschaften innerhalb der PNLT bis auf Inhaltsebene analysiert.

Schritte 2 und 3: Sichern und Erkennen

Diese Systemlösung bildet im Anschluss des Schrittes »Identifizieren« als Monitoring- und Detektionswerkzeug auch das Rückgrat der Sicherung der PNLT und des Erkennens von Störungen. Hierbei lernt die Anomalieerkennung das zu erwartende Verhaltensmuster der PNLT und analysiert die Kommunikation im Normalbetrieb auf Abweichungen (Anomalien). Wie vielfältig diese Anomalien ausfallen können, skizziert ein im März 2019 von der Allianz für Cyber-Sicherheit des BSI veröffentlichte Empfehlung zu Monitoring und Anomalieerkennung in industriellen Netzen. Die Anomalien werden in Echtzeit gemeldet und für die forensische Analyse inklusive der Rohdaten gespeichert.

Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen abgerufen (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo)
Abb. 3: Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen nachgeschaut werden (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo Industrial Protector)

Bei der Sicherung kommen hierbei die bekannten Mechanismen wie Segmentierung, Rollenkonzepte, Authentifizierung, Autorisierung, Prüfung der Datensicherheit und -integrität, Veränderungsmanagement, aktive Schadsoftware-Werkzeuge zum Einsatz. Diese sind im BDEW-/OE-Whitepaper über fast alle Kategorien verteilt. Im Sinne des Defense-in-Depth-Ansatzes, nach dem »Es gibt keine 100 prozentige Sicherheit.« die Basis aller Erkenntnis ist, übernimmt die Anomalieerkennung hier die Instanz eines durchgängigen Überwachungs-, Analyse- und Frühwarnsystems. Der Schutz der PNLT geht somit Hand in Hand mit der Fähigkeit, jedwede Veränderung zu detektieren. Denn nur was gesehen wird, kann auch abgewehrt werden. Das ist umso wichtiger in Infrastrukturen, die aus pragmatischen Gründen nicht auf Fernzugänge oder Webapplikationen verzichten können. Veränderungen betreffen hierbei nicht nur Vorfälle, die eindeutig als Sicherheitsgefährdung identifiziert werden können. Insbesondere wird auf die Fähigkeit hingewiesen, Vorgänge zu erkennen, die nicht durch die gängigen Blacklisting- oder Whitelisting-Konzepte abgedeckt werden. Diese Anomalien oder Abweichungen vom zu erwartenden Netzverhalten bergen bei täglich rund 400.000 neuen Schadprogrammen die eigentliche Gefahr.

Schritte 4 und 5: Reagieren und wiederherstellen

Diese Schritte werden im BDEW-/OE-Whitepaper nur sehr abstrakt behandelt, auch wenn sie im Tagesgeschäft die eigentliche Herausforderung darstellen. Über alle Kategorien wird auf die Notwendigkeit einer Notfallkonzeption verwiesen, konkrete Ansätze hierfür fehlen jedoch auch im eigentlichen Kapitel »Datensicherung und Notfallplanung«.

Eine sinnvolle Reaktion auf einen Vorfall im Sinne der Abwehr sowie internen und externen Kommunikation kann nur erfolgen, wenn alle Daten zum jeweiligen Vorfall vorliegen. Dazu gehören sowohl Details zu den Kommunikationsinhalten als auch Informationen zum Verlauf und den beteiligten Komponenten und Systemen. Die notwendige Vorfallsanalyse ist letztlich nur so gut, wie die Vorfallsdaten vollständig sind. Entsprechend hängen sowohl Effektivität der Reaktion als auch die Geschwindigkeit der Wiederherstellung und die kontinuierliche Verbesserung zur Steigerung der Resilienz maßgeblich von einer stichhaltigen und schnellen Analyse ab. Nicht zuletzt ist die Fähigkeit zur Analyse und Dokumentation auch für die Meldepflicht maßgeblich.

Verantwortliche in Kritischen Infrastrukturen sollten deshalb Überwachungssysteme auch danach bewerten, ob diese die Reaktion auf Vorfälle und die Wiederherstellung unterstützen. Dazu gehören:

  • Detailspeicherung von Anomalien mit Metadaten und Rohdaten;
  • Speicherung in universellem Format (z. B. PCAP), um Daten leicht teilen und programmunabhängig analysieren zu können;
  • universelle Schnittstellen (REST-API, Syslog u.a.) zur schnellen, verlustfreien Weiterleitung an andere Sicherheitssysteme (z. B. aktiv blockende Firewalls oder SIEM)
  • automatisierte Weiterleitungsregeln zur Unterstützung der unternehmensinternen Prozesse.

Auch diese Anforderungen können von einigen industriellen Anomalieerkennungen vollumfänglich abgebildet werden.

In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)
Abb. 4: In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)

Fazit

Wer das BDEW-/OE-Whitepaper umsetzen möchte, sollte auch weitere Empfehlungen (z. B. des VSE und des BSI) berücksichtigen, um gezielt und strukturiert die Anforderungen umsetzen zu können. Grundsätzlich sollte das Konzept der Defense-in-Depth verfolgt werden. Zu dieser gehört neben aktiven Absicherungswerkzeugen (Firewalls, Virenscanner, Datendioden) auch eine passive Monitoringkomponente in Form einer industriellen Anomalieerkennung. Die Chief Information Security Officers und IT-Leiter Kritischer Infrastrukturen erhalten die bislang fehlende Sichtbarkeit in ihre Netzwerke, ein proaktives Frühwarnsystem und schaffen eine fundierte Basis für das übergeordnete Netzwerk-Monitoring und die forensische Datenanalyse. Damit können sie ihre Prozess- und Netzleittechnik effektiv gegen Störungen wie Cyberattacken, Manipulation aber auch technische Fehlerzustände schützen und die Versorgungssicherheit gewährleisten.

In Kritischen Infrastrukturen ist Meldepflicht Selbstschutz

Die gesetzliche Pflicht, Störungen in den Netzwerken kritischer Infrastrukturen zu melden, wird oft als bürokratischer Aufwand wahrgenommen. Der vorgeschriebene Informationsaustausch zwischen kritischen Infrastrukturen und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) birgt ohne Zweifel Aufwände und Unklarheiten. Jedoch überwiegt der Mehrwert, der sich aus der Schwarmintelligenz ergibt. Je mehr Akteure über Gefährdungen berichten, desto mehr Akteure können sich gegen diese auch aktiv vorbereiten, bevor Störungen entstehen. So wird Meldepflicht zum Selbstschutz.

Der Mehrwert kann jedoch nur entstehen, wenn über den Tellerrand der gängigen Monitoring- und Sicherheitssysteme geschaut wird. Genau hier setzt das Prinzip des Defense-In-Depth an, das die gängigen Lösungen (Firewalls, Virenscanner etc.), die mittlerweile als Standard in jeder Kritischen Infrastruktur angenommen werden können, um Abwehrmechanismen erweitert, die auch das Unbekannte sichtbar machen.

Dass bislang unbekannte Angriffs- und Störungsmuster in Zukunft eine entscheidende Rolle bei der Gefährdungslage spielen, zeigten nicht zuletzt die mehrstufigen, lange Zeit verborgen agierenden Kampagnen Industroyer und Dragonfly 2.0. Während mit Dragonfly 2.0 Angreifer über Monate bis Jahre Kritische Infrastrukturen auch in Deutschland ausspioniert haben, legte Industroyer 2016 die Stromversorgung Kiews für mehrere Stunden lahm.

Auf der Suche nach dem Unbekannten

Genau hier liegt auch die größte Unklarheit für die Informationssicherheitsbeauftragten in kritischen Infrastrukturen. Das IT-Sicherheitsgesetz (und damit das EnBW, AtG und BSIG) fordert eine Meldung von »erheblichen Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse, die zu einem Ausfall oder einer Beeinträchtigung der Funktionsfähigkeit der von ihnen betriebenen Kritischen Infrastrukturen führen können oder geführt haben.«

Die Formulierung birgt zwei Unschärfen, mit denen Betreiber zu kämpfen haben:

  1. Wie sollen Störungen erkannt werden, die erst langfristig zu einer Beeinträchtigung führen könnten, zum Beispiel Advanced Persistent Threats?
  2. Wie kann bewertet werden, ob die Beeinträchtigungen durch eine Störung erheblich sein könnten?

Auf der FAQ-Seite des BSI findet sich zur ersten Frage lediglich der Hinweis: »Werden Angriffe auf die Kritische Infrastruktur unter Verwendung von neuartigen, außergewöhnlichen, zielgerichteten oder aus technischer Sicht bemerkenswerten Angriffsverfahren entdeckt, muss davon ausgegangen werden, dass eine Einwirkung auf die Kritische Infrastruktur möglich ist, sobald sich die Angreifer dazu entschließen«.

Auch bei der Frage, was »erheblich« bedeutet, sind Informationssicherheitsbeauftragte weitestgehend auf sich gestellt: »Eine eindeutige, umfassend geltende Antwort, wann eine Störung erheblich ist, ist nicht möglich. Stattdessen ist es erforderlich, dass die Verantwortlichen in KRITIS-Unternehmen Einzelfallentscheidungen treffen«.

Aus unseren Erfahrungen des Monitorings von Leitsystemen und Netzleittechnik mittels industrieller Anomalieerkennung wissen wir, dass weder versteckte Angriffe noch offene Sicherheitslücken eindeutig erkannt und eingeschätzt werden. Hinzu kommt, dass die Entwicklungen der Digitalisierung und des Smart Grid zu immer komplexeren Kommunikationsstrukturen führen, die neben Sicherheitsgefährdungen auch die Wahrscheinlichkeit technischer Fehlerzustände erhöhen.

Wer entscheiden will, muss sehen können

Betreiber benötigen somit Werkzeuge, die zwei Dinge ermöglichen:

  1. Vorgänge erkennen, die durch gängige Sicherheitslösungen mit Blacklisting- oder Whitelistingansatz übersehen werden.
  2. Vorgänge dahingehend bewerten, ob diese (erhebliche) Beeinträchtigungen hervorrufen könnten.

Netzleittechnik und Leitsysteme sind von einer deterministischen Kommunikationsstruktur geprägt. Dadurch können zum Beispiel mit einer industriellen Anomalieerkennung alle Vorgänge erkannt werden, die in irgendeiner Form vom deterministischen Grundmuster abweichen. Ein gutes Monitoringsystem erkennt bei den sicherheitsrelevanten Vorfällen u.a. neue:

  • Netzteilnehmer oder Kommunikationsbeziehungen;
  • Verbindungen zum Internet;
  • Protokolle;
  • Befehlsstrukturen sowie Netzwerkscans.

Hinzu kommen sowohl bestehende CVE-Sicherheitslücken an Geräten und Software, als auch Netzstörungen, die keine IT-Sicherheitsvorfälle sind, aber an das BSI gemeldet werden müssen. Zu letzteren gehören Konfigurations- und Kommunikationsfehler sowie andere technische Fehlerzustände, die sich beispielsweise aus der Abnahme der Netzwerkqualität ergeben. Gefährdungen jeglicher Form werden somit in ihrem frühesten Stadium erkannt und in Echtzeit gemeldet.

Die Bewertung der Vorfälle wird durch die industrielle Anomalieerkennung über verschiedene Stufen ermöglicht. Zum einen wird jede Meldung in Sicherheit oder Netzwerkqualität kategorisiert. Des Weiteren erhält jede Meldung eine Risikobewertung in Abhängigkeit von Kommunikationsvorgang und betroffenen Komponenten. Schlussendlich wird jede Meldung inklusive der Rohdaten als frei exportierbares PCAP gespeichert. Somit ist eine umgehende forensische Analyse auf einer vollständigen, nachvollziehbaren Datenlage für alle Stakeholder möglich. Informationssicherheitsbeauftragte können damit auf jede potentielle Gefährdung reagieren, bevor es zur Beeinträchtigung kommt.

Unternehmenssicherheit: Insider Threats erfolgreich abwehren

Moderne Systeme für Dynamic Data Protection helfen dabei, Daten vor Verlust und Diebstahl verlässlich zu schützen. Sie ermöglichen flexible und dynamische Sicherheitsmechanismen auf Basis eines individuellen Risiko-Scores. Auf diese Weise lässt sich die höchstmögliche Produktivität der Mitarbeiter beibehalten und ein maximaler Schutz der Daten sicherstellen.

Das größte Risiko für die Datensicherheit in Unternehmen kommt von innen – durch so genannte Insider Threats. Dabei lassen sich verschiedene Arten von Bedrohungen unterscheiden: Häufig begünstigen Mitarbeiter unwissentlich oder unbeabsichtigt die Abwanderung sensibler Unternehmensdaten. Beispielsweise können durch die arglose Mitnahme und fahrlässige Verwendung von firmeninternen USB-Sticks oder anderen Datenträgern betriebliche Informationen in fremde, unberechtigte Hände gelangen. Ein weiterer Risikofaktor ist der absichtliche Datendiebstahl durch Firmenangehörige: In diesem Fall handeln die Täter mit Vorsatz oder kriminellem Motiv und nehmen einen Schaden für das Unternehmen durch die Veruntreuung von Daten bewusst in Kauf. Eine dritte Kategorie von Bedrohungen sind kompromittierte Anwender. Dabei haben sich Kriminelle Zugang zu den Anmeldedaten eines Mitarbeiters verschafft und missbrauchen diese für Angriffe.

Eine Möglichkeit zur Abwehr der Risiken bieten Lösungen für Data Loss Prevention (DLP). Sie beinhalten herkömmliche Funktionen für Identitätsmanagement, Monitoring, Verschlüsselung sowie Zugriffskontrolle. Zudem steuern und überwachen sie Nutzer-Aktivitäten und bieten Mechanismen, um Datenströme im Unternehmensnetzwerk zu filtern und zu schützen. Konventionelle DLP-Systeme sind aber in der Regel sehr starr und bieten nicht die nötige Dynamik, um auf die verschiedenen Spezies von Insider Threats adaptiv zu reagieren. Die Lösungen fokussieren häufig nur den reinen Infrastrukturschutz oder die Abwehr von externen Gefahren. Dabei nutzen sie meist statische Auswertungen, die sich nicht flexibel an verschiedene Arten von Benutzern und Transaktionen anpassen und dadurch zusätzliche Sicherheitslücken verursachen. So verwenden solche Systeme für alle User immer die gleichen Policies und Richtlinien, verbieten von vornherein bestimmte Aktionen und schränken dadurch die Produktivität der Mitarbeiter erheblich ein. Überdies senden die meisten DLP-Lösungen an die Sicherheitsverantwortlichen in Unternehmen eine riesige Anzahl von teilweise unnötigen Alerts, auf die reagiert werden muss. Dies erhöht den Administrationsaufwand und verursacht zusätzliche Kosten.

Sicherheit im Einklang mit Produktivität und Effizienz

Einen weitaus effektiveren Schutz vor Insider Threats bieten moderne Lösungen für Dynamic Data Protection (DDP). Sie schneiden interne Sicherheitsrichtlinien ohne Zutun eines Administrators automatisch und adaptiv auf alle Nutzer oder Geräte zu. Dadurch können Unternehmen die Sicherheit ihrer Nutzer und Daten lückenlos mit den Anforderungen an Produktivität und Effizienz in Einklang bringen. Das Besondere: Flexibel und individuell passen DDP-Systeme die Reaktion auf einen Sicherheitsvorfall anhand des jeweiligen Risikos an. Auf diese Weise wird der momentane Sicherheitslevel automatisch und situativ an die jeweiligen Anforderungen angeglichen. Dabei besteht die Möglichkeit, dynamisch und je nach Rolle oder Verhalten eines Mitarbeiters spezielle Policies zu generieren.

Ein Beispiel: Eine bestimmte Person darf interne Daten auf einen USB-Stick kopieren und diesen mit nach Hause nehmen, um dort beispielsweise an einer Firmenpräsentation weiterzuarbeiten. Handelt es sich jedoch um kritische oder sensible Unternehmensdaten, besteht ein höheres Risiko. In diesem Fall regelt eine Richtlinie, dass der Mitarbeiter die Daten nur verschlüsselt kopieren darf. Ein weiteres Szenario beschreibt noch höhere Sicherheitsanforderungen: Hat ein Betriebsangehöriger bereits ein auffälliges Verhalten gezeigt – zum Beispiel durch einen versuchten Zugriff auf Daten, für die er nicht berechtigt ist – ist höchste Vorsicht geboten. Dann sollte eine entsprechende Policy ihm die Mitnahme von Daten komplett verbieten.

Risiko-Score resultiert aus Nutzerverhalten

Grundlage der Erkennungsmechanismen ist die Technologie „User and Entity Behaviour Analytics“ (UEBA). Die DDP-Lösung beobachtet dabei das Verhalten der Nutzer, definiert daraus automatisch einen bestimmten Risiko-Score und passt die Berechtigungen des Betroffenen adaptiv an die jeweiligen Risiken an. Beschäftigte mit geringem Risikofaktor verfügen dann über mehr Rechte und können dadurch produktiver arbeiten. Besonders wichtig ist es dabei auch, bestimmte Verhaltensänderungen eines Mitarbeiters zu erkennen. Greift er beispielsweise von einem anderen Ort als üblich auf Daten zu oder meldet er sich von einem bisher nicht genutzten Gerät an, wird ein erhöhtes Risiko festgestellt. Das DDP-System ist hierbei in der Lage, die jeweiligen Datenpunkte zu identifizieren und zu korrelieren. So lassen sich potenzielle Probleme und Bedrohungen frühzeitig erkennen und gezielt Gegenmaßnahmen einleiten. Beim Einsatz einer solchen Lösung ist jedoch das berechtigte Interesse von Mitarbeitern auf Privatsphäre gegenüber des zu erwartenden Schadens abzuwägen.

Dabei wird der Risiko-Score herangezogen, um die jeweilige Berechtigung des Users passgenau zu definieren, um also den Datenzugriff lediglich zu überwachen und zuzulassen, ihn zu verschlüsseln oder vollständig zu blockieren. So werden beispielsweise die Security-Experten im Unternehmen in hohem Maße entlastet. Diese können sich durch den hohen Automatisierungsgrad und die adaptiven, risikobasierten Anpassungen ganz auf relevante, auffällige Aktivitäten konzentrieren. Zudem lässt sich die benötigte Zeit für die verlässliche Erkennung von Risiken und Bedrohungen auf nur wenige Sekunden reduzieren.

 

Fazit

Insider Threats zählen zu den größten Risiken für die Sicherheit von Unternehmensdaten. Herkömmliche Security-Tools wie etwa DLP-Systeme reichen meist nicht mehr aus, um die Bedrohungen effektiv abzuwehren. Hilfreicher sind moderne Dynamic-Data-Protection-Lösungen, die auf einem risikoadaptiven Ansatz basieren. Sie richten sich nicht nach starren Policies, sondern passen sich dynamisch an das Verhalten der User und die damit verbundenen Risiken an. Dies wirkt sich positiv auf die Produktivität aus und gewährleistet gleichzeitig den optimalen Schutz der Daten.