Archiv der Kategorie: IOT

Start des ersten Thüringer Produktionsnetzwerkes

Am 11. September 2019 wurde mit der Unterzeichnung der Kooperationsvereinbarung in Gotha ein Produktionsnetzwerk gegründet. Es vereint die vier Fertigungsunternehmen NOBLEX GmbH aus Eisfeld, IWB Industrietechnik GmbH aus Gotha, Bonsack Präzisionstechnik GmbH aus Brotterode und Sczesny Werkzeugbau GmbH aus Jena. Künftig wollen die Unternehmen gemeinsam Produkte herstellen. Die Grundlage hierfür liefert das Forschungsprojekt „AgiPro“ der TU Ilmenau, welches von der Thüringer Aufbaubank gefördert wird.

Thüringen besteht zu einem großen Teil aus kleinen und mittleren Unternehmen (KMU). Diese sind eine der Stärken des Freistaats, denn sie sind flexibel und durch die typischen Strukturen in KMU adaptions- und anpassungsfähig. Dennoch zögere man als Unternehmer bei der Annahme von Großaufträgen, berichten die anwesenden Geschäftsführer der beteiligten KMU. Zu groß sei die Gefahr einer Fehlkalkulation und die Möglichkeit der Entstehung von Engpässen. Die Arbeit im Netzwerk bietet eine Lösung.

Netzwerk statt Plattform

Im Netzwerk können die Unternehmen ihre Kapazitäten austauschen. Hat ein Unternehmen keine Kapazität, aber einen großen Auftrag, so kann es die Fertigung beispielsweise zum Teil im Netzwerk erledigen lassen. Auf der anderen Seite können Unternehmen, die gerade freie Kapazitäten haben, durch Aufträge aus dem Netzwerk profitieren. Aber warum ausgerechnet ein Netzwerk? Wäre eine Plattform nicht ebenfalls eine Lösung? Das habe man bereits versucht, so Roger Steiner, einer der Geschäftsführer der NOBLEX GmbH. In sogenannten Kapazitätsbörsen hätte man als KMU aber eher geringe Chancen. Es sei undurchsichtig und die Preise werden so weit gedrückt, dass die Fertigung letztendlich unwirtschaftlich wäre.

Anders im Netzwerk. Hier sind die Unternehmen miteinander verbunden, die Vernetzung erfolgt – im Gegensatz zu statischen Plattformen – aber ereignis- bzw. bedarfsorientiert. Hierfür sind gewissen Transparenzen nötig, die Unternehmen müssen wissen, welche Partner gerade wie viel freie Kapazitäten haben. Wie groß sind die Maschinen die gerade frei sind? Wie lange können sie eingesetzt werden? Dank Digitalisierung sind diesen Auskünfte in Echtzeit möglich. Und das erleichtert auch die Preisbildung. Anders als bei Plattformen geht es bei dem sogenannten „Peer-to-Peer“-Netzwerk nicht um Konkurrenzdenken, sondern um Gleichberechtigung und dynamische Zusammenarbeit. Auf diese Weise können auch Großaufträge wirtschaftlich von KMU bearbeitet werden.

Wie funktioniert das in der Praxis?

Mehrere Unternehmen haben bei kurzfristigem Bedarf im Verbund höhere Produktionskapazitäten als ein einzelner. Das Netzwerk erhöht die eigenen Kapazitäten eines Unternehmens also um Fremdkapazitäten. Die Höhen und Tiefen, die kurzfristige Planungsänderungen bei der Ressourcenauslastung der Produktionsbereiche hervorrufen, werden so abgefedert und große Aufträge müssen nicht abgelehnt, sondern können gemeinsam gemeistert werden. Voraussetzung ist eine möglichst genaue Kenntnis der Auftragssituation, der Durchlaufzeit und der Bestände im Verbund. Die Prozessaufnahme und das Monitoring sind also der erste Schritt, den die vier Unternehmen gehen. Dann wird eine Middleware aufgebaut, die die Schnittstelle zwischen den Unternehmen darstellt. Eine besondere Herausforderung hierbei sind die unterschiedlichen ERP-Systeme, die in den teilnehmenden KMU vorhanden sind. Digitale Abbilder von im Unternehmen vorhandenen Maschinen bzw. Maschinengruppen ermöglichen die Netzwerkarbeit. Ein Reglersystem unterstützt die beteiligten Unternehmen bei der dynamischen Preisfindung. Die KMU legen selbst fest, welche Kriterien sie für den Austausch benötigen, welche Schnittstellen sie freigeben (wollen) und wie die Regeln für die Auftragsvergabe im Netzwerk sind. Möglich gemacht wird dies von der Berghof Group GmbH, einem KMU aus Königsee in Thüringen. Am Markt gäbe es eine hohe Nachfrage nach solchen Softwarelösungen, so Steffen Berghof, Geschäftsführer des Unternehmens.

Der Startschuss für die Zusammenarbeit

Am 11.September 2019 wurde bei der IWB Industrietechnik GmbH in Gotha feierlich die Kooperationsvereinbarung unterzeichnet und damit der Grundstein für das erste Thüringer Produktionsnetzwerk gelegt. Der Vertrag sichert den Teilnehmern zu, ungeachtet der Kooperation selbstständige Unternehmen zu bleiben und betont den Wert der vertrauensvollen Zusammenarbeit. Die Netzwerkteilnehmer verpflichten sich, sich an die von ihnen festgelegten Regeln zu halten, ihre Mitarbeiter entsprechend zu qualifizieren und die Leistungen termingerecht und in hoher Qualität abzuliefern.

Die Unternehmen nutzen mit der Teilnahme ihre Chance, neueste Technologien auszuprobieren. Daten aus den ERP-Systemen werden in Form eines digitalen Schattens abgebildet, wodurch Simulationen durchgeführt und als Hilfe für Entscheidungen genutzt werden können. Die im Rahmen des Forschungsprojektes entwickelte Middleware und die gewonnenen Erkenntnisse sollen in Zukunft auch anderen Unternehmen beim Aufbau ähnlicher Netzwerke helfen.

Neben dem horizontalen Produktionsnetzwerk steht mit „AgiLief“ auch die Idee eines vertikalen Netzwerkes in den Startlöchern. Ein entsprechender Antrag für Fördermittel wurde bereits von der TU Ilmenau beim Land Thüringen eingereicht.  

Auf dem Bild v.l.n.r.: Tobias Bonsack (Bonsack Präzisionstechnik GmbH), Jörg Hoffmann (Sczesny Werkzeugbau GmbH, Roger Steiner (NOBLEX GmbH) und Ralf-Peter Kroschel (IWB Industrietechnik GmbH) unterzeichnen die Kooperationsvereinbarung

Drohnen-Geschäft auf Höhenflug

Mit der Marktstudie „Analyse des deutschen Drohnenmarktes“ hat der Verband Unbemannte Luftfahrt (VUL) erstmals eine Untersuchung des deutschen Drohnenmarktes vorgelegt, die auf tatsächlichen Marktdaten beruht. Um die Ergebnisse der Studie zu verifizieren, wurden Experten von 20 deutschen Unternehmen interviewt, die am Drohnenmarkt tätig sind – unter anderem auch von FlyNex.

Die aktuelle Nachfrage am kommerziellen Markt bei sogenannten UAV (Unmanned Aerial Vehicle) beläuft sich in der Bundesrepublik auf etwa 404 Millionen Euro – und der wahre Boom kommt erst noch. Bis 2030 erwartet der VUL ein Marktwachstum auf knapp 2,5 Milliarden Euro. Das bedeutet ein jährliches Wachstum um 16 Prozent.

Einer der wichtigsten Faktoren für den Erfolg kommerzielle Drohnennutzung sind dabei Karten- und Flugdaten. Zentraler Ausgangspunkt bildet dabei immer die Planung von Flügen, basierend auf derzeit noch z.T. unklaren gesetzlichen Vorgaben. Das Leipziger Unternehmen FlyNex hat sich auf den Einsatz kommerzieller Drohnen-Einsätze spezialisiert. Damit ist FlyNex derzeit als einziger Anbieter für digitale Luftraumdaten, die für Drohnen und unbemannte Flüge gebraucht werden.

Immer mehr Branchen greifen auf die kosten- und zeitsparende Nutzung von Drohnen zurück. Nicht nur Forst- und Landwirtschaft, sondern auch Bau- und Energie-Unternehmen steigen wiederholend auf Drohnen um. Laut FlyNex sind es gerade Energienetzbetreiber und die Bauchwirtschaft, die hauptsächliche Nutzer und Auftraggeber für professionelle Drohnenpiloten sind. Insgesamt 19.000 Drohnen wurden von Unternehmen in 2018 schon zu kommerziellen Zwecken eingesetzt.

Das Wachstum für kommerzielle Anwendungen klingt vielversprechend. Es wird erwartet, dass der Markt im kommenden Jahrzehnt um ganze 22 Prozent pro Jahr auf über 400 Millionen Euro im Jahr 2030 anwächst. Schon heute zeigen von FlyNex erhobene Daten das wachsende Interesse an kommerzieller Drohnentechnologie und der dazugehörigen Software. Dieses Interesse schlägt sich unter anderem in den rasant steigenden Zahlen von beruflichen Drohnenpiloten nieder. Nutzten im vergangenen Jahr knapp 1.000 Anwender Software und Karten von FlyNex für den kommerziellen Einsatz, ist die Anzahl an professionellen Betreibern bereits um das Vierfache im Jahr 2019 gestiegen.

Sollte die VUL-Studie recht behalten steht der kommerziellen Drohnenbranche also eine rosige Zukunft bevor. Jedoch, und das bleibt zu betonen, ist auch hier ein wichtiger Faktor für die weitere Entwicklung, auf welche Auflagen und Vorschriften sich der Gesetzgeber und die Industrie in den nächsten Jahren einigen. Das Potenzial für geringere Wartungskosten und Zeitaufwand konnte schon bewiesen werden.

Die Cloud ist wesentlicher Treiber der digitalen Transformation

Viele Manager und Unternehmer winken genervt ab, wenn sie mit Buzzwords wie „Digitale Transformation“, „Digitalisierung“ oder auch „digitaler Wandel“ konfrontiert werden. Ihre ablehnende Haltung ist durchaus verständlich: Während es manchen Unternehmen bereits gelungen ist, ihr Geschäftsmodell, ihre Prozesse, ja sogar das Mindset ihrer Mitarbeiter zu „digitalisieren“, sieht die Realität im Gros der Unternehmen anders aus: Sie wissen eher schlecht als recht, an welchen Stellschrauben sie zuerst drehen sollen, um das Ruder in Richtung digital herumzureißen.

Digitalisierung ist in vollem Gange

Die Lünendonk-Studie „Fit für die digitale Transformation. Status quo und Ziele bei Legacy-Modernisierung und Cloud-Migration“, die in Zusammenarbeit mit Arvato Systems entstanden ist, gibt einen sehr detaillierten Einblick in die IT-Modernisierungsstrategien großer mittelständischer Unternehmen und Konzerne. Die Datenerhebung erfolgte im Herbst 2018 auf Basis von Telefoninterviews mit IT-Führungskräften von 122 Unternehmen aus dem gehobenen Mittelstand, Großunternehmen und Konzernen. Viele Unternehmen befinden sich inmitten eines weiteichenden Digitalisierungsprozesses, es gibt viel zu tun – und zwar gleich auf mehreren Ebenen. Neben der Strategie sind auch die Produktentwicklung, die Aufbau- und Ablauforganisation sowie die IT-Landschaft zu transformieren.

Start-ups haben strategische Vorteile

Wie zielführend und schnell das gelingt, hängt maßgeblich davon ab, wie lange ein Unternehmen bereits am Markt ist. Start-ups können ihre Business- und Operating-Modelle, ihre Prozesse und ihre IT-Landschaft von Beginn an agil, kundenzentriert und datenbasiert gestalten. Darin liegt im Übrigen auch der Erfolg der großen Internetkonzerne wie Google und Amazon begründet. Hier sind die Geschäftsprozesse eng miteinander verzahnt, über Microservices und APIs ist es möglich, Plattform-Geschäftsmodelle aufzubauen und Drittsysteme nahtlos an die eigene IT-Landschaft anzubinden. Zudem können sie auf einen großen Datenbestand zugreifen und gewinnbringend auswerten.

Etablierte Unternehmen müssen radikal umdenken

Demgegenüber stehen etablierte Firmen und Konzerne vor der Herausforderung, zunächst komplexe Legacy-Prozesse zu digitalisieren und inhomogene IT-Strukturen, basierend auf historisch gewachsenen Altsystemen, aufzulösen. Auch etablierte Unternehmen brauchen eine schnittstellenoffene, flexible, hochskalierbare und agile IT.

Dementsprechend kommt die Studie zu folgenden Ergebnissen:

  • Treiber der IT-Modernisierung gibt es viele: Legacy-Systeme sind üblicherweise nicht in der Lage, neue Technologien wie KI oder Big-Data-Analytics zu unterstützen, was eine Modernisierung dringend erforderlich macht. Erschwerend kommt hinzu, dass viele Altsysteme keine offenen Schnittstellen (APIs) haben und darum nicht mit neuen digitalen Lösungen integrierbar sind.
  • Die Mehrheit der befragten Unternehmen modernisiert aktuell ihre IT-Infrastruktur. Altanwendungen in die Cloud zu migrieren und sie anschließend zu modernisieren, ist dabei die präferierte Vorgehensweise.
  • Ein Fünftel der befragten Unternehmen setzt bereits auf eine Cloud-First-Strategie, gut ein Viertel plant dies. Auch wenn die meisten Unternehmen derzeit eine Private-Cloud nutzen, sind viele gegenüber der Public Cloud zunehmend aufgeschlossener. 67 Prozent der Befragten planen, ihre Investitionen in die Public-Cloud stark bis sehr stark zu erhöhen.
  • Die Gründe, aus denen Unternehmen ihre IT-Systeme in die Cloud migrieren, sind vielfältig. Sie wollen Lastspitzen abfangen, Daten schneller verfügbar machen und flexibler agieren können. Bedenken bestehen allerdings hinsichtlich Sicherheit. Für bestimmte, geschäftskritische Anwendungen mit sensiblen Daten ist und bleibt die Legacy-Modernisierung im On-premise-Modell eine realistische Alternative.
  • Für Dreiviertel der befragten Unternehmen ist es eine Herausforderung, Cloud-Lösungen an die bestehende IT-Systemlandschaft anzubinden. Dass Daten häufig nicht interoperabel und Security- sowie Compliance-Anforderungen nur mangelhaft umgesetzt sind, ist ein weiteres Problem. Bei der Modernisierung von Legacy-Systemen haben Unternehmen vornehmlich Schwierigkeiten, Sicherheitsanforderungen zu erfüllen. Zudem betrachten sie den möglicherweise hohen Zeitaufwand als kritischen Faktor.
  • Um ihre Unternehmensorganisation an die veränderte IT-Infrastruktur anzupassen, setzen 90 Prozent der Unternehmen auf eine stärkere Vernetzung von Bereichen, Prozessen und Systemen. Daneben bilden sie ihre Mitarbeiter fort und arbeiten verstärkt mit IT-Partnern zusammen. Zweidrittel der Befragten greifen auf DevOps zurück.

Investitionen in die Cloud erhöhen

Da es viele Unternehmen in der Vergangenheit versäumt haben, ihre Legacy-Systeme radikal zu modernisieren, ist der Handlungsdruck nun sehr hoch. Vor allem die Fachbereiche erwarten automatisierte Prozesse und vollintegrierte digitale Lösungen. Ein wichtiger Baustein der Modernisierung besteht darin, Altsysteme sukzessive cloudfähig zu machen beziehungsweise durch APIs und Microservice so zu verändern, dass sie hybride Modelle abbilden können. Dementsprechend investieren Unternehmen immer stärker in die Cloud.

Ohne externe Partner geht es nicht

Die meisten deutschen Unternehmen sind zwar auf einem guten Weg, benötigen bei der digitalen Transformation jedoch externe Unterstützung. Neue strategische Partnerschaften sind für die meisten der befragten Unternehmen eine wichtige Voraussetzung, um ihre IT digital aufstellen zu können. Der Mangel an IT-Fachkräften und der Zeitdruck sind jedoch zu groß, als dass Unternehmen dies alleine bewältigen könnten.

Die Ergebnisse der Studie sind unter https://www.arvato-systems.de/arvato-systems/beratung-innovation/innovation verfügbar.

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.

Testbeitrag

 

Er hörte leise Schritte hinter sich. Das bedeutete nichts Gutes. Wer würde ihm schon folgen, spät in der Nacht und dazu noch in dieser engen Gasse mitten im übel beleumundeten Hafenviertel?

Gerade jetzt, wo er das Ding seines Lebens gedreht hatte und mit der Beute verschwinden wollte!

Hatte einer seiner zahllosen Kollegen dieselbe Idee gehabt, ihn beobachtet und abgewartet, um ihn nun um die Früchte seiner Arbeit zu erleichtern? Oder gehörten die Schritte hinter ihm zu einem der unzähligen Gesetzeshüter dieser Stadt, und die stählerne Acht um seine Handgelenke würde gleich zuschnappen? Er konn

 

Warum die Welt nicht wirklich vernetzt ist – noch nicht.

Auch wenn es so aussieht, als würden wir in einer vollständig verbundenen Welt leben, sind wir es nicht. Und da das Internet der Dinge die Anzahl und den Umfang der angeschlossenen Geräte drastisch erweitert, bietet das traditionelle Modell der Kommunikationsverbindung nicht mehr die Flexibilität und Autonomie, die die Verwaltung von länderübergreifenden IoT-Projekten erfordert. Eigentlich benötigen Unternehmen ein einziges, globales Mobilfunknetz – oder zumindest eines, dass nahtlos erscheint.

Doch die Realität sieht anders aus: Das Internet der Dinge steckt noch in den Kinderschuhen. Im Moment ist die Konnektivität oft auf die Vertragsgefüge der Carrier beschränkt. Wenn AT&T beispielsweise nicht in einer bestimmten Region aktiv ist, haben AT&T-fähige Geräte eine zunächst einmal eine Verbindungsproblematik. Mit einer globalen IoT-Plattform können Geräte – unabhängig vom Standort – zu einem möglichst niedrigen Preis ständig verbunden bleiben oder für eine bestmögliche Konnektivität ständig verbunden werden.

Die Datennutzung nimmt sehr schnell zu, und die meisten Mobilfunkbetreiber können ihre Netze nicht im gleichen Tempo bereitstellen. Dadurch ergeben sich Möglichkeiten für Unternehmen, ihre eigenen globalen Konnektivitätsnetzwerke aufzubauen. Ein globaler Anbieter von virtuellen Netzwerken kann in allen wichtigen Jurisdiktionen tätig sein, in denen die meisten Mobilfunkbetreiber nicht erreichbar sind, wodurch ein wirklich globaler und flächendeckender Zugang zu Konnektivitätsdienstleistungen erst möglich wird.

Globale Auswirkungen

Das Internet der Dinge bietet Einblicke und erhellt Situationen, die bisher verborgen lagen: Transparenz und Einblicke in Aktivitäten vom verbesserten Flottenmanagement für Nutzfahrzeuge über den effizienten Betrieb von Fluggesellschaften bis hin zur verbesserten medizinischen Versorgung und vernetzten Fahrzeugen. Die Erschließung des Potenzials des Internet der Dinge (IoT) ist heute ein Schlüsselelement in digitalen Transformationsprogrammen für Unternehmen.

Nehmen wir ein Beispiel aus der Logistik: Sie geben ein Paket an DHL oder FedEx weiter und es landet an der Lieferadresse. Während es möglich ist, online einzusehen, wann und wo es angenommen wurde, ob es in einem Versanddepot liegt und ob es auf dem Weg zum Ziel ist, ist das nur ein Teil der Geschichte. Mit einem global vernetzten Netzwerk können verschiedene Sensoren, die den Standort des Pakets übermitteln, genau sagen, wo sich das Paket auf seiner Reise befindet und welche Umweltbedingungen während der Fahrt herrschen. Dadurch ergeben sich neue Geschäftsmöglichkeiten, etwa bei verderblichen Waren.

Jetzt können Unternehmen aus den Bereichen Logistik und Spedition sicherstellen, dass ihre Fahrer immer mit dem Heimatstandort verbunden sind. Und Manager können mit der Analysesoftware die wichtigsten Leistungsaspekte ihrer Flotten weltweit und zu jeder Zeit verfolgen und analysieren. Dies hat derivative Effekte wie niedrigere Versicherungsprämien und eine bessere Verfügbarkeit der Wartungsdaten.

So unterstützt beispielsweise die thailändische DRVR Unternehmen in Europa und Asien bei der Disposition von Fahrzeugen und senkt die Kraftstoffkosten. Die angeschlossenen Sensoren von DRVR können erkennen, ob die Tür eines Fahrzeugs für einen bestimmten Zeitraum offen war oder ob sich eine bestimmte Position außerhalb der zulässigen Grenzen befindet. Die Herausforderung besteht darin, dass es in den Gebieten, in denen die Kunden von DRVR unterwegs sind, mehrere lokale Mobilfunkanbieter gibt. Bisher ist der einzige Weg, auf Daten in all diesen Regionen zuzugreifen, ein Vertrag mit jedem Mobilfunkbetreiber in jeder Region. Das wäre teuer und ein operativer Alptraum. Mit einem globalen Netzwerk, das grenzüberschreitende Verbindungen bietet, wäre das kein Problem.

Ein weiteres Beispiel ist die Luftfahrtindustrie. Die Mitarbeiter benötigen eine Konnektivitätsplattform, die ein besseres Kundenerlebnis bietet, während sie den Betrieb in länderübergreifenden Einsätzen koordiniert. Unsere MOVE-Plattform hilft beispielsweise einer im Mittleren Osten ansässigen, global operierenden Fluggesellschaft, sicherzustellen, dass ihr Betrieb in jedem Teil der Welt funktionsfähig ist. Wir bieten lokale Mobilfunkbetreiberverbindungen und Betreiber-unabhängige Roaming-Kostenverwaltung und Signalstärke. Diese Vereinbarung hilft der Fluggesellschaft, die beste Servicequalität auf allen Kontinenten, auf denen ihre Flotten tätig sind, zu gewährleisten.

Die Automobilindustrie ist eines der besten, aber auch anspruchsvollsten Beispiele für das Potenzial eines globalen Netzwerks. Die Fähigkeit eines Fahrzeugs, sich mit der Außenwelt zu verbinden, verbessert ohne Zweifel das Fahrer- und Passagiererlebnis und bietet spannende neue Möglichkeiten für Dienstleistungen. Automobilhersteller, Versicherungen und Telematikanbieter haben ein großes Interesse an den Leistungsdaten eines Fahrzeugs, mit denen sie Aspekte des eigenen Betriebs und der Instandhaltung optimieren, Infotainment-Dienste der nächsten Generation mit zusätzlicher Sicherheit und immer größeren Mehrwert für den Fahrzeughalter bieten können.

Dennoch: Neue vernetzte Fahrzeuglösungen, insbesondere solche in der Anfangsphase, sind komplex und entstehen aus einer fragmentierten Kombination des Know-hows unterschiedlicher Anbieter. Die Herausforderung für den Automobilhersteller besteht darin, Anwendungsfälle zu entwickeln, die den Bedürfnissen seiner Kunden am besten entsprechen und diese mit höchster Effizienz und geringster Komplexität erfolgreich umzusetzen. Mit einer globalen, einheitlichen Integrationsplattform wie Tata Communications MOVE wird der Zugang zu 600 Mobilfunknetzen in 200 Ländern der Welt ermöglicht. Damit ist sichergestellt, dass die für „angeschlossene“ Geräte lebenswichtige Kommunikationsverbindung immer unter Kontrolle ist, während die Möglichkeit des Providerwechsels nicht mehr die logistischen und operativen Auswirkungen hat, die sie bisher hatte.

Zuletzt bietet das Internet der Dinge auch im Gesundheitswesen Vorteile mit sich. So können, je nach Konfiguration, alle Beteiligten (etwa Ärzte, Patienten und Mitarbeiter) Zugang zu den Daten und Anwendungen erlangen, die sie benötigen, wo und wann immer sie gebraucht werden. Dies ermöglicht es der ganzen Branche, einheitliche Standards in der Patientenversorgung aufrechtzuerhalten und auch neue Dienstleistungen, etwa die Telemedizin, auszuloten, die eine wichtige und wirtschaftliche Möglichkeit ist, Patienten in abgelegenen Gebieten und bevölkerungsärmeren Ländern zu erreichen.

Gerade können wir erleben, wie die vernetzte Gesundheitsversorgung in Asien zum Leben erwacht. Ein aktuelles Beispiel ist TaiDoc Technology, ein Hersteller von hochwertigen Medizinprodukten zur Verbesserung der Gesundheit und Lebensqualität der Menschen, der ein globales Netzwerk nutzt, um die Reichweite seiner Geräte auf Länder wie China, Thailand und die USA auszudehnen.

Hier ist das Fazit: Um ihr volles Potenzial auszuschöpfen, benötigen IoT-Geräte eine wirklich grenzenlose, sichere und skalierbare Konnektivität, die die Erfassung, Bewegung und Verwaltung von Informationen weltweit ermöglicht. Während die Mobilfunkverbindung eine effektive Grundlage für IoT-Dienste ist, sind die heutigen Mobilfunknetze von Natur aus lokal. Wir müssen ein globales Ökosystem der Konnektivität aufbauen, um die Einführung des IoT durch Unternehmen weltweit voranzutreiben.

In fünf Schritten zu Sicherheit und Stabilität in Kritischen Infrastrukturen

Das Mai 2018 in zweiter Fassung veröffentlichte Whitepaper »Anforderungen an sichere Steuerungs- und Telekommunikationssysteme« übersetzt die Highlevel-Forderungen aus dem deutschen IT-Sicherheitsgesetz und dem »Österreichische Programm zum Schutz Kritischer Infrastrukturen« (APCIP) in technische Anforderungen. Trotz des vergleichsmäßig hohen Detailgrades, auf den sich der deutsche Bundesverband der Energie- und Wasserwirtschaft (BDEW) und Österreichs Energie (OE) geeinigt haben, bleiben die Maßnahmen vage in der konkreten Umsetzung.

Das Whitepaper beschreibt auf 80 Seiten und in acht Maßnahmengruppen, wie die Prozess- und Netzleittechnik (PNLT) von Energie-, Wasserwirtschafts- und Öl/Gas-Unternehmen vor Störungen geschützt werden soll. Die Gruppen umfassen:

  1. Allgemeine Anforderungen (Sichere Systemarchitektur, definierte Verwaltungsprozesse, Sicherstellung der Datensicherheit und -integrität)
  2. Projektorganisation (Ansprechpartner, Tests, Datenspeicherung und -übertragung, Übergabeprozesse)
  3. Basissystem (Systemhärtung, Schadsoftware-Schutz, Authentifizierung, Virtualisierung)
  4. Netzwerk und Kommunikation (Protokolle, Segmentierung, Fernzugänge, Dokumentation)
  5. Anwendung (Rollen, Authentifizierung, Autorisierung, Umgang mit Webapplikationen, Integritätsprüfung, Logging)
  6. Entwicklung (Standards, Freigabe, Integrität)
  7. Wartung (Updates, Konfigurations- und Change Management, Sicherheitslücken)
  8. Datensicherung und Notfallplanung (Backup, Wiederanlauf)

Am Tagesgeschäft vorbei gedacht

Die Maßnahmengruppen des Whitepapers folgen damit der Architektur und Struktur der PNLT. Das Whitepaper verfehlt damit jedoch die Day-to-Day-Workflows und Zusammenhänge zwischen einzelnen Maßnahmen. Die Prozess- und Organisationslogik der IT/OT-Sicherheit wird nicht abgebildet. Insbesondere fehlt die Eingliederung in die etablierten Managementsysteme (wie QMS oder ISMS), die der Logik des kontinuierlichen Verbesserungsprozesses (Plan, Do, Check, Act) folgen. In der IEC 62443 wird dies zumindest in Teilen mit der Beschreibung der Risikoanalyse begonnen. In der Schweiz orientiert sich das »Handbuch Grundschutz für «Operational Technology» in der Stromversorgung« des VSE explizit am US-amerikanischen NIST-Standard. Dieser bricht die Cybersicherheit in Kritischen Infrastrukturen auf fünf logische Ebenen eines Defense-In-Depth-Konzepts herunter, die in einem Verbesserungsprozess münden:

  1. Identifizieren (Identify)
  2. Schützen (Protect)
  3. Erkennen (Detect)
  4. Reagieren (Respond)
  5. Wiederherstellen (Recover)

Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)
Abb. 1: Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)

BDEW-Whitepaper im Prozesskontext

Es ergibt daher Sinn, die Anforderungen des BDEW-/OE-Whitepapers auf die fünf Schritte des NIST-Frameworks zu beziehen.

Schritt 1: Identifizieren

Hinter dem Identifizieren verbergen sich alle Aspekte einer detaillierten Risikoanalyse. Der erste Schritt ist hierbei die Herstellung vollständiger Transparenz in Bezug auf:

  • Netzwerkstruktur
  • Komponenten, ihre Eigenschaften, Prozesse und Services
  • Bestehende Sicherheitslücken
  • Kommunikationsverbindungen (intern und mit externen Netzen)
  • Kommunikationsverhalten der einzelnen Komponenten
  • Kommunikationsprotokolle
  • Kommunikationsinhalte
  • Unterliegende Prozesse

Letztlich verbirgt sich hierunter vor allem die Maßnahmengruppe 4 »Netzwerk und Kommunikation«. Aber auch Aspekte der Gruppen »Allgemeine Anforderungen« (bestehende Sicherheits- und Monitoringstrukturen, Verwaltungsprozesse), »Projektorganisation« (Verantwortliche) und »Wartung« (Updates, Konfigurationen, Sicherheitslücken) fallen hierunter.

Grundsätzlich geht es darum, eine ganzheitliche Istanalyse der PNLT, organisatorischen Struktur und Gefährdungslage durchzuführen. Sie bildet die Basis, um festzulegen, worüber überhaupt gesprochen werden muss. Damit die nachfolgenden Schritte der Sicherung weder im Gießkannenprinzip ausgeführt werden, noch zu kurz gedacht werden, muss zwingend vollständige Transparenz hergestellt werden. Technologisch sollte hierbei über diesen Zeitraum der Istanalyse hinaus gedacht werden, denn auch im laufenden Betrieb der Sicherung, Erkennung und Reaktion steht und fällt die Handlungsfähigkeit der Verantwortlichen mit der Transparenz.

Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)
Abb. 2: Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)

Die Istanalyse ist auch nicht nur relevant, um die eigene PNLT besser zu verstehen. Sie offenbart in der Regel auch bestehende Engpässe, Gefährdungen und Fehlerzustände. In Stabilitäts- und Sicherheitsaudits, die wir regelmäßig in Kritischen Infrastrukturen im Rahmen der Erst- und Wiederholungsanalyse durchführen, finden sich im Schnitt rund 22 Gefährdungskategorien, die bislang den Verantwortlichen unbekannt waren. Die Analyse erfolgt hierbei mittels der industriellen Anomalieerkennung Rhebo Industrial Protector, die jegliche Kommunikation und Komponenteneigenschaften innerhalb der PNLT bis auf Inhaltsebene analysiert.

Schritte 2 und 3: Sichern und Erkennen

Diese Systemlösung bildet im Anschluss des Schrittes »Identifizieren« als Monitoring- und Detektionswerkzeug auch das Rückgrat der Sicherung der PNLT und des Erkennens von Störungen. Hierbei lernt die Anomalieerkennung das zu erwartende Verhaltensmuster der PNLT und analysiert die Kommunikation im Normalbetrieb auf Abweichungen (Anomalien). Wie vielfältig diese Anomalien ausfallen können, skizziert ein im März 2019 von der Allianz für Cyber-Sicherheit des BSI veröffentlichte Empfehlung zu Monitoring und Anomalieerkennung in industriellen Netzen. Die Anomalien werden in Echtzeit gemeldet und für die forensische Analyse inklusive der Rohdaten gespeichert.

Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen abgerufen (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo)
Abb. 3: Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen nachgeschaut werden (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo Industrial Protector)

Bei der Sicherung kommen hierbei die bekannten Mechanismen wie Segmentierung, Rollenkonzepte, Authentifizierung, Autorisierung, Prüfung der Datensicherheit und -integrität, Veränderungsmanagement, aktive Schadsoftware-Werkzeuge zum Einsatz. Diese sind im BDEW-/OE-Whitepaper über fast alle Kategorien verteilt. Im Sinne des Defense-in-Depth-Ansatzes, nach dem »Es gibt keine 100 prozentige Sicherheit.« die Basis aller Erkenntnis ist, übernimmt die Anomalieerkennung hier die Instanz eines durchgängigen Überwachungs-, Analyse- und Frühwarnsystems. Der Schutz der PNLT geht somit Hand in Hand mit der Fähigkeit, jedwede Veränderung zu detektieren. Denn nur was gesehen wird, kann auch abgewehrt werden. Das ist umso wichtiger in Infrastrukturen, die aus pragmatischen Gründen nicht auf Fernzugänge oder Webapplikationen verzichten können. Veränderungen betreffen hierbei nicht nur Vorfälle, die eindeutig als Sicherheitsgefährdung identifiziert werden können. Insbesondere wird auf die Fähigkeit hingewiesen, Vorgänge zu erkennen, die nicht durch die gängigen Blacklisting- oder Whitelisting-Konzepte abgedeckt werden. Diese Anomalien oder Abweichungen vom zu erwartenden Netzverhalten bergen bei täglich rund 400.000 neuen Schadprogrammen die eigentliche Gefahr.

Schritte 4 und 5: Reagieren und wiederherstellen

Diese Schritte werden im BDEW-/OE-Whitepaper nur sehr abstrakt behandelt, auch wenn sie im Tagesgeschäft die eigentliche Herausforderung darstellen. Über alle Kategorien wird auf die Notwendigkeit einer Notfallkonzeption verwiesen, konkrete Ansätze hierfür fehlen jedoch auch im eigentlichen Kapitel »Datensicherung und Notfallplanung«.

Eine sinnvolle Reaktion auf einen Vorfall im Sinne der Abwehr sowie internen und externen Kommunikation kann nur erfolgen, wenn alle Daten zum jeweiligen Vorfall vorliegen. Dazu gehören sowohl Details zu den Kommunikationsinhalten als auch Informationen zum Verlauf und den beteiligten Komponenten und Systemen. Die notwendige Vorfallsanalyse ist letztlich nur so gut, wie die Vorfallsdaten vollständig sind. Entsprechend hängen sowohl Effektivität der Reaktion als auch die Geschwindigkeit der Wiederherstellung und die kontinuierliche Verbesserung zur Steigerung der Resilienz maßgeblich von einer stichhaltigen und schnellen Analyse ab. Nicht zuletzt ist die Fähigkeit zur Analyse und Dokumentation auch für die Meldepflicht maßgeblich.

Verantwortliche in Kritischen Infrastrukturen sollten deshalb Überwachungssysteme auch danach bewerten, ob diese die Reaktion auf Vorfälle und die Wiederherstellung unterstützen. Dazu gehören:

  • Detailspeicherung von Anomalien mit Metadaten und Rohdaten;
  • Speicherung in universellem Format (z. B. PCAP), um Daten leicht teilen und programmunabhängig analysieren zu können;
  • universelle Schnittstellen (REST-API, Syslog u.a.) zur schnellen, verlustfreien Weiterleitung an andere Sicherheitssysteme (z. B. aktiv blockende Firewalls oder SIEM)
  • automatisierte Weiterleitungsregeln zur Unterstützung der unternehmensinternen Prozesse.

Auch diese Anforderungen können von einigen industriellen Anomalieerkennungen vollumfänglich abgebildet werden.

In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)
Abb. 4: In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)

Fazit

Wer das BDEW-/OE-Whitepaper umsetzen möchte, sollte auch weitere Empfehlungen (z. B. des VSE und des BSI) berücksichtigen, um gezielt und strukturiert die Anforderungen umsetzen zu können. Grundsätzlich sollte das Konzept der Defense-in-Depth verfolgt werden. Zu dieser gehört neben aktiven Absicherungswerkzeugen (Firewalls, Virenscanner, Datendioden) auch eine passive Monitoringkomponente in Form einer industriellen Anomalieerkennung. Die Chief Information Security Officers und IT-Leiter Kritischer Infrastrukturen erhalten die bislang fehlende Sichtbarkeit in ihre Netzwerke, ein proaktives Frühwarnsystem und schaffen eine fundierte Basis für das übergeordnete Netzwerk-Monitoring und die forensische Datenanalyse. Damit können sie ihre Prozess- und Netzleittechnik effektiv gegen Störungen wie Cyberattacken, Manipulation aber auch technische Fehlerzustände schützen und die Versorgungssicherheit gewährleisten.

In Kritischen Infrastrukturen ist Meldepflicht Selbstschutz

Die gesetzliche Pflicht, Störungen in den Netzwerken kritischer Infrastrukturen zu melden, wird oft als bürokratischer Aufwand wahrgenommen. Der vorgeschriebene Informationsaustausch zwischen kritischen Infrastrukturen und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) birgt ohne Zweifel Aufwände und Unklarheiten. Jedoch überwiegt der Mehrwert, der sich aus der Schwarmintelligenz ergibt. Je mehr Akteure über Gefährdungen berichten, desto mehr Akteure können sich gegen diese auch aktiv vorbereiten, bevor Störungen entstehen. So wird Meldepflicht zum Selbstschutz.

Der Mehrwert kann jedoch nur entstehen, wenn über den Tellerrand der gängigen Monitoring- und Sicherheitssysteme geschaut wird. Genau hier setzt das Prinzip des Defense-In-Depth an, das die gängigen Lösungen (Firewalls, Virenscanner etc.), die mittlerweile als Standard in jeder Kritischen Infrastruktur angenommen werden können, um Abwehrmechanismen erweitert, die auch das Unbekannte sichtbar machen.

Dass bislang unbekannte Angriffs- und Störungsmuster in Zukunft eine entscheidende Rolle bei der Gefährdungslage spielen, zeigten nicht zuletzt die mehrstufigen, lange Zeit verborgen agierenden Kampagnen Industroyer und Dragonfly 2.0. Während mit Dragonfly 2.0 Angreifer über Monate bis Jahre Kritische Infrastrukturen auch in Deutschland ausspioniert haben, legte Industroyer 2016 die Stromversorgung Kiews für mehrere Stunden lahm.

Auf der Suche nach dem Unbekannten

Genau hier liegt auch die größte Unklarheit für die Informationssicherheitsbeauftragten in kritischen Infrastrukturen. Das IT-Sicherheitsgesetz (und damit das EnBW, AtG und BSIG) fordert eine Meldung von »erheblichen Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse, die zu einem Ausfall oder einer Beeinträchtigung der Funktionsfähigkeit der von ihnen betriebenen Kritischen Infrastrukturen führen können oder geführt haben.«

Die Formulierung birgt zwei Unschärfen, mit denen Betreiber zu kämpfen haben:

  1. Wie sollen Störungen erkannt werden, die erst langfristig zu einer Beeinträchtigung führen könnten, zum Beispiel Advanced Persistent Threats?
  2. Wie kann bewertet werden, ob die Beeinträchtigungen durch eine Störung erheblich sein könnten?

Auf der FAQ-Seite des BSI findet sich zur ersten Frage lediglich der Hinweis: »Werden Angriffe auf die Kritische Infrastruktur unter Verwendung von neuartigen, außergewöhnlichen, zielgerichteten oder aus technischer Sicht bemerkenswerten Angriffsverfahren entdeckt, muss davon ausgegangen werden, dass eine Einwirkung auf die Kritische Infrastruktur möglich ist, sobald sich die Angreifer dazu entschließen«.

Auch bei der Frage, was »erheblich« bedeutet, sind Informationssicherheitsbeauftragte weitestgehend auf sich gestellt: »Eine eindeutige, umfassend geltende Antwort, wann eine Störung erheblich ist, ist nicht möglich. Stattdessen ist es erforderlich, dass die Verantwortlichen in KRITIS-Unternehmen Einzelfallentscheidungen treffen«.

Aus unseren Erfahrungen des Monitorings von Leitsystemen und Netzleittechnik mittels industrieller Anomalieerkennung wissen wir, dass weder versteckte Angriffe noch offene Sicherheitslücken eindeutig erkannt und eingeschätzt werden. Hinzu kommt, dass die Entwicklungen der Digitalisierung und des Smart Grid zu immer komplexeren Kommunikationsstrukturen führen, die neben Sicherheitsgefährdungen auch die Wahrscheinlichkeit technischer Fehlerzustände erhöhen.

Wer entscheiden will, muss sehen können

Betreiber benötigen somit Werkzeuge, die zwei Dinge ermöglichen:

  1. Vorgänge erkennen, die durch gängige Sicherheitslösungen mit Blacklisting- oder Whitelistingansatz übersehen werden.
  2. Vorgänge dahingehend bewerten, ob diese (erhebliche) Beeinträchtigungen hervorrufen könnten.

Netzleittechnik und Leitsysteme sind von einer deterministischen Kommunikationsstruktur geprägt. Dadurch können zum Beispiel mit einer industriellen Anomalieerkennung alle Vorgänge erkannt werden, die in irgendeiner Form vom deterministischen Grundmuster abweichen. Ein gutes Monitoringsystem erkennt bei den sicherheitsrelevanten Vorfällen u.a. neue:

  • Netzteilnehmer oder Kommunikationsbeziehungen;
  • Verbindungen zum Internet;
  • Protokolle;
  • Befehlsstrukturen sowie Netzwerkscans.

Hinzu kommen sowohl bestehende CVE-Sicherheitslücken an Geräten und Software, als auch Netzstörungen, die keine IT-Sicherheitsvorfälle sind, aber an das BSI gemeldet werden müssen. Zu letzteren gehören Konfigurations- und Kommunikationsfehler sowie andere technische Fehlerzustände, die sich beispielsweise aus der Abnahme der Netzwerkqualität ergeben. Gefährdungen jeglicher Form werden somit in ihrem frühesten Stadium erkannt und in Echtzeit gemeldet.

Die Bewertung der Vorfälle wird durch die industrielle Anomalieerkennung über verschiedene Stufen ermöglicht. Zum einen wird jede Meldung in Sicherheit oder Netzwerkqualität kategorisiert. Des Weiteren erhält jede Meldung eine Risikobewertung in Abhängigkeit von Kommunikationsvorgang und betroffenen Komponenten. Schlussendlich wird jede Meldung inklusive der Rohdaten als frei exportierbares PCAP gespeichert. Somit ist eine umgehende forensische Analyse auf einer vollständigen, nachvollziehbaren Datenlage für alle Stakeholder möglich. Informationssicherheitsbeauftragte können damit auf jede potentielle Gefährdung reagieren, bevor es zur Beeinträchtigung kommt.

Unternehmenssicherheit: Insider Threats erfolgreich abwehren

Moderne Systeme für Dynamic Data Protection helfen dabei, Daten vor Verlust und Diebstahl verlässlich zu schützen. Sie ermöglichen flexible und dynamische Sicherheitsmechanismen auf Basis eines individuellen Risiko-Scores. Auf diese Weise lässt sich die höchstmögliche Produktivität der Mitarbeiter beibehalten und ein maximaler Schutz der Daten sicherstellen.

Das größte Risiko für die Datensicherheit in Unternehmen kommt von innen – durch so genannte Insider Threats. Dabei lassen sich verschiedene Arten von Bedrohungen unterscheiden: Häufig begünstigen Mitarbeiter unwissentlich oder unbeabsichtigt die Abwanderung sensibler Unternehmensdaten. Beispielsweise können durch die arglose Mitnahme und fahrlässige Verwendung von firmeninternen USB-Sticks oder anderen Datenträgern betriebliche Informationen in fremde, unberechtigte Hände gelangen. Ein weiterer Risikofaktor ist der absichtliche Datendiebstahl durch Firmenangehörige: In diesem Fall handeln die Täter mit Vorsatz oder kriminellem Motiv und nehmen einen Schaden für das Unternehmen durch die Veruntreuung von Daten bewusst in Kauf. Eine dritte Kategorie von Bedrohungen sind kompromittierte Anwender. Dabei haben sich Kriminelle Zugang zu den Anmeldedaten eines Mitarbeiters verschafft und missbrauchen diese für Angriffe.

Eine Möglichkeit zur Abwehr der Risiken bieten Lösungen für Data Loss Prevention (DLP). Sie beinhalten herkömmliche Funktionen für Identitätsmanagement, Monitoring, Verschlüsselung sowie Zugriffskontrolle. Zudem steuern und überwachen sie Nutzer-Aktivitäten und bieten Mechanismen, um Datenströme im Unternehmensnetzwerk zu filtern und zu schützen. Konventionelle DLP-Systeme sind aber in der Regel sehr starr und bieten nicht die nötige Dynamik, um auf die verschiedenen Spezies von Insider Threats adaptiv zu reagieren. Die Lösungen fokussieren häufig nur den reinen Infrastrukturschutz oder die Abwehr von externen Gefahren. Dabei nutzen sie meist statische Auswertungen, die sich nicht flexibel an verschiedene Arten von Benutzern und Transaktionen anpassen und dadurch zusätzliche Sicherheitslücken verursachen. So verwenden solche Systeme für alle User immer die gleichen Policies und Richtlinien, verbieten von vornherein bestimmte Aktionen und schränken dadurch die Produktivität der Mitarbeiter erheblich ein. Überdies senden die meisten DLP-Lösungen an die Sicherheitsverantwortlichen in Unternehmen eine riesige Anzahl von teilweise unnötigen Alerts, auf die reagiert werden muss. Dies erhöht den Administrationsaufwand und verursacht zusätzliche Kosten.

Sicherheit im Einklang mit Produktivität und Effizienz

Einen weitaus effektiveren Schutz vor Insider Threats bieten moderne Lösungen für Dynamic Data Protection (DDP). Sie schneiden interne Sicherheitsrichtlinien ohne Zutun eines Administrators automatisch und adaptiv auf alle Nutzer oder Geräte zu. Dadurch können Unternehmen die Sicherheit ihrer Nutzer und Daten lückenlos mit den Anforderungen an Produktivität und Effizienz in Einklang bringen. Das Besondere: Flexibel und individuell passen DDP-Systeme die Reaktion auf einen Sicherheitsvorfall anhand des jeweiligen Risikos an. Auf diese Weise wird der momentane Sicherheitslevel automatisch und situativ an die jeweiligen Anforderungen angeglichen. Dabei besteht die Möglichkeit, dynamisch und je nach Rolle oder Verhalten eines Mitarbeiters spezielle Policies zu generieren.

Ein Beispiel: Eine bestimmte Person darf interne Daten auf einen USB-Stick kopieren und diesen mit nach Hause nehmen, um dort beispielsweise an einer Firmenpräsentation weiterzuarbeiten. Handelt es sich jedoch um kritische oder sensible Unternehmensdaten, besteht ein höheres Risiko. In diesem Fall regelt eine Richtlinie, dass der Mitarbeiter die Daten nur verschlüsselt kopieren darf. Ein weiteres Szenario beschreibt noch höhere Sicherheitsanforderungen: Hat ein Betriebsangehöriger bereits ein auffälliges Verhalten gezeigt – zum Beispiel durch einen versuchten Zugriff auf Daten, für die er nicht berechtigt ist – ist höchste Vorsicht geboten. Dann sollte eine entsprechende Policy ihm die Mitnahme von Daten komplett verbieten.

Risiko-Score resultiert aus Nutzerverhalten

Grundlage der Erkennungsmechanismen ist die Technologie „User and Entity Behaviour Analytics“ (UEBA). Die DDP-Lösung beobachtet dabei das Verhalten der Nutzer, definiert daraus automatisch einen bestimmten Risiko-Score und passt die Berechtigungen des Betroffenen adaptiv an die jeweiligen Risiken an. Beschäftigte mit geringem Risikofaktor verfügen dann über mehr Rechte und können dadurch produktiver arbeiten. Besonders wichtig ist es dabei auch, bestimmte Verhaltensänderungen eines Mitarbeiters zu erkennen. Greift er beispielsweise von einem anderen Ort als üblich auf Daten zu oder meldet er sich von einem bisher nicht genutzten Gerät an, wird ein erhöhtes Risiko festgestellt. Das DDP-System ist hierbei in der Lage, die jeweiligen Datenpunkte zu identifizieren und zu korrelieren. So lassen sich potenzielle Probleme und Bedrohungen frühzeitig erkennen und gezielt Gegenmaßnahmen einleiten. Beim Einsatz einer solchen Lösung ist jedoch das berechtigte Interesse von Mitarbeitern auf Privatsphäre gegenüber des zu erwartenden Schadens abzuwägen.

Dabei wird der Risiko-Score herangezogen, um die jeweilige Berechtigung des Users passgenau zu definieren, um also den Datenzugriff lediglich zu überwachen und zuzulassen, ihn zu verschlüsseln oder vollständig zu blockieren. So werden beispielsweise die Security-Experten im Unternehmen in hohem Maße entlastet. Diese können sich durch den hohen Automatisierungsgrad und die adaptiven, risikobasierten Anpassungen ganz auf relevante, auffällige Aktivitäten konzentrieren. Zudem lässt sich die benötigte Zeit für die verlässliche Erkennung von Risiken und Bedrohungen auf nur wenige Sekunden reduzieren.

 

Fazit

Insider Threats zählen zu den größten Risiken für die Sicherheit von Unternehmensdaten. Herkömmliche Security-Tools wie etwa DLP-Systeme reichen meist nicht mehr aus, um die Bedrohungen effektiv abzuwehren. Hilfreicher sind moderne Dynamic-Data-Protection-Lösungen, die auf einem risikoadaptiven Ansatz basieren. Sie richten sich nicht nach starren Policies, sondern passen sich dynamisch an das Verhalten der User und die damit verbundenen Risiken an. Dies wirkt sich positiv auf die Produktivität aus und gewährleistet gleichzeitig den optimalen Schutz der Daten.

IoT-Visionen erfolgreich umsetzen

Laut einer kürzlich durchgeführten Umfrage von Ovum unter mehr als 1.300 Unternehmen befindet sich die Einführung von IoT-Projekten derzeit häufig noch in einem frühen Stadium. Die am häufigsten genannten Ziele, die damit verfolgt werden, sind geringere Kosten, höhere Effizienz und bessere Wettbewerbsfähigkeit. Neue Umsatzquellen durch das Internet of Things sind dagegen für die meisten Unternehmen noch Zukunftsmusik. Doch zumindest berichten sie in der Regel von positiven Erfahrungen und planen, die Investitionen in diesem Bereich zu erhöhen.

Die größten Herausforderungen bei der Einführung von IoT-Prozessen sind demnach die Integration mit der bestehenden IT, das Ermitteln der richtigen Analyse-Prozesse, Sicherheitsbedenken und fehlende interne Kapazitäten zur Unterstützung skalierbarer Implementierungen. Dies zeigt, dass eine stärkere Integration von IoT in bestehende Geschäftsprozesse, die Entwicklung geeigneter Lösungen für analytische Modellierung und Datenmanagement sowie die Abwehr von Sicherheitsgefahren die Einführung von IoT-Lösungen beschleunigen können.

Hohes Potenzial

Die Transformation, die hierdurch möglich wird, bietet trotz der frühen Umsetzungsphase ein enormes Potenzial für Unternehmen. Daher möchten sie clevere Führungskräfte schon jetzt so schnell wie möglich durchführen. Neben der Einführung von geeigneten Technologien ist es dabei ebenso wichtig, die möglichen konkreten Vorteile zu identifizieren. So erhöhen Investitionen in die Vorplanung und die Auswahl der richtigen Komponenten die Erfolgschancen eines solchen IoT-Projekts deutlich. Darüber hinaus bietet es sich häufig an, „groß zu denken, aber klein anzufangen“. Dadurch können Unternehmen in überschaubaren Projekten schnell Erfahrungen sammeln, die sich iterativ mit zunehmender Skalierung umsetzen lassen.

Intensive Abstimmungen nötig

Von Anfang an die richtigen Entscheidungen zu treffen und anschließend auf Kurs zu bleiben, sind wichtige Aspekte eines IoT-Projekts. Um schon zu Beginn die Planung richtig zu gestalten, sollte ein Projektleiter folgende Punkte berücksichtigen:

Erstens sollte er die nötigen CXO-Genehmigungen einholen und sich mit den Verantwortlichen abstimmen. Die meisten IoT-Projekte sind abteilungsübergreifend. So trägt ein Top-Down-Ansatz dazu bei, die Entscheidungsfindung und -umsetzung zu beschleunigen. Darüber hinaus sind für ein Projekt, das Technologien und Standards verwendet, die sich noch in der Entwicklung befinden, intensive Absprachen notwendig, um die entsprechenden Mittel und die Unterstützung der Führungskräfte zu erhalten. Andernfalls ist das Risiko sehr hoch, dass das Projekt scheitert.

Außerdem sollte der Projektleiter sicherstellen, dass auch eine regelmäßige Abstimmung zwischen Fachabteilungen und IT erfolgt. Das Internet of Things ermöglicht verbesserte oder veränderte Arbeitsabläufe und Geschäftsprozesse, welche die bestehende Technologie-Infrastruktur betreffen. Daher ist es von entscheidender Bedeutung, sorgfältig zu planen, Verantwortlichkeiten zu teilen und gemeinsame Ziele im Auge zu behalten.

Die richtigen Daten nutzen

Schließlich sollte der Projektmanager sicherstellen, dass das richtige Datenerfassungssystem eingesetzt wird. Dazu gehört die Ermittlung der zu erfassenden Daten sowie der Aufbau eines zuverlässigen Kommunikationskanals und einer IoT-Datenplattform, die aus den Daten relevante Informationen gewinnt. Sobald die Daten auf die richtige Weise erfasst wurden, lassen sich verwertbare Erkenntnisse daraus ziehen, um fundierte Entscheidungen zu treffen. Genau dies schafft einen deutlichen Mehrwert.

Entsprechend ergeben sich folgende Best Practices für IoT-Projekte:

  • Stellen Sie sicher, dass das Projekt definierte, greifbare Ergebnisse beinhaltet. Dies trägt dazu bei, den gewünschten Zeitplan einzuhalten.
  • Seien Sie realistisch bei der Planung Ihres IoT-Projekts. Sie sollten sich darüber im Klaren sein, in welchen Bereichen die Fähigkeiten Ihres Unternehmens begrenzt sind und wo es noch viel zu lernen gibt, damit Ihr Projekt Gestalt annimmt.
  • Eine IoT-basierte Business-Transformation erfordert auch ein umfassendes organisatorisches Change Management. Die Anpassung an neue Arbeitsweisen, neue Prozesse und neue Richtlinien muss schrittweise und behutsam erfolgen, um die gewünschten Ziele zu erreichen.
  • Große IoT-Projekte betreffen häufig mehrere Teams im Unternehmen. Diese sind von Anfang an einzubeziehen, um durch eine Kultur der gemeinsamen Verantwortung den Erfolg des Projekts zu gewährleisten. Sichern Sie auch das Engagement wichtiger Führungskräfte, damit das IoT-Projekt den notwendigen Fokus sowie Unterstützung von allen Bereichen des Unternehmens erhält.
  • Bauen Sie die nötigen Partnerschaften mit Teams innerhalb Ihres Unternehmens sowie mit externen IoT-Anbietern, Experten und Beratern auf. Damit können Sie Lücken bei Wissen oder Fähigkeiten schließen.

Fazit

Die Steigerung von Geschäftsergebnissen ist ein wichtiges Ziel eines erfolgreichen IoT-Projekts. Um Ihre IoT-Vision zu verwirklichen, müssen Sie jedoch flexibel und anpassungsbereit sein. Die Herangehensweise an solche Projekte mit einem hohen Maß an Kontrolle und festen Vorstellungen wird nur zu Enttäuschungen führen. Dagegen verspricht ein offener und kooperativer Ansatz wesentlich bessere Erfolgsaussichten.