Archiv der Kategorie: IOT

Der Schutz von kritischen OT- und IT-Umgebungen hat Priorität

Bestärkt durch sein solides, über dem Marktdurchschnitt liegendes Wachstum, verfeinert der Sicherheitshersteller Stormshield seine strategische Ausrichtung mit dem Ziel, zum europäischen Cybersicherheits-Bezugspunkt im Umfeld kritischer Infrastrukturen, sensibler Daten und Industrieumgebungen zu werden. Diese Ankündigung ist der Gipfelpunkt der Arbeit der letzten zwei Jahre zur Vorbereitung dieser Evolution.

Pierre-Yves Hentzen, CEO von Stormshield, ist der Ansicht, dass sich viele Unternehmen, öffentliche Einrichtungen und Betreiber wesentlicher Dienste der Bedeutung bewusst sind, die Kontrolle über ihre sensiblen Daten und kritischen Infrastrukturen zu behalten. „Darüber hinaus konvergieren IT und OT zu hyperverbundenen Umgebungen, was zur Entstehung größerer Angriffsflächen führt. Angesichts dieser Bedrohungen und deren dramatischen Auswirkungen auf die Sicherheit von Vermögenswerten und Personen müssen die betreffenden Unternehmen – unabhängig von ihrer Größe – Sicherheitsmaßnahmen einführen, die auf den Grad der Exposition ihrer IT- und OT-Umgebungen abgestimmt sind. Unser Ziel ist es, sie bei dieser Herausforderung zu unterstützen.“

Um dieses Projekt zum Erfolg zu führen, baut Stormshield auf festen Fundamenten auf:

  • Die erlangte Reife im Umfeld der OT-Technologien, die dem Unternehmen einen Vorsprung bei der Bewältigung der industriellen Cybersicherheitsanforderungen verschafft.
  • Ein Produktportfolio, das das weltweite Absicherungsbedürfnis von IT/OT-Umgebungen abdeckt.
  • Exzellente Lösungen europäischen Ursprungs, zertifiziert und qualifiziert von der französischen Organisation ANSSI und zugelassen von der Europäischen Union und der NATO gemäß den Richtlinien des kommenden europäischen Zertifizierungssystems.
  • Eine neue Segmentierung des Angebots, die auf dem Konzept der Kritikalität der Aktivität basiert.
  • Lokale Präsenz, die eine persönliche Beratung, einen reaktionsschnellen Service und die Fähigkeit zur präzisen Anpassung an die Kundenbedürfnisse gewährleistet.
  • Begeisterte Teams, die von dem Wunsch angetrieben werden, an der Schaffung eines vertrauenswürdigen digitalen Raums mitzuwirken.
  • Partner, die aufgrund ihrer Expertise ausgewählt wurden und eng mit Stormshield zusammenarbeiten, um neue Anforderungen für kritische und operative Umgebungen zu erfüllen.
  • Und schließlich ein starkes, profitables Wachstum in ganz Europa, das zusätzliche Investitionskapazitäten schafft.

Matthieu Bonenfant, Marketingdirektor von Stormshield, erklärt: „Unsere neue Roadmap wird es uns ermöglichen, unsere Kunden wirkungsvoll zu unterstützen, damit sie sich bedenkenlos auf ihre Kernaktivitäten konzentrieren können, die für den reibungslosen Betrieb der Institutionen und Wirtschaft sowie für die Erbringung der Bürgerdienste unerlässlich sind.“

Bonenfant führt aus: „Dieses Projekt führt alle Teams von Stormshield zusammen und wird zum Leitfaden aller Aktivitäten des Unternehmens in den kommenden Jahren. Kundennähe, Spitzentechnologien und Mitarbeiter, die sich für unsere neue Positionierung einsetzen: das sind die Säulen, worauf die Umsetzung unserer Ambitionen basiert. Stormshield den Vorzug zu geben bedeutet, sich dafür zu entscheiden, was uns bezeichnet, nicht nur im Hinblick auf europäische, menschliche und technische Werte, sondern auch auf Legitimität und Vertrauen. In diesem Rahmen, über unsere neuen strategischen Ziele hinaus, stehen wir allen Unternehmen zu Diensten, die unsere Werte und anspruchsvollen Standards teilen.“

Nach zwei Jahren, 2018 und 2019, die durch ein starkes Unternehmens- und Umsatzwachstum geprägt wurden (+57 % in dem Zeitraum), geht Stormshield mit neuen Ambitionen und dem Wunsch in das Jahr 2020, sein Ansehen als europäische Wahl im Bereich der Cybersicherheit zu erhöhen.

Testbeitrag

 

Er hörte leise Schritte hinter sich. Das bedeutete nichts Gutes. Wer würde ihm schon folgen, spät in der Nacht und dazu noch in dieser engen Gasse mitten im übel beleumundeten Hafenviertel?

Gerade jetzt, wo er das Ding seines Lebens gedreht hatte und mit der Beute verschwinden wollte!

Hatte einer seiner zahllosen Kollegen dieselbe Idee gehabt, ihn beobachtet und abgewartet, um ihn nun um die Früchte seiner Arbeit zu erleichtern? Oder gehörten die Schritte hinter ihm zu einem der unzähligen Gesetzeshüter dieser Stadt, und die stählerne Acht um seine Handgelenke würde gleich zuschnappen? Er konn

 

Warum Lösungen und Systeme, Industrie 4.0 / IoT nicht nur technische Fragestellungen oder Vertriebsthemen sind

Die Ausgangslage

Eine Studie des Fraunhofer Instituts und des BITKOM zum Thema „Industry 4.0“ zeigt, dass durch den Trend zu Industrie 4.0 und Internet of Things alleine in 6 Marktsegmenten in Deutschland bis 2025 78 Mrd. Euro an zusätzlichem Geschäftspotential realisiert werden können. Das entspricht einer jährlichen Wachstumsrate von 1.7%.

In der Schweiz dürften die Wachstumspotentiale ähnlich sein.

In aller Munde im Zusammenhang mit Industrie 4.0 ist die Technologie und die Vernetzung von Prozessen und Systemen – in den Funktionen Marketing, Vertrieb, Produkte-Management, Service, R&D und HR bedeutet dieser Trend jedoch einen Paradigmenwechsel, ohne den das genannte Potential nicht realisiert werden kann.

Worum geht es bei Industrie 4.0?

Nachdem lange Zeit die Begrifflichkeiten ungeklärt waren, ist der Begriff Industrie 4.0 zwischenzeitlich nahezu zu einem Buzzword verkommen. 

Brauchbare Definitionen zu Industrie 4.0 gab es jedoch vom Bitkom bereits in 2012 und 2014:  

https://www.bmbf.de/files/Umsetzungsempfehlungen_Industrie4_0.pdf

https://www.bitkom.org/Bitkom/Publikationen/Industrie-40-Status-und-Perspektiven.html

Es soll danach im Wesentlichen um das Internet der Dinge und das Internet der Dienste gehen. Dadurch sollen durchgängige Wertschöpfungsketten und eine Schaffung von neuen Angeboten und Geschäftsmodellen in Wertschöpfungsnetzwerken ermöglicht werden. 

Zwischenzeitlich wurden zu diesem Thema Umfragen durchgeführt:

https://www.industry-of-things.de/industrie-40-ist-kein-hype–wir-sind-mittendrin-d-37808/

Und das Deutsche Bundesministerium für Wirtschaft und Energie hat die digitale Strategie 2025 formuliert:

https://www.bmwi.de/Redaktion/DE/Publikationen/Digitale-Welt/digitale-strategie-2025.pdf?__blob=publicationFile&v=8

Beispiele aus der Praxis

In der Zwischenzeit ist das Thema im Alltag angekommen und Erfahrungen damit sind vorhanden. Diese lassen sich auswerten und man kann daraus lernen.  

Jede Firma hat eine andere Ausgangslage, entsprechend vielfältig sind die Herangehensweisen und die Herausforderungen, die sich daraus ergeben.  

Beispiel 1: Delegation in den Vertrieb und eine Schulung statt ein Projekt

Ein Hersteller von technischen Komponenten hat entschieden, das Potential von Industrie 4.0 zu nutzen, um damit ein Wachstum mindestens gleich stark wie der Markt zu haben. Man hat Markt-Segmente festgelegt, die mit Lösungen und Systemen strategisch angegangen werden sollen und dann das Thema mit einer Akquisitions-Schulung in den Vertrieb zur Umsetzung delegiert.

Im Zeitraum von ½ Jahr haben sich in der Folge Burn-Outs im Vertrieb gehäuft.

Die Führung hat festgestellt, dass diese Fragestellung kein reines Vertriebsthema ist und nur abteilungs-übergreifend gelöst werden kann.

Erkenntnisse:

  • Man hat eine strategische Fragestellung an die operative Ebene delegiert. Da wo die Wirkung auftritt, liegt nicht die Ursache
  • Bei der genannten Fragestellung handelt es sich um einen Kulturwandel und Veränderungsprozess, der die gesamte Firma betrifft.
  • Es ist unmöglich, einen solchen durch eine Schulung in einer Abteilung auszulösen. Das erfordert ein Projekt und den Fokus der Führung.

Kennzahlen:

Nach dem die Veränderung «richtig aufgehängt» wurde wächst diese Firma tatsächlich mindestens im Gleichschritt mit dem Markt und das Klima hat sich markant verbessert.

Bei einer anderen Firma mit einer ähnlichen Ausgangslage ist man durch das Angebot von Lösungen und Systemen über 7 Jahre in einem stagnierenden Markt jedes Jahr um >10% gewachsen. 

Beispiel 2: Eine agile Organisation anstelle des «Schwarzen Peters»

Ein Hersteller von IT-Lösungen ist trotz technisch prämierten Lösungen und einem Markt-Wachstum von >30% in der grössten Geschäftsstelle nicht gewachsen. Die Fluktuation in der Technik lag bei > 35% pro Jahr und die Stimmung war grottenschlecht. Man hat versucht, mit Mitarbeiter-Events und Ausflügen etwas Ruhe zu schaffen, das hat den Druck jedoch nur noch weiter erhöht.

Kunden haben mitgeteilt, dass man den Auftritt von Ressourcen dieser Firma wie einen Auftritt verschiedener Firmen erlebt.    

Eine Analyse hat gezeigt, dass die vom Markt geforderte Leistung (Durchgängige Wertschöpfungs- und Prozessketten) nur abteilungs-übergreifend effektiv erbracht werden kann. Zielsetzungen und Leistungs-Kriterien waren jedoch sehr heterogen entsprechend den Organisations-Silos gestaltet.  

Prozesse für die gemeinsame Markt-Bearbeitung und für die Gewinnung von Opportunities haben vollständig gefehlt. Und: das Image des Vertriebs war unterirdisch. Vertrieb wurde als keine Arbeit angesehen und entsprechend verachtet.

Es wurde entschieden, die Marktleistung «vom Kunden her» neu aufzubauen. Im 1. Schritt wurden für die Gewinnung der wichtigsten Opportunities sogenannte «Kompetenz-Teams zusammengestellt. In diesen Teams wurden alle Kompetenzen, die es für die Gewinnung der Opportunities braucht, zusammengefügt und entsprechend Zielsetzungen, gemeinsame Messkriterien und Prozesse geschaffen. Aktivitäten wurden gemeinsam festgelegt und in kurzen Sprints regelmässig abgestimmt.       

Nach einer kurzen Anlaufzeit hat sich die Niederlassung in 4 selbst-organisierte Teams organisiert. Es gibt eine Koordination mit dem internen Kunden. Die Teams bewerben sich um die Leads und werden daran gemessen, dass daraus eine Opportunity und später ein Auftrag wird. Darauf hat sich die Abschlussquote sofort verdoppelt und ein «Winner-Spirit» hat sich eingestellt. 

Die Teams haben nach diesen positiven Erfahrungen entschieden, dass dies die künftige Organisationsform ist und diese bis heute beibehalten.

Nach 1 Jahr haben sich die Anzahl gewonnener Opportunities verdoppelt und die Fluktuation lag bei 0.5%. Nach einem weiteren Jahr haben sich die Anzahl Opportunities ein weiteres Mal verdoppelt.

Erkenntnisse:

  • Ein systemisches Problem kann nicht aus einer Abteilung heraus gelöst werden
  • Der Vertrieb ist (zu) oft alleine daran «schuld» wenn Ziele nicht erreicht werden
  • Eine Optimierung der Markt-Leistung «vom Kunden her» kann unglaubliche Potentiale freisetzen und eine völlig neue Leistungskultur schaffen
  • Das setzt eine Bereitschaft zur Veränderung und zum Verlassen der Komfortzone aller Beteiligten voraus
  • Ein klassischer Fokus auf die Identifikation und Behebung von Schwächen der Mitarbeiter trägt in dieser Situation nichts zur Lösung bei  
  • Stärkeres Controlling z.B. durch die Forderung nach einer grösseren Anzahl von Kundenbesuchen wäre ebenso kontraproduktiv gewesen. Um das Problem zu lösen bedarf es einem Verständnis, wie Leistung zustande kommt

Kennzahlen:

Nach 1 Jahr haben sich die Anzahl gewonnener Opportunities verdoppelt und die Fluktuation lag bei 0.5%, nach >35% im Vorjahr. Nach einem weiteren Jahr haben sich die Anzahl Opportunities ein weiteres Mal verdoppelt. Der Durchschnittswert pro Abschluss hat sich erhöht. 

Industrie 4.0 ein Veränderungsprozess und soll als Veränderung geführt werden

Ein systematisches, bereichs-übergreifendes Vorgehen ist erfolgskritisch, um die Chancen nutzen zu können.

In den Funktionen Marketing, Vertrieb, Produkt-Management, Service, R&D und HR bedeutet dieser Trend jedoch einen Paradigmenwechsel. Dadurch verändern sich Funktionen und Inhalte. Der Vertrieb ist weniger Ueberbringer technischer Informationen und Features von Einzelprodukten. Er tritt künftig als Spezialist für Prozess-Optimierungen bei Kunden auf.  

Auch Marketing und Produktmanagement erleben den Rollenwechsel. Das Lösungs-Portfolio verändert sich – weg vom Einzelprodukt hin zu Lösungen und Systemen, die möglichst ganze Wertschöpfungsketten und einen vollständigen Life-Cycle umfassen. Das bedeutet eine Aufwertung des Marketings und der Produkt-Managements. Weg vom Druck von Produkte-Katalogen hin zu einer technologie-übergreifenden Funktion, die von den Prozessen des Kunden ausgeht.    

Ein Umbruch in einer solchen Dimension löst zudem Fragen und Ängste aus. Mitarbeiter wollen einen Sinn erkennen, mitgestalten können und an neue Anforderungen herangeführt werden.   

 

Über den Autor

Thomas Zimmerli ist Unternehmensberater mit internationaler Erfahrung in der Generierung von Wachstum und Wertschöpfung im B2B-Geschäft in der Industrie. Ein emotional kompetenter und teamorientierter Manager mit einer Kernkompetenz in Transformationsprozessen von Produkten zu Lösungen und Systemen / Industrie 4.0 / IoT sowie strategischem Marketing und Vertrieb. Entwickelt Leistungskulturen, leitet systemische Veränderungen, entwickelt gemeinsam erfolgreiche Strategien und Geschäftsmodelle und unterstützt eine effektive operative Ausführung. Erfahren vom Start-up bis zum globalen Konzern.
Erfahrung aus über 500 Beratungsprojekten im B2B-Umfeld seit 2003

Nähere Infos: https://www.zimmerli-consulting.com, zimmerli@zimmerli-consulting.com

#Industry4.0 #IoT #SolutionsandSystems #Industry4.0requiressales4.0 #Sales4.0 #Transformation #MindSet #PerformanceCulture

Sharing Economy für Daten? Raus aus den Silos – Free your Data!

„Sharing Economy“, „Platform Economy“ und natürlich die nicht totzukriegende Phrase von den Daten als dem „neuen Gold“, respektive dem „Öl des 21. Jahrhunderts“ prägen schon seit langem die Diskussion um die digitale Transformation. Dabei zeigt sich jedoch, dass es – gerade hierzulande – offensichtlich schwierig ist, diese Themen von einer rein theoretischen Betrachtung auf eine praktische Ebene zu hieven. In der Theorie mag das alles nachvollziehbar und vernünftig klingen, aber warum hapert es dann sooft an der Umsetzung in der Unternehmensrealität?

Daten als Kern der Plattformökonomie


In der Plattformökonomie geht es um die Etablierung von Standards, um die Schaffung von Netzwerkeffekten durch die Errichtung einer zentralen Plattform, die die Zugänge auf einem bestimmten Markt herstellt und damit kontrolliert – wir alle kennen die vielzitierten einschlägigen Beispiele von Uber („das weltgrößte Taxisunternehmen besitzt selbst kein einziges Taxi…“), Booking.com, Facebook, Amazon oder Google. Daten spielen hierbei eine ganz entscheidende Rolle. Nur durch deren Auswertung und durch den zielgerichteten Einsatz der daraus gewonnenen Erkenntnisse lassen sich die Kundenbeziehungen organisieren und das System insgesamt mit Leben füllen. Daten sind damit gleichzeitig DNA und zentrales Nervensystem der Plattformen.

Plattformökonomie: Gatekeeper mittels Daten

Der Plattformökonomie wird attestiert, dass sie tradierte Märkte aushebelt: Erfolgreiche Plattformen zwängen sich als Gatekeeper zwischen Endkunde und ursprünglichem Anbieter. Letztere verfügen zwar eigentlich über die notwendigen „Hard Assets“ – die Taxis, Hotels oder Content – werden somit aber gewissermaßen zum bloßen Zulieferer „degradiert“, mit entsprechenden Folgen für Autonomie und Ertragskraft. Wer diesem Schicksal enteilen will, hat nur die Chance, entweder eigene Plattformen zu gründen oder sich selbst mit entsprechenden Netzeffekten und datenökonomischen Instrumenten zu wappnen.

Skaleneffekte in der Datenökonomie

Die zentrale Frage lautet dabei stets: Wie lässt sich das eigene Leistungsversprechen durch die Verknüpfung mit Daten aufwerten? Entscheidend in diesem Kontext ist, dass nur der Zugang zu massenhaften Daten echte Wertschöpfung ermöglicht. Ein einzelner Datensatz ist stets wertlos. Werte entstehen in der Datenökonomie erst, wenn Verknüpfungen hergestellt und Muster identifiziert werden, wenn es gelingt, daraus die „Soft Assets“ zu schaffen, die das ursprüngliche Leistungsversprechen auf diese Weise entscheidend anreichern.
Schiere Größe ist in der Plattformökonomie wie überhaupt in der Digitalen Wirtschaft meist ein entscheidender Vorteil. Alle Technologieunternehmen, die heute die digitalen Märkte dominieren, haben ab einem bestimmten Zeitpunkt auf die Generierung von Skaleneffekten gesetzt. Für den hiesigen Mittelständler, selbst auch für die großen, global tätigen Unternehmen hierzulande, etwa aus dem Automobil- und Maschinenbau, stellt sich dann natürlich die Frage, wie es möglich ist, da mitzuhalten – auf den ersten Blick ein unmöglich erscheinendes Unterfangen. Im eigenen Verfügungsbereich sind meistens nur beschränkte Datenressourcen vorhanden. Wertzuwächse hängen gleichwohl aber sehr wesentlich von der Menge der verarbeitbaren Daten ab.

Synergieeffekte entstehen nur, wenn Daten aus ihren Silos befreit werden

Die Antwort darauf kann nur in der Erzeugung von Synergieeffekten liegen. Diese entstehen jedoch nur, wenn es gelingt, Daten aus ihren Silos zu befreien und für die Vernetzung freizugeben. In vielen Unternehmen werden Daten streng getrennt von einander vorgehalten. Das hat einerseits natürlich technische Gründe – die Hürden bei der Zusammenführung – Systeminkompatibilitäten, unterschiedliche Datenstrukturen und Dopplungen – erscheinen nicht selten beträchtlich. Andererseits stehen allzu oft auch Revierstreitigkeiten und Befindlichkeiten von „Provinzfürsten“ im Unternehmen einer Zusammenführung im Weg.

Jenseits des eigenen Horizonts

Natürlich muss es gelingen, diese Hindernisse aus dem Weg zu räumen, entweder durch gute Führungsleistung oder technisch, mittels ausgefeilteren technologischen Ansätzen zur Datenstrukturierung, etwa auch aus dem Bereich des maschinellen Lernens. Allein das wird in den meisten Fällen nicht reichen. Selbst wenn es gelingt, diese internen Erschwernisse zu beseitigen, ist der Bedarf an Daten und die Anforderungen an die Anzahl und Detaillierung von Datensätzen kaum von einem Unternehmen allein zu bewerkstelligen. Zukunftstechnologien wie Künstliche Intelligenz und Virtual Reality sind in großem Maße Daten getrieben. Wenn die einzige Quelle zu deren Erzeugung und Sammlung das eigene Unternehmen ist, dürfte das kaum ausreichen, um hier Erfolge zu erzielen.

Hoher Datenbedarf: Künstliche Intelligenz, Blockchain & Co

Insbesondere das Training von KI, im Wege von Deep Learning und mittels Künstlicher Neuronaler Netzwerke, erfordert riesige Mengen von Datensätzen. Nur wenn diese Vielfalt gewährleistet ist, kann es dem System gelingen, Muster zu identifizieren und „Erlerntes“ eigenständig auf neue oder wenigstens „verwandte“ Sachverhalte zu projizieren.

Sharing Economy für Daten

Daher gilt es, den Blick auch über den Tellerrand hinaus kreisen zu lassen und die notwendigen Synergien auch außerhalb des eigenen exklusiven Zugriffsbereich zu suchen. Vielleicht ist es notwendig, hier neue Formen der Kooperationen zwischen einzelnen, unter Umständen sogar konkurrierende Marktteilnehmern zu etablieren: eine Art „Sharing Economy“ für den Datenaustausch und den Betrieb gemeinsamer Datenplattformen. Denkbar wären beispielsweise Cloud basierte Lösungen, die Skalierungen und die Einbindung von Drittdaten sowie auch den Rückgriff auf externe Rechnerkapazitäten ermöglichen. Das Zusammentreffen von Machine- und Deep-Learning und nahezu unlimitierter, kostengünstiger Rechenleistung aus der Cloud könnte vielen Unternehmen einen “barrierefreien” Einstieg in die Arbeit mit Künstlicher Intelligenz ermöglichen.

Kooperationen in der Cloud?

Tatsächlich gibt es bereits erste derartige Kooperationen und Plattformen, die den gegenseitigen Austausch von Daten sowie auch kompletter Lern- und Trainingsmodelle für KI ermöglichen. NVIDIA, als Hersteller von Grafikkarten ursprünglich bekannt und groß geworden, betreibt etwa eine eigene Cloud basierte Plattform zum Simulieren und Testen des Fahrbetriebs autonomer Fahrzeuge. Zu den teilnehmenden Unternehmen gehören die großen Automobilhersteller, wie Daimler, Toyota, Audi und VW oder Tesla. Die „offene“ Plattform ermöglicht es, so NVIDIA, „selbstfahrende Autos, Lkws und Shuttles zu entwickeln und einzusetzen, die funktionssicher sind und nach internationalen Sicherheitsnormen zertifiziert werden können.“

Blockchain & KI

Auch aus der Kombination von Blockchain und KI ergeben sich Anwendungsszenarien. Das Berliner Start-Up XAIN arbeitet unter anderem mit Infineon zusammen, um Zugriffsrechte auf Fahrzeugfunktionen durch KI-Algorithmen zu regeln, ohne dass dabei private Daten der Automobilnutzer zentral gespeichert werden müssen. Über das so geschaffene Netzwerk können lokale KI-Algorithmen voneinander lernen, ohne Datenhoheit und die Privatsphäre der beteiligten Anwender zu tangieren.

Blockchain für Datentransaktionen

Das finnisch-schweizerische Unternehmen Streamr bietet den Blockchain basierten Zugang zu einer „Open-Source-Plattform für den freien und fairen Austausch der Echtzeitdaten weltweit“ an und will Datenströme auf diese Weise dezentral zwischen vielen möglichen Beteiligten handelbar machen. Auf diese Weise wäre ein breiter Austausch und der Zugriff auf eine Vielzahl von Daten insbesondere auch für Trainingszwecke möglich, der zudem auch einen finanziellen Anreiz für die Teilnehmer bereithält, ihre Daten zur Verfügung zu stellen. Ähnliche Ansätze existieren zu Hauf im Silicon Valley. Der dezentrale, „distribuierte“ Handel mit Daten ist von einer Reihe von Unternehmen bereits zum Geschäftsmodell erkoren worden. SingularityNET etwa bietet eine Plattform, auf der Entwickler ihre Leistungen im Austausch für andere KI-Dienste oder auch Krypto-Entgelte anbieten können.

Neues Denken erforderlich

Der Rückgriff auf solche Angebote und Verfahren setzt jedoch ein Umdenken, ein grundsätzlich anderes „Mindset“ voraus als vermutlich in den meisten Unternehmen derzeit vorherrscht. Natürlich auch bedingt durch gesetzliche Vorgaben wie DSGVO und ePrivacy-Verordnung, aber eben auch durch eine grundsätzlich restriktive Denkweise, tendieren viele Entscheider dazu, Daten als „exklusiv“ zu betrachten. Das freie und freigiebige Teilen des „Datengoldes“ erscheint vielen schlichtweg abwegig.

“Nur zusammen sind wir stark”

Doch wenn gleichwohl Daten immer ein exklusiver Vorteil innewohnt: in der digitalen Ökonomie lässt sich echter Wert nur durch Größe und vielfältige Anreicherung erzielen. Wenn – was die Regel ist – ein Einzelner dazu nicht in der Lage ist, bleibt nur, das Heil in der Kooperation und im intensiven gegenseitigen Austausch, auch gerade mit vermeintlichen Konkurrenten, zu suchen. Nur so könnte langfristig die Chance gewahrt wären, gegen die Technologie-Riesen aus USA und zunehmend auch aus China zu bestehen.

Daher gilt: Free Your Data – Gebt den Daten ihre Freiheit zurück!

Drohnen-Geschäft auf Höhenflug

Mit der Marktstudie „Analyse des deutschen Drohnenmarktes“ hat der Verband Unbemannte Luftfahrt (VUL) erstmals eine Untersuchung des deutschen Drohnenmarktes vorgelegt, die auf tatsächlichen Marktdaten beruht. Um die Ergebnisse der Studie zu verifizieren, wurden Experten von 20 deutschen Unternehmen interviewt, die am Drohnenmarkt tätig sind – unter anderem auch von FlyNex.

Die aktuelle Nachfrage am kommerziellen Markt bei sogenannten UAV (Unmanned Aerial Vehicle) beläuft sich in der Bundesrepublik auf etwa 404 Millionen Euro – und der wahre Boom kommt erst noch. Bis 2030 erwartet der VUL ein Marktwachstum auf knapp 2,5 Milliarden Euro. Das bedeutet ein jährliches Wachstum um 16 Prozent.

Einer der wichtigsten Faktoren für den Erfolg kommerzielle Drohnennutzung sind dabei Karten- und Flugdaten. Zentraler Ausgangspunkt bildet dabei immer die Planung von Flügen, basierend auf derzeit noch z.T. unklaren gesetzlichen Vorgaben. Das Leipziger Unternehmen FlyNex hat sich auf den Einsatz kommerzieller Drohnen-Einsätze spezialisiert. Damit ist FlyNex derzeit als einziger Anbieter für digitale Luftraumdaten, die für Drohnen und unbemannte Flüge gebraucht werden.

Immer mehr Branchen greifen auf die kosten- und zeitsparende Nutzung von Drohnen zurück. Nicht nur Forst- und Landwirtschaft, sondern auch Bau- und Energie-Unternehmen steigen wiederholend auf Drohnen um. Laut FlyNex sind es gerade Energienetzbetreiber und die Bauchwirtschaft, die hauptsächliche Nutzer und Auftraggeber für professionelle Drohnenpiloten sind. Insgesamt 19.000 Drohnen wurden von Unternehmen in 2018 schon zu kommerziellen Zwecken eingesetzt.

Das Wachstum für kommerzielle Anwendungen klingt vielversprechend. Es wird erwartet, dass der Markt im kommenden Jahrzehnt um ganze 22 Prozent pro Jahr auf über 400 Millionen Euro im Jahr 2030 anwächst. Schon heute zeigen von FlyNex erhobene Daten das wachsende Interesse an kommerzieller Drohnentechnologie und der dazugehörigen Software. Dieses Interesse schlägt sich unter anderem in den rasant steigenden Zahlen von beruflichen Drohnenpiloten nieder. Nutzten im vergangenen Jahr knapp 1.000 Anwender Software und Karten von FlyNex für den kommerziellen Einsatz, ist die Anzahl an professionellen Betreibern bereits um das Vierfache im Jahr 2019 gestiegen.

Sollte die VUL-Studie recht behalten steht der kommerziellen Drohnenbranche also eine rosige Zukunft bevor. Jedoch, und das bleibt zu betonen, ist auch hier ein wichtiger Faktor für die weitere Entwicklung, auf welche Auflagen und Vorschriften sich der Gesetzgeber und die Industrie in den nächsten Jahren einigen. Das Potenzial für geringere Wartungskosten und Zeitaufwand konnte schon bewiesen werden.

Die Cloud ist wesentlicher Treiber der digitalen Transformation

Viele Manager und Unternehmer winken genervt ab, wenn sie mit Buzzwords wie „Digitale Transformation“, „Digitalisierung“ oder auch „digitaler Wandel“ konfrontiert werden. Ihre ablehnende Haltung ist durchaus verständlich: Während es manchen Unternehmen bereits gelungen ist, ihr Geschäftsmodell, ihre Prozesse, ja sogar das Mindset ihrer Mitarbeiter zu „digitalisieren“, sieht die Realität im Gros der Unternehmen anders aus: Sie wissen eher schlecht als recht, an welchen Stellschrauben sie zuerst drehen sollen, um das Ruder in Richtung digital herumzureißen.

Digitalisierung ist in vollem Gange

Die Lünendonk-Studie „Fit für die digitale Transformation. Status quo und Ziele bei Legacy-Modernisierung und Cloud-Migration“, die in Zusammenarbeit mit Arvato Systems entstanden ist, gibt einen sehr detaillierten Einblick in die IT-Modernisierungsstrategien großer mittelständischer Unternehmen und Konzerne. Die Datenerhebung erfolgte im Herbst 2018 auf Basis von Telefoninterviews mit IT-Führungskräften von 122 Unternehmen aus dem gehobenen Mittelstand, Großunternehmen und Konzernen. Viele Unternehmen befinden sich inmitten eines weiteichenden Digitalisierungsprozesses, es gibt viel zu tun – und zwar gleich auf mehreren Ebenen. Neben der Strategie sind auch die Produktentwicklung, die Aufbau- und Ablauforganisation sowie die IT-Landschaft zu transformieren.

Start-ups haben strategische Vorteile

Wie zielführend und schnell das gelingt, hängt maßgeblich davon ab, wie lange ein Unternehmen bereits am Markt ist. Start-ups können ihre Business- und Operating-Modelle, ihre Prozesse und ihre IT-Landschaft von Beginn an agil, kundenzentriert und datenbasiert gestalten. Darin liegt im Übrigen auch der Erfolg der großen Internetkonzerne wie Google und Amazon begründet. Hier sind die Geschäftsprozesse eng miteinander verzahnt, über Microservices und APIs ist es möglich, Plattform-Geschäftsmodelle aufzubauen und Drittsysteme nahtlos an die eigene IT-Landschaft anzubinden. Zudem können sie auf einen großen Datenbestand zugreifen und gewinnbringend auswerten.

Etablierte Unternehmen müssen radikal umdenken

Demgegenüber stehen etablierte Firmen und Konzerne vor der Herausforderung, zunächst komplexe Legacy-Prozesse zu digitalisieren und inhomogene IT-Strukturen, basierend auf historisch gewachsenen Altsystemen, aufzulösen. Auch etablierte Unternehmen brauchen eine schnittstellenoffene, flexible, hochskalierbare und agile IT.

Dementsprechend kommt die Studie zu folgenden Ergebnissen:

  • Treiber der IT-Modernisierung gibt es viele: Legacy-Systeme sind üblicherweise nicht in der Lage, neue Technologien wie KI oder Big-Data-Analytics zu unterstützen, was eine Modernisierung dringend erforderlich macht. Erschwerend kommt hinzu, dass viele Altsysteme keine offenen Schnittstellen (APIs) haben und darum nicht mit neuen digitalen Lösungen integrierbar sind.
  • Die Mehrheit der befragten Unternehmen modernisiert aktuell ihre IT-Infrastruktur. Altanwendungen in die Cloud zu migrieren und sie anschließend zu modernisieren, ist dabei die präferierte Vorgehensweise.
  • Ein Fünftel der befragten Unternehmen setzt bereits auf eine Cloud-First-Strategie, gut ein Viertel plant dies. Auch wenn die meisten Unternehmen derzeit eine Private-Cloud nutzen, sind viele gegenüber der Public Cloud zunehmend aufgeschlossener. 67 Prozent der Befragten planen, ihre Investitionen in die Public-Cloud stark bis sehr stark zu erhöhen.
  • Die Gründe, aus denen Unternehmen ihre IT-Systeme in die Cloud migrieren, sind vielfältig. Sie wollen Lastspitzen abfangen, Daten schneller verfügbar machen und flexibler agieren können. Bedenken bestehen allerdings hinsichtlich Sicherheit. Für bestimmte, geschäftskritische Anwendungen mit sensiblen Daten ist und bleibt die Legacy-Modernisierung im On-premise-Modell eine realistische Alternative.
  • Für Dreiviertel der befragten Unternehmen ist es eine Herausforderung, Cloud-Lösungen an die bestehende IT-Systemlandschaft anzubinden. Dass Daten häufig nicht interoperabel und Security- sowie Compliance-Anforderungen nur mangelhaft umgesetzt sind, ist ein weiteres Problem. Bei der Modernisierung von Legacy-Systemen haben Unternehmen vornehmlich Schwierigkeiten, Sicherheitsanforderungen zu erfüllen. Zudem betrachten sie den möglicherweise hohen Zeitaufwand als kritischen Faktor.
  • Um ihre Unternehmensorganisation an die veränderte IT-Infrastruktur anzupassen, setzen 90 Prozent der Unternehmen auf eine stärkere Vernetzung von Bereichen, Prozessen und Systemen. Daneben bilden sie ihre Mitarbeiter fort und arbeiten verstärkt mit IT-Partnern zusammen. Zweidrittel der Befragten greifen auf DevOps zurück.

Investitionen in die Cloud erhöhen

Da es viele Unternehmen in der Vergangenheit versäumt haben, ihre Legacy-Systeme radikal zu modernisieren, ist der Handlungsdruck nun sehr hoch. Vor allem die Fachbereiche erwarten automatisierte Prozesse und vollintegrierte digitale Lösungen. Ein wichtiger Baustein der Modernisierung besteht darin, Altsysteme sukzessive cloudfähig zu machen beziehungsweise durch APIs und Microservice so zu verändern, dass sie hybride Modelle abbilden können. Dementsprechend investieren Unternehmen immer stärker in die Cloud.

Ohne externe Partner geht es nicht

Die meisten deutschen Unternehmen sind zwar auf einem guten Weg, benötigen bei der digitalen Transformation jedoch externe Unterstützung. Neue strategische Partnerschaften sind für die meisten der befragten Unternehmen eine wichtige Voraussetzung, um ihre IT digital aufstellen zu können. Der Mangel an IT-Fachkräften und der Zeitdruck sind jedoch zu groß, als dass Unternehmen dies alleine bewältigen könnten.

Die Ergebnisse der Studie sind unter https://www.arvato-systems.de/arvato-systems/beratung-innovation/innovation verfügbar.

Künstliche Intelligenz – Der richtige Einsatz in der Qualitätssicherung

Ob in der Tablettenproduktion, in Getränkeabfüllanlagen oder im detektieren bestimmter Materialformen: Die Bilderkennung ist oft ein zentraler Teil innerhalb des Qualitätsmanagements. Für eine in der Vergangenheit erfolgreiche Integration spielte es eine wichtige Rolle, feste Algorithmen zu erstellen. Diese bezogen sich auf Form, Anzahl oder Lage von Objekten, um Abweichungen innerhalb der Produktion zu erkennen. Allerdings sind dabei häufig Fehler aufgetreten, denn beispielsweise Lichtveränderungen oder neue Bildhintergründe konnten durch die feste Programmierung nur sehr schwer erkannt und richtig interpretiert werden.

KI als Problemlöser

KI funktioniert in der Bilderkennung anders. Zwar werden in gleicher Weise die verschiedenen Algorithmen verwendet, um die zu erkennenden Objekte zu beschreiben, aber das System wird zusätzlich mit Daten angefüttert, sodass ein eigener Lernprozess beginnen kann. Innerhalb dieses Deep-Learning-Prozesses werden neue Fehlerbilder hinzugefügt, damit Unterschiede, ähnlich wie beim Menschen, anhand der verschiedenen Bilder erkannt werden können. Das System lernt gleichzeitig hinzu und verbessert sich stetig.

 Wie funktioniert das? Die notwendige Hardware sowie unterschiedliche Software-Tools sind bereits heute auf dem Markt vorhanden. So benötigen Unternehmen beispielsweise keine kostspieligen Supercomputer. In manchen Fällen genügen sogar die vorhandenen Rechner. Entscheidend ist letztendlich, welche Geschwindigkeit für die Datenerfassung und daraus folgend welche Prozessoren verwendet werden müssen. So ist für eine Auswertung in Echtzeit natürlich eine andere Rechenleistung notwendig als für ein abschließendes Reporting zum Ende einer Produktionsschleife. Am besten eignen sich als Prozessoren für die Bilderkennung sogenannte Tensor Processing Units (TPUs). Sie sind speziell für Matrixmultiplikationen konstruiert und benötigen weniger Strom. Insgesamt muss für die benötigte Hardware oft nicht mehr als ein unterer bis mittlerer vierstelliger Betrag ausgegeben werden.

Für den Deep-Learning Prozess benötigt man zudem eine entsprechende Software. Hier geht es vor allem darum, die Daten der erfassten Objekte zu interpretieren. Umsetzbar wird das beispielsweise durch die Anwendung Google TensorFlow. TensorFlow ermöglicht die Koordination und Steuerung der verschiedenen Prozessoren, wodurch erst die notwendigen Rechenleistungen bereitgestellt werden können. Außerdem unterstützt das Programm bei der Erstellung von Datenflussgrafiken, die dem Qualitätsmanagement dabei helfen, Fehler bei der Bilderkennung zu identifizieren und lokalisieren.

KI für die Homologation

Die Zulassung neuer Automodelle (Homologation) stellt die Automobilhersteller oft vor schwierige Aufgaben. Das Kraftfahrt-Bundesamt ist in Deutschland für sämtliche Zulassungen verantwortlich. Doch was in Deutschland vorgeschrieben ist, trifft nicht unbedingt auf alle Länder zu. Vor allem in China und den USA gelten andere Bedingungen. Deshalb informieren eine Vielzahl von Aufklebern über den baulichen Zustand des Fahrzeuges. Wichtig ist hierbei natürlich, dass die richtigen Informationen aufgeführt werden und die verschiedenen Sticker an den vorgesehenen Stellen angebracht sind. Man kann sich nun den Aufwand der Kontrolle jedes einzelnen Aufklebers bei Einfuhren von mehreren tausend Fahrzeugen vorstellen. Um diesen Prozess deutlich zu beschleunigen und damit schlussendlich Kosten zu sparen, entwickelte elunic für einen Automobilhersteller eine passgenaue Software: Mit Hilfe eines Handscanners und einer App können die Positionen und Informationen der Aufkleber schnell geprüft werden, so dass vor den jeweiligen Zulassungen ein geringeres Fehlerrisiko besteht. Dazu wurden im Vorfeld eine Vielzahl von Aufkleber-Informationen und -Positionen gesammelt und mittels TensorFlow der Machine-Learning-Prozess gestartet. Das System ist nun in der Lage, auf hohem Niveau Fehler schnell zu erkennen und sich dabei mit jedem Scan weiter zu verbessern. Damit kann in Zukunft verhindert werden, dass beispielsweise tausende Autos am Zoll feststecken und nicht ins Land gelassen werden.

Künstliche Intelligenz für die Bildverarbeitung ist nur ein Beispiel für unzählige Anwendungen in der Industrie. Denn neben der Bilderkennung sind Deep-Learning Prozesse für alle anderen Sinne ebenso möglich. Ob Hören über Sprache, Fühlen mit Hilfe von Sensoren oder Schmecken dank Messgeräten, die Produktion der Zukunft wird deutlich intelligenter werden.

Warum die Welt nicht wirklich vernetzt ist – noch nicht.

Auch wenn es so aussieht, als würden wir in einer vollständig verbundenen Welt leben, sind wir es nicht. Und da das Internet der Dinge die Anzahl und den Umfang der angeschlossenen Geräte drastisch erweitert, bietet das traditionelle Modell der Kommunikationsverbindung nicht mehr die Flexibilität und Autonomie, die die Verwaltung von länderübergreifenden IoT-Projekten erfordert. Eigentlich benötigen Unternehmen ein einziges, globales Mobilfunknetz – oder zumindest eines, dass nahtlos erscheint.

Doch die Realität sieht anders aus: Das Internet der Dinge steckt noch in den Kinderschuhen. Im Moment ist die Konnektivität oft auf die Vertragsgefüge der Carrier beschränkt. Wenn AT&T beispielsweise nicht in einer bestimmten Region aktiv ist, haben AT&T-fähige Geräte eine zunächst einmal eine Verbindungsproblematik. Mit einer globalen IoT-Plattform können Geräte – unabhängig vom Standort – zu einem möglichst niedrigen Preis ständig verbunden bleiben oder für eine bestmögliche Konnektivität ständig verbunden werden.

Die Datennutzung nimmt sehr schnell zu, und die meisten Mobilfunkbetreiber können ihre Netze nicht im gleichen Tempo bereitstellen. Dadurch ergeben sich Möglichkeiten für Unternehmen, ihre eigenen globalen Konnektivitätsnetzwerke aufzubauen. Ein globaler Anbieter von virtuellen Netzwerken kann in allen wichtigen Jurisdiktionen tätig sein, in denen die meisten Mobilfunkbetreiber nicht erreichbar sind, wodurch ein wirklich globaler und flächendeckender Zugang zu Konnektivitätsdienstleistungen erst möglich wird.

Globale Auswirkungen

Das Internet der Dinge bietet Einblicke und erhellt Situationen, die bisher verborgen lagen: Transparenz und Einblicke in Aktivitäten vom verbesserten Flottenmanagement für Nutzfahrzeuge über den effizienten Betrieb von Fluggesellschaften bis hin zur verbesserten medizinischen Versorgung und vernetzten Fahrzeugen. Die Erschließung des Potenzials des Internet der Dinge (IoT) ist heute ein Schlüsselelement in digitalen Transformationsprogrammen für Unternehmen.

Nehmen wir ein Beispiel aus der Logistik: Sie geben ein Paket an DHL oder FedEx weiter und es landet an der Lieferadresse. Während es möglich ist, online einzusehen, wann und wo es angenommen wurde, ob es in einem Versanddepot liegt und ob es auf dem Weg zum Ziel ist, ist das nur ein Teil der Geschichte. Mit einem global vernetzten Netzwerk können verschiedene Sensoren, die den Standort des Pakets übermitteln, genau sagen, wo sich das Paket auf seiner Reise befindet und welche Umweltbedingungen während der Fahrt herrschen. Dadurch ergeben sich neue Geschäftsmöglichkeiten, etwa bei verderblichen Waren.

Jetzt können Unternehmen aus den Bereichen Logistik und Spedition sicherstellen, dass ihre Fahrer immer mit dem Heimatstandort verbunden sind. Und Manager können mit der Analysesoftware die wichtigsten Leistungsaspekte ihrer Flotten weltweit und zu jeder Zeit verfolgen und analysieren. Dies hat derivative Effekte wie niedrigere Versicherungsprämien und eine bessere Verfügbarkeit der Wartungsdaten.

So unterstützt beispielsweise die thailändische DRVR Unternehmen in Europa und Asien bei der Disposition von Fahrzeugen und senkt die Kraftstoffkosten. Die angeschlossenen Sensoren von DRVR können erkennen, ob die Tür eines Fahrzeugs für einen bestimmten Zeitraum offen war oder ob sich eine bestimmte Position außerhalb der zulässigen Grenzen befindet. Die Herausforderung besteht darin, dass es in den Gebieten, in denen die Kunden von DRVR unterwegs sind, mehrere lokale Mobilfunkanbieter gibt. Bisher ist der einzige Weg, auf Daten in all diesen Regionen zuzugreifen, ein Vertrag mit jedem Mobilfunkbetreiber in jeder Region. Das wäre teuer und ein operativer Alptraum. Mit einem globalen Netzwerk, das grenzüberschreitende Verbindungen bietet, wäre das kein Problem.

Ein weiteres Beispiel ist die Luftfahrtindustrie. Die Mitarbeiter benötigen eine Konnektivitätsplattform, die ein besseres Kundenerlebnis bietet, während sie den Betrieb in länderübergreifenden Einsätzen koordiniert. Unsere MOVE-Plattform hilft beispielsweise einer im Mittleren Osten ansässigen, global operierenden Fluggesellschaft, sicherzustellen, dass ihr Betrieb in jedem Teil der Welt funktionsfähig ist. Wir bieten lokale Mobilfunkbetreiberverbindungen und Betreiber-unabhängige Roaming-Kostenverwaltung und Signalstärke. Diese Vereinbarung hilft der Fluggesellschaft, die beste Servicequalität auf allen Kontinenten, auf denen ihre Flotten tätig sind, zu gewährleisten.

Die Automobilindustrie ist eines der besten, aber auch anspruchsvollsten Beispiele für das Potenzial eines globalen Netzwerks. Die Fähigkeit eines Fahrzeugs, sich mit der Außenwelt zu verbinden, verbessert ohne Zweifel das Fahrer- und Passagiererlebnis und bietet spannende neue Möglichkeiten für Dienstleistungen. Automobilhersteller, Versicherungen und Telematikanbieter haben ein großes Interesse an den Leistungsdaten eines Fahrzeugs, mit denen sie Aspekte des eigenen Betriebs und der Instandhaltung optimieren, Infotainment-Dienste der nächsten Generation mit zusätzlicher Sicherheit und immer größeren Mehrwert für den Fahrzeughalter bieten können.

Dennoch: Neue vernetzte Fahrzeuglösungen, insbesondere solche in der Anfangsphase, sind komplex und entstehen aus einer fragmentierten Kombination des Know-hows unterschiedlicher Anbieter. Die Herausforderung für den Automobilhersteller besteht darin, Anwendungsfälle zu entwickeln, die den Bedürfnissen seiner Kunden am besten entsprechen und diese mit höchster Effizienz und geringster Komplexität erfolgreich umzusetzen. Mit einer globalen, einheitlichen Integrationsplattform wie Tata Communications MOVE wird der Zugang zu 600 Mobilfunknetzen in 200 Ländern der Welt ermöglicht. Damit ist sichergestellt, dass die für „angeschlossene“ Geräte lebenswichtige Kommunikationsverbindung immer unter Kontrolle ist, während die Möglichkeit des Providerwechsels nicht mehr die logistischen und operativen Auswirkungen hat, die sie bisher hatte.

Zuletzt bietet das Internet der Dinge auch im Gesundheitswesen Vorteile mit sich. So können, je nach Konfiguration, alle Beteiligten (etwa Ärzte, Patienten und Mitarbeiter) Zugang zu den Daten und Anwendungen erlangen, die sie benötigen, wo und wann immer sie gebraucht werden. Dies ermöglicht es der ganzen Branche, einheitliche Standards in der Patientenversorgung aufrechtzuerhalten und auch neue Dienstleistungen, etwa die Telemedizin, auszuloten, die eine wichtige und wirtschaftliche Möglichkeit ist, Patienten in abgelegenen Gebieten und bevölkerungsärmeren Ländern zu erreichen.

Gerade können wir erleben, wie die vernetzte Gesundheitsversorgung in Asien zum Leben erwacht. Ein aktuelles Beispiel ist TaiDoc Technology, ein Hersteller von hochwertigen Medizinprodukten zur Verbesserung der Gesundheit und Lebensqualität der Menschen, der ein globales Netzwerk nutzt, um die Reichweite seiner Geräte auf Länder wie China, Thailand und die USA auszudehnen.

Hier ist das Fazit: Um ihr volles Potenzial auszuschöpfen, benötigen IoT-Geräte eine wirklich grenzenlose, sichere und skalierbare Konnektivität, die die Erfassung, Bewegung und Verwaltung von Informationen weltweit ermöglicht. Während die Mobilfunkverbindung eine effektive Grundlage für IoT-Dienste ist, sind die heutigen Mobilfunknetze von Natur aus lokal. Wir müssen ein globales Ökosystem der Konnektivität aufbauen, um die Einführung des IoT durch Unternehmen weltweit voranzutreiben.

In fünf Schritten zu Sicherheit und Stabilität in Kritischen Infrastrukturen

Das Mai 2018 in zweiter Fassung veröffentlichte Whitepaper »Anforderungen an sichere Steuerungs- und Telekommunikationssysteme« übersetzt die Highlevel-Forderungen aus dem deutschen IT-Sicherheitsgesetz und dem »Österreichische Programm zum Schutz Kritischer Infrastrukturen« (APCIP) in technische Anforderungen. Trotz des vergleichsmäßig hohen Detailgrades, auf den sich der deutsche Bundesverband der Energie- und Wasserwirtschaft (BDEW) und Österreichs Energie (OE) geeinigt haben, bleiben die Maßnahmen vage in der konkreten Umsetzung.

Das Whitepaper beschreibt auf 80 Seiten und in acht Maßnahmengruppen, wie die Prozess- und Netzleittechnik (PNLT) von Energie-, Wasserwirtschafts- und Öl/Gas-Unternehmen vor Störungen geschützt werden soll. Die Gruppen umfassen:

  1. Allgemeine Anforderungen (Sichere Systemarchitektur, definierte Verwaltungsprozesse, Sicherstellung der Datensicherheit und -integrität)
  2. Projektorganisation (Ansprechpartner, Tests, Datenspeicherung und -übertragung, Übergabeprozesse)
  3. Basissystem (Systemhärtung, Schadsoftware-Schutz, Authentifizierung, Virtualisierung)
  4. Netzwerk und Kommunikation (Protokolle, Segmentierung, Fernzugänge, Dokumentation)
  5. Anwendung (Rollen, Authentifizierung, Autorisierung, Umgang mit Webapplikationen, Integritätsprüfung, Logging)
  6. Entwicklung (Standards, Freigabe, Integrität)
  7. Wartung (Updates, Konfigurations- und Change Management, Sicherheitslücken)
  8. Datensicherung und Notfallplanung (Backup, Wiederanlauf)

Am Tagesgeschäft vorbei gedacht

Die Maßnahmengruppen des Whitepapers folgen damit der Architektur und Struktur der PNLT. Das Whitepaper verfehlt damit jedoch die Day-to-Day-Workflows und Zusammenhänge zwischen einzelnen Maßnahmen. Die Prozess- und Organisationslogik der IT/OT-Sicherheit wird nicht abgebildet. Insbesondere fehlt die Eingliederung in die etablierten Managementsysteme (wie QMS oder ISMS), die der Logik des kontinuierlichen Verbesserungsprozesses (Plan, Do, Check, Act) folgen. In der IEC 62443 wird dies zumindest in Teilen mit der Beschreibung der Risikoanalyse begonnen. In der Schweiz orientiert sich das »Handbuch Grundschutz für «Operational Technology» in der Stromversorgung« des VSE explizit am US-amerikanischen NIST-Standard. Dieser bricht die Cybersicherheit in Kritischen Infrastrukturen auf fünf logische Ebenen eines Defense-In-Depth-Konzepts herunter, die in einem Verbesserungsprozess münden:

  1. Identifizieren (Identify)
  2. Schützen (Protect)
  3. Erkennen (Detect)
  4. Reagieren (Respond)
  5. Wiederherstellen (Recover)

Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)
Abb. 1: Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)

BDEW-Whitepaper im Prozesskontext

Es ergibt daher Sinn, die Anforderungen des BDEW-/OE-Whitepapers auf die fünf Schritte des NIST-Frameworks zu beziehen.

Schritt 1: Identifizieren

Hinter dem Identifizieren verbergen sich alle Aspekte einer detaillierten Risikoanalyse. Der erste Schritt ist hierbei die Herstellung vollständiger Transparenz in Bezug auf:

  • Netzwerkstruktur
  • Komponenten, ihre Eigenschaften, Prozesse und Services
  • Bestehende Sicherheitslücken
  • Kommunikationsverbindungen (intern und mit externen Netzen)
  • Kommunikationsverhalten der einzelnen Komponenten
  • Kommunikationsprotokolle
  • Kommunikationsinhalte
  • Unterliegende Prozesse

Letztlich verbirgt sich hierunter vor allem die Maßnahmengruppe 4 »Netzwerk und Kommunikation«. Aber auch Aspekte der Gruppen »Allgemeine Anforderungen« (bestehende Sicherheits- und Monitoringstrukturen, Verwaltungsprozesse), »Projektorganisation« (Verantwortliche) und »Wartung« (Updates, Konfigurationen, Sicherheitslücken) fallen hierunter.

Grundsätzlich geht es darum, eine ganzheitliche Istanalyse der PNLT, organisatorischen Struktur und Gefährdungslage durchzuführen. Sie bildet die Basis, um festzulegen, worüber überhaupt gesprochen werden muss. Damit die nachfolgenden Schritte der Sicherung weder im Gießkannenprinzip ausgeführt werden, noch zu kurz gedacht werden, muss zwingend vollständige Transparenz hergestellt werden. Technologisch sollte hierbei über diesen Zeitraum der Istanalyse hinaus gedacht werden, denn auch im laufenden Betrieb der Sicherung, Erkennung und Reaktion steht und fällt die Handlungsfähigkeit der Verantwortlichen mit der Transparenz.

Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)
Abb. 2: Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)

Die Istanalyse ist auch nicht nur relevant, um die eigene PNLT besser zu verstehen. Sie offenbart in der Regel auch bestehende Engpässe, Gefährdungen und Fehlerzustände. In Stabilitäts- und Sicherheitsaudits, die wir regelmäßig in Kritischen Infrastrukturen im Rahmen der Erst- und Wiederholungsanalyse durchführen, finden sich im Schnitt rund 22 Gefährdungskategorien, die bislang den Verantwortlichen unbekannt waren. Die Analyse erfolgt hierbei mittels der industriellen Anomalieerkennung Rhebo Industrial Protector, die jegliche Kommunikation und Komponenteneigenschaften innerhalb der PNLT bis auf Inhaltsebene analysiert.

Schritte 2 und 3: Sichern und Erkennen

Diese Systemlösung bildet im Anschluss des Schrittes »Identifizieren« als Monitoring- und Detektionswerkzeug auch das Rückgrat der Sicherung der PNLT und des Erkennens von Störungen. Hierbei lernt die Anomalieerkennung das zu erwartende Verhaltensmuster der PNLT und analysiert die Kommunikation im Normalbetrieb auf Abweichungen (Anomalien). Wie vielfältig diese Anomalien ausfallen können, skizziert ein im März 2019 von der Allianz für Cyber-Sicherheit des BSI veröffentlichte Empfehlung zu Monitoring und Anomalieerkennung in industriellen Netzen. Die Anomalien werden in Echtzeit gemeldet und für die forensische Analyse inklusive der Rohdaten gespeichert.

Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen abgerufen (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo)
Abb. 3: Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen nachgeschaut werden (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo Industrial Protector)

Bei der Sicherung kommen hierbei die bekannten Mechanismen wie Segmentierung, Rollenkonzepte, Authentifizierung, Autorisierung, Prüfung der Datensicherheit und -integrität, Veränderungsmanagement, aktive Schadsoftware-Werkzeuge zum Einsatz. Diese sind im BDEW-/OE-Whitepaper über fast alle Kategorien verteilt. Im Sinne des Defense-in-Depth-Ansatzes, nach dem »Es gibt keine 100 prozentige Sicherheit.« die Basis aller Erkenntnis ist, übernimmt die Anomalieerkennung hier die Instanz eines durchgängigen Überwachungs-, Analyse- und Frühwarnsystems. Der Schutz der PNLT geht somit Hand in Hand mit der Fähigkeit, jedwede Veränderung zu detektieren. Denn nur was gesehen wird, kann auch abgewehrt werden. Das ist umso wichtiger in Infrastrukturen, die aus pragmatischen Gründen nicht auf Fernzugänge oder Webapplikationen verzichten können. Veränderungen betreffen hierbei nicht nur Vorfälle, die eindeutig als Sicherheitsgefährdung identifiziert werden können. Insbesondere wird auf die Fähigkeit hingewiesen, Vorgänge zu erkennen, die nicht durch die gängigen Blacklisting- oder Whitelisting-Konzepte abgedeckt werden. Diese Anomalien oder Abweichungen vom zu erwartenden Netzverhalten bergen bei täglich rund 400.000 neuen Schadprogrammen die eigentliche Gefahr.

Schritte 4 und 5: Reagieren und wiederherstellen

Diese Schritte werden im BDEW-/OE-Whitepaper nur sehr abstrakt behandelt, auch wenn sie im Tagesgeschäft die eigentliche Herausforderung darstellen. Über alle Kategorien wird auf die Notwendigkeit einer Notfallkonzeption verwiesen, konkrete Ansätze hierfür fehlen jedoch auch im eigentlichen Kapitel »Datensicherung und Notfallplanung«.

Eine sinnvolle Reaktion auf einen Vorfall im Sinne der Abwehr sowie internen und externen Kommunikation kann nur erfolgen, wenn alle Daten zum jeweiligen Vorfall vorliegen. Dazu gehören sowohl Details zu den Kommunikationsinhalten als auch Informationen zum Verlauf und den beteiligten Komponenten und Systemen. Die notwendige Vorfallsanalyse ist letztlich nur so gut, wie die Vorfallsdaten vollständig sind. Entsprechend hängen sowohl Effektivität der Reaktion als auch die Geschwindigkeit der Wiederherstellung und die kontinuierliche Verbesserung zur Steigerung der Resilienz maßgeblich von einer stichhaltigen und schnellen Analyse ab. Nicht zuletzt ist die Fähigkeit zur Analyse und Dokumentation auch für die Meldepflicht maßgeblich.

Verantwortliche in Kritischen Infrastrukturen sollten deshalb Überwachungssysteme auch danach bewerten, ob diese die Reaktion auf Vorfälle und die Wiederherstellung unterstützen. Dazu gehören:

  • Detailspeicherung von Anomalien mit Metadaten und Rohdaten;
  • Speicherung in universellem Format (z. B. PCAP), um Daten leicht teilen und programmunabhängig analysieren zu können;
  • universelle Schnittstellen (REST-API, Syslog u.a.) zur schnellen, verlustfreien Weiterleitung an andere Sicherheitssysteme (z. B. aktiv blockende Firewalls oder SIEM)
  • automatisierte Weiterleitungsregeln zur Unterstützung der unternehmensinternen Prozesse.

Auch diese Anforderungen können von einigen industriellen Anomalieerkennungen vollumfänglich abgebildet werden.

In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)
Abb. 4: In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)

Fazit

Wer das BDEW-/OE-Whitepaper umsetzen möchte, sollte auch weitere Empfehlungen (z. B. des VSE und des BSI) berücksichtigen, um gezielt und strukturiert die Anforderungen umsetzen zu können. Grundsätzlich sollte das Konzept der Defense-in-Depth verfolgt werden. Zu dieser gehört neben aktiven Absicherungswerkzeugen (Firewalls, Virenscanner, Datendioden) auch eine passive Monitoringkomponente in Form einer industriellen Anomalieerkennung. Die Chief Information Security Officers und IT-Leiter Kritischer Infrastrukturen erhalten die bislang fehlende Sichtbarkeit in ihre Netzwerke, ein proaktives Frühwarnsystem und schaffen eine fundierte Basis für das übergeordnete Netzwerk-Monitoring und die forensische Datenanalyse. Damit können sie ihre Prozess- und Netzleittechnik effektiv gegen Störungen wie Cyberattacken, Manipulation aber auch technische Fehlerzustände schützen und die Versorgungssicherheit gewährleisten.

In Kritischen Infrastrukturen ist Meldepflicht Selbstschutz

Die gesetzliche Pflicht, Störungen in den Netzwerken kritischer Infrastrukturen zu melden, wird oft als bürokratischer Aufwand wahrgenommen. Der vorgeschriebene Informationsaustausch zwischen kritischen Infrastrukturen und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) birgt ohne Zweifel Aufwände und Unklarheiten. Jedoch überwiegt der Mehrwert, der sich aus der Schwarmintelligenz ergibt. Je mehr Akteure über Gefährdungen berichten, desto mehr Akteure können sich gegen diese auch aktiv vorbereiten, bevor Störungen entstehen. So wird Meldepflicht zum Selbstschutz.

Der Mehrwert kann jedoch nur entstehen, wenn über den Tellerrand der gängigen Monitoring- und Sicherheitssysteme geschaut wird. Genau hier setzt das Prinzip des Defense-In-Depth an, das die gängigen Lösungen (Firewalls, Virenscanner etc.), die mittlerweile als Standard in jeder Kritischen Infrastruktur angenommen werden können, um Abwehrmechanismen erweitert, die auch das Unbekannte sichtbar machen.

Dass bislang unbekannte Angriffs- und Störungsmuster in Zukunft eine entscheidende Rolle bei der Gefährdungslage spielen, zeigten nicht zuletzt die mehrstufigen, lange Zeit verborgen agierenden Kampagnen Industroyer und Dragonfly 2.0. Während mit Dragonfly 2.0 Angreifer über Monate bis Jahre Kritische Infrastrukturen auch in Deutschland ausspioniert haben, legte Industroyer 2016 die Stromversorgung Kiews für mehrere Stunden lahm.

Auf der Suche nach dem Unbekannten

Genau hier liegt auch die größte Unklarheit für die Informationssicherheitsbeauftragten in kritischen Infrastrukturen. Das IT-Sicherheitsgesetz (und damit das EnBW, AtG und BSIG) fordert eine Meldung von »erheblichen Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse, die zu einem Ausfall oder einer Beeinträchtigung der Funktionsfähigkeit der von ihnen betriebenen Kritischen Infrastrukturen führen können oder geführt haben.«

Die Formulierung birgt zwei Unschärfen, mit denen Betreiber zu kämpfen haben:

  1. Wie sollen Störungen erkannt werden, die erst langfristig zu einer Beeinträchtigung führen könnten, zum Beispiel Advanced Persistent Threats?
  2. Wie kann bewertet werden, ob die Beeinträchtigungen durch eine Störung erheblich sein könnten?

Auf der FAQ-Seite des BSI findet sich zur ersten Frage lediglich der Hinweis: »Werden Angriffe auf die Kritische Infrastruktur unter Verwendung von neuartigen, außergewöhnlichen, zielgerichteten oder aus technischer Sicht bemerkenswerten Angriffsverfahren entdeckt, muss davon ausgegangen werden, dass eine Einwirkung auf die Kritische Infrastruktur möglich ist, sobald sich die Angreifer dazu entschließen«.

Auch bei der Frage, was »erheblich« bedeutet, sind Informationssicherheitsbeauftragte weitestgehend auf sich gestellt: »Eine eindeutige, umfassend geltende Antwort, wann eine Störung erheblich ist, ist nicht möglich. Stattdessen ist es erforderlich, dass die Verantwortlichen in KRITIS-Unternehmen Einzelfallentscheidungen treffen«.

Aus unseren Erfahrungen des Monitorings von Leitsystemen und Netzleittechnik mittels industrieller Anomalieerkennung wissen wir, dass weder versteckte Angriffe noch offene Sicherheitslücken eindeutig erkannt und eingeschätzt werden. Hinzu kommt, dass die Entwicklungen der Digitalisierung und des Smart Grid zu immer komplexeren Kommunikationsstrukturen führen, die neben Sicherheitsgefährdungen auch die Wahrscheinlichkeit technischer Fehlerzustände erhöhen.

Wer entscheiden will, muss sehen können

Betreiber benötigen somit Werkzeuge, die zwei Dinge ermöglichen:

  1. Vorgänge erkennen, die durch gängige Sicherheitslösungen mit Blacklisting- oder Whitelistingansatz übersehen werden.
  2. Vorgänge dahingehend bewerten, ob diese (erhebliche) Beeinträchtigungen hervorrufen könnten.

Netzleittechnik und Leitsysteme sind von einer deterministischen Kommunikationsstruktur geprägt. Dadurch können zum Beispiel mit einer industriellen Anomalieerkennung alle Vorgänge erkannt werden, die in irgendeiner Form vom deterministischen Grundmuster abweichen. Ein gutes Monitoringsystem erkennt bei den sicherheitsrelevanten Vorfällen u.a. neue:

  • Netzteilnehmer oder Kommunikationsbeziehungen;
  • Verbindungen zum Internet;
  • Protokolle;
  • Befehlsstrukturen sowie Netzwerkscans.

Hinzu kommen sowohl bestehende CVE-Sicherheitslücken an Geräten und Software, als auch Netzstörungen, die keine IT-Sicherheitsvorfälle sind, aber an das BSI gemeldet werden müssen. Zu letzteren gehören Konfigurations- und Kommunikationsfehler sowie andere technische Fehlerzustände, die sich beispielsweise aus der Abnahme der Netzwerkqualität ergeben. Gefährdungen jeglicher Form werden somit in ihrem frühesten Stadium erkannt und in Echtzeit gemeldet.

Die Bewertung der Vorfälle wird durch die industrielle Anomalieerkennung über verschiedene Stufen ermöglicht. Zum einen wird jede Meldung in Sicherheit oder Netzwerkqualität kategorisiert. Des Weiteren erhält jede Meldung eine Risikobewertung in Abhängigkeit von Kommunikationsvorgang und betroffenen Komponenten. Schlussendlich wird jede Meldung inklusive der Rohdaten als frei exportierbares PCAP gespeichert. Somit ist eine umgehende forensische Analyse auf einer vollständigen, nachvollziehbaren Datenlage für alle Stakeholder möglich. Informationssicherheitsbeauftragte können damit auf jede potentielle Gefährdung reagieren, bevor es zur Beeinträchtigung kommt.