KI und Datenanalyse im Mittelstand – chancenlos oder vielversprechend?

Laut Beratungsunternehmen PwC soll das deutsche Bruttoinlandsprodukt mit Hilfe Künstlicher Intelligenz bis zum Jahr 2030 um 430 Milliarden Euro steigen. Weltweit wird ein Anstieg um 15,7 Billionen Dollar vorhergesagt. Eine Prognose, die gerade für Unternehmen eine starke Aussagekraft hat. Denn wer erfolgreich sein und bleiben möchte, sollte laut aktuell weit verbreiteter Meinung die Chancen der Anwendung nicht verpassen. Gerade kleine und mittlere Unternehme trauen sich aber häufig nicht zu, bei diesen datengetriebenen Technologie-Trends mit großen Konzernen mithalten zu können. Denn in einer Zeit, in der Daten als Gold bezeichnet werden, bleibt gerade für mittelständische Firmen häufig die Frage bestehen: Wie „Big“ müssen denn unsere Daten sein? Laut Wikipedia-Definition bezeichnet der Begriff Big Data „Datenmengen, welche beispielsweise zu groß, zu komplex zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.“ Diese Definition trifft eigentlich auf fast alle Unternehmen zu – unabhängig von der Größe. Und eine manuelle Auswertung der Datenmengen führt in den meisten Fällen schlichtweg zu veralteten Reportings und etlichen überflüssigen Stunden Arbeitsaufwand.

Gilt für eine erfolgreiche Datenanalyse „mehr ist mehr“?

Trotzdem glauben gerade kleine und mittelständische Unternehmen noch häufig, dass sie nicht ausreichend Daten generieren, um von einer automatischen Analyse wirklich zu profitieren. Oft mangelt es den Unternehmen aber nicht an Daten, sondern primär an einem schlüssigen Datenmodell. Die richtige Aufbereitung und sinnvolle Zusammenführung verschiedener Datenquellen ist wichtig, um Daten als Entscheidungsgrundlage nutzen zu können. So variieren die Datenmengen und deren Qualität je nach Unternehmen und Unternehmensgröße zwar stark, die aus den Daten gewonnenen Erkenntnisse können aber gleichermaßen aussagekräftig für den jeweiligen Unternehmenserfolg sein. Risiken und Chancen werden durch eine zielgerichtete Datenanalyse auch für kleine und mittelständische Unternehmen frühzeitig sichtbar und Potenziale können dementsprechend genutzt werden.

Der nächste Schritt in Richtung Digitalisierung

Den Unternehmen steht folglich eine qualitative Entscheidungsgrundlage zur Verfügung, die manuelle Auswertungsverfahren nicht liefern können.

Beispielsweise konnte die Firma Piller, Hersteller von kundenspezifischen Gebläsen und Kompressoren für die Prozessindustrie, durch die Analyse historischer Daten aus der Fertigung in kürzester Zeit Zukaufteile identifizieren, deren Liefer- und Wiederbeschaffungszeiten besonders lang sind.. Ein weiteres Ergebnis dieser Schwachstellenanalyse war, dass die Gehäuse-Montage mehrere Wochen beanspruchte. Als Gegenmaßnahme konnte der Maschinenbauer eine Taktstraße einführen und die Montagezeit auf eine Woche reduzieren.

Basierend auf einer intelligenten Datenanalyse können außerdem intelligente Anwendungen wie Machine Learning ansetzen. Das wird ebenfalls an einem Beispiel aus der Produktion deutlich: Eine gezielt eingesetzte Datenanalyse könnte hier aufzeigen, dass die eingeplanten Vorgabewerte wie Wiederbeschaffungs- oder Arbeitsgangzeiten nicht der Realität entsprechen. So kann es beispielsweise sein, dass für einen bestimmten Arbeitsgang auf einer Maschine seit vielen Jahren 300 Minuten eingeplant werden. In der Realität dauert der Arbeitsgang jedoch nur 100 Minuten. Solche Zeitpuffer führen zu hohen Inaktivitätszeiten der Maschinen und Ineffizienz. Viele Projekte mit dem eigentlichen Ziel, die Produktionsplanung und deren Termintreue zu verbessern, setzen daher oft eine detaillierte Datenanalyse voraus, bei der die Qualität der Daten bestimmt wird.

Durch Machine-Learning-Algorithmen können die Vorgabewerte sehr genau vorausgesagt und die darauf basierende Produktionsplanung zunehmend optimiert werden. Mit Hilfe Künstlicher Intelligenz kann die Maschine „lernen“, welche Werte realistisch sind. Die Prognosegenauigkeit kann sich hierdurch bis um bis zu 60 Prozent verbessern.

Fazit: Sie haben die Grundlage. Starten Sie die Digitalisierung!

Unternehmen können unabhängig von ihrer Größe Prozesse mit Hilfe neuer Technologien automatisieren und optimieren. Schon kleine Unternehmen besitzen ausreichend Daten für die effiziente Anwendung Künstlicher Intelligenz. Jedoch gehen die Erfolgschancen und Wettbewerbsvorteile ohne eine zielführende Datenaufbereitung und -strategie im Datendschungel unter. Das Ziel bei Data Analytics sollte sein, bessere Kenntnisse über Prozesse oder Kunden zu gewinnen und deren Entwicklung prognostizieren zu können, um so insgesamt effizienter zu handeln. Außerdem können auf diesen „sauberen“ Daten nicht nur strategisch richtige Entscheidungen getroffen werden, sondern auch Anwendungen der Künstlichen Intelligenz anschließen. Durch eine sichere und sinnvolle Anwendung von Data Analytics und Künstlicher Intelligenz sind kleine und mittelständische Unternehmen zum jetzigen Zeitpunkt ihrer Konkurrenz einen großen Schritt voraus.

 

 

Schneller Einstieg in das Industrial Internet of Things (IIoT)

Gerade in der Verpackungsindustrie besteht großer Bedarf, die Produktionsrichtlinien durch digitale Services aufzuwerten, um sich so von der Konkurrenz abzuheben. Aber auch die Getränke- und Nahrungsmittelindustrie, der Bereich Automotive sowie die Papier- und Druckindustrie profitieren von einer solchen Anwendung: Die Arbeit innerhalb dieser Bereiche wird durch die digitalen Helfer einfacher und effizienter gestaltet. All das bietet elunic mit seiner IIoT-Anwendung Dataface, die das Unternehmen auf der diesjährigen Fachmesse für Verpackungen FachPack vorstellt.

Digitaler Zwilling & Co. – IIoT anschaulich erleben
Anhand der Live-Demo ihrer IIoT-Anwendung Dataface ermöglicht elunic dem Besucher viele spannende Einblicke in die Welt der Industrie 4.0. So zeigt etwa ein Digitaler Zwilling das virtuelle Abbild einer Industrie-Produktions-Anlage. Der Bereich der künstlichen Intelligenz wird durch Predictive-Maintenance-Meldungen und die Anwendung von Machine-Learning-Algorithmen abgedeckt. Zudem werden die Gesamtanlageneffektivität OEE sowie weitere KPIs, wie beispielsweise die Produktionsgeschwindigkeit oder die Anzahl der anstehenden Aufgaben, berechnet und dargestellt. Die Live-Demo zeigt ebenfalls, wie die Rechte für komplette Anlagen, einzelne Maschinen sowie Personen oder Gruppen verwaltet werden. Ein integrierter Shop ermöglicht die automatische Nachbestellung von Ersatzteilen. All diese Dienste werden von elunic als Microservices in die Anwendung integriert. „Die Architektur von Dataface ist so aufgebaut, dass auch große Datenmengen aus dem Maschinenumfeld verarbeitet werden; die Microservice-Architektur ermöglicht den Austausch bzw. die Weiterentwicklung einzelner Komponenten. Die Applikation lässt sich sowohl in Cloud-Services wie AWS, als auch in On-Premise-Lösungen integrieren. Durch diese Cloudunabhängigkeit ist ein schneller Einstieg ins IIoT möglich“, erklärt Benjamin Ullrich, Gründer und Geschäftsführer von elunic.

Produktionsanlage in Dataface
Vom Digitalen Zwilling bis zur A.I. & Predictive Maintenance
Mit ihrer Anwendung zeigt elunic nicht nur, wie Unternehmen flexibel und unabhängig in den Bereich IIoT einsteigen; innerhalb der Live-Demo stellt das Unternehmen auch seine einzelnen Leistungen als Module vor. Diese decken folgende Bereiche ab: „Digitale Services & Digitaler Zwilling“, „Asset Management & Equipment Efficiency“, „A.I. & Predictive Maintenance“, „Big Data / Visualisierung“, „Digitalisierung industrieller Prozesse“ sowie „Machine 2 Machine payments“. Die Applikation zeigt alle relevanten Kennzahlen einer Maschine oder Anlage an, wie beispielsweise OEE, und wertet diese aus.

Wir freuen uns darauf, Sie auf der FachPack an unserem Stand zu begrüßen und Ihnen unser Leistungsspektrum vorzustellen.

Auf die Zusammenarbeit kommt es an!

Netzwerklösungen im Sicherheitssystembereich sollen in erster Linie Personen, Gebäude und Güter vor Übergriffen, ungewollten Eindringlingen, Vandalismus oder Diebstahl schützen. Doch dabei sollte eines nicht vergessen werden: Auch das Sicherheitssystem selbst muss gegen Cyberkriminalität gesichert werden. Mit der Aktualisierung von Netzwerk-Videosoftware und angeschlossener Hardware wird in der heutigen Zeit leider eher nachlässig umgegangen. Oftmals werden diese Systeme in der Regel nur dann aktualisiert, wenn weitere Geräte hinzugefügt oder zusätzliche Funktionen vom Benutzer angefordert werden.

Dieser leichtsinnige Umgang kann sich jedoch rächen: Ohne Wartung wird die Cybersicherheit mit der Zeit abnehmen. Die Wahrscheinlichkeit liegt bei fast 100 %, dass eine Schwachstelle im Systemkontext, also im Betriebssystem, der Software oder der Hardware gefunden wird. Auch wenn das Risiko gering erscheint, sollte jede bekannte Schwachstelle behoben werden und selbstverständlich regelmäßig Softwareaktualisierungen durchgeführt werden.

Wer ist verantwortlich?

Cybersicherheit ist ein Prozess, kein einmalig zu erreichender Ist-Zustand, der dann immerwährend gültig ist. Wichtig ist in diesem Zusammenhang, dass die Cybersicherheit eines Sicherheitssystems dabei einer gemeinsamen Verantwortung des Endnutzers sowie der Integratoren, Planer und Hersteller unterliegt. Um das Sicherheitssystem gegen virtuelle Angriffe zu schützen, müssen die Verantwortlichen der verschiedenen Bereiche und Gewerke zusammenarbeiten:

Der Nutzer / Verbraucher

Die Hauptverantwortung des Endanwenders liegt in erster Linie bei der Bereitschaft, für Cybersecurity zu bezahlen. Dies kann entweder auf eigene Faust erfolgen, das heißt beispielsweise die IT-Abteilung des Unternehmens wendet Fixes selbst an, oder man bezahlt einen Integrator/Installateur für die Wartung. Dabei muss beachtet werden, dass die Lebensdauer eines Sicherheitssystems, je nach Zustand, schnell 10-15 Jahre betragen kann. Die Wartung muss allerdings fortlaufend und als stetiger Prozess integriert werden.

Für ein ausgereiftes Bewusstsein im Bereich Cybersecurity spielt allerdings auch das Verhalten der Konsumenten eine zentrale Rolle: Wie oft wird das Passwort des Routers geändert? Wie komplex sind die eigenen Passwörter? Werden unterschiedliche Passwörter oder ein „Master“-Passwort für die meisten Anwendungen verwendet? Die Bequemlichkeit der Verbraucher ist immer noch einer der größten Vorteile für Hacker. Einfach zu erratende Passwörter und solche, die über alle Logins hinweg verwendet werden, setzen die Verbraucher dem Risiko eines Missbrauchs aus.

Der Integrator / Installateur

Der Systemintegrator spielt ebenfalls eine wesentliche Rolle im Bereich der Cybersicherheit. Er muss sicherstellen, dass alle seine eigenen Geräte, Laptops, mobilen Geräte und so weiter mit den neuesten Updates für das Betriebssystem gepatcht werden und einen anspruchsvollen Virenscan durchführen.

Die gewählten Passwörter sollten zumindest pro Kunde und Standort komplex genug und individuell sein. Die allgemeine Gewohnheit, ein Master-Passwort zu verwenden, um die Bedienung der Geräte zu erleichtern, muss unbedingt vermieden werden. Der Fernzugriff auf Installationen sollte nur begrenzt angewendet werden und alle Geräte, die mit dem System des Kunden verbunden sind, müssen äußerst sorgfältig auf Schadsoftware überprüft werden, um jegliche Art von Infektionen zu vermeiden.

Es liegt in der Verantwortung des Integrators, seine Kunden über die möglichen und nötigen Verfahren zu informieren.

Der Planer

Ein weiterer essentieller Bestandteil ist die Arbeit des Planers, der die Komponenten für die Sicherheitssysteme konfiguriert. Dieser muss nicht nur die richtigen Produktfunktionen und -merkmale festlegen, sondern auch die Wartung für die gesamte Lebensdauer des Systems so gut wie möglich definieren. Auf diese Weise kann der Planer deutlich machen, wie wichtig es ist, das System auf dem neuesten Stand zu halten und auch die möglichen Kosten dafür offenlegen.

Im Zusammenhang mit der Installation von so genannten OEM/ODM-Geräten (Geräte, die von einem Hersteller gekauft und unter einer anderen oder eigenen Marke veräußert werden) ist es jedoch sehr schwierig diesen Wartungsaspekt zu gewährleisten.

Der Distributor

Für einen einfachen Distributor ist das Thema Cybersicherheit grundsätzlich von geringer Bedeutung, weil er lediglich die Logistik der Ware übernimmt und mit dem Produkt selbst nicht in Berührung kommt. Allerdings müssen Distributoren einer Wertschöpfungskette die gleichen Aspekte berücksichtigen wie Integratoren oder Installateure.

Für Distributoren, die auch OEM/ODM-Geräte vertreiben, gelten andere Regeln. An erster Stelle steht dabei die Transparenz: Sie müssen ihre Kunden darüber in Kenntnis setzten, was genau sie für ein Produkt kaufen. Auch müssen sie, im Falle von Schwachstellen im System, Firmware-Upgrades des ursprünglichen Lieferanten zur Verfügung stellen. Viele Anwendungsbeispiele aus der Industrie zeigen jedoch, dass eine erkannte Schwachstelle in den Geräten der ursprünglichen Lieferanten in der Regel nicht in den Geräten ihrer vielen OEM-Partner behoben wird.

Der Hersteller

Die Verantwortungsbereiche der Hersteller sind unter anderem folgende:

Zum einen dürfen keine absichtlichen Details wie Backdoors oder hartcodierte Passwörter hinzugefügt werden. Die Bereitstellung der richtigen Tools, um das Cybermanagement für viele Geräte so einfach und kostengünstig wie möglich zu gestalten, muss außerdem gewährleistet sein. Zum anderen müssen Dritte über Risiken und ihre Vermeidung aufgeklärt werden, intern wie auch extern. Relevante Aspekte sollten in Hardening Guides oder anderen Dokumentationen beschrieben sein. Die Partner und Vertriebskanäle müssen zudem über Schwachstellen und mögliche Updates informiert werden. Transparenz ist oberstes Gebot.

Nur wenn alle Beteiligten gemeinsam an dem Thema Cybersecurity arbeiten, wird es gelingen, ein weitgehend sicheres System zu schaffen und auch aufrecht zu erhalten.
Die IT Branche hat im vergangenen Jahrzehnt viel dazu gelernt und sich mittlerweile sehr gut abgesichert. Dennoch schaffen es Hacker immer wieder, Schwachstellen zu finden und auszunutzen.
Die Sicherheitsbranche befindet sich vielerorts leider noch am Anfang der Lernkurve, Cybersecurity wird eher als Herstelleraufgabe verstanden, denn als gemeinsame Anstrengung. Es ist an der Zeit, dieses Verständnis grundlegend zu überdenken.

Messen bleiben auf Dauer wichtig

Um für den digitalen Vertrieb gerüstet zu sein, laufen aktuell die Vorarbeiten: Die 3000 Kontakte aus drei Datenbanken für Maschinenbau, Service und Lohnhärterei werden aktuell zusammengeführt. Etabliert ist bereits eine wöchentliche Suchmaschinen-Auswertung, auf deren Basis Inductoheat Surfer zeitnah anruft, um mit ihnen in Dialog zu kommen. „Sobald die Datenbank steht, werden wir viermal jährlich einen Newsletter versenden,“ sagt Geschäftsführer Frank Andrä.

Mit aktiver Pressearbeit hat er 2018 einen externen Dienstleister beauftragt, der aus dem Journalismus kommt und bundesweit in Redaktionen vernetzt ist. Dessen Büro wird auch die Themen für den Newsletter mit entwickeln, die Beiträge texten und mit aussagekräftigen Fotos illustrieren. „Dafür haben wir unseren Etat aufgestockt, um in den Medien ein Grundrauschen zu erzeugen und bekannter zu werden,“ sagt der Chef.

Die Messeaktivitäten hält er ungeschmälert aufrecht: Alle vier Jahre die Gießereifachmesse in Düsseldorf, alle zwei Jahre die AMB in Stuttgart, alle drei Jahre die EMO in Hannover und jährlich Kolloquien und Foren in Berlin oder Köln. Im Gegenteil: Was über Pressearbeit und Newsletter an Bekanntheit erzielt wird, sollen die Mitarbeiter aus Vertrieb, Entwicklung und Applikation an den Messeständen vertiefen. Und über Gemeinschaftsstände mit Baden-Württemberg international zeigen die Schwaben auch in Nordamerika oder Asien mehr Präsenz.

„Bis 2003 waren wir nur auf einer Messe pro Jahr,“ erzählt der Geschäftsführer. Damals habe Inductoheat acht Millionen Euro pro Jahr umgesetzt. Heute sind es 14, wobei sich der Umsatz im Maschinenbau sogar verdoppelt hat. Im laufenden Jahr zeigt der Spezialist für induktives Härten seine revolutionäre I-syst 4.0-Lösung, die sämtliche Parameter des Verfahrens separat steuert und dokumentiert, im September auf der AMB in Stuttgart, im Oktober beim Härtereikongress in Köln und im November beim 1st Euroforge, wo es um den Schmiedeerwärmungsprozess geht.
Ziel der Präsenz: Den Kontakt zu Bestandskunden vertiefen, Mitbewerber beobachten, potentielle Neukunden interessieren und Branchentrends aufspüren. „Den persönlichen Kontakt braucht es immer, um Vertrauen aufzubauen und Geschäftsbeziehungen zu pflegen,“ sagt der Ingenieur. Es brauche generell mehr Engagement, im Verdrängungswettbewerb den Bestand zu halten und Neukunden zu akquirieren. Denn die Informationswege der nachwachsenden Entscheider werden immer digitaler, so der 56-Jährige, und Kompetenz werde zunehmend am Werbeauftritt festgemacht.

Im Vertrieb hat Inductoheat bundesweit drei Mitarbeiter, die sich die Arbeit nach den Themen Härten, Schmieden und Lagertechnik/Automotive aufteilen. Europaweit kooperiert der Mittelständler mit zehn freien Agenturen, die die lokalen Märkte bearbeiten. „Weil unser Produkt sehr erklärungsbedürftig ist, übernehmen wir meist schon nach dem ersten Kontakt die Anfrage,“ sagt Andrä.

Den großen Rest der Welt bearbeitet die US-Muttergesellschaft Inductotherm mit ihren weltweit 40 Niederlassungen, von denen 17 Produktionsstandorte sind. In der Regel seien die internationalen Kunden deutsche Konzerne, die für Mexiko, die USA, China oder Südkorea eine Anlage brauchen. Entsprechend macht Inductoheat die Hälfte des Umsatzes in Deutschland; 40 Prozent in Europa und hier vor allem in Frankreich und Schweden; und den Rest in Übersee, was bei 20 Anlagen Gesamtproduktion pro Jahr außereuropäisch oft nur einem Auftrag entspricht. Die Vertriebsstrategie lautet: Schlüsselkunden in Europa identifizieren und ins globale Ausland begleiten.

Konfiguration sekundärer DNS-Server

Haben Sie die Zonen in Active Directory integriert, gibt es nur primäre DNS-Server, da hier alle Server gleichgestellt stellt.

Ein primärer DNS-Server kann aber auch für andere Zonen als sekundärer DNS-Server dienen. Die Konfiguration erfolgt pro Zone nicht pro Domäne:

  1. Sie starten den Vorgang, indem Sie in der Verwaltungskonsole im Kontextmenü des Eintrags „Forward-Lookupzonen“ den Befehl „Neue Zone“ und im zweiten Schritt des Assistenten die Option „Sekundäre Zone“ wählen.
  2. Geben Sie jetzt im Feld „Zonenname“ den Namen der existierenden Domäne ein.
  3. Anschließend müssen Sie die IP-Adresse mindestens eines DNS-Servers angeben, der eine Kopie der Zone gespeichert hat. Dabei muss es sich nicht unbedingt um den primären DNS-Server handeln. In diesem Fall wählen Sie einen der bereits vorhandenen sekundären DNS-Server aus. Die Liste wird anschließend, beginnend mit dem obersten Eintrag, abgearbeitet, bis ein Server auf die Anfrage zum Zonentransfer antwortet. Alle weiteren Server in der Liste werden dann nicht mehr berücksichtigt. Die Replikation findet also immer nur mit einem Server statt, nicht mit allen in der Liste aufgeführten Servern.

Falls Sie den Transfer manuell (außerhalb des regulären Intervalls) starten wollen, wählen Sie im Kontextmenü der Zone den Eintrag „Übertragung vom Master“. Danach wird ermittelt, ob es neue Einträge gibt, die anschließend angefordert werden. Der Eintrag „Neue Kopie der Zone vom Master übertragen“ sorgt dafür, dass die bisher empfangenen Daten komplett verworfen werden und eine erneute Anforderung der kompletten Zone erfolgt, was zum Beispiel bei einer Beschädigung der lokalen DNS-Datei nach einem Systemabsturz der Fall sein kann.

DNS-Weiterleitungen verwenden

Der DNS-Server überprüft zunächst, ob er selbst für die DNS-Domäne zuständig ist. Wenn er keine Zone finden kann, und auch keine Delegation, werden die DNS-Server kontaktiert, die über den Eintrag „Bedingte Weiterleitungen“ in der Konsolenstruktur hinterlegt sind. 

Wenn keine Weiterleitungen konfiguriert sind, werden automatisch die DNS-Server kontaktiert, die auf der Registerkarte „Stammhinweise“ in den Eigenschaften des DNS-Servers hinterlegt sind. Wenn diese Server nicht erreicht werden, erhält der fragende Client eine Fehlermeldung zurück.

Damit die Benutzer und Server eine Verbindung ins Internet herstellen können, müssen Sie dafür sorgen, dass die Domänennamen im Internet aufgelöst werden können. Auch zu diesem Zweck wird DNS eingesetzt. Die DNS-Server von Active Directory können nicht nur die internen Zonen auflösen, sondern können auch als Weiterleitungsserver die DNS-Server Ihres Providers verwenden oder alternativ die Stammhinweise also die Root-DNS-Server des Internets.

Dadurch ist sichergestellt, dass die DNS-Server des Unternehmens zuverlässig interne und externe DNS-Namen auflösen können.

Wie die Digitalisierung die IT verändert

Die Zusammenarbeit mit der IT-Abteilung hat für Sie als Marketingmitarbeiter in letzter Zeit zugenommen? Und auch der CIO beziehungsweise Ihr CMO haben nun bei wichtigen Entscheidungen immer öfter ein Wörtchen mitzureden? Das liegt daran, dass die Digitale Transformation eine abteilungsübergreifende IT-Expertise notwendig macht. Schon längst hat die Digitalisierung tiefgreifenden Einfluss auf den beruflichen Alltag. Unternehmen müssen Lösungen finden, um die Herausforderungen der Digitalen Transformation zu bewältigen. Dazu gehört, die IT-Abteilung neu aufzustellen: Geschäftsführer und IT-Verantwortliche müssen sich fragen, ob Rolle und Struktur der internen Unternehmens-IT so gestaltet sind, dass sie den aktuellen Anforderungen an digitale Transformationsprozesse gerecht werden können – oder ob eine Umstrukturierung erforderlich ist.

Herausforderungen und Veränderungsprozesse
Firmen, die ihre Wettbewerbsfähigkeit mittel- und langfristig erhalten wollen, müssen Technologien wie Big Data oder Internet of Things einsetzen, neue Geschäftsmodelle, Unternehmenskonzepte und -strategien entwickeln und auf ein verändertes Kunden- und Nutzerverhalten angemessen reagieren. Zudem verkürzen sich Technologie-, Entwicklungs- und Marktzyklen um ein Vielfaches, sodass Unternehmen in Echtzeit auf Marktveränderungen reagieren müssen, um weiterhin erfolgreich im Wettbewerb bestehen zu können. Führungskräften kommt dabei die Aufgabe zu, Antworten auf die Herausforderungen der Digitalen Transformation zu finden und entsprechende Digitalisierungsstrategien zu entwickeln – und in diesem Rahmen Rolle und Struktur ihrer IT-Abteilung zu analysieren und gegebenenfalls anzupassen.

Umstrukturierung der IT-Abteilung
Vor dem Hintergrund der Transformation hat das Datenvolumen in den Unternehmen massiv zugenommen. Grund dafür sind unter anderem die Digitalisierung von Geschäftsprozessen, die steigende Anzahl an Fachanwendungen und Prozessen aus der Cloud oder auch die wachsende Menge der Softwareanwendungen in den unterschiedlichen Fachabteilungen eines Unternehmens. Die Komplexität der gesamten IT-Infrastruktur eines Unternehmens und so auch der Aufwand für die IT-Verantwortlichen haben sich nachweislich erhöht. Es ist also unumgänglich, die unternehmensinterne IT-Abteilung diesen Anforderungen entsprechend zu strukturieren: ein Teil der IT-Verantwortlichen muss den täglichen Betrieb sicherstellen, während der andere Teil die Fachbereiche und die Geschäftsführung im Hinblick auf die Entwicklung digitaler Geschäftsmodelle und -prozesse berät. Auch die Aufgabenschwerpunkte der CIOs verändern sich: vom klassischen IT-Support hin zum Berater, Unterstützer und Impulsgeber für die Fachbereiche bei digitalen Veränderungs- und Anpassungsprojekten.

Neue Formen der Zusammenarbeit
Durch die Digitale Transformation gestaltet sich die interne Zusammenarbeit im Unternehmen neu. Vor allem das Verhältnis zwischen den Fachabteilungen und der IT: Fachbereiche müssen ganzheitlich denken und angrenzende Abteilungen sowie die IT frühzeitig in ihre Planung einbeziehen. Nur dadurch lassen sich Insellösungen vermeiden und gemeinsame Vorgehensweisen im Sinne eines End-to-End-Konzepts finden. Damit die IT-Abteilung als strategischer Partner an der Entwicklung digitaler Geschäftsmodelle und -prozesse mitwirken und die Anforderungen aus den Fachabteilungen schnell umsetzen kann, muss sie jedoch deutlich agiler werden, also heterogene Strukturen akzeptieren und agile Projektmethoden wie Scrum einführen. Herausforderungen sind von beiden Seiten zu bewältigen.

Mit vereinten Kräften zum Erfolg
Die Digitale Transformation führt zu vielfältigen – sowohl technischen als auch organisatorischen – Veränderungsprozessen in Unternehmen. Um diese erfolgreich zu bewältigen, sollte die IT-Abteilung in einen ganzheitlichen Austausch mit den Fachabteilungen treten und so strukturiert sein, dass sie sowohl operativ als auch beratend agieren kann. Der CIO sollte sich auf seine Rolle als strategischer Partner für die Fachabteilungen konzentrieren und Ihnen auch im Marketing bei neuen Herausforderungen zur Seite stehen.

Edge- und Cloud-Technologie im Shopfloor

Das Telefon brauchte 50 Jahre, um 50 Millionen Benutzer von seinen Vorteilen zu überzeugen. Das Internet benötigte für dieselbe Nutzerzahl nur 7 Jahre. Die Spiele-App Pokémon Go erreichte diese Zahl sogar in nur 2 Tagen. Die Geschwindigkeit, in der sich unser Leben verändert, hat drastisch zugenommen. Dieser Wandel macht auch vor dem Maschinen- und Anlagenbau nicht Halt und hat entsprechenden Einfluss auf Geschäftsmodelle, Organisationsstrukturen und auch technische Lösungen. All diese Bereiche müssen im heutigen Zeitalter schnelle Reaktionszeiten auf Veränderungen ermöglichen.

Die Industrie steht nun vor der Frage, wie man sich der oben genannten Herausforderung stellen, beziehungsweise sie für sich nutzen und weitere Geschäftsmodelle generieren kann. Die Hannover-Messe 2018 hat eindrucksvoll gezeigt, wie viele Anbieter von (schwer vergleichbaren) Teil- oder Gesamtlösungen um die Gunst potentieller Kunden werben. Es gibt mittlerweile über 450 IoT (Internet of Things) Plattformen [1,2]. Diese Anzahl verunsichert viele Unternehmen in ihrer Auswahl, da es sich nicht um das vorrangige Geschäftsmodelle und den üblichen Technologieradar handelt. Die Bedeutung von IoT wird für Unternehmen in den kommenden Jahren jedoch weiterhin zunehmen [3].

Edge- und Cloud-Computing neu gedacht

Nach dem Hype um das Cloud-Computing wurde zwar das Potential der Technologie deutlich, jedoch auch deren Einschränkungen. Wesentliche Vorteile der Cloud sind ausgelagerte, skalierbare Rechenkapazitäten, die sich jedoch nur dann nutzen lassen, wenn die entsprechende Datenmenge dorthin transferiert werden kann. Da dies bei der Verarbeitung von Daten aus Echtzeitsystemen, in denen in der Regel hohe Datenmengen in kurzer Zeit ausgewertet werden müssen, nicht machbar ist, hat dies den Bedarf nach lokaler Rechenleistung (Edge-Computing) in den Vordergrund gerückt. Gartner betitelt diesen Wandel mit “The edge will eat the cloud” [4]. Edge-Computing bezeichnet dabei die Möglichkeit der Datenverarbeitung im Shopfloor durch die Verwendung von Cloud-Technologien. Dadurch müssen hochfrequente Daten nicht zur Businesslogik in die Cloud übertragen werden, sondern die Businesslogik wird näher an den Ort der Datenerzeugung transferiert. Dadurch werden Reaktionszeiten auf Ereignisse auf Basis lokaler Datenanalyse verkürzt und zeitgleich die Datenlast im Internet reduziert.

Nahtlose Integration

Häufig wird das Edge-Computing mit Ansätzen gleichgesetzt, die man bereits vor 20 Jahren verfolgt hat, das heißt lokale Rechenleistung nah an der Maschine. Um jedoch die technologischen Möglichkeiten der Cloud in den Shopfloor einzubinden, benötigt man eine durchgängige Integration in das Edge Device [5]. Traditionelle Lösungen bestehen aus einer Hardwareplattform, einem dazugehörigen Betriebssystem und einer darauf aufbauenden Applikation. Dabei entsteht häufig eine starke Kopplung dieser drei Schichten, das heißt die Applikation ist für genau ein Betriebssystem entwickelt und das Betriebssystem ist für eine bestimmte Hardwareumgebung ausgelegt. Durch die Virtualisierung mit beispielsweise VMware oder VirtualBox kann eine Unabhängigkeit von der unterlagerten, physikalischen Hardware erreicht werden. Der nächste Evolutionsschritt beschreibt die Unabhängigkeit vom Betriebssystem durch Container-Technologien, wie beispielsweise Docker. Eine noch stärkere Entkopplung der Softwarelösung von der unterlagerte Ausführumgebung beschreibt das Serverless Computing Prinzip [6]. Applikationen werden zunehmend leichtgewichtiger und modularer gestaltet, was sich positiv auf die Wartbarkeit und Erweiterbarkeit auswirkt.

Je stärker man nun den Unabhängigkeitsgrad von der unterlagerten Ausführumgebung wählt, desto nahtloser kann eine Integration von Cloud- und Edge-Computing umgesetzt werden. Durch die permanente Anbindung eines Edge Devices an das Internet, respektive die Cloud, ist die Updatefähigkeit ausgelieferter Funktionalität stets gewahrt. Leichtgewichtige Softwarekomponenten (Container, Serverless) lassen sich somit auch schneller und einfacher aktualisieren. Diese können sowohl in einer Cloud als auch einer Edge Umgebung verwendet werden. Der Sicherheitsaspekt der gesamten IoT Umgebung muss dabei ein integraler Bestandteil sein, da im gesamten Internet of Things zahlreiche Kommunikationsbeziehungen bestehen [7].

Die Mischung macht’s

Erst durch den kombinierten Einsatz von Cloud- und Edge-Computing eröffnen sich vielfältige Möglichkeiten. Mit einer nahtlosen Integration kann die Businesslogik ohne technologischen Bruch flexibel dorthin transportiert und ausgeführt werden, wo Daten für Berechnungen anfallen. Dies ermöglicht skalierbare Gesamtlösungen, wodurch Applikationen und neue Businessmodelle realisiert werden können. Sie wären ohne diese technologischen Möglichkeiten nur schwer umsetzbar und wartbar.

Hier liegen die Gefahren bei Bitcoin & Co.

Das Thema Security spielt derzeit insbesondere bei der Kryptowährung Bitcoin eine wichtige Rolle, da sie bereits in größerem Maßstab genutzt wird. Bitcoins wurden 2009 als Open-Source-Software eingeführt und dienen als Entlohnung für einen Vorgang, der als „Mining“ – zu Deutsch „Schürfen“ – bezeichnet wird. Sie können dann für andere Währungen, Produkte und Dienstleistungen eingetauscht werden.

So funktioniert das Schürfen
Während herkömmliches Geld durch (Zentral-)Banken erzeugt wird, handelt es sich bei „Bitcoin-Schürfern“ um Netzwerkteilnehmer, die Sonderaufgaben ausführen. Konkret erledigen ihre Computer komplexe mathematische Aufgaben, um die „Lösung“ für einen Transaktionsblock zu finden. Sobald das Problem bewältigt ist, übermittelt der Miner seine Lösung zusammen mit dem Block selbst an den „Distributed Ledger“, zu Deutsch etwa „verteiltes Bestandsbuch“.

Zu diesem Zeitpunkt werden alle Transaktionen in diesem Block gesperrt. Da jede Lösung für den neuesten Block von jedem vorherigen Block abhängig ist, entsteht eine lange Vertrauenskette, in der jede Transaktion als gültig bestätigt werden kann. Dies verhindert, dass ein Benutzer denselben Bitcoin zweimal ausgibt. Damit wird also das „Double-Spend“-Problem gelöst. Alle Blockchain-Miner liefern sich quasi ein Rennen untereinander. Der erste, der die Lösung für den aktuellen Block findet, ist der Gewinner und erhält den Preis – eine bestimmte Bitcoin-Menge.

Da das mathematische Problem für jeden Block eine kryptografische Basis besitzt, hat jeder Miner theoretisch eine gleich hohe Chance, die Lösung zu finden. Um ihre Chancen zu erhöhen, gehen viele Miner Partnerschaften mit anderen Teilnehmern ein, um ihre gemeinsame Verarbeitungsleistung in Mining-Pools anzubieten. Denn die einzige Möglichkeit, die eigenen Gewinnchancen zu verbessern, ist die Kontrolle über mehr Miner. Dabei gilt aber der Grundsatz: Je größer das verteilte Netzwerk von Minern ist, umso schwieriger wird die Schaffung eines Mehrheitsanteils.

Großer Aufwand bei Bitcoin
Konkret bedeutet das zum Beispiel im Fall Bitcoin: Wenn organisierte Kriminelle eine Blockchain kontrollieren wollen, um möglicherweise ihre eigenen betrügerischen Blöcke zu übermitteln und auf diese Weise Bitcoins doppelt auszugeben, müssten sie über 50 Prozent aller Miner für eine bestimmte Blockchain kontrollieren. Derzeit gibt es bereits rund 2,4 Millionen Bitcoin-Miner. Diese Zahl bedeutet, dass 51-Prozent-Angriffe auf Bitcoin praktisch unmöglich sind. Denn für einen koordinierten Angriff auf das Bitcoin-Netzwerk wären über 1,2 Millionen Miner erforderlich, um sicherzustellen, dass die betrügerischen Blocks von den restlichen Minern akzeptiert werden.

Selbst wenn dies möglich wäre, ist eine Reihe von aufeinanderfolgenden schlechten Blöcken erforderlich, bevor sie vom Rest des Bitcoin-Netzwerks akzeptiert werden. Nur dann wäre dieser Betrug von dauerhaftem Bestand. Doch bevor ein Angreifer dieses Szenario aufbauen kann, ist es wahrscheinlicher, dass andere Miner im Netzwerk diesen Angriff bemerken und die betrügerischen Blöcke für ungültig erklären. Dementsprechend tritt diese Art der Attacke bei Bitcoin nur selten auf. Denn selbst für große Netzwerke von Cyberkriminellen ist es in der Praxis unmöglich, die große Zahl an Minern zu finanzieren und zu steuern, die für den Angriff auf Bitcoin erforderlich wären.

Hinzu kommt eine weitere hohe Hürde für Hacker: Während das Schürfen von Bitcoin anfangs mit relativ kostengünstigen Computer-Grafikkarten möglich war, sind heute spezialisierte Chips (bekannt als ASICs) die einzig erschwingliche Möglichkeit dazu. Der Grund: Durch die große Anzahl von Minern im Netzwerk und der aktuellen Ausschüttung von 12,5 Bitcoins pro Block liegt die Messlatte, die für den Betrieb eines lukrativen Bitcoin-Mining-Pools erforderlich ist, recht hoch. Dadurch verschiebt sich das Kräfteverhältnis weiter, da die Investitionen für die Technologie erheblich sind.

Einfachere Möglichkeiten für Hacker
Das bedeutet jedoch nicht, dass Bitcoin per se sicher ist. Denn die Angriffe auf Kryptowährungen im Allgemeinen haben statt der Technologie heute die Benutzer des Systems im Visier. Schließlich ist es deutlich leichter, eine Kryptowährung vom Besitzer zu stehlen, indem man sich Zugriff auf den privaten Schlüssel eines Benutzer-Wallets verschafft oder die Kunden-Datenbank einer Kryptobörse angreift. Solche Attacken sind bereits mehrfach erfolgreich gewesen, da die persönlichen Zugangsdaten beim Anwender oder Anbieter nicht ausreichend geschützt waren.

Aber auch 51-Prozent-Angriffe sind bei kleineren Kryptowährungen durchaus möglich und werden immer wieder durchgeführt. So waren beispielsweise Shift und Krypton, die beide auf Ethereum basieren, 2016 Ziel einer solchen Attacke. Im Mai 2018 traf es Bitcoin Gold, das nicht mit Bitcoin zu verwechseln ist. Je weniger Nutzer oder Umfang eine Kryptowährung hat, desto wahrscheinlicher sind 51-Prozent-Angriffe, da der Aufwand entsprechend sinkt. Gleichzeitig sind natürlich auch hier die Nutzer und Anbieter grundsätzlich anfällig für den Diebstahl von Zugangsdaten.

Im Netz der unsicheren Dinge

Das Internet der Dinge stellt die IT-Sicherheit vor große Her-ausforderungen, nicht zuletzt weil die üblichen Verfahren der IT-Sicherheit hier nicht funktionieren. Doch die Risiken, dass Angreifer Daten der IoT-Systeme abgreifen oder gar verän-dern, sind hoch, vor allem in der industriellen Fertigung, in der Logistik und der Gebäudetechnik. Unternehmen müssen das Internet der Dinge daher in einer umfassenden Cyber-Defense-Strategie berücksichtigen.

Das Internet der Dinge (IoT) ist für Unternehmen mittlerweile zu einer zentralen Komponente der Digitalisierung geworden. Überall wird mit Feuereifer an neuen Anwendungen und Lösungen gearbeitet, werden industrielle Prozesse auf die neuen technischen Möglichkeiten ausgerichtet und neue Geschäftsmodelle konzipiert. Es zeichnet sich ab, dass das IoT im gewerblichen Einsatz, weit mehr als im privaten Bereich, zu einer großen Erfolgsgeschichte wird.

Dabei sollte man jedoch eines nicht vergessen: IoT als Technologie ist noch ziemlich jung und dementsprechend noch lange nicht ausgereift. Viele der hier zum Einsatz kommenden Verfahren sind noch nicht so erprobt und gesichert, wie man das beispielsweise aus der industriellen Fertigung gewohnt ist. Noch läuft die Phase, in der man Know-how erst aufbaut, und es liegt in der Natur der noch immer neuen Sache, dass Erfahrung rar ist.

Dies trifft besonders auf das Thema Sicherheit und IoT zu. Wie bei fast jeder jungen Technologie steht bei der Entwicklung der jeweiligen Komponenten die Funktionalität im Vordergrund und ist oft Herausforderung genug. Sicherheitsaspekte bleiben außen vor oder werden nur am Rande behandelt; wichtig ist vielmehr, dass das Ding überhaupt zum Laufen kommt. Security by Design ist bei IoT-Komponenten noch die große Ausnahme. Das ist im Laufe einer technologischen Entwicklung keine Besonderheit von IoT. ABS und Airbag wurden auch erst entwickelt, als das Auto einen gewissen Reifegrad erreicht hatte und man sich einigermaßen darauf verlassen konnte, dass es fährt – trotzdem haben Fehler auch und gerade in diesem Reifestadium fatale Folgen, die frühe Technikgeschichte ist ja auch voll von Katastrophen.

Verfahren aus zwei Welten

Im Falle des Internets der Dinge liegt eine ganz grundsätzliche Problematik vor: IoT bringt zwei bislang getrennte Sphären zusammen, IT einerseits und mit den „Dingen“ im weitesten Sinne Technik und Industrie. In beiden Sphären sind – bisher – sehr unterschiedliche Verfahren und Gepflogenheiten üblich. So hat sich in der IT ein recht kurzer Produktzyklus etabliert, nach zwei bis vier Jahren werden Systeme ausgetauscht, längere Lebensdauer ist selten nötig, weil die angewandten Technologien schon vorher obsolet werden. Ein sieben Jahre altes Notebook oder ein fünf Jahre altes Smartphone sind Auslaufmodelle. Industrielle Komponenten haben dagegen schon mal fünfzehn oder auch zwanzig Jahre Bestand. So ist dann beispielsweise das in einer IoT-gesteuerten Turbine oder in einer Förderanlage verbaute Kommunikationssystem veraltet, lange bevor die Anlage selbst erneuert werden muss, und es ist fraglich, ob es innerhalb ihrer technischen Lebensdauer überhaupt noch Sicherheitsupdates oder Patches gibt. Und niemand kann garantieren, dass der Verschlüsselungsalgorithmus, der heute in einer IoT-gesteuerten Maschine implementiert wird, auch noch im Jahr 2035 sicher ist.

In diesem Zusammenhang ist ein weiterer Aspekt wichtig: Die Menschen, die mit der Installation, Wartung und Kontrolle von IoT-Systemen im industriellen und gewerblichen Umfeld befasst sind, sind in der Regel keine IT-Experten. Sie sind vielleicht Wartungs- oder Maschinentechniker, Logistiker, Gebäudetechniker oder Facilitymanager; bei Störungen ist es für sie nur naheliegend, sich um ihre jeweilige Technik zu kümmern: Beim Ausfall einer Klimaanlage sucht der Gebäudetechniker aufgrund seiner bisherigen Erfahrung zunächst nach einem Fehler in der Klimaanlage selbst, und geht nicht von einem Web-Angriff auf die Anlage aus.

Vor diesem Hintergrund sind die Risiken zu bewerten, die IoT neu ins Unternehmen bringt. IoT verbindet technische (Produktions-)Systeme – mitunter auch Werkstücke oder sogar Rohstoffe – über standardisierte Kommunikationsschnittstellen mit dem Web; das eröffnet die Möglichkeit der Kontrolle und Steuerung. Allerdings nicht nur für berechtigte Nutzer, sondern im Prinzip auch für andere. Diese können entweder Informationen über die jeweiligen Systeme abgreifen – und daraus auch Rückschlüsse weit darüber hinaus ziehen – sie können aber auch die Steuerung der betreffenden Systeme übernehmen und beispielsweise Fehlfunktionen auslösen. Es ist nicht schwer, sich entsprechende Schadens- oder Schreckensszenarien auszumalen, zumal IoT dabei ist, sich auch in kritischen Infrastrukturen, beispielsweise im Gesundheitswesen oder in der Strom- und Wasserversorgung, zu etablieren. Mittlerweile ist bereits jede vierte Maschine in der Industrie „smart“, und man kann davon ausgehen, dass Smart auch die Kommunikationsfähigkeit einschließt.

Neue Angriffspunkte

Der einfachste konkrete Angriffspunkt ist der direkte Zugriff auf Anlagen. Vielfach erhalten externe Service-Unternehmen für Wartungsarbeiten einen unkontrollierten Zugriff auf die Steuerung von Anlagen, mitunter verschaffen sie ihn sich auch selbst, indem entsprechende Bauteile implementiert werden, die bei Bedarf dann „mit zuhause telefonieren“. Einmal im Firmen-Netz heimisch lässt sich von diesen Bauteilen natürlich auch ein „Hopping“ zu anderen Systemen betreiben, so dass dem Service-Dienstleister schließlich das gesamte Netz offensteht. Solange die Kommunikation althergebracht per Modem erfolgt, ist das durch die IT noch einigermaßen kontrollierbar, wird aber eine LTE-Komponente im IoT-Gerät verbaut, hat das Unternehmen kaum eine Möglichkeit, die Kommunikation nach außen zu unterbinden. Das gezielte Scannen und Stören von Funkverbindungen ist jedenfalls klar verboten.

Die rasante Entwicklung der Drohnentechnologie erweitert die Möglichkeiten von Angriffen auf firmeninterne Funknetze. Angreifer können Drohnen stundenlang in Höhen positionieren, in denen sie kaum mehr zu erkennen sind; von dort können sie dann zum Beispiel die Kommunikation zwischen IoT-Systemen und dem jeweiligen MES (Manufacturing Execution System) mitschneiden oder auch beeinflussen – ein Angriffsvektor, den derzeit noch die wenigsten Unternehmen auf ihrem Schirm haben. Abwehrmöglichkeiten gegen das Ausspähen durch Drohnen sind begrenzt, denn auch hier ist das Stören von Frequenzen ebenso wenig erlaubt wie das Abschießen.

Neben Industrieanlagen bilden bisher besonders Logistik und Gebäudetechnik Schwerpunkte von Angriffen auf IoT-Systeme. Es liegt in der Natur der Sache, dass in der Logistik bevorzugt mobile Verbindungen eingesetzt werden; mittlerweile werden nicht nur LKWs mit entsprechenden Systemen ausgestattet, sondern auch Container oder sogar einzelne Paletten. Die Logistiker können auf diese Weise eine Lieferkette sehr genau automatisiert verfolgen, eröffnen damit aber Angreifern die Möglichkeit, Daten abzufangen und zu verändern. Im Unterschied zu Industrieanlagen befinden sich LKWs oder Container nicht in einem gesicherten Umfeld; man benötigt also nicht einmal eine Drohne, sondern muss nur mit einem Lesegerät am richtigen Ort spazieren gehen. Auf diese Weise kann man nicht nur detaillierte Informationen über Lieferketten erhalten, sondern kann sie bei Bedarf auch lahmlegen.

Auch die Möglichkeiten von Angriffen auf die Gebäudetechnik werden von Unternehmen meist unterschätzt. Die relevanten Bauteile, beispielsweise Klimatechnik oder Brandmeldeanlagen, sind meist nicht geschützt, lassen sich nur selten updaten und bieten Angreifern vielfältige Betätigungsmöglichkeiten: das kann vom Verändern der Raumtemperatur – was in einem Rechenzentrum katastrophale Folgen haben kann – bis zum Auslösen einer Sprinkleranlage reichen. Drohnen, die die Kommunikation etwa eines Rauchmelders abfangen, sind ein überaus effizientes Angriffsmittel – Angreifer können hier mit sehr überschaubarem Aufwand in kurzer Zeit ganze Unternehmen ruinieren.

Die direkten Abwehrmöglichkeiten gegen derartige Angriffe sind wie erwähnt begrenzt und die meisten Unternehmen können sich ja auch nicht in Hochsicherheitszonen verwandeln. Wichtig ist aber vor allem, sich der durch IoT-Systeme entstehenden Risiken überhaupt erst einmal bewusst zu werden und sich nicht nur an deren Funktionalität zu erfreuen. Unternehmen sollten dabei folgende Fragen beantworten können:

  • Welche IoT-Komponenten werden im eigenen Netz verwendet?
  • Welche Verbindungen gib es nach außen? Welche davon sind nicht erforderlich?
  • Gibt es (unkontrollierte) Wartungszugänge?
  • Sind von einzelnen Systemen andere zu erreichen? Lässt sich das beispielsweise durch Mikro-Segmentierung unterbinden?
  • Lassen sich Funkverbindungen reduzieren oder verschlüsseln?
  • Wer im Unternehmen ist für die Sicherung der IoT-Systeme verantwortlich? Verfügen die Verantwortlichen über Know-how für IT-Sicherheit?

Die Sicherung der IoT-Welt ist keine einmalige Aufgabe, erst recht nicht angesichts einer Technologie, die selbst noch im Werden ist. Umso wichtiger ist es, dass IoT fester Bestandteil einer unternehmensweiten Cyber-Defense-Strategie wird.