Wie stehen deutsche Unternehmen heute zu Cloud Computing?

Das Thema digitale Transformation beschäftigt auch den Mittelstand schon seit Jahren. Der Cloud-Monitor 2017 hat gezeigt, dass nun der deutsche Mittelstand in Sachen Cloud Computing-Nutzung zu Konzernen und Großunternehmen – die hier Vorreiter waren – praktisch aufgeschlossen hat. Angebote wie Software as a Service (SaaS) werden im Zuge der digitalen Transformation auch im Mittelstand immer relevanter. Aber was halten Unternehmen ganz konkret von den aktuellen Cloud-Angeboten? Wie bewerten sie sie im Hinblick auf Qualität, Wirtschaftlichkeit und Risiken? Und wie schätzen Unternehmen heute die Themen Datenschutz, Datensicherheit und Datenhoheit ein? Sind alle Bedenken jetzt Vergangenheit?

Um diese Fragen beantworten zu können, laden die Hochschule für Wirtschaft und Recht Berlin und die forcont business technology gmbh dazu ein, an einer kurzen Umfrage teilzunehmen. Die Initiatoren der Befragung möchten herausfinden, ob sich die Anforderungen der Nutzer mit den Angeboten der Cloud-Anbieter decken und welche Unterschiede es gibt. Wichtig ist auch die Frage, ob Unternehmen eher geneigt sind, Vorbehalte zu überwinden, wenn sich ihnen durch Cloud-Angebote Wettbewerbsvorteile eröffnen. Ein Ziel der Umfrage ist es, mögliche Synergien zu identifizieren, von denen beide Seiten, Anbieter und Nutzer, profitieren. Sehr interessant wird auch der Vergleich mit der Umfrage, die dieselben Initiatoren schon vor zwei Jahren, im Herbst 2015, durchgeführt haben. Die erste Umfrage hat große Vorbehalte gegenüber den sensiblen Themen Datensicherheit und Datenschutz offen gelegt: 60 Prozent der Unternehmen, die bis dato keine Cloud-Dienste genutzt haben, äußerten Bedenken hinsichtlich Datensicherheit und -schutz. Zudem sahen 44 Prozent in ihren Organisationen keinerlei Bedarf an SaaS-Anwendungen, während sich etwa ein Drittel der Befragten um die Performance und die Integrationsfähigkeit einer Cloud-Lösung in die bestehende IT-Infrastruktur sorgte. Hinzu kam, dass 32 Prozent der Befragten den großen Einführungsaufwand scheuten. Hat sich daran inzwischen etwas geändert? Darüber soll die neue Studie Aufschluss geben.

Die neue Umfrage läuft bis 30. September 2017, die Ergebnisse stehen den Teilnehmern im Anschluss zur Verfügung. Die Datenerhebung erfolgt anonymisiert, eine Datenweitergabe an Dritte ist ausgeschlossen. Unter allen Teilnehmern verlost forcont fünf Amazon Gutscheine im Wert von jeweils 25 Euro.

Hier geht’s zur Umfrage!

10 Tipps, die Admins für IoT-Monitoring wissen müssen

1. Das nächste große Ding orchestrieren

Die Digitalisierung betrifft alle Bereiche unseres täglichen Lebens, wenn auch unterschiedlich stark. Doch ganz gleich, ob es um die Automatisierung einer kompletten Fertigungslinie mit Hilfe moderner, intelligenter Roboter geht oder ob der Nachbar sein neues Eigenheim mit intelligenten, vernetzten Geräten ausrüstet. Um Sensoren, Systeme, Maschinen und Geräte sinnvoll miteinander zu verknüpfen werden dringend Fachleute gebraucht, die smarte Prozesse im Internet der Dinge möglich machen. Hier schlägt die Stunde der Netzwerkadministratoren, denn irgendwer muss die Menge an neuen Dingen im Netz schließlich sinnvoll orchestrieren. Dafür müssen Sie genau wissen, welche Anforderungen Kunden, Chefs, Technik und die Gesellschaft an Sie und Ihr Netzwerk stellen.

2. Besser vorbereitet sein, als das Nachsehen zu haben

Während manche Geräte schon in der Entwicklung passend zu bestehenden Netzwerkstandards abgestimmt werden, sind andere Produkte Sonderlösungen, bei deren Konzeption der Fokus nicht auf der Integration ins IT-Netzwerk lag. Das schafft eine ganze Reihe neuer Baustellen für den Netzwerkadministrator. Vor allem muss er sämtliche Komponenten, die in seiner Infrastruktur existieren, in ein zentrales Monitoring-System integrieren. Kniffelig wird es auch, wenn die „Dinge“ keine Netzwerkstandards unterstützen. Denn dann braucht er eine Software-Lösung, die in der Lage ist, über entsprechende APIs und Vorlagen auch Nicht-IT-Komponenten einzubinden. Seien Sie also vorbereitet auf die verschiedenen Anforderungen Ihrer Komponenten und denken Sie daran, diese in eine passende Netzwerkarchitektur zu integrieren. So wird ihr Netzwerk nicht nur nachvollziehbar gepflegt, die Ordnung wird Ihnen auch helfen Probleme sofort zu erkennen, damit Sie schnell reagieren können.

3. Mitreden kann nur, wer die Sprache beherrscht

Damit Sie wissen was Sache ist, müssen Sie die Sprache verstehen und interpretieren können, die gesprochen wird. Das gilt nicht nur für die Kommunikation mit Kollegen vor Ort und im Ausland, sondern genauso im Internet der Dinge. Wenn sich die Objekte untereinander austauschen, sollten Sie wissen was gespielt wird. Dafür stehen in der Netzwerktechnik verschiedene Protokolle zur Verfügung, wie RESTful HTTP, das Constrained Application Protocol (CoAP) und das Simple Network Management Protocol (SNMP). Durch die Verknüpfung immer neuer Objekte und Systeme miteinander ist das eine echte Mammutaufgabe. Denn wie jede Sprache, haben auch die Protokolle ihre Eigenheiten, die es zu kennen gilt. Doch wer die Protokoll-Sprachen beherrscht, ist bald nicht nur Teilnehmer, sondern moderiert seine Datenströme durch ein professionelles Monitoring schon bald optimal.

4. Die Hardware im Blick haben

Auch wenn es zunächst unsinnig erscheinen mag, z.B. den Kühler einer alten Maschine mit dem Netzwerk zu verbinden, bauen schon heute Industrieunternehmen ihr Geschäftsmodell auf sogenannten Retrofit-Lösungen auf. Dafür wird nicht immer die neueste Netzwerkhardware verwendet. Aber auch in anderen Bereichen werden Netzwerkadministratoren unweigerlich auf alte Hardware stoßen. Neben Systemen mit den neuesten und besten Servern, Routern und Sensoren, werden da alte Steuerungssysteme oder Kleinrechner wie der Raspberry Pi verbaut. Um auch diese sinnvoll in die Netzwerkinfrastruktur einzubinden, gilt es einen Überblick über die verschiedenen Voraussetzungen der Geräte zu haben und diese genau zu verstehen. Je mehr Sie über die Anforderungen und Voraussetzungen auch älterer Hardware wissen, desto leichter wird es Ihnen fallen, ein heterogenes Netzwerk zuverlässig im Blick zu behalten.

5. Flexible Lösungen mit System bieten

Dass Netzwerkadministratoren flexibel agieren können müssen, begreifen selbst Laien schnell, wenn man ihnen die technischen Herausforderungen erklärt, die das Konzept des Bring your own Device (BYOD) fordert. Wie schon angesprochen, muss da innerhalb kürzester Zeit unterschiedlichste Software und Hardware ins Netzwerk integriert werden, ohne dabei die Fragen der Sicherheit zu vernachlässigen. Die zunehmende Verbreitung von Cloud-Diensten und ein Internet mit einer theoretisch unendlich großen Menge an verknüpften Dingen wird das Monitoring von immer komplexeren Netzwerken zu einer schwierigen Aufgabe machen. Aufgrund der heterogenen Netzwerke ist da Flexibilität und Geduld geboten. Gut, wenn Sie dafür ein System haben, dass es Ihnen ermöglicht flexibel zu reagieren.

6. Plan B in der Schublade haben

Wer wissen will, welches Ding wann, was, wo und wie macht, der muss genau wissen, auf welche Daten er dafür Zugriff benötigt. Durch die schwankende Menge der Geräte im Netzwerk wird die genaue Selektion relevanter Informationen dabei immer wichtiger. Wie auch beim BYOD wird das Internet der Dinge sowohl Netzwerke als auch den Umgang mit Bandbreiten enorm verändern. Herr der Lage können Netzwerkadministratoren bei kurzfristig steil ansteigenden Zugriffen durch neue Geräte nur dann bleiben, wenn sie entsprechende Infrastruktur-Reserven, wie beispielsweise die Bandbreitennutzung im Blick haben. Haben Sie also einen Plan B in der Schublade, um solche Spitzen abfangen zu können. Das erfordert nicht nur eine kluge Budgetplanung, sondern vor allem Erfahrung und Köpfchen.

7. Neue Gefahren nicht unterschätzen

Für eine professionelle Überwachung heterogener Netzwerke im Internet der Dinge ist ein professioneller und aktueller Sicherheitsplan fundamental. Denn mit immer neuen Teilnehmern in den Netzwerken steigen die Möglichkeiten für Hackerangriffe exponentiell. Waren Firmen IT-technisch vor Jahren noch nahezu Insellösungen, wird eine zunehmend digital vernetzte Welt heute ständig durch Angriffe von Hackern bedroht. Und so müssen Netzwerkadministratoren stets ihr eigenes Bewusstsein, wie auch das ihrer Anwender für die Gefahren aus dem Netz schärfen. Denn mit jedem Gerät im Netzwerk, das über eine IP-Adresse verfügt, entsteht auch ein neues Einfallstor für Angreifer. Auf diese Weise potenziert das Internet der Dinge die Gefahren für die Sicherheit des Netzwerkes. Das Internet der Dinge bietet viele Möglichkeiten, birgt aber auch Gefahren. Seien Sie sich dieses Umstands stets bewusst.

8. Das Internet der Dinge als Chance begreifen

Eine der besten Nachrichten, die das Internet der Dinge für Netzwerkadministratoren mit sich bringt ist sicher, dass sie nicht befürchten müssen in näherer Zukunft ohne Arbeit da zu stehen. Denn schließlich ist das Internet der Dinge aktuell eines der am schnellsten wachsenden Entwicklungen, die wir bis dahin gesehen haben. Arbeit gibt es also genug und gerade für das Monitoring der Netzwerke heißt das, dass durch immer neue Hardware und Software neue Aufgaben entstehen. Gerade die Industrie, die in Deutschland mit dem Schlagwort Industrie 4.0 den Einzug der Digitalisierung in die Fabrikhallen feiert, erhofft sich durch die Vernetzung ihrer Anlagen bessere Produkte, effizientere Fertigung und verbesserte Unternehmensprozesse. Netzwerkadministratoren, die sich hier als Dienstleister der Digitalisierung verstehen, können durch kreative Monitoring-Lösungen positiv auffallen. Bleiben sie also neugierig und offen und sehen Sie das Internet der Dinge als Chance.

9. Die Dinge des Internets ordnen

Als Netzwerkadministrator stehen Sie im Mittelpunkt einer Entwicklung, in der immer mehr Geräte in kurzer Zeit Teil Ihres Netzwerkes werden. Das führt schnell zu chaotischen Zuständen, wenn Sie nicht aufpassen. Denn noch nie war es so einfach wie heute, eine virtuelle Maschine einzurichten und Geräte über Software aus der Cloud zu bedienen. Umso wichtiger ist da der Netzwerkadministrator als Gatekeeper. Um den Überblick zu behalten, werden Sie ein strukturiertes Monitoring-Konzept umsetzen müssen. In der Menge der Dinge, die nun im Netzwerk unterwegs sind, entgleiten Ihnen sonst durch mangelnde Tracking-Optionen, die Handlungsmöglichkeiten.

10. Immer einen Schritt vorausdenken

Das Monitoring des Unternehmensnetzwerkes gewinnt an Bedeutung. Davon profitieren auch Netzwerkadministratoren, denn in einer vernetzten Welt ergeben sich neue Geschäftsmodelle aus der richtigen Interpretation der Kommunikation zwischen den Geräten. Um Entscheidungen treffen zu können, benötigen Sie eine fundierte Datenbasis, die Ihnen ein umfassendes Monitoring der Netzwerke liefert. Nutzen Sie diesen Umstand! Denn erst, wenn relevante Daten gesammelt und eingehend analysiert werden, können Sie daraus neue Ideen und Geschäftsmodelle entwickeln. Deshalb ist es sinnvoll einen zukunftsweisenden Plan für das Monitoring des Netzwerkes zu haben. Auch wenn es für den Moment noch so aussieht, als würden nur wenige Teilnehmer miteinander kommunizieren: Die „Dinge“ werden kommen – nicht nur im Internet, auch in Ihrem Netzwerk.

Industrie 4.0 in der Blechindustrie

Das Projekt „Industrie 4.0“ stellt neben führenden Großunternehmen auch Betriebe aus dem Mittelstand vor eine große Herausforderung, die es zukünftig zu meistern gilt. Wie aktuelle Fachmessen aufzeigen, ist die Digitalisierung von Geschäfts- und Produktionsprozessen dabei insbesondere für Unternehmen in der Blechverarbeitung inzwischen ein wichtiges Thema. Doch welche Auswirkungen hat die Entwicklung eigentlich im Detail für die Blechindustrie?

Industrie 4.0 und Smart Factory: Wenn der Computer zum Arbeitskollegen wird

Der Begriff Industrie 4.0 ist schon seit einigen Jahren eine geläufige Wortschöpfung, welche die allgemeine Umwälzung der Wirtschaftslandschaft durch die stetig zunehmende Digitalisierung bezeichnet. Prinzipiell kann diese Entwicklung als die vierte industrielle Revolution bezeichnet werden, deren Zielsetzung die weitergehende Automatisierung von Fertigungsprozessen mit Hilfe neuester Digitaltechnik ist. So sollen in dem Betrieb der Zukunft sowohl Maschinen, Geräte und Sensoren als auch Menschen durch das Internet der Dinge miteinander verknüpft sein, was eine verbesserte Kommunikation sowie einen optimierten Betriebsablauf ermöglicht.

Weiterhin soll die Informationstransparenz durch Sensordaten gesteigert werden, sodass die Informationssysteme digitaler Fabrikmodelle erweitert werden können. Auf diese Weise entsteht Schritt für Schritt eine intelligente Fabrik – auch Smart Factory genannt – die mit cyberphysische Systemen autonome Entscheidungen treffen und ausgewählte Aufgaben selbstständig durchführen kann.

Welche Vor- und Nachteile bietet der industrielle Umbruch Unternehmen aus der Blech-Industrie?

Der größte Vorteil für Hersteller in der Blechverarbeitung liegt in Bezug auf die Industrie 4.0 wohl in dem gigantischen Potenzial hinsichtlich der Optimierung von Produktionsprozessen begründet. So liefert die Smart Factory dem Unternehmer eine riesige Menge an wichtigen Daten, mit deren Hilfe sich Fehler sehr früh oder sogar im Vorhinein zuverlässige ausmachen lassen. Wie sehr sich die Digitaltechnik auf die Betriebskosten auswirken kann, zeigt unter anderem die Tatsache, dass zum Beispiel Daimler die Produktivität bei der Zylinderkopffertigung durch Softwarelösungen um ganze 25 Prozent steigern konnte.

Mit Hilfe von IT-Lösungen kann beispielsweise die Genauigkeit von Arbeiten wie Bohren oder Fräsen signifikant erhöht werden, sodass im Endeffekt deutlich weniger Ausschuss anfällt. Ein Nachteil der Industrie 4.0 sind hingegen die verhältnismäßig hohen Investitionskosten, welche durch die Installation entsprechender IT-Systeme generiert werden. Weiterhin ist auch der Datenschutz aufgrund häufig fehlender Standards und Normen aktuell noch eine ernstzunehmende Problematik in Bezug auf die digitale Revolution und die mögliche Industriespionage.

Wann sollten sich Unternehmer aus der Blech-Industrie mit dem Thema der Industrie 4.0 beschäftigen?

Zwar handelt es sich bei dem Begriff Industrie 4.0 um eine deutsche Wortschöpfung, die es in anderen Sprachen so nicht gibt, allerdings existieren in vielen Ländern ähnliche Initiativen, welche die Digitalisierung von Geschäftsprozessen vorantreiben wollen. Im Zuge der zunehmenden Globalisierung bedeutet dies für Unternehmen aus Deutschland, dass der internationale Druck deutlich ansteigt und die zügige Integration von Digitaltechnik ein wichtiger Faktor für den zukünftigen Erhalt der Wettbewerbsfähigkeit sein kann.

Aus diesem Grund sollten sich speziell Unternehmer aus der Blechindustrie am besten so schnell es geht mit den Möglichkeiten der neuen Technik auseinandersetzen. Eine gute Anlaufstelle sind in diesem Zusammenhang große Messen, auf denen Experten der ITK-Branche ihre virtuellen Lösungen präsentieren. So werden auf Veranstaltungen mit internationalem Charakter nicht selten 500 Anwendungsbeispiele und mehr für die Industrie 4.0 anschaulich vorgestellt. Hier lassen sich weiterhin auch passende Experten finden, die individuell auf die Situation im eigenen Betrieb eingehen können. Mit Hilfe von internationalen Firmendatenbanken wie Industry Stock lassen sich zudem ganz einfach online passende Partner und Zulieferer rundum das Thema Blechverarbeitung auf alle Welt finden.

Das Fazit

Die Entwicklung auf dem Markt macht sehr deutlich, dass sich die Digitalisierung und das Internet der Dinge langsam aber stetig in die Blechindustrie auf dem Vormarsch befindet. Betroffene Unternehmer sollten daher nicht zögern, wenn es um das Thema Industrie 4.0 geht, da diese Entwicklung einen großen Einfluss auf die eigene Zukunftsperspektive haben kann.

Labor für die Metropolen der Zukunft

Das 240 Hektar umfassende Gebiet von Aspern ist eines der größten europäischen Stadtentwicklungsprojekte. Bis 2028 entstehen hier bezahlbare Wohnungen für rund 25.000 Menschen. Gleichzeitig ist Aspern ein technologisches Testlabor dafür, wie Städte energieeffizienter werden können.

Aspern Smart City Research GmbH (ASCR) ist ein Joint Venture unter Beteiligung des Technologiekonzerns Siemens, der Stadt Wien sowie eines Netzbetreibers und eines Energieversorgers. Teradata unterstützt die Partnerunternehmen dabei, wichtige Erkenntnisse aus den zahlreichen anfallenden Daten zu ziehen – und hilft damit wichtige Einblicke in Energieverbrauch und -erzeugung zu gewinnen. Siemens‘ koordinierter Forschungsplan soll die Stadt zu einer Versuchsumgebung für die Integration von Technologien machen, die Energieeffizienz und nachhaltige Stadtentwicklung fördern.

Wichtige Erkenntnisse im Kampf gegen den Klimawandel

Die als „Aspern – Die Seestadt Wiens“ bekannte Technologiehochburg könnte wichtige Erkenntnisse für andere Städte weltweit liefern. Denn der Kampf gegen den Klimawandel findet vor allem in den Städten selbst statt: Sie sind für circa 75 Prozent des weltweiten Energieverbrauchs und für 85 Prozent aller Treibhausgasemissionen verantwortlich.

Damit die Partnerunternehmen in Aspern möglichst viele Erkenntnisse rund um Energieverbrauch und -erzeugung gewinnen, testet das Projekt unterschiedliche Technologie-Kombinationen. Installiert sind neben Photovoltaik-Modulen und Wärmepumpen auch unterschiedliche Lösungen zur Energiespeicherung. Die Bewohner selbst sind ebenfalls aktiv beteiligt: Derzeit können mehr als 100 Haushalte ihre Heizung, Lüftung sowie diverse Haushaltsgeräte in ihren Wohnungen per Smartphone oder Tablet ansteuern und mit einer App ihren Stromverbrauch detailliert managen. Nutzer erhalten so Einblicke in die komplexe Dynamik des Energiesystems; Forscher gewinnen Erkenntnisse über das Nutzerverhalten.

Mit der ausdrücklichen Genehmigung der Haushalte sammelt ASCR Daten für das Forschungsprojekt, unter anderem zum Stromverbrauch, zur Luftqualität und zur Raumtemperatur. Diese werden mit Daten aus dem Stromnetz sowie Echtzeit-Informationen über das Wetter zusammengeführt. Zudem wurde Asperns neues Niederspannungsnetz mit einem Netzwerk aus Sensoren für die Echtzeitmessung der Netzwerkdaten ausgestattet.

Herausforderung Datenintegration

Um die anfallenden Datenmassen auszuwerten, sind neben Technologien für das Energiemanagement in intelligenten Gebäuden auch Lösungen zur Verwaltung großer und polystrukturierter Datenmengen – Stichwort Big Data – entscheidend. Denn die Daten aus den unterschiedlichen Quellen bergen potenziell wertvolle Informationen, können aber vollkommen unterschiedlich strukturiert sein. Mittels verschiedener Tools werden sie zunächst in eine einheitliche Plattform – das Teradata Data Warehouse – geladen. Dort können sie dann effizient verarbeitet und gemeinsam analysiert werden.

Diese Big Data-Architektur ermöglicht zwei Arten von Analysen: Einerseits können Forscher klassische Business Intelligence betreiben. Sie werten einfach strukturierte Daten wiederholt nach dem gleichen Muster aus, generieren Kennzahlen und können so aus unterschiedlichen Gegebenheiten, wie beispielsweise Sonnenschein oder Regen, wertvolle Rückschlüsse ziehen. Einen Schritt weiter geht Discovery Analytics. Diese Art von Analysen erlauben es den Forschern neue, bisher unbekannte Zusammenhänge und Erkenntnisse aus den Daten zu gewinnen, basierend auf allen Daten jedweder Struktur.

Eine Vielzahl an Forschungsthemen

Die hochmoderne Kombination von IT-Infrastrukturen eröffnet den Joint Venture-Partnern Einblicke in die Wechselbeziehungen zwischen den zugrundeliegenden Systemen. Dabei konzentriert sich die Forschung nicht nur auf die Optimierung des Energieverbrauchs in den Gebäuden, sondern auch auf das Potential der Gebäude, flexibel Energie zu erzeugen und ins Netz einzuspeisen. Das Stromnetz ist derart mit dem Energiemarkt vernetzt, dass Synergieeffekte entstehen und bewertet werden können.

Vom Gebäudemanagement bereitgestellte Daten werten Wissenschaftler aus, um die Beziehungen zwischen den Variablen sowie die sowohl das Netz als auch die Gebäude betreffenden Faktoren zu verstehen. Dafür entwickeln sie spezielle Algorithmen, um die Daten gezielt auswerten zu können. Die daraus resultierenden Informationen werden zukünftig an Bedeutung gewinnen, wenn es darum geht, die erneuerbaren Energiesysteme bestmöglich zu integrieren.

Und auch die nächsten Forschungsziele sind bereits gesetzt: Die Big Data-Architektur erlaubt es den Forschern in Zukunft zu analysieren, welche Auswirkungen unterschiedliche Energiequellen in verschiedener Kombination und unter wechselnden Wetterbedingungen auf das Netz und die Gebäude haben.

Intelligente Daten fürs intelligente Heim

Bereits drei Viertel der deutschen Internetnutzer haben über den Kauf von Smart-Home-Technologien nachgedacht. Doch auch wenn die Bereitschaft zum vernetzten Heim wächst, fehlt es in vielen Fällen noch an den nötigen Grundvoraussetzungen. Ein „smartes” Zuhause basiert auf einem komplexen Zusammenspiel sämtlicher Geräte, Sensoren, Kameras, Stromnetze und intelligenter Wasser- und Stromzähler. Im Idealfall sollten all diese Systeme miteinander vernetzt werden, um Daten zu erfassen, auszutauschen und in Echtzeit analysieren zu können.

Smart Home ist auch IoT

Mit anderen Worten: Eine IoT-Struktur ist unverzichtbar. Innerhalb des Netzwerks aus Geräten und Systemen im Smart Home müssen Abfragen extrem schnell und zuverlässig verarbeitet werden – selbst dann, wenn nicht alle Einheiten jederzeit online sind. Fällt ein einzelner Sensor beispielsweise aus, weil ein Gerät heruntergefahren wird, kann das Hunderte Verbindungen kappen. Gleichzeitig nehmen neu angeschlossene Systeme sobald sie online sind automatisch Verbindung zum lokalen Kontroller und anderen Geräten auf und schaffen so neue Verknüpfungen.

Plattform für vernetzte Daten 

Eine solche Verbindungsdichte und Komplexität der Daten erfordert entsprechende Datenbanklösungen. Einfache Aufgabestellungen für das Smart-Home lassen sich noch mit einer relationalen Datenbank lösen. Eine solche Datenbank stellt jedoch Daten in Spalten, nicht in Netzwerken dar, und ist daher keine optimale Lösung für die Abfrage von Verknüpfungen wie sie im IoT herrschen. Die meisten IoT-Anwendungen basieren auf vernetzten Daten.

In Graphdatenbanken lassen sich solche komplexen, multidimensionalen Verbindungen realitätsnah abbilden. Das liegt allein schon in der Struktur begründet, in der Daten als „Knoten“ dargestellt sind, die über „Kanten“ miteinander verbunden sind. Übertragen auf das Smart Home könnte ein Graph beispielsweise so aussehen: „Sensor A1“ und „Zeitschaltuhr A2“ sind mit „Beleuchtung A“ verbunden, die wiederum Daten an die „Basisstation 1“ und damit an weitere Systeme wie „Stromzähler“ oder „Licht-App“ auf dem Smartphone weiterleitet. Der Fokus auf vernetzte Daten ermöglicht es, in Echtzeit die Verknüpfungen zwischen Systemen zu speichern, mit Eigenschaften zu versehen und abzufragen.

Dabei fließen die Daten unterschiedlicher Systeme zusammen und erlauben einen Ein- und Überblick in das Kommunikationsnetzwerk im Smart Home. Auf einen Blick lässt sich nachverfolgen, wo einzelne Anwendungen aber auch Plattformen in der Cloud zum Einsatz kommen, und wie sie mit anderen Systemen in Verbindung stehen. Auf dieser Basis lassen sich auch Impaktanalysen durchführen und Störungen und Ausfällen auf den Grund gehen.

Graph-Plattform für Breitbandverbindungen

Ein Beispiel wie Graphtechnologie als Plattform für Smart Home-Anwendungen genutzt wird ist Telia. Der Telekommunikationskonzern und Mobilfunknetzbetreiber aus Schweden nutzt die Graphdatenbank Neo4j für das Backend-Management seiner routerbasierten Plattform für Breitband-Internet-Anwendungen. Miteinander verbundenen Geräte, Systeme und Apps sind als Knoten im Graph hinterlegt, die APIs, über die der Nutzer verschiedene Einstellungen und Services abrufen kann, werden als Beziehungen zwischen den Knoten gespeichert.

Im Durchschnitt erreichen einen Router 10 Requests pro Tag und internetfähiges Gerät. Bei elf Geräten pro Haushalt und 1,2 Millionen Haushalten müssen allein auf Router Seite über 132 Millionen Requests verarbeitet werden. Neue Verknüpfungen und APIs können je nach Bedarf hinzugefügt werden. Diese hohe Flexibilität und Skalierbarkeit ist für die Smart Home-Architekten essentiell, da Telia heute noch nicht vorhersagen kann, welche APIs in Zukunft entwickelt werden müssen.

 

Telia_Neo4j
Routerbasierte Plattform für Breitband-Internet-Anwendungen – und damit auch Smart Home (Quelle: Telia)

Momentan wird das digitale Ecosystem von über 1,2 Millionen Haushalten genutzt. Weitere 930.000 Haushalte sollen in Kürze folgen. Die graphbasierte Netzwerktopologie unterstützt unterschiedlichste Anwendungen, die z. B. erkennen, wenn jemand die Wohnung betritt oder verlässt und Heizung und  Beleuchtung regeln. Auch Unterhaltungsfunktionen sind konfigurierbar. So bietet Telia zum Beispiel in Kooperation mit Spotify eine smarte Musikmanagement-Plattform, mit der automatische Playlisten erstellt und im passenden Moment abgespielt werden.

Angesichts der wachsenden Datenmenge in Smart-Home-Szenarien, ist eine kohärente, übergreifende Steuerung des IoT-Netzwerks dringend nötig. So rechnet beispielsweise Telia in naher Zukunft mit bis zu 13 Millionen Geräten mit 20.000-30.000 Events pro Sekunde, die es zu unterstützen gilt. Mit dieser Größenordnung vor Augen bietet ein graphbasiertes IoT-Management den schnellsten Weg zum Smart Home der Zukunft.

Absatzplanung im Supply Chain Management

Ein stetig wachsendes Produktangebot, welches über den Multi-Kanal-Vertrieb an Kunden weltweit gebracht werden soll, stellt die gesamte interne Lieferkette vor enorme Herausforderungen. Umso wichtiger ist eine gute vorgeschaltete Planung aller Supply-Chain-Prozesse, beginnend mit der Planung des künftigen Absatzes. Die Masse an neuen Daten, die durch Marktveränderungen, Saisonverkäufe, Störungen oder Verkaufsaktionen generiert wird, sollte diese Planung eigentlich unterstützen, doch wirkt sie auf viele Planungsverantwortliche erst einmal wie ein unüberwindbares Informations-Chaos. Grund dafür ist jedoch nicht das Unwissen der Fachkräfte, sondern ein meist mangelndes Datenmanagement, Inseldenken und unzureichende Software.

Bestandteile einer Planung

Damit eine Absatzplanung, auf die sich alle Prozesse im internen Supply Chain Management stützen, verlässlich, kundenorientiert und bereichsübergreifend geschieht, müssen die folgenden drei Dinge erfüllt sein:

Informationen aller Abteilungen zusammenbringen

Die ganzheitliche Betrachtung der internen Lieferkette ist elementar für eine Absatzplanung. Denn der Kundenwunsch bestimmt letztlich nicht nur die Produktion, sondern auch vernetzte Prozesse im Lager, der Disposition, in Vertrieb und Marketing. Eine Inselplanung – das wissen wir schon lange – kann kein unternehmerisches Gesamtoptimum erzielen. Wenn aber Ziele, Nebenbedingungen und Wechselwirkungen aller Teile bekannt sind, können sie auch in einer Gesamtplanung berücksichtigt werden. Eine große Informationssammlung macht jedoch den Planungsprozess um ein Vielfaches komplexer. Das mag den Eindruck erwecken, Flexibilität und Kurzfristigkeit müssten einer guten Planung weichen. Das ist aber nicht zwingend der Fall, denn hier setzt die Intelligenz von Algorithmen an. Dies führt uns zu Nummer zwei:

Der Blick in den Rückspiegel

Vergangenheitswerte dienen uns als Entscheidungsgrundlage für die Zukunftsplanung, denn sie sind faktisch und damit – sofern sie gewissenhaft erfasst werden – eine nicht anzweifelbare Datenbasis. Auf dieser Basis kann mithilfe von Prognosealgorithmen die Zukunft vorausgesagt werden. Doch in jeder Situation blind darauf zu vertrauen, kann Konsequenzen haben. Nach diesem Verfahren kam es beispielsweise Anfang August auf der A3 am Leverkusener Kreuz zu einem Stau mit stundenlanger Wartezeit. Der Grund: Baustelle. Der Ärger war (selbstverständlich) groß und dennoch erläuterte der Planungsverantwortliche, dass an diesem Wochenende inmitten der Sommerferien (NRW) eigentlich das geringste Verkehrsaufkommen sein sollte – dies habe eine Berechnung auf Vergangenheitswerten ergeben. Fraglich ist, ob die am gleichen Tag stattgefundene Fußball-Saisoneröffnung in der Leverkusener BayArena, nahe gelegen am Autobahnkreuz, ebenfalls in die Planung eingeflossen ist…

Fazit: Der Blick in die Vergangenheit ist für die Planung des zukünftigen Absatzes von hoher Bedeutung. Auf Vergangenheitswerte können intelligente Prognoseverfahren aufsetzen und für die Mehrheit der zu planenden Einheiten eines Unternehmens bereits einen sehr verlässlichen Ausblick über das künftige Absatzverhalten geben. Jedoch ist dies allein nicht genug, denn unvorhergesehene und außerordentliche Störungen sind unvermeidbar und müssen in eine Planung unbedingt einbezogen werden. Nummer drei:

Menschliche Expertise in eine agile Planung einbinden

Die Intelligenz von Planungssystemen ist auf unserem heutigen Stand der Technologie weit entwickelt. Sie wächst mit den Fortschritten in künstlicher Intelligenz und maschinellem Lernen. Und dennoch wird es immer Einflussfaktoren auf eine Planung geben, welche nur über die menschliche Expertise eingeschätzt werden kann – sei es ein Fußballspiel im Stadion neben der geplanten Baustelle oder beispielsweise ein mögliches Fahrverbot für dieselbetriebene LKW, das Auswirkungen auf die Logistik hat. Worin Software in dieser Situation allerdings unterstützen sollte, ist agile Optimierung als Handlungsprinzip. Hier leistet entscheidungsintelligente und agile IT eine schnelle Anpassungsfähigkeit durch Informationsverarbeitung von Echtzeit-Daten in enorm kurzer Zeit.

Fazit

Die Kombination aus einer abteilungsübergreifenden Planung, Vergangenheitsdaten, Expertise erfahrener Planer und smarter IT als das zusammenführende Dachelement ermöglicht eine verlässliche und realistische Absatzplanung. Denn werden erst einmal alle Daten in einem gemeinsamen Softwaresystem intelligent und integriert verarbeitet, sind Folgeprozesse harmonisiert und das Unternehmen arbeitet im Takt des Marktes und mit Blick auf den Kunden. Damit können auch sich ausweitende Artikelspektren unter einem zunehmenden Liefer- und Kostendruck effizient gemanagt und die Wettbewerbsfähigkeit gesteigert werden.

vSphere 6.5

Standardmäßig arbeitet vSphere mit der eindeutigen Zuweisung von MAC-Adressen an jeden virtuellen Netzwerkadapter. Diese Adresse lässt sich nur in der Netzwerkkonfiguration von vSphere anpassen, nicht durch die VM selbst. Wichtige Einstellung dazu finden Sie in den Eigenschaften von virtuellen Switches.

Zusätzlich gibt es auch eine MAC-Adresse, die das virtuelle Betriebssystem in der VM verwaltet. Dieses entspricht normalerweise der MAC-Adresse, die der VM durch vSphere zugewiesen wurde. In den Datenpaketen der VM wird die jeweilige MAC-Adresse hinterlegt, sodass der empfangene Datenverkehr gefiltert werden kann. Hier kann überprüft werden, ob der eingehende Datenverkehr zur MAC-Adresse des virtuellen Netzwerkadapters passt. Um die Sicherheit von MAC-Adressen zu gewährleisten, können Sie in den Sicherheits-Einstellungen der virtuellen Switch festlegen, dass MAC-Adressänderungen nicht erlaubt sind.

Hier müssen Sie vor allem darauf achten, dass sich nicht versehentlich Fälschungen oder identische MAC-Adressen einschleichen. Gibt es im Netzwerk zum Beispiel Netzwerkadapter mit identischen MAC-Adressen, akzeptieren VMs standardmäßig den Datenverkehr der von diesen Adaptern stand, da die MAC-Adresse mit der lokalen MAC-Adresse übereinstimmt. Wollen Sie das nicht, können Sie in den Sicherheitseinstellungen von virtuellen Switches die gefälschten Übertragungen deaktivieren.

Eine besonders wichtige Einstellung betrifft den „Promiscuous Modus“ in den Sicherheitseinstellungen von virtuellen Switches.  Aktivieren Sie diese Funktion, werden alle Sicherheit-Empfangsfilter einer virtuellen Switch deaktiviert, und die virtuelle Switch empfängt und akzeptiert jeglichen Datenverkehr. In einer sicheren Umgebung sollten Sie daher darauf achten, dass diese Funktion immer deaktiviert ist.

Der Modus ist notwendig, wenn Sie in einer VM eine Netzwerk-Überwachungslösung installieren. Hier ist es notwendig, dass jeder Datenverkehr empfangen werden kann, damit die Lösung das Netzwerk überwachen kann. Wenn Sie diesen Modus für eine bestimmte VM benötigen, sollten Sie unter Umständen prüfen, ob es sinnvoll sein kann einen eigenen virtuellen Switch anzulegen.

Überwachung mit vCenter

Arbeiten Sie mit dem Web-Client, finden Sie für so gut wie jedes Objekt die Registerkarte „Überwachen“. Rufen Sie diese Registerkarte auf, erhalten Sie umfassende Informationen, und erkennen so sehr schnell Fehler auf den Systemen.

Zusätzlich bietet vCenter aber noch mehr Überwachungsmöglichkeiten. Welche Informationen Sie in vCenter angezeigt bekommen, hängt davon ab welches Objekt Sie aktuell markiert haben.

Wechseln Sie nach dem Markieren eines Objektes auf die Registerkarte „Überwachen“, finden Sie verschiedene Menüpunkte, über die Sie umschalten können, um Informationen abzurufen. Jedes Objekt, zum Beispiel vCenter, Datencenter, Cluster, Hosts, VMs oder virtuelle Switches, zeigen notwendige Informationen an. Die meisten Schaltflächen im oberen Bereich des Überwachungs-Fensters zeigen identische Informationen, es gibt aber auch Unterschiede.

Klicken Sie auf den Menüpunkt „Home“, zu dem Sie auch über das Symbol im oberen linken Bereich des Web-Clients wechseln können, erhalten Sie zentral alle Symbole, zu den verschiedenen Steuerungsmöglichkeiten in vCenter. Hier gibt es auch eigene Bereiche für die Überwachung und die Verwaltung sowie die Bestandslisten der Umgebung. Mit einem einzelnen Klick können Sie also direkt in den Bereich wechseln, den Sie aufrufen und überwachen wollen.

Cybus lädt erneut zum „What The Data!?“

Der „What The Data!?“ ist einer der größten IoT-Hackathons in Deutschland für Industrie 4.0 und Energie. 2017 findet er in dieser Form zum zweiten Mal statt. 100 Teilnehmer entwickeln in eigenen Teams über das gesamte Wochenende vom 15. bis zum 17. September auf der Forschungseinrichtung des Energie-Campus der HAW Hamburg neue datenbasierte, digitale Geschäftsmodelle und Anwendungen. Unterstützt durch diverse Partner aus der Region und ganz Europa, wie Kalorimeta, DB mindbox, Danfoss, TenneT u.v.w., kriegen die Teilenehmer vollständigen Zugriff auf alle Daten und Anlagen vor Ort.

Neben dem Austausch erhalten die Teilnehmer die Chance auf diverse gesponserte Preise im Wert von über 10.000 Euro, inkl. 2.500 Euro Preisgeld als Bitcoins vom Hauptpartner TenneT.

Im letzten Jahr haben über 12 Teams diverse digitale und physische Anwendungen, Lösungsvorschläge und Programme gemeinsam entwickelt, die z.T. nachher von der HAW oder Partner-Unternehmen in Projekten gefördert und getragen wurden. Der reale Nutzen ist somit nicht nur auf das Veranstaltungswochenende für die Hacker, Coder, Entwickler und Tüftler beschränkt.

Eine weitere große Neuerung dieses Jahr ist die „Experts Night“ am Samstagabend, 16.09. ab 18:00 auf und um den Energie-Campus. In insgesamt elf Key-Notes, Masterclasses, Workshops und Sessions zu den Themen Daten, IoT, Industrie und Energie teilen diversen geladene Experten ihre Einblicke und Wissen mit Teilnehmern. Hierzu sind auch externe Besucher und Gäste eingeladen. 

Die Teilnahme am Hackathon ist kostenfrei. Interessenten können sich auf https://www.what-the-data.com/anmeldung seit kurzem anmelden.

Die sichere Vernetzung

Schon heute sind die Produktionsketten in der Automobilbranche hochgradig vernetzt. Das „Just in Time“-Prinzip sorgt für eine punktgenaue Anlieferung der Fertigungsteile, so dass die Hersteller keine Lagerhaltung mehr benötigen. Doch diese Abhängigkeit von einwandfrei funktionierenden Prozessen macht die Produktion auch anfällig für Störungen. So führte ein Sturmschaden im Werk eines Zulieferers Anfang 2017 zu einer gedrosselten Produktion bei Daimler. Im Juni 2017 war BMW von Nachschubproblemen bei elektrischen Lenkgetrieben betroffen.

Automatisierung und KI

In Zukunft könnten solche Probleme sogar zunehmen. Denn die Fertigung wird weiter automatisiert und optimiert. Schon kleine Fehler führen dann möglicherweise zu einem Produktionsstopp. Auch die Endkontrollen werden immer häufiger von Maschinen durchgeführt. So müssen die Systeme von der Lieferkette über die Produktion bis zur Abschlusskontrolle vor Manipulation durch Hacker geschützt werden. Ansonsten könnten defekte Autos in den Verkauf gelangen. Diese Gefahr ist durchaus real: Laut einer Umfrage des Bitkom war in den vergangenen zwei Jahren jedes achte Unternehmen in Deutschland Opfer von digitaler Sabotage, durch die zum Beispiel die Produktion gestört wurde. 

Doch damit nicht genug: Im Zuge der Connected Cars sind die Autos auch nach dem Verkauf ständig abzusichern. Denn nicht nur die Herstellungsprozesse sind im Zeitalter von Industrie 4.0 mit dem Internet verbunden, sondern auch die fertigen Produkte. So konnte zum Beispiel das Botnetz Mirai Ende vergangenen Jahres mit Hilfe diverser IoT-Geräte wie IP-Kameras, Drucker oder gar Babyphonen groß angelegte DDoS (Distributed Denial of Service)-Angriffe auf verschiedene Ziele ausführen. Der Ausfall der Internet-Dienstleistungen der Firma Dyn führte dazu, dass die Webseiten vieler Kunden wie Twitter, Amazon oder Netflix in einigen Regionen stundenlang nicht mehr erreichbar waren.

Gefahren für Connected Cars

Während der Ausfall eines Web-Auftritts zwar ärgerlich ist und Geld kostet, sind in der Regel dadurch keine Menschenleben gefährdet. Bei Connected Cars verhält es sich anders: Kann ein Cyberkrimineller durch Sicherheitslücken auf das mit dem IoT vernetzte Auto zugreifen, kann er zum Beispiel dessen Bremsen oder die Abstandsmesser manipulieren. Dies könnte im schlimmsten Fall tödliche Unfälle verursachen. Aber auch veränderte GPS-Daten oder Verbrauchswerte führen zu Störungen, etwa beim Navigationssystem oder der Tankanzeige. Selbst ein Aussperren oder Einsperren des Fahrers durch veränderte Türschließ-Mechanismen ist möglich.

Daher müssen die Daten bei vernetzten Autos streng geschützt werden – sowohl im Fahrzeug als auch auf den zentralen Servern sowie auf dem Übertragungsweg. Dies gilt schon heute, denn in praktisch jedem modernen Auto befindet sich ein GSM-Modul, das Telemetriedaten überträgt. In Zukunft kommen zu den Fahrdaten auch persönliche Daten hinzu wie Videos der Innenkamera, die einen Sekundenschlaf des Fahrers erkennen soll, oder Audio-Dateien des Bord-Mikrofons, das für die Spracheingabe genutzt wird. Da diese Systeme aber ständig online sind, müssen Autohersteller neben der Datensicherheit auch den Datenschutz gewährleisten.

Sicherheitsmechanismen

Um ein profitables Geschäftsmodell zu erreichen, müssen Automobil-Hersteller und -Zulieferer die enormen Anforderungen von Seiten der Kunden und Regulierungsbehörden durch den Aufbau einer sicheren, integrierten Plattform für Connected Cars erfüllen. Stärkere Partnerschaften mit Sicherheitsanbietern werden notwendig sein, um Konnektivität und Fahrzeugbetrieb abzusichern sowie sichere Apps bereitzustellen.

Die größten Schwachstellen vernetzter Fahrzeuge gibt es in den Vernetzungs-, Navigatons- und Informations- sowie elektronischen Steuerungssystemen. Viele Experten glauben, das der beste Weg zur Absicherung vernetzter Autos die Verschlüsselung in Kombination mit robuster Security-Infrastruktur und Firewalls darstellt. Aber auch die Anwendungssicherheit wird entscheidend sein, um autonomes Fahren in Zukunft zu schützen. Um aus diesen Möglichkeiten Umsatz zu generieren, müssen Automobilunternehmen eine optimale Nutzererfahrung anbieten sowie gleichzeitig hundertprozentigen Datenschutz und Fahrsicherheit gewährleisten.

Ausblick

In Deutschland ist zwar die Sensibilität für den Datenschutz im internationalen Vergleich sehr hoch, doch dafür hinken viele Hersteller bei der Absicherung der Daten, die von Autos oder Produktionsmaschinen erzeugt werden, den aktuellen Anforderungen deutlich hinterher. Sicherheitsmechanismen wurden bislang meist erst nachträglich integriert. Doch wie heute schon bei IT-Produkten, muss Sicherheit bereits in der Planungs-, Design- und Entwicklungsphase ein fester Bestandteil der Prozesse sein. Denn die mögliche Gefahr durch Hacker ist deutlich größer als viele Hersteller und Zulieferer glauben. Die Transportbranche hat eine kritische Transformationsphase erreicht. Hersteller müssen einen stärkeren Fokus auf Sicherheit legen und gewährleisten, dass Technologie nicht nur das vernetzte Fahrzeug schützt, sondern auch das Leben der Insassen.