So können Connected Cars funktionieren

Verbraucher erwarten schon lange mehr von ihren Autos, als nur von A nach B zu fahren. Sie wollen digitale Fahrassistenten, ein Navigationssystem und Verkehrsnachrichten in Echtzeit. Laut McKinsey will bereits jeder zehnte Autobesitzer nicht auf einen Internetzugang in ihrem Wagen verzichten. Angefangen bei Kartenmaterial für die Navigation über aktuelle Verkehrsnachrichten wie Staus, Audiostreaming via Spotify bis hin zu autonom fahrenden Autos, sogenannten Connected Cars – Automobilhersteller und Zulieferer müssen also künftig immer mehr vernetzte Services bereitstellen. Und sie profitieren von dieser Entwicklung: Der prognostizierte weltweite Umsatz mit Technologien im Bereich Connected Cars soll auf bis zu knapp 156 Milliarden US-Dollar im Jahr 2022 steigen.

Mehr Services und Automatisierung im Auto

Seit April müssen neue Automodelle außerdem einen weiteren Service bieten: Sie sind verpflichtet, über ein automatisches Notrufsystem zu verfügen, den sogenannten eCall-Button. Dieser soll für schnelle Hilfe im Falle eines Unfalls sorgen. Die Autos werden dazu mit einem Satelliten-Empfänger und einer SIM-Karte versehen. Stellt das Fahrzeug einen schweren Unfall fest, etwa über die Airbag-Sensoren, löst es autonom einen Alarm aus. Dieser wird an die nächstgelegene Notrufzentrale weitergeleitet, die europaweit unter der einheitlichen Nummer 112 erreichbar ist. Das Auto übermittelt zudem einen Datensatz an die Leitstelle, der die genaue Position, die Fahrtrichtung, insbesondere auf Autobahnen wichtig, den Fahrzeugtyp, die Schwere des Unfalls sowie die Anzahl der Insassen enthält. Gleichzeitig wird eine Sprachverbindung aufgebaut. Die EU erhofft sich durch die flächendeckende Einführung eine Menge: So soll die Reaktionszeit nach Unfällen in ländlichen Gebieten um bis zu 50, in Städten um bis zu 40 Prozent verkürzt werden.

Entwicklungen wie der eCall-Button zeigen deutlich: zunehmend mehr Prozesse im Auto werden maschinengesteuert und automatisiert. Im Rahmen von Connected-Cars-Konzepten geht dieser Schritt noch weiter. Hier werden Fahrzeuge und Dienste, wie Entertainment oder autonom sprachgesteuerte Assistenzsysteme, über das „Internet der Dinge“ (IoT) verbunden. Doch dies stellt einige Herausforderung an die Netze dar.

Zu lange Latenzzeiten und schlechter Internet-Empfang

Physikalische Netze kommen bereits heute an ihre Grenzen. Sie sind durch die drastisch zunehmende Anzahl smarter Geräte und Autos – künftig muss jede Funkzelle 50.000 Endgeräte versorgen – überfordert. Der Grund dafür: Das Datenaufkommen steigt gewaltig. Daten zur Position und Zustand des Autos, Verkehrsdaten oder Informationen zur Wartung – all diese Daten müssen von den Netzen in Echtzeit verarbeitet werden. Das ist jedoch besonders in ländlichen Regionen ein Problem. Selbst mit einer guten LTE-Verbindung sind die heute erreichten Latenzzeiten noch viel zu lang, um IoT-Anwendungen wie die von Connected Cars zu unterstützen.

Und auch Fahrten ins Ausland können problematisch sein. Denn häufig geben Netzanbieter keine Garantie, dass im Ausland die gleiche Bandbreite zur Verfügung steht wie hierzulande. Von Herstellern angebotene Services wie Audiostreaming könnten also außer Landes möglicherweise nicht verfügbar sein.

Die Lösung für dieses Problem, nämlich 5G, ist zumindest in Europa noch nicht in Sicht. Zwar testet die Telekom bereits eine Übertragung von 5G am Hamburger Hafen und in Berlin. Doch eine Verbreitung wird hierzulande mindestens noch bis 2020 auf sich warten lassen. Erst Anfang 2019 soll die Versteigerung der Frequenzen für 5G durch Bundesregierung und Bundesnetzagentur erfolgen. Unternehmen müssen sich also überlegen, wie sie IoT-Services heute schon zuverlässig anbieten können.

 Edge Computing und LTE Cat M1 als vorläufige Alternativen zu 5G

Eine Möglichkeit, Latenzzeiten zu verkürzen, ist Edge Computing. Bei Edge Computing werden Daten dezentralisiert und am Rand des Netzwerks verarbeitet. Sie werden also nicht erst zu einem Rechenzentrum oder der Cloud und anschließend wieder zurück transferiert, sondern genau dort analysiert und verwertet, wo sie auch produziert werden. Auf diese Weise können Latenzzeiten stark verkürzt werden.

Aber auch eine Variante des LTE, das sogenannte LTE Cat M1, könnte die Kommunikation von Fahrzeugen verbessern. LTE Cat M1 ist eine LPWA‑Luftschnittstelle (Low‑Power Wide‑Area), mit der s ich IoT- und Machine-to-Machine‑Geräte verbinden lassen, bei denen mittlere Datenraten erreicht werden sollen (375 kbit/s Upload- und Download‑Geschwindigkeiten im Halbduplexbetrieb). Die Technologie ermöglicht außerdem längere Batterie‑Lebenszyklen und größere Reichweite verglichen mit Standard‑Mobilfunktechnologien wie 2G oder 3G. Vor allem im ländlichen Bereich wäre dies sehr hilfreich. Bisher wird die Technologie bei Connected Cars allerdings noch nicht angewandt, sondern eher bei Gadgets wie Trackern und weiteren IoT-Anwendungen. Es mangelt also noch an der entsprechenden Kommerzialisierung.

Datenaustausch überwachen und priorisieren

Damit digitale Fahrzeug-Services über Edge Computing und LTE Cat M1 allerdings richtig umgesetzt werden können, muss die Konnektivität des Netzwerks stets flächendeckend vorhanden sein – und das zuverlässig. Bei Edge Computing ist sicherzustellen, dass der Datenverkehr kontinuierlich on the egde verarbeitet, genormt und in Beziehung gesetzt werden kann. Dazu müssen Unternehmen genau wissen, wo welche Daten in ihrem Netz(werk) ausgetauscht werden. Egal, wie komplex die Infrastruktur ist – eine Ende-zu-Ende-Sicht in alle Prozesse ist zwingend erforderlich.

Diese Einsicht ist ebenfalls wichtig, um Daten priorisieren zu können. Wird beispielsweise über den eCall ein Notruf abgesetzt, muss sichergestellt werden, dass dieser auch beim Empfänger, also der Leitstelle ankommt, und im Zweifel im Netz Vorrang vor anderem Traffic erhält. Häufig werden Emergency-Technologien deswegen separat überwacht.

Servicequalität und Sicherheit sind erfolgskritische Faktoren

Und Sicherheit ist gerade beim autonomen Fahren ein kritischerer Faktor. Sind dann bestimmte Daten oder Dienste nicht verfügbar, kann es nicht nur zur Servicebeeinträchtigung kommen, sondern gar schlimmstenfalls zu Unfällen. Doch bis vernetzte Autos im Massenmarkt Fuß gefasst haben, wird es noch ein paar Jahre dauern. Das liegt unter anderem an den noch fehlenden technischen Standards. Doch Autohersteller können das Warten auf die ersehnte 5G-Technologie verkürzen. Etwa, indem sie heute schon damit anfangen, die Infrastruktur im Auto und ihre Netze auf den 5G-Einsatz vorzubereiten.

 

 

Blockchain-Technologie verstehen und Chancen erkennen

Die Blockchain ist eine transparente, webbasierte Datenbank, die – im Gegensatz zu klassischen zentralen Datenbanken – in verteilten Netzen gehalten wird. Blockchain basiert im Prinzip auf dem Leitgedanken des Web 2.0 bzw. 3.0, die dezentrale Kommunikation und Kollaboration in den Vordergrund rückten. Sie ermöglicht die sichere und transparente Abwicklung von Transaktionen ohne Intermediäre und schafft damit Vertrauen, das im digitalen Zeitalter dringend notwendig ist.

Ursprünglich als Basistechnologie für Kryptowährungen entwickelt, bietet sie den Nutzern heutzutage in sämtlichen Bereichen der nicht analogen Zusammenarbeit entscheidende Vorteile:

Authentizität und Sicherheit

Der wesentlichste Vorteil der Blockchain ist die Manipulationssicherheit der Daten. Um die zu ermöglichen, werden die Daten in Datenpaketen – sogenannten Blocks – verschlüsselt gespeichert. Jeder Akteur kann nun einen Datenblock mit Referenz auf den vorherigen Datenblock hinzufügen. Die Abfolge von Transaktionen erzeugt damit eine sichere verlinkte Kette mit kryptografischen Abhängigkeiten, was verhindert, dass in der Kette gespeicherte Daten gelöscht oder überschrieben werden können.

 

Transparenz und Verfügbarkeit der Daten

Indem jeder Akteur des Netzwerks in die Kollaborationskette eingebunden wird und Zugriff auf eine aktuelle und vollständige Spiegelung der Blockchain erhält, sind Veränderungen der Daten für alle Akteure sichtbar und lassen sich jederzeit rückverfolgen. Gleichzeitig sind die Daten durch die Replikation auf vielen Rechnern ausfallsicherer.

Einsparungspotenziale

Die Blockchain-Technologie eröffnet viele Möglichkeiten kosten- und zeiteffektiverer Geschäftsszenarien. Beispielsweise vermindert die hohe Transparenz der Daten Betrugsfälle und Fehler, gleichzeitig verringert die Manipulationssicherheit der Daten den Verwaltungsaufwand deutlich. Außerdem macht die Dezentralität Mittelsmänner bei Transaktionen überflüssig und verhindert die Bildung von Monopolen.

Blockchain und Logistik – passt das zusammen?

Der Einsatz der Blockchain in der Logistik ermöglicht einen schnellen und sicheren Austausch von Informationen innerhalb einer Industrial Blockchain und letztendlich eine Kosten- und Risikoreduktion. Die Anwendungsszenarien sind vielseitig: Sei es zur Unterstützung eines übersichtlichen Dokumentenmanagements oder – dank der hohen Revisionssicherheit – zur Vereinfachung von Tracking und Tracing. Durch die End-to-End Vernetzung aller Akteure einer Supply Chain können Verträge in Form von Smart Contracts sicher abgewickelt werden und Zahlungsprozesse entlang der Wertschöpfungskette voll automatisiert von statten gehen. Nicht weniger relevant für die Logistik ist der sichere Datenaustausch zwischen intelligenten Geräten im Trusted Internet of Things. Mit diesem Begriff wird die um die Blockchain angereicherte Version des IoT bezeichnet.

Einige Kontraktlogistiker wie Kühne & Nagel oder die Rederei Maersk evaluieren bereits den Nutzen der Blockchain-Technologie für ihre Geschäftsprozesse. Trotz solcher Pilotversuche schreitet die Etablierung der Blockchain in der Logistik aber nur sehr langsam voran.

Kein Wandel über Nacht

Schuld daran sind strukturelle Herausforderungen, die die Unterstützung kollaborativer Szenarien bislang erschweren. Zum einen fehlt ein großflächiges Partnern-Ökosystem, da sich bisher nur wenige Unternehmen finden, die Teil einer konsortialen Blockchain werden möchten. Zwar stellen wir bei SALT Solutions eine erhöhte Nachfrage von Unternehmen fest, die sich mit dem Thema Blockchain beschäftigen, jedoch besteht eine generelle Vorsicht gegenüber der „vermeintlichen“ Wundertechnologie. Und diese ist nicht ganz unbegründet. So macht es beispielsweise nicht für jedes Mitglied der Lieferkette gleich viel Sinn einer Blockchain anzugehören.

Eine weitere Herausforderung stellt der Mangel an einheitlichen Standards für Formate und Inhalte dar. Erst wenn diese definiert sind, kann jeder Teilnehmer der konsortialen Blockchain die Blöcke mit Daten anreichern und eine lückenlose und saubere Kette gewährleistet werden. Technologieanbieter wie Microsoft und SAP reagieren bereits auf den Trend und modifizieren ihre Produkte, sodass diese mit solchen Netzwerken kommunizieren können. Beispielsweise schafft SAP mit der S/4 HANA Business Suite eine Lösung, die auch logistischen Anforderungen zum Thema Blockchain gerecht wird und Zukunftsfähigkeit sicherstellt.

KI und Datenanalyse im Mittelstand – chancenlos oder vielversprechend?

Laut Beratungsunternehmen PwC soll das deutsche Bruttoinlandsprodukt mit Hilfe Künstlicher Intelligenz bis zum Jahr 2030 um 430 Milliarden Euro steigen. Weltweit wird ein Anstieg um 15,7 Billionen Dollar vorhergesagt. Eine Prognose, die gerade für Unternehmen eine starke Aussagekraft hat. Denn wer erfolgreich sein und bleiben möchte, sollte laut aktuell weit verbreiteter Meinung die Chancen der Anwendung nicht verpassen. Gerade kleine und mittlere Unternehme trauen sich aber häufig nicht zu, bei diesen datengetriebenen Technologie-Trends mit großen Konzernen mithalten zu können. Denn in einer Zeit, in der Daten als Gold bezeichnet werden, bleibt gerade für mittelständische Firmen häufig die Frage bestehen: Wie „Big“ müssen denn unsere Daten sein? Laut Wikipedia-Definition bezeichnet der Begriff Big Data „Datenmengen, welche beispielsweise zu groß, zu komplex zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.“ Diese Definition trifft eigentlich auf fast alle Unternehmen zu – unabhängig von der Größe. Und eine manuelle Auswertung der Datenmengen führt in den meisten Fällen schlichtweg zu veralteten Reportings und etlichen überflüssigen Stunden Arbeitsaufwand.

Gilt für eine erfolgreiche Datenanalyse „mehr ist mehr“?

Trotzdem glauben gerade kleine und mittelständische Unternehmen noch häufig, dass sie nicht ausreichend Daten generieren, um von einer automatischen Analyse wirklich zu profitieren. Oft mangelt es den Unternehmen aber nicht an Daten, sondern primär an einem schlüssigen Datenmodell. Die richtige Aufbereitung und sinnvolle Zusammenführung verschiedener Datenquellen ist wichtig, um Daten als Entscheidungsgrundlage nutzen zu können. So variieren die Datenmengen und deren Qualität je nach Unternehmen und Unternehmensgröße zwar stark, die aus den Daten gewonnenen Erkenntnisse können aber gleichermaßen aussagekräftig für den jeweiligen Unternehmenserfolg sein. Risiken und Chancen werden durch eine zielgerichtete Datenanalyse auch für kleine und mittelständische Unternehmen frühzeitig sichtbar und Potenziale können dementsprechend genutzt werden.

Der nächste Schritt in Richtung Digitalisierung

Den Unternehmen steht folglich eine qualitative Entscheidungsgrundlage zur Verfügung, die manuelle Auswertungsverfahren nicht liefern können.

Beispielsweise konnte die Firma Piller, Hersteller von kundenspezifischen Gebläsen und Kompressoren für die Prozessindustrie, durch die Analyse historischer Daten aus der Fertigung in kürzester Zeit Zukaufteile identifizieren, deren Liefer- und Wiederbeschaffungszeiten besonders lang sind.. Ein weiteres Ergebnis dieser Schwachstellenanalyse war, dass die Gehäuse-Montage mehrere Wochen beanspruchte. Als Gegenmaßnahme konnte der Maschinenbauer eine Taktstraße einführen und die Montagezeit auf eine Woche reduzieren.

Basierend auf einer intelligenten Datenanalyse können außerdem intelligente Anwendungen wie Machine Learning ansetzen. Das wird ebenfalls an einem Beispiel aus der Produktion deutlich: Eine gezielt eingesetzte Datenanalyse könnte hier aufzeigen, dass die eingeplanten Vorgabewerte wie Wiederbeschaffungs- oder Arbeitsgangzeiten nicht der Realität entsprechen. So kann es beispielsweise sein, dass für einen bestimmten Arbeitsgang auf einer Maschine seit vielen Jahren 300 Minuten eingeplant werden. In der Realität dauert der Arbeitsgang jedoch nur 100 Minuten. Solche Zeitpuffer führen zu hohen Inaktivitätszeiten der Maschinen und Ineffizienz. Viele Projekte mit dem eigentlichen Ziel, die Produktionsplanung und deren Termintreue zu verbessern, setzen daher oft eine detaillierte Datenanalyse voraus, bei der die Qualität der Daten bestimmt wird.

Durch Machine-Learning-Algorithmen können die Vorgabewerte sehr genau vorausgesagt und die darauf basierende Produktionsplanung zunehmend optimiert werden. Mit Hilfe Künstlicher Intelligenz kann die Maschine „lernen“, welche Werte realistisch sind. Die Prognosegenauigkeit kann sich hierdurch bis um bis zu 60 Prozent verbessern.

Fazit: Sie haben die Grundlage. Starten Sie die Digitalisierung!

Unternehmen können unabhängig von ihrer Größe Prozesse mit Hilfe neuer Technologien automatisieren und optimieren. Schon kleine Unternehmen besitzen ausreichend Daten für die effiziente Anwendung Künstlicher Intelligenz. Jedoch gehen die Erfolgschancen und Wettbewerbsvorteile ohne eine zielführende Datenaufbereitung und -strategie im Datendschungel unter. Das Ziel bei Data Analytics sollte sein, bessere Kenntnisse über Prozesse oder Kunden zu gewinnen und deren Entwicklung prognostizieren zu können, um so insgesamt effizienter zu handeln. Außerdem können auf diesen „sauberen“ Daten nicht nur strategisch richtige Entscheidungen getroffen werden, sondern auch Anwendungen der Künstlichen Intelligenz anschließen. Durch eine sichere und sinnvolle Anwendung von Data Analytics und Künstlicher Intelligenz sind kleine und mittelständische Unternehmen zum jetzigen Zeitpunkt ihrer Konkurrenz einen großen Schritt voraus.

 

 

Schneller Einstieg in das Industrial Internet of Things (IIoT)

Gerade in der Verpackungsindustrie besteht großer Bedarf, die Produktionsrichtlinien durch digitale Services aufzuwerten, um sich so von der Konkurrenz abzuheben. Aber auch die Getränke- und Nahrungsmittelindustrie, der Bereich Automotive sowie die Papier- und Druckindustrie profitieren von einer solchen Anwendung: Die Arbeit innerhalb dieser Bereiche wird durch die digitalen Helfer einfacher und effizienter gestaltet. All das bietet elunic mit seiner IIoT-Anwendung Dataface, die das Unternehmen auf der diesjährigen Fachmesse für Verpackungen FachPack vorstellt.

Digitaler Zwilling & Co. – IIoT anschaulich erleben
Anhand der Live-Demo ihrer IIoT-Anwendung Dataface ermöglicht elunic dem Besucher viele spannende Einblicke in die Welt der Industrie 4.0. So zeigt etwa ein Digitaler Zwilling das virtuelle Abbild einer Industrie-Produktions-Anlage. Der Bereich der künstlichen Intelligenz wird durch Predictive-Maintenance-Meldungen und die Anwendung von Machine-Learning-Algorithmen abgedeckt. Zudem werden die Gesamtanlageneffektivität OEE sowie weitere KPIs, wie beispielsweise die Produktionsgeschwindigkeit oder die Anzahl der anstehenden Aufgaben, berechnet und dargestellt. Die Live-Demo zeigt ebenfalls, wie die Rechte für komplette Anlagen, einzelne Maschinen sowie Personen oder Gruppen verwaltet werden. Ein integrierter Shop ermöglicht die automatische Nachbestellung von Ersatzteilen. All diese Dienste werden von elunic als Microservices in die Anwendung integriert. „Die Architektur von Dataface ist so aufgebaut, dass auch große Datenmengen aus dem Maschinenumfeld verarbeitet werden; die Microservice-Architektur ermöglicht den Austausch bzw. die Weiterentwicklung einzelner Komponenten. Die Applikation lässt sich sowohl in Cloud-Services wie AWS, als auch in On-Premise-Lösungen integrieren. Durch diese Cloudunabhängigkeit ist ein schneller Einstieg ins IIoT möglich“, erklärt Benjamin Ullrich, Gründer und Geschäftsführer von elunic.

Produktionsanlage in Dataface
Vom Digitalen Zwilling bis zur A.I. & Predictive Maintenance
Mit ihrer Anwendung zeigt elunic nicht nur, wie Unternehmen flexibel und unabhängig in den Bereich IIoT einsteigen; innerhalb der Live-Demo stellt das Unternehmen auch seine einzelnen Leistungen als Module vor. Diese decken folgende Bereiche ab: „Digitale Services & Digitaler Zwilling“, „Asset Management & Equipment Efficiency“, „A.I. & Predictive Maintenance“, „Big Data / Visualisierung“, „Digitalisierung industrieller Prozesse“ sowie „Machine 2 Machine payments“. Die Applikation zeigt alle relevanten Kennzahlen einer Maschine oder Anlage an, wie beispielsweise OEE, und wertet diese aus.

Wir freuen uns darauf, Sie auf der FachPack an unserem Stand zu begrüßen und Ihnen unser Leistungsspektrum vorzustellen.

Auf die Zusammenarbeit kommt es an!

Netzwerklösungen im Sicherheitssystembereich sollen in erster Linie Personen, Gebäude und Güter vor Übergriffen, ungewollten Eindringlingen, Vandalismus oder Diebstahl schützen. Doch dabei sollte eines nicht vergessen werden: Auch das Sicherheitssystem selbst muss gegen Cyberkriminalität gesichert werden. Mit der Aktualisierung von Netzwerk-Videosoftware und angeschlossener Hardware wird in der heutigen Zeit leider eher nachlässig umgegangen. Oftmals werden diese Systeme in der Regel nur dann aktualisiert, wenn weitere Geräte hinzugefügt oder zusätzliche Funktionen vom Benutzer angefordert werden.

Dieser leichtsinnige Umgang kann sich jedoch rächen: Ohne Wartung wird die Cybersicherheit mit der Zeit abnehmen. Die Wahrscheinlichkeit liegt bei fast 100 %, dass eine Schwachstelle im Systemkontext, also im Betriebssystem, der Software oder der Hardware gefunden wird. Auch wenn das Risiko gering erscheint, sollte jede bekannte Schwachstelle behoben werden und selbstverständlich regelmäßig Softwareaktualisierungen durchgeführt werden.

Wer ist verantwortlich?

Cybersicherheit ist ein Prozess, kein einmalig zu erreichender Ist-Zustand, der dann immerwährend gültig ist. Wichtig ist in diesem Zusammenhang, dass die Cybersicherheit eines Sicherheitssystems dabei einer gemeinsamen Verantwortung des Endnutzers sowie der Integratoren, Planer und Hersteller unterliegt. Um das Sicherheitssystem gegen virtuelle Angriffe zu schützen, müssen die Verantwortlichen der verschiedenen Bereiche und Gewerke zusammenarbeiten:

Der Nutzer / Verbraucher

Die Hauptverantwortung des Endanwenders liegt in erster Linie bei der Bereitschaft, für Cybersecurity zu bezahlen. Dies kann entweder auf eigene Faust erfolgen, das heißt beispielsweise die IT-Abteilung des Unternehmens wendet Fixes selbst an, oder man bezahlt einen Integrator/Installateur für die Wartung. Dabei muss beachtet werden, dass die Lebensdauer eines Sicherheitssystems, je nach Zustand, schnell 10-15 Jahre betragen kann. Die Wartung muss allerdings fortlaufend und als stetiger Prozess integriert werden.

Für ein ausgereiftes Bewusstsein im Bereich Cybersecurity spielt allerdings auch das Verhalten der Konsumenten eine zentrale Rolle: Wie oft wird das Passwort des Routers geändert? Wie komplex sind die eigenen Passwörter? Werden unterschiedliche Passwörter oder ein „Master“-Passwort für die meisten Anwendungen verwendet? Die Bequemlichkeit der Verbraucher ist immer noch einer der größten Vorteile für Hacker. Einfach zu erratende Passwörter und solche, die über alle Logins hinweg verwendet werden, setzen die Verbraucher dem Risiko eines Missbrauchs aus.

Der Integrator / Installateur

Der Systemintegrator spielt ebenfalls eine wesentliche Rolle im Bereich der Cybersicherheit. Er muss sicherstellen, dass alle seine eigenen Geräte, Laptops, mobilen Geräte und so weiter mit den neuesten Updates für das Betriebssystem gepatcht werden und einen anspruchsvollen Virenscan durchführen.

Die gewählten Passwörter sollten zumindest pro Kunde und Standort komplex genug und individuell sein. Die allgemeine Gewohnheit, ein Master-Passwort zu verwenden, um die Bedienung der Geräte zu erleichtern, muss unbedingt vermieden werden. Der Fernzugriff auf Installationen sollte nur begrenzt angewendet werden und alle Geräte, die mit dem System des Kunden verbunden sind, müssen äußerst sorgfältig auf Schadsoftware überprüft werden, um jegliche Art von Infektionen zu vermeiden.

Es liegt in der Verantwortung des Integrators, seine Kunden über die möglichen und nötigen Verfahren zu informieren.

Der Planer

Ein weiterer essentieller Bestandteil ist die Arbeit des Planers, der die Komponenten für die Sicherheitssysteme konfiguriert. Dieser muss nicht nur die richtigen Produktfunktionen und -merkmale festlegen, sondern auch die Wartung für die gesamte Lebensdauer des Systems so gut wie möglich definieren. Auf diese Weise kann der Planer deutlich machen, wie wichtig es ist, das System auf dem neuesten Stand zu halten und auch die möglichen Kosten dafür offenlegen.

Im Zusammenhang mit der Installation von so genannten OEM/ODM-Geräten (Geräte, die von einem Hersteller gekauft und unter einer anderen oder eigenen Marke veräußert werden) ist es jedoch sehr schwierig diesen Wartungsaspekt zu gewährleisten.

Der Distributor

Für einen einfachen Distributor ist das Thema Cybersicherheit grundsätzlich von geringer Bedeutung, weil er lediglich die Logistik der Ware übernimmt und mit dem Produkt selbst nicht in Berührung kommt. Allerdings müssen Distributoren einer Wertschöpfungskette die gleichen Aspekte berücksichtigen wie Integratoren oder Installateure.

Für Distributoren, die auch OEM/ODM-Geräte vertreiben, gelten andere Regeln. An erster Stelle steht dabei die Transparenz: Sie müssen ihre Kunden darüber in Kenntnis setzten, was genau sie für ein Produkt kaufen. Auch müssen sie, im Falle von Schwachstellen im System, Firmware-Upgrades des ursprünglichen Lieferanten zur Verfügung stellen. Viele Anwendungsbeispiele aus der Industrie zeigen jedoch, dass eine erkannte Schwachstelle in den Geräten der ursprünglichen Lieferanten in der Regel nicht in den Geräten ihrer vielen OEM-Partner behoben wird.

Der Hersteller

Die Verantwortungsbereiche der Hersteller sind unter anderem folgende:

Zum einen dürfen keine absichtlichen Details wie Backdoors oder hartcodierte Passwörter hinzugefügt werden. Die Bereitstellung der richtigen Tools, um das Cybermanagement für viele Geräte so einfach und kostengünstig wie möglich zu gestalten, muss außerdem gewährleistet sein. Zum anderen müssen Dritte über Risiken und ihre Vermeidung aufgeklärt werden, intern wie auch extern. Relevante Aspekte sollten in Hardening Guides oder anderen Dokumentationen beschrieben sein. Die Partner und Vertriebskanäle müssen zudem über Schwachstellen und mögliche Updates informiert werden. Transparenz ist oberstes Gebot.

Nur wenn alle Beteiligten gemeinsam an dem Thema Cybersecurity arbeiten, wird es gelingen, ein weitgehend sicheres System zu schaffen und auch aufrecht zu erhalten.
Die IT Branche hat im vergangenen Jahrzehnt viel dazu gelernt und sich mittlerweile sehr gut abgesichert. Dennoch schaffen es Hacker immer wieder, Schwachstellen zu finden und auszunutzen.
Die Sicherheitsbranche befindet sich vielerorts leider noch am Anfang der Lernkurve, Cybersecurity wird eher als Herstelleraufgabe verstanden, denn als gemeinsame Anstrengung. Es ist an der Zeit, dieses Verständnis grundlegend zu überdenken.

Messen bleiben auf Dauer wichtig

Um für den digitalen Vertrieb gerüstet zu sein, laufen aktuell die Vorarbeiten: Die 3000 Kontakte aus drei Datenbanken für Maschinenbau, Service und Lohnhärterei werden aktuell zusammengeführt. Etabliert ist bereits eine wöchentliche Suchmaschinen-Auswertung, auf deren Basis Inductoheat Surfer zeitnah anruft, um mit ihnen in Dialog zu kommen. „Sobald die Datenbank steht, werden wir viermal jährlich einen Newsletter versenden,“ sagt Geschäftsführer Frank Andrä.

Mit aktiver Pressearbeit hat er 2018 einen externen Dienstleister beauftragt, der aus dem Journalismus kommt und bundesweit in Redaktionen vernetzt ist. Dessen Büro wird auch die Themen für den Newsletter mit entwickeln, die Beiträge texten und mit aussagekräftigen Fotos illustrieren. „Dafür haben wir unseren Etat aufgestockt, um in den Medien ein Grundrauschen zu erzeugen und bekannter zu werden,“ sagt der Chef.

Die Messeaktivitäten hält er ungeschmälert aufrecht: Alle vier Jahre die Gießereifachmesse in Düsseldorf, alle zwei Jahre die AMB in Stuttgart, alle drei Jahre die EMO in Hannover und jährlich Kolloquien und Foren in Berlin oder Köln. Im Gegenteil: Was über Pressearbeit und Newsletter an Bekanntheit erzielt wird, sollen die Mitarbeiter aus Vertrieb, Entwicklung und Applikation an den Messeständen vertiefen. Und über Gemeinschaftsstände mit Baden-Württemberg international zeigen die Schwaben auch in Nordamerika oder Asien mehr Präsenz.

„Bis 2003 waren wir nur auf einer Messe pro Jahr,“ erzählt der Geschäftsführer. Damals habe Inductoheat acht Millionen Euro pro Jahr umgesetzt. Heute sind es 14, wobei sich der Umsatz im Maschinenbau sogar verdoppelt hat. Im laufenden Jahr zeigt der Spezialist für induktives Härten seine revolutionäre I-syst 4.0-Lösung, die sämtliche Parameter des Verfahrens separat steuert und dokumentiert, im September auf der AMB in Stuttgart, im Oktober beim Härtereikongress in Köln und im November beim 1st Euroforge, wo es um den Schmiedeerwärmungsprozess geht.
Ziel der Präsenz: Den Kontakt zu Bestandskunden vertiefen, Mitbewerber beobachten, potentielle Neukunden interessieren und Branchentrends aufspüren. „Den persönlichen Kontakt braucht es immer, um Vertrauen aufzubauen und Geschäftsbeziehungen zu pflegen,“ sagt der Ingenieur. Es brauche generell mehr Engagement, im Verdrängungswettbewerb den Bestand zu halten und Neukunden zu akquirieren. Denn die Informationswege der nachwachsenden Entscheider werden immer digitaler, so der 56-Jährige, und Kompetenz werde zunehmend am Werbeauftritt festgemacht.

Im Vertrieb hat Inductoheat bundesweit drei Mitarbeiter, die sich die Arbeit nach den Themen Härten, Schmieden und Lagertechnik/Automotive aufteilen. Europaweit kooperiert der Mittelständler mit zehn freien Agenturen, die die lokalen Märkte bearbeiten. „Weil unser Produkt sehr erklärungsbedürftig ist, übernehmen wir meist schon nach dem ersten Kontakt die Anfrage,“ sagt Andrä.

Den großen Rest der Welt bearbeitet die US-Muttergesellschaft Inductotherm mit ihren weltweit 40 Niederlassungen, von denen 17 Produktionsstandorte sind. In der Regel seien die internationalen Kunden deutsche Konzerne, die für Mexiko, die USA, China oder Südkorea eine Anlage brauchen. Entsprechend macht Inductoheat die Hälfte des Umsatzes in Deutschland; 40 Prozent in Europa und hier vor allem in Frankreich und Schweden; und den Rest in Übersee, was bei 20 Anlagen Gesamtproduktion pro Jahr außereuropäisch oft nur einem Auftrag entspricht. Die Vertriebsstrategie lautet: Schlüsselkunden in Europa identifizieren und ins globale Ausland begleiten.

Konfiguration sekundärer DNS-Server

Haben Sie die Zonen in Active Directory integriert, gibt es nur primäre DNS-Server, da hier alle Server gleichgestellt stellt.

Ein primärer DNS-Server kann aber auch für andere Zonen als sekundärer DNS-Server dienen. Die Konfiguration erfolgt pro Zone nicht pro Domäne:

  1. Sie starten den Vorgang, indem Sie in der Verwaltungskonsole im Kontextmenü des Eintrags „Forward-Lookupzonen“ den Befehl „Neue Zone“ und im zweiten Schritt des Assistenten die Option „Sekundäre Zone“ wählen.
  2. Geben Sie jetzt im Feld „Zonenname“ den Namen der existierenden Domäne ein.
  3. Anschließend müssen Sie die IP-Adresse mindestens eines DNS-Servers angeben, der eine Kopie der Zone gespeichert hat. Dabei muss es sich nicht unbedingt um den primären DNS-Server handeln. In diesem Fall wählen Sie einen der bereits vorhandenen sekundären DNS-Server aus. Die Liste wird anschließend, beginnend mit dem obersten Eintrag, abgearbeitet, bis ein Server auf die Anfrage zum Zonentransfer antwortet. Alle weiteren Server in der Liste werden dann nicht mehr berücksichtigt. Die Replikation findet also immer nur mit einem Server statt, nicht mit allen in der Liste aufgeführten Servern.

Falls Sie den Transfer manuell (außerhalb des regulären Intervalls) starten wollen, wählen Sie im Kontextmenü der Zone den Eintrag „Übertragung vom Master“. Danach wird ermittelt, ob es neue Einträge gibt, die anschließend angefordert werden. Der Eintrag „Neue Kopie der Zone vom Master übertragen“ sorgt dafür, dass die bisher empfangenen Daten komplett verworfen werden und eine erneute Anforderung der kompletten Zone erfolgt, was zum Beispiel bei einer Beschädigung der lokalen DNS-Datei nach einem Systemabsturz der Fall sein kann.

DNS-Weiterleitungen verwenden

Der DNS-Server überprüft zunächst, ob er selbst für die DNS-Domäne zuständig ist. Wenn er keine Zone finden kann, und auch keine Delegation, werden die DNS-Server kontaktiert, die über den Eintrag „Bedingte Weiterleitungen“ in der Konsolenstruktur hinterlegt sind. 

Wenn keine Weiterleitungen konfiguriert sind, werden automatisch die DNS-Server kontaktiert, die auf der Registerkarte „Stammhinweise“ in den Eigenschaften des DNS-Servers hinterlegt sind. Wenn diese Server nicht erreicht werden, erhält der fragende Client eine Fehlermeldung zurück.

Damit die Benutzer und Server eine Verbindung ins Internet herstellen können, müssen Sie dafür sorgen, dass die Domänennamen im Internet aufgelöst werden können. Auch zu diesem Zweck wird DNS eingesetzt. Die DNS-Server von Active Directory können nicht nur die internen Zonen auflösen, sondern können auch als Weiterleitungsserver die DNS-Server Ihres Providers verwenden oder alternativ die Stammhinweise also die Root-DNS-Server des Internets.

Dadurch ist sichergestellt, dass die DNS-Server des Unternehmens zuverlässig interne und externe DNS-Namen auflösen können.

Wie die Digitalisierung die IT verändert

Die Zusammenarbeit mit der IT-Abteilung hat für Sie als Marketingmitarbeiter in letzter Zeit zugenommen? Und auch der CIO beziehungsweise Ihr CMO haben nun bei wichtigen Entscheidungen immer öfter ein Wörtchen mitzureden? Das liegt daran, dass die Digitale Transformation eine abteilungsübergreifende IT-Expertise notwendig macht. Schon längst hat die Digitalisierung tiefgreifenden Einfluss auf den beruflichen Alltag. Unternehmen müssen Lösungen finden, um die Herausforderungen der Digitalen Transformation zu bewältigen. Dazu gehört, die IT-Abteilung neu aufzustellen: Geschäftsführer und IT-Verantwortliche müssen sich fragen, ob Rolle und Struktur der internen Unternehmens-IT so gestaltet sind, dass sie den aktuellen Anforderungen an digitale Transformationsprozesse gerecht werden können – oder ob eine Umstrukturierung erforderlich ist.

Herausforderungen und Veränderungsprozesse
Firmen, die ihre Wettbewerbsfähigkeit mittel- und langfristig erhalten wollen, müssen Technologien wie Big Data oder Internet of Things einsetzen, neue Geschäftsmodelle, Unternehmenskonzepte und -strategien entwickeln und auf ein verändertes Kunden- und Nutzerverhalten angemessen reagieren. Zudem verkürzen sich Technologie-, Entwicklungs- und Marktzyklen um ein Vielfaches, sodass Unternehmen in Echtzeit auf Marktveränderungen reagieren müssen, um weiterhin erfolgreich im Wettbewerb bestehen zu können. Führungskräften kommt dabei die Aufgabe zu, Antworten auf die Herausforderungen der Digitalen Transformation zu finden und entsprechende Digitalisierungsstrategien zu entwickeln – und in diesem Rahmen Rolle und Struktur ihrer IT-Abteilung zu analysieren und gegebenenfalls anzupassen.

Umstrukturierung der IT-Abteilung
Vor dem Hintergrund der Transformation hat das Datenvolumen in den Unternehmen massiv zugenommen. Grund dafür sind unter anderem die Digitalisierung von Geschäftsprozessen, die steigende Anzahl an Fachanwendungen und Prozessen aus der Cloud oder auch die wachsende Menge der Softwareanwendungen in den unterschiedlichen Fachabteilungen eines Unternehmens. Die Komplexität der gesamten IT-Infrastruktur eines Unternehmens und so auch der Aufwand für die IT-Verantwortlichen haben sich nachweislich erhöht. Es ist also unumgänglich, die unternehmensinterne IT-Abteilung diesen Anforderungen entsprechend zu strukturieren: ein Teil der IT-Verantwortlichen muss den täglichen Betrieb sicherstellen, während der andere Teil die Fachbereiche und die Geschäftsführung im Hinblick auf die Entwicklung digitaler Geschäftsmodelle und -prozesse berät. Auch die Aufgabenschwerpunkte der CIOs verändern sich: vom klassischen IT-Support hin zum Berater, Unterstützer und Impulsgeber für die Fachbereiche bei digitalen Veränderungs- und Anpassungsprojekten.

Neue Formen der Zusammenarbeit
Durch die Digitale Transformation gestaltet sich die interne Zusammenarbeit im Unternehmen neu. Vor allem das Verhältnis zwischen den Fachabteilungen und der IT: Fachbereiche müssen ganzheitlich denken und angrenzende Abteilungen sowie die IT frühzeitig in ihre Planung einbeziehen. Nur dadurch lassen sich Insellösungen vermeiden und gemeinsame Vorgehensweisen im Sinne eines End-to-End-Konzepts finden. Damit die IT-Abteilung als strategischer Partner an der Entwicklung digitaler Geschäftsmodelle und -prozesse mitwirken und die Anforderungen aus den Fachabteilungen schnell umsetzen kann, muss sie jedoch deutlich agiler werden, also heterogene Strukturen akzeptieren und agile Projektmethoden wie Scrum einführen. Herausforderungen sind von beiden Seiten zu bewältigen.

Mit vereinten Kräften zum Erfolg
Die Digitale Transformation führt zu vielfältigen – sowohl technischen als auch organisatorischen – Veränderungsprozessen in Unternehmen. Um diese erfolgreich zu bewältigen, sollte die IT-Abteilung in einen ganzheitlichen Austausch mit den Fachabteilungen treten und so strukturiert sein, dass sie sowohl operativ als auch beratend agieren kann. Der CIO sollte sich auf seine Rolle als strategischer Partner für die Fachabteilungen konzentrieren und Ihnen auch im Marketing bei neuen Herausforderungen zur Seite stehen.

Edge- und Cloud-Technologie im Shopfloor

Das Telefon brauchte 50 Jahre, um 50 Millionen Benutzer von seinen Vorteilen zu überzeugen. Das Internet benötigte für dieselbe Nutzerzahl nur 7 Jahre. Die Spiele-App Pokémon Go erreichte diese Zahl sogar in nur 2 Tagen. Die Geschwindigkeit, in der sich unser Leben verändert, hat drastisch zugenommen. Dieser Wandel macht auch vor dem Maschinen- und Anlagenbau nicht Halt und hat entsprechenden Einfluss auf Geschäftsmodelle, Organisationsstrukturen und auch technische Lösungen. All diese Bereiche müssen im heutigen Zeitalter schnelle Reaktionszeiten auf Veränderungen ermöglichen.

Die Industrie steht nun vor der Frage, wie man sich der oben genannten Herausforderung stellen, beziehungsweise sie für sich nutzen und weitere Geschäftsmodelle generieren kann. Die Hannover-Messe 2018 hat eindrucksvoll gezeigt, wie viele Anbieter von (schwer vergleichbaren) Teil- oder Gesamtlösungen um die Gunst potentieller Kunden werben. Es gibt mittlerweile über 450 IoT (Internet of Things) Plattformen [1,2]. Diese Anzahl verunsichert viele Unternehmen in ihrer Auswahl, da es sich nicht um das vorrangige Geschäftsmodelle und den üblichen Technologieradar handelt. Die Bedeutung von IoT wird für Unternehmen in den kommenden Jahren jedoch weiterhin zunehmen [3].

Edge- und Cloud-Computing neu gedacht

Nach dem Hype um das Cloud-Computing wurde zwar das Potential der Technologie deutlich, jedoch auch deren Einschränkungen. Wesentliche Vorteile der Cloud sind ausgelagerte, skalierbare Rechenkapazitäten, die sich jedoch nur dann nutzen lassen, wenn die entsprechende Datenmenge dorthin transferiert werden kann. Da dies bei der Verarbeitung von Daten aus Echtzeitsystemen, in denen in der Regel hohe Datenmengen in kurzer Zeit ausgewertet werden müssen, nicht machbar ist, hat dies den Bedarf nach lokaler Rechenleistung (Edge-Computing) in den Vordergrund gerückt. Gartner betitelt diesen Wandel mit “The edge will eat the cloud” [4]. Edge-Computing bezeichnet dabei die Möglichkeit der Datenverarbeitung im Shopfloor durch die Verwendung von Cloud-Technologien. Dadurch müssen hochfrequente Daten nicht zur Businesslogik in die Cloud übertragen werden, sondern die Businesslogik wird näher an den Ort der Datenerzeugung transferiert. Dadurch werden Reaktionszeiten auf Ereignisse auf Basis lokaler Datenanalyse verkürzt und zeitgleich die Datenlast im Internet reduziert.

Nahtlose Integration

Häufig wird das Edge-Computing mit Ansätzen gleichgesetzt, die man bereits vor 20 Jahren verfolgt hat, das heißt lokale Rechenleistung nah an der Maschine. Um jedoch die technologischen Möglichkeiten der Cloud in den Shopfloor einzubinden, benötigt man eine durchgängige Integration in das Edge Device [5]. Traditionelle Lösungen bestehen aus einer Hardwareplattform, einem dazugehörigen Betriebssystem und einer darauf aufbauenden Applikation. Dabei entsteht häufig eine starke Kopplung dieser drei Schichten, das heißt die Applikation ist für genau ein Betriebssystem entwickelt und das Betriebssystem ist für eine bestimmte Hardwareumgebung ausgelegt. Durch die Virtualisierung mit beispielsweise VMware oder VirtualBox kann eine Unabhängigkeit von der unterlagerten, physikalischen Hardware erreicht werden. Der nächste Evolutionsschritt beschreibt die Unabhängigkeit vom Betriebssystem durch Container-Technologien, wie beispielsweise Docker. Eine noch stärkere Entkopplung der Softwarelösung von der unterlagerte Ausführumgebung beschreibt das Serverless Computing Prinzip [6]. Applikationen werden zunehmend leichtgewichtiger und modularer gestaltet, was sich positiv auf die Wartbarkeit und Erweiterbarkeit auswirkt.

Je stärker man nun den Unabhängigkeitsgrad von der unterlagerten Ausführumgebung wählt, desto nahtloser kann eine Integration von Cloud- und Edge-Computing umgesetzt werden. Durch die permanente Anbindung eines Edge Devices an das Internet, respektive die Cloud, ist die Updatefähigkeit ausgelieferter Funktionalität stets gewahrt. Leichtgewichtige Softwarekomponenten (Container, Serverless) lassen sich somit auch schneller und einfacher aktualisieren. Diese können sowohl in einer Cloud als auch einer Edge Umgebung verwendet werden. Der Sicherheitsaspekt der gesamten IoT Umgebung muss dabei ein integraler Bestandteil sein, da im gesamten Internet of Things zahlreiche Kommunikationsbeziehungen bestehen [7].

Die Mischung macht’s

Erst durch den kombinierten Einsatz von Cloud- und Edge-Computing eröffnen sich vielfältige Möglichkeiten. Mit einer nahtlosen Integration kann die Businesslogik ohne technologischen Bruch flexibel dorthin transportiert und ausgeführt werden, wo Daten für Berechnungen anfallen. Dies ermöglicht skalierbare Gesamtlösungen, wodurch Applikationen und neue Businessmodelle realisiert werden können. Sie wären ohne diese technologischen Möglichkeiten nur schwer umsetzbar und wartbar.

BAM – CMS Blog