5 Dos & Don’ts beim Umsetzen von IoT-Projekten

„Do”: Schneller Proof of Concept mithilfe eines Minimum Viable Product

Aufgrund des rasanten technologischen Wandels haben Innovationsansätze von Unternehmen häufig eine geringe Halbwertszeit. Oberstes Credo beim Umsetzen von IoT-Projekten sollte es also sein, schnell und agil zu handeln. Steckt ein Projekt länger als sechs Monate in den Kinderschuhen, kann sich die strategische Ausrichtung des Unternehmens schon wieder geändert haben, was das geplante Projekt redundant werden lassen könnte. Es geht nicht darum, eine perfekt ausgereifte IoT-Lösung präsentieren zu können, sondern mithilfe eines Minimum Viable Product einen schnellen Proof of Concept herbeizuführen.

„Do”: Das Projekt auf einer performanten IoT-Plattform aufsetzen

Um aufwändige, automatisierte Prozesse wie beispielsweise Predictive Maintenance oder Condition Monitoring in der Fabrik von morgen umsetzen zu können, benötigt es eine technisch hochwertige und leistungsfähige IoT-Plattform. Aufgrund der schieren Masse an Anbietern am Markt fällt die Wahl hier oft nicht leicht. Relevante Faktoren bei der Entscheidung für einen Anbieter sind schnelle Einsetzbarkeit, Skalierbarkeit sowie eine offene Plattform-Architektur, die eine Einbindung vorhandener Systeme erleichtert. Einige Plattformen wie Cumulocity IoT bieten einen besonders leichten Einstieg, da Geräte und Maschinen „Code-frei“ per Drag-And-Drop gewartet oder Daten analysiert werden können.

„Don’t”: Security auf die leichte Schulter nehmen

Es sollte auf der Hand liegen, aber die Vernetzung von Werkzeugmaschinen und Industrieanlagen mit der Cloud erfordern höchste Sicherheitsstandards. Auf der Infrastrukturebene bedeutet das, dass auf die Sicherheit eines Tier-4-Rechenzentrums zurückgegriffen werden sollte. 

Auf Anwendungs- und Geräteebene gilt zu beachten, dass moderne Verschlüsselungen sowie die Authentifizierung und Autorisierung aller Komponenten und Benutzer stattfinden.

„Don’t”: Skalierbarkeit vernachlässigen

Aufgrund der ständig wachsenden Zahl an verbundenen Geräten im Industrial IoT, wächst parallel dazu auch das zu verarbeitende Datenvolumen. Eine IoT-Lösung muss in der Lage sein, diesem Wandel standzuhalten und mitzuskalieren. Das Fachwort hierzu lautet „Shading“. Durch die Verwendung von Multi-Mandanten-Architekturen lassen sich die Daten auf der Datenbankebene pro Endkunde vollständig trennen. Dies ermöglicht maximale Datensicherheit, obwohl nur eine Single-Plattform-Architektur verwendet wird.

„Do”: Cloud und Edge Computing gemeinsam anwenden

Digitale Geschäftslösungen sind heutzutage ohne Cloud undenkbar. Ebenso verhält es sich auch in der Industrie 4.0, doch allein mithilfe der Cloud geht nicht alles. Aufgrund unkalkulierbaren Latenzzeiten für Verbindungen können nicht alle Anwendungen als reiner Cloudservice umgesetzt werden. Ein Beispiel hierfür ist Condition Monitoring, bei der die Software innerhalb von Sekundenbruchteilen auf Anomalien reagieren muss, um Sach- oder sogar Personenschäden verhindern zu können. Da der physische Weg von den Sensoren, die diese Anomalien messen, bis in die Cloud schlicht zu lang ist, lassen sich schnelle Reaktionszeiten nicht gewährleisten – solange die Daten allein in der Cloud verarbeitet werden. Die Lösung für das Problem: Edge Computing. Mithilfe der Edge-Technologie werden Sensordaten in den Maschinenparks – zum Teil direkt auf den Maschinen – verarbeitet. Dies ermöglicht eine geringere Verarbeitungszeit und die Cloud wird nicht zum Bottleneck bei zeitkritischen Prozessen. 

Botnetze: So schützen Sie Ihre Unternehmensdaten

Spätestens mit der Mirai-Schadsoftware vor zwei Jahren erreichten Botnetze fragwürdige Prominenz und sind nicht mehr länger nur IT-Profis ein Begriff. 

Anfangs nutzen IT-Experten Botnetze noch als legale Werkzeuge zur Automatisierung von Routineaufgaben. So wurde im Jahr 1993 beispielsweise „eggdrop“, als eines der ersten dokumentierten Botnetze, eingesetzt, um IRC-Channels, rein textbasierte Chatsysteme, gegen Übernahmeversuche zu schützen. Es dauerte nicht lange, bis Hacker diese Methode für sich entdeckten und missbräuchlich nutzten. Und heutige Botnet-Malware umfasst verschiedene Angriffstechniken, die zeitgleich über mehrere Vektoren ausgeführt werden können. Ähnlichkeiten ergeben sich allerdings in der Funktionsweise: Cyberangreifer kompromittieren Rechner, mobile Endgeräte und auch IoT-Devices und übernehmen dadurch deren Steuerung. Die Besitzer bekommen im Normalfall nichts von der Übernahme mit, sodass Angreifer oft in der Lage sind, in sehr kurzer Zeit eine Vielzahl an Geräten zu infizieren, unbemerkt in einem Rechnerverbund, auch Cluster oder Netz genannt, zusammenzuschließen und für ihre Zwecke zu verwenden.

Zusammenschluss von IP-basierten Geräten

Das bereits angesprochene Mirai-Botnetz brachte es nach Schätzungen auf bis zu 500.000 vernetzten Endgeräten, darunter vor allem unzureichend gesicherte IP-Sicherheitskameras. Im Falle des Telekom-Ausfalls im November 2016 wurde hingegen versucht Router für die Erstellung eines Botnetzes zu missbrauchen, wodurch mehr als eine Millionen Kunden betroffen waren.

IoT-Geräte werden zweckentfremdet

Trotz eines gesteigerten Gefahrenbewusstseins seitens der Hersteller, werden IoT-Devices noch viel zu häufig mit Standard-Anmeldeinformationen, einfachen Passwörtern oder bereits bekannten Sicherheitslücken ausgeliefert. Somit eignen sich diese Geräte hervorragend, um von Kriminellen in Botnetzen zusammengeschlossen zu werden. Besonders die steigende Anzahl und die breiteren Einsatzgebiete von IoT-Geräten begünstigen dabei das Wachstum der Cluster. Das Analystenhaus IDC rechnet bis zum Jahr 2025 mit mehr als 75 Milliarden im IoT vernetzten Geräten. Auch Rechner, wie beispielsweise Computer von Privatpersonen, können betroffen sein: Der Internet-Verband eco stellte fest, dass von 175.000 überprüften Rechnern knapp 40 Prozent mit Bots infiziert waren. Den Hackern bietet sich also ein konsequent wachsender Markt voll offener Einfallstore, um ihre Botnetze auszuweiten.

Werden Botnetze für DDoS-Angriffe verwendet, dann meist mit der Intention, Internet-Services, IT-Komponenten oder die IT-Infrastruktur eines attackierten Unternehmens oder einer Organisation lahmzulegen. Hierzu werden Komponenten des Netzwerks, beispielsweise Server, solange mit Datenverkehr in Form von Anfragen überlastet, bis diese nicht mehr verfügbar sind. Ein einzelnes zweckentfremdetes IoT-Device kann zwar nur wenig Datenverkehr erzeugen, doch ein großes Cluster von ihnen kann sogar Ausmaße im dreistelligen GbpS-Bereich (Gigabit pro Sekunde) erreichen.

Die „Bot-Ökonomie“ ist für Kriminelle durchaus attraktiv

Diese Form der Cyberkriminalität stellt für Hacker eine lohnenswerte Einnahmequelle dar. Da sie auf fremde IP-basierte Geräte zurückgreifen, fallen für sie keine weiteren Infrastrukturkosten an, um Angriffe zu starten. Für sie ergeben sich durch die Anonymität des Darknets und dem intransparenten Handel mit Kryptowährungen viele Vorteile: So können bestehende Botnetze auch einfach an Dritte vermietet werden, die dann in der Lage sind, einen Angriff gegen Bezahlung ausführen. Für 7.500 US-Dollar wurde beispielsweise der Zugriff auf das Mirai-Botnetz gewährt. Ein kurzzeitiger Angriff über ein vergleichsweise kleines Botnetz lässt sich heute schon für weniger als 5 US-Dollar im Darknet akquirieren.

Und für Cyberkriminelle sind Botnetze eine, aus ökonomischer Sicht, durchaus attraktive Plattform. Denn neben der Ausführung von DDoS-Attacken bieten sich Botnetze auch für weitere kriminelle Szenarien an. So können die Nutzer:

  • Spam oder Malware schnell und kaum nachvollziehbar per E-Mail verschicken
  • Klickbetrug durchführen
  • groß angelegte Phishing-Angriffe für die Verbreitung von Malware hosten
  • Software-Lizenzdaten abgreifen
  • persönliche Informationen und Identitäten stehlen
  • Kreditkarten- und anderen Kontoinformationen, einschließlich PIN-Nummern oder Passwörter ausspionieren
  • Keylogger installieren
  • Offene Proxies für einen anonymen Internetzugang bereitstellen
  • Brute-Force-Attacken auf andere Ziele im Internet ausführen

Vereinfachter Zugang zu Botnetzen

Ein weiterer Faktor, der die starke Verbreitung von Botnetzen begünstigt hat, ist der Umstand, dass die einzelnen Komponenten relativ einfach zusammengestellt, ausgetauscht und aktualisiert werden können. Einen wahren Sprung in der Szene gab es nach der Veröffentlichung vom Quellcode des LizardStresser Anfang 2015. Dieser Quellcode war frei zugänglich, einfach zu verwenden und enthielt einige komplexe DDoS-Angriffsmethoden. So war er beispielweise in der Lage, TCP-Verbindungen offen zu halten, eine zufällige Reihe von Junk-Zeichen an einen TCP- oder UDP-Port zu senden oder wiederholt TCP-Pakete mit bestimmten Flags zu senden. Die Malware enthielt ebenso einen Mechanismus, um beliebige Shell-Befehle auszuführen – etwa um aktualisierte Versionen des LizardStressers mit neuen Command-and-Control-Geräten oder ganz neuer Malware herunterzuladen. Generell wurde der Zugang zu Botnetzen und ihrer Infrastruktur immer weiter vereinfacht, sodass auch wenig technikaffine Menschen diese zu ihrem Zweck missbräuchlich nutzen konnten. Dies wurde auch dadurch begünstigt, dass Hacker den lukrativen Markt erkannten und sich immer weiter professionalisierten.

Es wird immer wahrscheinlicher, selber zum Opfer zu werden

Diese Professionalisierung, gepaart mit der wachsenden Anzahl anfälliger IoT-Geräte und dem vereinfachten Zugang für Dritte, machen Botnetze zu einem Risikofaktor für jedes Unternehmen. Dieser Trend wird nach Einschätzungen von Experten in absehbarer Zukunft auch keinen Abriss finden. Unternehmen müssen sich also der Gefahrenlage bewusst sein und sich entsprechend vorbereiten. Da Botnetze vor allem für DDoS-Attacken genutzt werden, ist eine geeignete DDoS-Abwehrlösung unabdingbar. Diese Lösung sollte, laut übereinstimmender Meinung von Sicherheitsexperten, mehrstufige Abwehrfunktionen enthalten – und sich etwa aus einer vor Ort installierten Komponente und einem cloudbasierten Element zusammensetzen. Die Komponente vor Ort ermöglicht dabei ein sofortiges Erkennen und Bekämpfen von Angriffen, etwa auf Applikationsebene, bevor es zu Auswirkungen auf die Dienste eines Unternehmens kommt. Allerdings ist sie nicht in der Lage, die besonders hochvolumigen Angriffe, etwa durch Botnetze, abzuwehren, die dazu führen können, dass die Internetkonnektivität nicht mehr gewährleistet ist. Hier kommt die cloudbasierte Komponente ins Spiel. Übersteigt die Größe eines vor Ort erkannten Angriffs einen definierten Schwellenwert, können automatisch cloudbasierte Gegenmaßnahmen aktiviert werden, um das Unternehmen zu schützen.

SSD und NVMe in Storage Spaces Direct nutzen

In Windows Server 2016 lassen sich in den Storage Spaces drei Storage-Tiers nutzen: NVMe, SSD und HDD. Windows Server 2012 R2 hat für Storage Tiers in den Speicherpools und Storage Spaces nur zwei Tiers unterstützt. NVMe-Speicher wird zum Zwischenspeichern der Daten verwendet, während die SSD und HDD zur herkömmlichen Datenspeicherung und zur Archivierung dienen. Administratoren können aber auch verschiedene Kombinationen von Storage Tiers mit diesen drei Datenträgertypen erstellen.

In einem Storage Space Direct (S2D) lassen sich NVMe-Speicher mit herkömmlichen SSD Und HDD mischen. Windows Server 2016 teilt die Daten dazu ideal auf, teilweise sogar automatisch.

Setzen Sie zusätzlich noch einen Scale-Out-File-Server als Clusterdienst ein, können Sie Freigaben auf Storage Spaces Direct speichern und innerhalb des SOFS verwalten und im Netzwerk zur Verfügung stellen.

Grundlage von S2D ist zunächst ein Cluster, in dem die Knoten über verschiedene physische Datenträger verfügen.  In den Servern können SSD, NVMe-Datenträger und herkömmliche HDD durchaus vermischt sein. Dabei kann es sich auch um verschiedene Datenträgersysteme handeln. Die Kommunikation zwischen den Datenträgern der verschiedenen Cluster erfolgt mit dem SMB-Protokoll, inklusive SMB-Multichannel und SMB-Direct.

Best Practices Analyzer in der PowerShell starten

Microsoft hat den BPA auch in die PowerShell integriert. Dadurch lassen sich Aktionen auch mit CMDlets durchführen und skripten. Am schnellsten starten und aktivieren Sie den BPA für Serverrollen durch Eingabe des Befehls „Get-BPAModel | Invoke-BpaModel“ in der PowerShell.

Um einen Scanvorgang für Hyper-V zu starten, verwenden Sie:

Invoke-BpaModel -ModelId Microsoft/Windows/Hyper-V

Wollen Sie in der PowerShell alle Scanergebnisse für Hyper-V anzeigen, verwenden Sie:

Get-BpaResult -ModelId Microsoft/Windows/Hyper-V

Haben Sie die Ergebnisse in einem Verzeichnis gespeichert, verwenden Sie:

Get-BpaResult -ModelId Microsoft/Windows/Hyper-V -RepositoryPath C:\temp\BPA

Um zum Beispiel unwichtige Informationen für die Dateidienste auszublenden, verwenden Sie den folgenden Befehl:

Get-BPAResult -Microsoft/Windows/FileServices | Where { $_.Severity -eq „Information“} | Set-BPAResult -Exclude $true

Um alle Ergebnisse von bestimmten Serverrollen (BPA-Models) anzuzeigen, können Sie zum Beispiel auch folgenden Befehl verwenden:

Get-BPAResult Microsoft/Windows/DNSServer,Microsoft/Windows/FileServices

 

Beispiel Prozessindustrie: 5 Grundpfeiler für den Erfolg digitaler Projekte

Eine Bohrinsel vor der Küste verfügt heute über 1 Million Mal mehr Rechenleistung als Apollo 11 auf dem Flug zum Mond. Bei der Flugzeuggesellschaft Virgin Atlantic entsteht pro Flugstunde ein halbes Terabyte an Daten. Und die Software in modernen Fahrzeugen enthält zwischen 80 und 100 Millionen Codezeilen. Zu betonen, dass die Digitalisierung unsere Welt maßgeblich verändert scheint angesichts solcher Zahlen fast schon überflüssig. Allein in der Prozessindustrie sind laut einer Umfrage von AspenTech 38% der Anlagenbetreiber davon überzeugt, in den nächsten zwei Jahren eine deutliche Rendite ihrer digitalen Investitionen zu sehen.

Die Rechenleistung ist vorhanden, die Datenmenge wächst täglich und neue KI- und Machine Learning-Technologien erreichen einen Reifegrad, der ihren Einsatz in der Praxis nicht mehr in den Bereich Science Fiction einordnet. Was bedeutet das jedoch tatsächlich für die Wettbewerbsfähigkeit von Unternehmen? Für Hersteller und Anlagenbetreiber empfiehlt es sich hier, einen Schritt zurück zu gehen und Herausforderungen wie Chancen anhand einiger zentraler Faktoren zu betrachten. 

  1. Bestehende Technologien maximal ausschöpfen

Es ist wenig sinnvoll bestehende Prozesse und Systeme wahllos auszutauschen und zu verändern. Vielmehr sollten Unternehmen genau prüfen, welche Assets sich in die bestehende digitale Infrastruktur einfügen lassen und welche es zu ersetzen gilt. Planungs- und Dispositionssysteme, Data-Historians, APC-Lösungen (Advanced Process Control-Lösungen), präzise Anlagenmodellierung und Ertragskalkulationen verlieren mit der Digitalisierung nicht einfach ihre Berechtigung, sondern können als wertvolles und zentrales Fundament für innovative Erweiterungen dienen.

  1. Reifegrad des Unternehmens verstehen und berücksichtigen

Digitale Transformation findet nicht ohne einschneidende organisatorische Veränderungen statt, insbesondere wenn sie die Zusammenarbeit zwischen operativen Teams vereinfachen soll. Idealerweise unterstützen neue Technologien die Mitarbeiter dabei, schneller fundierte Entscheidungen zu treffen. In der Realität sind es jedoch viele Betriebsteams gewohnt isoliert innerhalb ihres eignen Arbeitsbereichs zu handeln. Bis eine Organisation reif genug ist, um in einem neuen, vernetzten und digitalen Umfeld erfolgreich zu sein, kann es dauern. Daher ist es von Vorteil schrittweise vorzugehen – sowohl technologisch als auch organisatorisch.

  1. Nüchterner Blick auf Vorteile und Risiken

Technologieinvestitionen verlangen einen klaren Fokus auf den tatsächlichen Nutzen, die Amortisierung und die Rendite. Für Führungskräfte bedeutet dies eine intensive Auseinandersetzung mit Anwendungsfällen und Fallstudien, die darlegen wie sich bestimmte Technologien sinnvoll für den jeweiligen Bereich einsetzen lassen und inwiefern sie tatsächlich operatives Wachstum ermöglichen.

  1. Zentrale Erfolgskriterien definieren

Die wichtigsten Leistungsparametern sind bekannt: Hohe Flexibilität und Agilität hinsichtlich Produktzuführung und -ausführung, Zuverlässigkeit und Verfügbarkeit, eine Optimierung des Energieverbrauchs und übergreifende Kostenführerschaft. Es braucht klare Zielpunkte sowie eine kontinuierliche Ausrichtung und Überprüfung von Projekten hinsichtlich festgelegter und aufeinander abgestimmter Erfolgsmetriken.

  1. Mitarbeiter fördern und weiterentwickeln

Der Einsatz von neuen Technologien setzt neues Know-how voraus, verlangt aber gleichzeitig langjährige Erfahrung und technische – oft betriebsspezifische – Kompetenz. Viele Hersteller entscheiden sich hier, technische Teams auszulagern, um dadurch die Betriebsfunktionen schlank zu halten. Auch hier gilt es abzuwägen, denn verlässt man sich zu sehr auf externe Experten, besteht die Gefahr, den zentralen Vorteil eigener Fachkräfte für technische Ressourcen im Unternehmen zu verlieren.

Beispiele für digitale Projekte in der Prozessindustrie

In der Prozessindustrie gibt es genügend Beispiele, wie Unternehmen im Downstream-Bereich durch gezielte digitale Projekte signifikante Ergebnisse umsetzen konnten. So integrierte der Betreiber einer Erdölraffinerie in Alaska (Nort Slope) eine digitale Anlagenmodellierung, die Echtzeitdaten nutzt und so auf die Minute genau optimierte Bedienanweisungen liefert. Innerhalb von nur einer Woche stieg der Umsatz des Unternehmens um über 1 Million US-Dollar. Ähnlich vielversprechend sind die ersten Anwendungsfälle von Predictive und Prescriptive Analytics. Eine LNG-Firma im Golf von Mexiko nutzt auf Machine Learning basierende Instandhaltung, um frühzeitig Störungen oder Ausfälle ihrer Kompressoren zu erkennen und zu verhindern. Das Ergebnis: Kosten für Ausfallzeiten und Wartung konnten um mehrere Millionen US-Dollar pro Jahr reduziert werden – bei gleichzeitig erhöhter Anlagenverfügbarkeit.

Das sind die Bereiche, in denen die digitale Transformation für Hersteller und Anlagenbetreiber unbestreitbar neue Chancen eröffnet, agilere Geschäftsmodelle ermöglicht und langfristig die Wettbewerbsfähigkeit sichert.

Deutsche Hidden Champions: Start-ups bringen Industrie 4.0 voran

Die Implikationen des derzeitigenTransformationsprozesses im Bereich Industrie 4.0 sind enorm.  So prognostiziert die Beratungsgesellschaft McKinsey für Deutschland einen jährlichen BIP-Wachstumsbeitrag von 2.4 Prozentpunkten durch fortschreitende Automatisierung bis 2030; andere Studien betonen die tiefgreifenden Änderungen unserer Berufs- und Arbeitswelt, die durch industrielle Digitalisierung entstehen werden. In Deutschland wird diese Transformation bisher vor allem von großen Industrieausrüstern wie Bosch, Siemens oder Kuka sowie Forschungseinrichtungen wie dem Fraunhofer-Institut vorangetrieben; so betreiben z.B. sowohl Bosch als auch Siemens industrielle „Showcases“, in denen sie die Vernetzung von Mensch und Maschine in der Praxis zeigen.

Abb. 1 – Finanzierungsrunden deutscher Start-ups in drei digitalen Kernbereichen (Anzahl Transaktionen) (Quelle: GP Bullhound).

 

Während die Großindustrie mit integrierten, umfassenden Lösungen voranschreitet, bestehen allerdings in der Breite immer noch Adoptionsbarrieren gegenüber Technologien, die Fertigungsmethoden ganzheitlich vernetzen.  Um diese zu adressieren, ist in den letzten Jahren in Deutschland ein ganzes Ökosystem aus Start-ups entstanden, deren Lösungen um einen Platz in der digitalen Fertigungskette konkurrieren.  So ist die Aktivität in den für Industrie 4.0 relevanten Kernfeldern in Deutschland in den letzten Jahren stark angewachsen: die Zahl der Finanzierungsrunden stieg in den relevanten Feldern KI, Robotik und IoT von insgesamt 15 im Jahr 2012 auf 140 in 2017.

Die Lösungsansätze dieser Start-ups kommen im Wesentlichen aus drei Richtungen: horizontale Lösungen, die bestimmte kritische Funktionen bereitstellen (z.B. Objekterkennung, „Digital Twins“ oder Robotik); vertikale Lösungen, die spezifische Anwendungsfälle abdecken (z.B. intelligente Logistiklager oder selbstheilende Fertigungssysteme); sowie Plattformen für die Integration verschiedenen Technologien, die in der Industrie 4.0 zum Einsatz kommen.

Abb. 2 – Ausgewählte Finanzierungsrunden deutscher Start-ups (€m) (Quelle: GP Bullhound).

Diese Firmen befinden sich teilweise in ganz unterschiedlichen Lebenszyklen, wie die Übersicht ausgewählter Wachstumsfinanzierungen in Deutschland in den letzten Jahren demonstriert.  Folgende Namen sind besonders hervorzuheben:

Horizontale Lösungsanbieter:

  • MicroPsi: Führender Anbieter einer KI-getriebenen Middleware für Roboter, die diesen selbstlernendes, autonomes Handeln ermöglicht.
  • Nyris: Junger Anbieter einer technisch einzigartigen Bilderkennungs-Lösung, die sowohl in Endkundenanwendungen als auch in Logistik oder industriellen Prozessketten angewendet werden kann.
  • Axiros: Weltweit führender IoT-Dienstleister für den Mittelstand; seit der Gründung 2001 selbstfinanziert.
  • Topalsson: Junges Start-up, das sich auf die schnelle, automatisierte und agile Bereitstellung von „Digital Twins“ spezialisiert hat.

Vertikale Lösungsanbieter:

  • Magazino: Führender Anbieter für intelligente Logistikroboter und vollautomatisierte Warenlager; erhielt kürzlich ein 20.1 Millionen Euro-Investment von Zalando.
  • Leverton: Anbieter für intelligente Digitalisierung von Geschäftsdokumenten; einer der „rising stars“ der deutschen KI-Szene.
  • Franka Emika: Hersteller von lebensgrossen, programmierbaren Roboterarmen für verschiedenste Anwendungen.

Plattformanbieter:

  • Arago: Führender Anbeiter von AI-Integrationen für diverse industrielle Anwendungen und
  • Empolis: Big Data-Plattform-as-a-Service für industrielle Anwendungen und andere Geschäftsprozesse.
  • elastic.io: Cloud-Platform-as-a-Service für die Einbindung verschiedenster agiler Clouddienste.  Seit 2017 Teil der mVISE-Gruppe.
Abb. 3 – Ausgewählte VC-Investoren in Deutschland in Industrie 4.0 (€m) (Quelle: GP Bullhound).

Das Ökosystem deutscher Industrie 4.0-Start-ups wird finanziert und getrieben von einer breiten Gruppe von Investoren, zu denen sowohl spezialisierte Software-Investoren, deep-Tech-Investoren als auch Corporate Venture Capital gehören.  Der Wettbewerb um die besten Investments wird dabei den Sektor weiter treiben und die besten Geschäftsmodelle zum kommerziellen Erfolg führen.

Elektronische Alltagshelfer für den Technikalltag

Schön wäre es doch, wenn uns ein kleiner digitaler Assistent Schritt für Schritt durch die täglichen Anwendungen führt oder wir mit dem Tablet schnell nachlesen können, was man wo beachten muss. Solche Helfer gibt es, wir stellen Ihnen einige vor.

Navigationsgerät für jede Software

Performance Support nennen es die Experten, wenn wir nicht in langatmigen Schulungen auf Vorrat lernen, sondern in dem Moment, in dem wir eine konkrete Hilfestellung benötigen. Der Anbieter von E-Learning-Lösungen IMC hat dafür einen Assistenten entwickelt, der Büroarbeiter durch jede beliebige Anwendung führen kann, den Process Guide. Wie ein Navigationssystem führt der Guide durch komplexe Geschäftsprozesse und IT Landschaften. Es erkennt, in welchem System ein Mitarbeiter gerade unterwegs ist. Um zu helfen, zeigt er relevante Informationen zum aktuellen Arbeitsschritt sowie die nächsten Steps auf und überprüft, was bereits getan wurde. Dabei ist er einfach und intuitiv bedienbar. „Es wäre ja noch schöner, wenn man für den Assistenten auch noch eine Schulung bräuchte“, fasst IMC-Vorstand Christian Wachter die einfache Anwendung zusammen.

Das Navigationsgerät für die tägliche Arbeit lässt sich mit allen Anwendungen und Aufgaben kombinieren. Ob das Urlaubsanträge sind, die Bestellsoftware im Einkauf oder technische Spezifikationen in einer I 4.0 Anwendung. Wer immer wieder vergisst, wie Serienbriefe erstellt werden und dafür keine zweitägige Schulung absolvieren will, lässt sich einfach vom Process Guide durch das System führen.

Elektronisch nachschlagen mit dem Tablet

Ideal für die Vorbereitung der nächsten Rede oder Präsentation ist das digitale Nachschlagewerk „Rhetorik“ von Autor Peter Flume. Das Werk gibt es schon seit 2014 auf dem Markt. Jetzt wurde das elektronische Buch mit Hörbeispielen und interaktiven Funktionen mit dem German Design Award 2017 ausgezeichnet. Der Titel überzeugte die Jury mit seiner Möglichkeit echten intuitiven Lernens. Die theoretischen Grundlagen rund um die wichtigsten Rhetorik-Skills können sich die Leser im Fließtext aneignen. Die eingebetteten Audiodateien bieten Hörbeispiele typischer Gesprächssituationen des Berufslebens. Per Fingertipp können zusätzliche Infotexte geöffnet werden, mit der Notizfunktion lassen sich eigene Gedanken und Anregungen abspeichern. Von rhetorischen Stilmitteln über den Einsatz der Stimme bis hin zu Tipps für kritische Gesprächssituationen erhält der Nutzer mit dem eBook active ein optimales multimediales Rhetoriktraining.

Digitale Notizen: mobil und sozial

Fast auf jedem PC ist ein Programm installiert, das die meisten Nutzer nicht kennen oder schlichtweg unterschätzen: OneNote. Bei den neueren Versionen gehört das Programm zum Office-Paket. Die digitale Notizfunktion löst Post-its und Zettelwirtschaft ab, indem es Notizen digital abspeichert. Anschließend können diese Informationsschnipsel sortiert, anderen zugänglich gemacht oder in To-Dos umgewandelt werden. „Mit einer digitalen Notizfunktion wie OneNote haben Notizen einen festen Platz und Sie können diese mit Kollegen gemeinsam bearbeiten“, sagt Experte für Büro-Kaizen Jürgen Kurz. In einem seiner Blogbeiträge veröffentlichte der ein Tutorial zu diesem Programm. Eine weitere schöne Funktion: Nutzer können ihre Notizen ihren Outlook-Terminen zuordnen. Kurz ist Fan davon, dass diese digitalen Notizen auch mobil über das Smartphone oder Tablet, oder von Außendienstmitarbeitern eingesehen werden können.

Die fünf Bestandteile einer vernetzten Produktion

1. Sensorintegration

Dreh und Angelpunkt der digitalen Transformation ist zunächst die Adaption des Fertigungsprozesses durch die Sensorik. Sensoren sind ohnehin für die Automation im Produktionsmodul enthalten, jedoch müssen für eine vollständige digitale Transformation des physikalischen Produktionsablaufes auch Komponenten erfasst werden, die bisher rein passiv waren – wie zum Beispiel ein Lagerbehälter, ein Transferband, eine Rohrleitung oder ggf. auch das Produkt selbst. Zudem müssen Verschleißobjekte wie Lager an Motoren und Antrieben für eine vollständige Digitalisierung erfasst werden. Bis zum kleinsten Bestandteil im Fertigungsprozess benötigen damit alle an der Produktion beteiligten Komponenten ihre digitale Adaption.

2. Horizontale Vernetzung

Der Produktionsablauf ist aufgeteilt in mehrere Fertigungsschritte. Um auch hier einen optimalen Produktionsprozess zu schaffen, sind alle beteiligten Produktionsinseln miteinander zu vernetzen. Dies ermöglicht auch die „Modul-zu-Modul“-Kommunikation, sodass sich Fertigungsinseln untereinander und ggf. mit dem Produkt abstimmen, ohne den überlagerten Produktionsleitrechner zu benötigen. Diese horizontale Vernetzung gilt jedoch nicht nur für den internen Produktionsablauf, sondern auch für die externe Logistik des Fertigungsprozesses. Die Zuführung von Rohstoffen und auch der Abfluss des Logistikers sind bei Bedarf einzubinden.

3. Vertikale Vernetzung

Die Cloud-Vernetzung auf im Internet öffentlich verfügbare Server – bezeichnet als „Public Cloud“ – erzeugt große Bedenken, da dies unter Umständen den Zugang auf den Produktionsprozess weltweit öffnet. Bei der vertikalen Vernetzung der digitalisierten Fabrik sollte daher bewusst zwischen der offenen Cloud-Anwendung und der vertikalen Vernetzung auf externe, aber nach wie vor zum Unternehmen gehörende Fertigungsrechner unterschieden werden. Durch zum Beispiel eigene mit VPN, https sowie weiteren individuellen Verschlüsselungsmethoden und Verkryptungen in der Kommunikation der privaten Client Server Topologien geschützten Zugängen auf eigene Server, wird die Internetstruktur nur noch als Vernetzung genutzt. Diese als „Private Cloud“ bezeichnete Architektur unterscheidet sich im Wesentlichen zur „Public Cloud“ in seiner Serverlandschaft und der Serveranbindung an offene gemietete Serverlandschaften.

Unabhängig ob „Private“ oder „Public Cloud“: In beiden Fällen dreht es sich um die vertikale Anbindung aus dem Produktionsmodul heraus, über eigene Firmengrenzen hinweg. Im B-to-C-Geschäft kann der Zugang auf die Server auch dem Endkonsumenten ermöglicht werden, um dadurch zum Beispiel eine Bestellung direkt am Fertigungsmodul zu platzieren. Neben der eigentlichen Steuerung können so parallele Kommunikationsprotokolle integriert werden, über die der Zugriff erfolgt. Im physikalischen Zugriff kann dies über Ethernet oder Mobilfunknetz erfolgen, im logischen Zugriff über MQTT.  Mit dem Zugriff unterschiedlicher Clients auf die Steuerung lassen sich Zustandsinformationen wie Run/Stop, Verbindungsstatus, Geräteinformationen sowie im IEC-Programm definierte Variablen in die Cloud senden und visualisieren. Über die Programmierung lassen sich die Variablen definieren, die in die Cloud übertragen werden sollen oder die zu schützen sind. Sensible Daten verlassen das Unternehmen auf diese Weise nicht.

4. Cyber-Security

Wo Produktionsdaten erfasst und übertragen werden, spielt das Thema Cyber-Security eine ganz wesentliche Rolle. Produktionsdaten sind ein wertvolles Gut, das es besonders zu schützen gilt.

Grundsätzlich sollte der Anwender in weniger kritischen Anwendungen Vorkehrungen treffen: Unsichere Protokolle wie Telnet, http, ftp oder SNMP sind bei kritischen Applikationen zu vermeiden und verschlüsselte Protokolle zu bevorzugen. Nicht benötigte Ports (Protokolle) müssen deaktiviert werden. Default-Passwörter sollten selbstverständlich immer geändert und Benutzerrollen zugewiesen werden.

5. Modularisierung

Durch immer kürzere Produktlebenszyklen gepaart mit dadurch kleineren Stückzahlen bis zur individuellen Fertigung der Losgröße 1, ist die Produktion gefordert, sehr flexibel und wandlungsfähig auf diese Anforderung zu reagieren – ohne dabei die Fertigungskosten zu steigern. Die benötigte Wandlungsfähigkeit ist nur mit einer Modularisierung des Produktionsprozesses zu schaffen. Dies gilt nicht nur für die Produktionsmodule, sondern auch für die Automation des gesamten Fertigungsprozesses.

 Die Standardisierung der Schnittstelle zwischen den Fertigungsmodulen und dem übergeordneten Produktionsleitrechner kann die richtige Methodik hierfür sein. Durch diese Standardisierung können ohne Anpassung am Produktionsleitrechner Fertigungsmodule getauscht werden.

Standardisierung ist damit ein wichtiger Baustein, um die Industrie-4.0-Anforderungen nach modularen Anlagen zu lösen, die nicht nur modular gebaut, sondern ebenso modular automatisiert sind und damit einen wesentlichen Grundstein für die autarke, selbstverwaltende Fabrik legen. Nur so können  Anlagenmodule flexibel und herstellerunabhängig miteinander kombiniert werden und sind damit die Basis für mehr Flexibilität und eine hohe Wandlungsfähigkeit.

Fazit

Die Digitalisierung in der Produktion ist eine notwendige Entwicklung zur Stabilisierung und auch Steigerung der Wertschöpfung – bei zunehmendem internationalem Wettbewerbsdruck mit steigendem individuellem Produktbedarf.

Volumenaktivierungsdienste nutzen

Der folgende Befehl installiert die Rolle in der PowerShell:

Install-WindowsFeature VolumeActivation

Nach der Installation müssen Sie den Rollendienst noch konfigurieren:

  1. Öffnen Sie im Server-Manager das Tools-Menü und wählen Sie den Befehl „Volumenaktivierungstools“.
  2. Wählen Sie auf der Seite „Volumenaktivierungsmethode auswählen“ die Option „Aktivierung über Active Directory“. Wenn das Konto, das Sie gerade verwenden, über keine Administratorberechtigungen auf Unternehmensebene verfügt, geben Sie die Anmeldeinformationen für ein Konto mit Berechtigungen zur Erstellung eines neuen Containers auf dem Domänencontroller ein, und klicken Sie anschließend auf „Weiter“.
  3. Geben Sie den KMS-Hostschlüsselund einen optionalen Namen für das Active Directory-Objekt ein, und klicken Sie danach auf Weiter.

Nachdem der KMS-Hostschlüssel aktiviert ist, werden Clientcomputer, die Sie der Domäne hinzufügen, automatisch aktiviert. Alle Ereignisse der Active Directory-basierten Aktivierung werden im Ereignisprotokoll der Windows-Anwendung unter der Quelle „Microsoft-Windows-Security-SPP“ erfasst.

Sehen Sie unter dem Ereignis 12308 nach, um die Informationen zu prüfen. Bei Clients, auf denen Windows Server 2016 oder Windows 10 ausgeführt wird, sollte die Aktivierung automatisch erfolgen, wenn der Computer das nächste Mal gestartet wird und sich der Benutzer anmeldet.

Wählen Sie „Schlüsselverwaltungsdienst (KMS)“ als Aktivierungsmethode können Sie auch ältere Systeme und Office aktivieren. Die KMS-Volumenaktivierung erfordert einen Mindestschwellenwert von 25 Computern, bevor Aktivierungsgesuche verarbeitet werden. Der hier beschriebene Überprüfungsprozess erhöht den Aktivierungszähler mit jedem Mal, wenn ein Clientcomputer den KMS-Host anruft. Wenn der Aktivierungsschwellenwert noch nicht erreicht ist, ergibt die Überprüfung jedoch eine Fehlermeldung.

Windows Defender Application Guard für mehr Sicherheit im Netzwerk

Mit Windows Defender Application Guard können Administratoren Windows 10-Rechner im Netzwerk besser absichern. Sinnvoll ist der Einsatz von Windows 10 Version 1803, denn hier kann auch Windows 10 Pro WDAG nutzen.

Nachdem die Features „Hyper-V“ und „Windows Defender Application Guard“ installiert sind, lassen sich Webseiten mit Microsoft Edge in Application Guard-Fenstern öffnen. Hier wird der Zugriff komplett vom Betriebssystem getrennt. Viren und andere Malware, aber auch Exploits und Zero-Day-Attacken haben in diesem Fall keine Chance mehr.

Das Tool kann über Gruppenrichtlinien gesteuert werden. Hier lässt sich auch Festlegen, dass auch in Application Guard-Fenstern der Download von Dateien möglich ist.

Auf englischen Windows 10-Versionen ist die Einstellung über „Computer Configuration\Administrative Templates\Windows Components\Windows Defender Application Guard“ zu finden. Auf deutschen Rechnern befindet sich die entsprechende Einstellung bei Computerkonfiguration\Administrative Vorlagen\Windows-Komponenten\Windows Defender Application Guard“.