Berechtigungen für Benutzer und Gruppen verwalten

Ebenso lassen sich die Zugriffsberechtigungen einzelnen Benutzern entziehen, indem Sie diese aus der Gruppe entfernen.

Microsoft empfiehlt folgende Berechtigungsstruktur:

  1. Eine domänenlokale Gruppe erhält Berechtigung auf den Ordner und Freigabe.
  2. Globale Gruppen mit Benutzern werden in die lokale Gruppe aufgenommen.
  3. Benutzerkonten der Anwender sind Mitglieder der einzelnen globalen Gruppen.

Die Berechtigungen im Dateisystem speichert Windows in der Zugriffssteuerungsliste (Access Control List, ACL). Während der Anmeldung erstellt ein Domänencomputer für den Benutzer ein Zugriffstoken, das die Sicherheits-ID (Security ID, SID) des Benutzerkontos enthält, sowie die SIDs der Gruppen, in denen der Benutzer Mitglied ist. Beim Zugriff auf eine Freigabe vergleicht der Server die Einträge des Tokens mit der ACL und ermittelt daraus die Berechtigung. Dazu addiert Windows die Berechtigungen für jeden übereinstimmenden Eintrag. Ein Benutzer bekommt die Berechtigungen, die seinem Konto zugewiesen sind, sowie alle Berechtigungen, die den Gruppen zugewiesen sind, in denen er Mitglied ist.

Geben Sie einem Benutzerkonto die Berechtigung Lesen und bekommt zusätzlich eine Gruppe, in der dieser Benutzer Mitglied ist, die Berechtigung Schreiben zugewiesen, ergeben die effektiven Berechtigungen Lesen und Schreiben.

Erstellen manueller Routen für IPv6

Der Syntax zur Erstellung einer manuellen Route für IPv6 ist:

netsh interface ipv6 add route prefix=<IPv6-Adresse>/<Ganze Zahl> interface=<Zeichenfolge> nexthop=<IPv6-Adresse> siteprefixlength=<Ganze Zahl> metric=<Ganze Zahl> publish=<Wert> validlifetime=<Ganze Zahl>|infinite preferredlifetime=<Ganze Zahl> store=<Wert>

Die einzelnen Optionen dieses Befehls haben folgende Funktion:

prefix — Adresse oder Subnetzpräfix, für die oder das eine Route hinzugefügt wird

interface — Schnittstellenname oder -index

nexthop — Gatewayadresse, wenn das Präfix nicht auf Verbindung ist

siteprefixlength — Präfixlänge für die ganze Website, falls sie auf Verbindung ist

metric — Metrische Route

publish — Stellt einen der folgenden Werte dar: Wenn publish auf age festgelegt wird, enthält die Routenankündigung die verbleibende Gültigkeitsdauer bis zum Löschen. Wenn publish auf yes festgelegt wird, wird die Route niemals gelöscht, unabhängig vom Wert der Gültigkeitsdauer, und jede Routenankündigung enthält dieselbe angegebene Gültigkeitsdauer. Wenn publish auf no oder age festgelegt wird, wird die Route nach Ablauf der Gültigkeitsdauer gelöscht.

no — Nicht in Routenankündigungen angekündigt (Standard)

age — In Routenankündigungen angekündigt mit sinkender Gültigkeitsdauer

yes — In Routenankündigungen angekündigt mit unveränderter Gültigkeitsdauer

validlifetime — Die Gültigkeitsdauer einer Route in Tagen, Stunden, Minuten und Sekunden (z. B. 1d2h3m4s). Der Standardwert ist infinite.

preferredlifetime — Die bevorzugte Gültigkeitsdauer der Route. Standardmäßig entspricht dieser Wert der Gültigkeitsdauer.

store — Stellt einen der folgenden Werte dar:

active — Änderung wird nur bis zum nächsten Systemstart beibehalten

persistent — Änderung ist dauerhaft (Standard)

Das Geschäft mit dem Abonnement

IoT-Geräte der ersten Generation boten nur wenige Optionen zur Monetarisierung. In der Regel stammten die Einnahmen aus dem Verkauf der Hardware sowie nachfolgenden Wartungsarbeiten. Solche CapEx-Monetarisierungsmodelle, die Einnahmen aus Einmalverkäufen von Geräten oder Software generieren, sind in industriellen IoT-Anwendungen wie medizinischen Geräten und Fertigungsanlagen noch häufig Standard. Innovative IoT-Anbieter experimentieren jedoch verstärkt mit Modellen, die auf Subskriptionen, „Pay-per-Use“ oder einem „Value-and-Outcome“-Ansatz basieren.

Wiederkehrende Einnahmen statt Einmalverkäufe

Diese Modelle versprechen langfristig die größeren Umsatzchancen. Neben hoher Flexibilität, bieten sie Upselling- und Cross-Selling-Möglichkeiten durch Features, die genau auf die Kundenbedürfnisse zugeschnitten sind. Durch die Umstellung auf subskriptions- und servicebasierte Modelle lassen sich wiederkehrende Einnahmen generieren. Das ist vor allem für Unternehmen interessant, die IoT-Geräte für Netzwerke, industrielle Automatisierung, medizinische Geräte und intelligente Heim- und Gebäudetechnik entwickeln.

Um widerkehrende Einnahmen aus Upgrades, Apps und Services zu generieren, benötigen Unternehmen eine Monetarisierungsplattform, die es ermöglicht, die Installationsbasis zu verfolgen und zu verwalten. Gleichzeitig muss den Kunden ein hoher Service geboten werden, der sich positiv auf die Verlängerungsquote auswirkt. Dabei stellen flankierende IoT-Softwarekomponenten sicher, dass die Subskriptionsbedingungen erfüllt werden (z. B. über die Aktivierung/Deaktivierung von Funktionen) und zeichnen die genaue Nutzung einschließlich entsprechender Datenpunkte auf.

Mehr Features, mehr Gewinn

On-Demand-Features ermöglichen Up- und Cross-Selling über den gesamten Lebenszyklus der IoT-Geräte und Softwareanwendungen hinweg. Bestes Beispiel sind die zahlreichen Features von Home-Gateways wie Amazon Echo und Google Home. Mit Software auf Abonnementbasis lassen sich angeschlossene Geräte im Smart Home steuern – von Rollläden über Alarmanlagen bis hin zu Unterhaltungselektronik. Mobile Versionen der Anwendungen bieten zusätzliche Flexibilität und erhöhen den Kundenservice. Dabei laufen die Berechtigungen und Nutzungsrechte der Anwendungen und Apps über entsprechende Monetarisierungslösungen in der Cloud.

Ein solches Management von Funktionen einer Software verschafft Herstellern eine bisher unerreichte Produktagilität und steigert die betriebliche Effizienz: Sie können die Fertigung von Produkten und Teilen reduzieren und gleichzeitig die Geräte kundenspezifisch mit den Features ausstatten, die auch tatsächlich genutzt und bezahlt werden. Anstatt eine Vielzahl verschiedener Modelle eines Produkts zu hohen Kosten zu fertigen, können sie auf eine digitale Monetarisierung setzen, physische Produktlinien reduzieren und stattdessen über die Software verschiedene Produkte einfach freischalten und anbieten.

Daten, Daten, Daten

Das IoT stellt Unternehmen eine gewaltige Menge an Daten zur Verfügung. Zudem nimmt die Konnektivität stetig zu, während Hochleistungsrechner und Storage-Kapazitäten immer kostengünstiger und leistungsfähiger werden. Damit bieten sich auch neue Wege der Monetarisierung von Software in Form von datengestützten Ertragsmodellen:

  • Nutzungsbasierte Ertragsmodelle wie Pay-per-Use oder Pay-for-Overage
  • Produktnutzungsanalysen, die Herstellern helfen können, das Packaging von Produkten und zukünftige Geschäftsmodelle zu optimieren
  • Instrumentierungsdaten, die komplexere Verträge oder die gemeinsame Nutzung von Geräten unterstützen
  • Leistungsdaten als Treiber für Services, wie beispielsweise vorausschauende Instandhaltung und präventive Wartung

Datendienste werden beim Verkauf von Lösungen eine entscheidende Rolle spielen. In der Automotive-Branche gehören unterschiedlichste Features und Upgrades bereits zur Grundausstattung von Fahrzeugen und werden je nach Kundenwunsch und bezahltem Leistungspaket über Software- und Lizenzierungstechniken individuell freigeschalten. In der Industrie liefern die Daten aus dem Monitoring von Anlagen und Maschinen die Grundlage für vorausschauende Instandhaltung und präventive Wartung. Dabei entscheiden die Gerätehersteller strategisch, ob sie solche zusätzlichen Features und Services zusammen mit dem Produkt anbieten, um sich vom Wettbewerb abzusetzen, oder über subskriptions- bzw. nutzungsbasierte Betriebskosten abrechnen.

Der Trend zu Subskriptionsmodellen für Geräte und datengetriebenen Services ist klar. Strategische IoT-Unternehmen entwickeln mehr und mehr entsprechende Geräte mit cloudbasierten Feature-Management-Anwendungen. In den nächsten Jahren wird sich damit die Monetarisierung der IoT-Produkte grundlegend verändern. Das bringt Vorteile für beide Seiten: Hersteller profitieren von steigenden wiederkehrenden Einnahmen, während Kunden nur das zahlen, was sie auch tatsächlich nutzen.

Warum Rapid Application Development und Low-Code mehr als nur Buzzwords sind

Was ist Low-Code, kurz gesagt?

Low-Code an sich bedeutet zunächst einmal “Wenig Code” bzw. “Wenig Programmieren”. Gemeint ist dabei eigentlich immer ein Stück Software – welches sonst aufwändig programmiert werden musste – in irgendeiner Art und Weise zu vereinfachen. Das kann zum Beispiel bedeuten, Funktionen konfigurierbar zu machen, also durch eine grafische Benutzeroberfläche (GUI).

Bekanntes Low-Code Beispiel: WordPress

Um den Begriff Low-Code noch etwas griffiger zu gestalten, bedienen wir uns eines der bekanntesten Beispiele, die wir finden konnten.

WordPress ist das wohl beliebteste Content-Management-System für Websites: es unterstützt über 70% der Top-1-Million Webseiten im Web. Mit WordPress hat man eine (relativ) einfache Möglichkeit, sich selbst eine Website zu erstellen, inklusive aller wichtigen Funktionen wie die Erstellung eines Blogs oder das Hinzufügen von Bildern oder das Verändern des Erscheinungsbildes der eigenen Website.

WordPress ist bereits im Jahr 2003 erschienen und hat durch den OpenSource Ansatz ein riesiges Ökosystem aufgebaut. So ist es heutzutage immer einfacher für Anwender, verschiedenste Medien auf der eigenen Website einzubauen, wunderschöne, vorgefertigte Designs zu erwerben oder spezielle Funktionen durch Plugins einzubinden. Bereitgestellt werden diese Erweiterungen durch Entwickler, die damit ihr tägliches Brot verdienen können, statt durch die indviduelle Entwicklung von Webseiten.

Dafür haben sich wiederum eine Vielzahl von Freelancern auf dem freien Markt gefunden, die teilweise ohne oder mit wenig Programmierkenntnissen die Wünsche des Anwenders erfüllen.

Zusammengefasst bietet WordPress also ein System, das einerseits Anwendern die Konfiguration von Websites ermöglicht und auf der anderen Seite Entwicklern den Freiraum zur Programmierung spezieller Features bietet. Das ist eines der Grundprinzipien von Low-Code.

Woher kommt die Low-Code Bewegung?

Wie angesprochen, strebt man mit dem Low-Code Ansatz danach, die Bedienung von einem komplexen System zu vereinfachen. Im Beispiel WordPress ist das die Erstellung von Websites und die Marschrichtung vom Entwickler zum Anwender bzw. Power-User. Aber eigentlich hat die Low-Code Bewegung schon viel früher angefangen. Mit sogenannten 4GL begann der Trend bereits in den 1980er Jahren.

4GL sind “Fourth-Generation Languages”, ein Begriff aus der Softwareentwicklung. Er beschreibt Programmiersprachen, welche auf einem höheren Abstraktionslevel als die der dritten, zweiten und ersten Generation sind. Während 1GL die Maschinensprache ist, also am nähesten “an-der-Hardware-dran”, ist 4GL bereits weit weg davon. Vereinfacht lassen sich die Generationen folgendermaßen ausdrücken:

1GL: Maschinensprache

2GL: Assemblersprache

3GL: Prozedurale Programmierung

4GL: Deklarative Programmierung

5GL: Künstliche Intelligenz

Die Assemblersprache (2GL) ist ebenfalls als hardwarenah zu bezeichnen. Der Quelltext, auch Assemblercode genannt, wird durch den sogenannten Assembler direkt in ausführbare Maschinensprache (1GL) umgewandelt.

Und auch in den nachfolgenden Generationen ging es eigentlich immer darum, eine Sprache in die nächst Niedere zu übersetzen. Die gängigste Generation ist auch heute noch 3GL: die prozedurale Sprache. Selbst wenn man kein Programmierer ist, hat man meistens schon einmal von den Sprachen wie C oder C# gehört, vielleicht sogar schon einmal mit objektorientierten Sprachen wie C++, Java oder JavaScript gearbeitet.

Was macht nun 4GL anders als 3GL? Während 3GL vor allem die Einführung von standardisierten Kontrollstrukturen geprägt hat, haben Programmierumgebungen der vierten Generation das Ziel, möglichst schnell und mit möglichst wenig Codezeilen für einen bestimmten Anwendungsfall Funktionen oder aber auch komplette Anwendungen bereitstellen zu können.

Das klingt erst einmal spannend, ist aber insgesamt ein schwammiger Begriff und wurde in den 1980er Jahren vor allem für Marketingzwecke eingesetzt. Später wurde das Gebiet etwas eingegrenzt, um zum Beispiel auf Skriptsprachen eines geschlossenen Systems zu verweisen.

Wie man es auch nimmt, haben solch moderne Entwicklungsumgebungen immer die folgenden Ziele:

  • Einfachere, anwenderorientierte Darstellung und Unterstützung des Entwicklungsprozesses
  • Bessere Wartbarkeit und Erweiterbarkeit durch den Anwender
  • und die sich daraus ergebende kürzere und kostengünstigere Entwicklung

Dann bleibt noch 5GL übrig. Darauf wollen wir in diesem Artikel nicht näher eingehen. Man stelle sich einfach 4GL im Quadrat vor, und man kommt bei 5GL heraus. Es wird nur noch schwammiger. Aber es hat was mit künstlicher Intelligenz zu tun.

Abgrenzung Low-Code zum heutigen Gebrauch mit Low-Code Development Platforms

Low-Code ist also aus den unterschiedlichen Paradigmen der Softwareentwicklung heraus entstanden. Der Begriff hat in den letzten Jahren insbesondere in den USA eine echte Renaissance erfahren, nämlich durch das Aufkommen von sogenannten “Low-Code Development Platforms”. Kurz gesagt handelt es sich dabei um Plattformen, welche die Erstellung von Software bzw. Anwendungen durch möglichst wenig Programmierung anbieten und damit auch Anwendern ohne großes Programmierwissen ermöglichen sollen, Applikationen zu erstellen.

LCP, MADP, RMAD, RAD, RADP, WTF?

Man braucht sich keine fünf Minuten durch Google hangeln um zu bemerken, dass sich Hersteller allerlei unterschiedliche Bezeichnungen für ihre Plattform geben. Dort liest man von “Mobile Application Development Platforms” (MADP), von “Rapid Mobile App Development” sowie von “Mobile back-end services” (MBS) und “Rapid Application Development Platforms” (RADP). Ja was denn nun?

Alle diese Begriffe haben ihre Daseinsberechtigung, sind aber eher nützlich zur Klassifizierung von Plattformen als zum Verständnis. Um sich selbst ein klares Bild zu verschaffen ist es wichtig, den Fokus der Plattform zu erfassen und mit den eigenen Bedürfnissen abzugleichen. Dazu berichten wir bald noch ausführlicher in einem eigenen Artikel. Die wichtigsten Fragen jedoch vorab:

  • Was will ich mit der Plattform erreichen?
  • Wer soll die Plattform bedienen (innerhalb, außerhalb meiner Organisation)?
  • Welche Business Values verspreche ich mir davon (Höhere Kundenbindung, kürzere Entwicklungszeit, Zugang zu Informationen) und wie bemesse ich diese?
  • Wo liegen heute die Probleme in meiner Organisation, die ich ohne eine solche Plattform nicht gelöst bekomme?

Wie sieht es in der Praxis aus?

Zurück zum Blick auf unser Schaubild des Anwenders und des Full-Stack Developers: mit einer Low-Code Plattform kann beiden geholfen sein. Wie? Als Anwender kann ich Teile meiner Anwendung vielleicht selbst anpassen und entlaste damit meine Entwickler oder spare mir sogar Kosten ein. Auf der anderen Seite kann ich in der Kommunikation mit dem Entwickler schneller auf den Punkt kommen – denn er hat die Möglichkeit mir viel schneller einen ersten Prototypen zu zeigen und mit mir abzusprechen.

Aus der Brille des Entwicklers sieht es genau anders herum aus: ich mache mir Kapazitäten frei für komplexere Aufgaben und muss mich nicht mit immer wiederkehrenden Aufgaben beschäftigen, indem ich einfachere Aufgaben in die Richtung des Anwenders geben kann.

Wenn es Low-Code gibt, dann geht doch auch No-Code?

No Code ist zunächst einmal ein Album von Pearl Jam, wenn man in Google danach sucht. Auf der anderen Seite ist es eine Weiterentwicklung des Low-Code Ansatzes. Der Name ist Programm: Hier wird nicht programmiert. Aber auch bewusst, denn die meisten Plattformen und Angebote richten sich strikt an den Endanwender innerhalb einer Organisation oder sogar an Privatanwender. Das kann ein Vorteil sein – so finden sich Excel-Profis und Makro-Jongleure schnell zurecht – allerdings werden hier auch ganz schnell Grenzen aufgezeigt. Das Andocken komplexerer Systeme oder das Hinzufügen von individualisierten Plugins oder Skriptbausteinen ist kaum möglich.

Dadurch bleibt der Entwickler vor der Tür – und muss sich dann zu späterer Stelle doch wieder im nächsten Projekt einschalten.

Was heißt das für Business Anwendungen und für Prozessoptimierung im industriellen Umfeld? Mit No-Code beißt man sich wahrscheinlich die Zähne aus. Aus unserer Erfahrung können wir nur sagen, dass sich nahezu jede Anfrage und jedes Projekt ein bisschen gestaltet. Das heißt im Umkehrschluss, dass Flexibilität der wichtigere Faktor für unsere Kunden ist. Und genau darauf setzen wir mit unserer Low-Code Plattform Simplifier.

Vernetzte Produktion transparent und sicher machen

Ein kontinuierliches Steuernetzmonitoring mit Anomalieerkennung kann die Brücke schlagen zwischen Leitstand, MES sowie SIEM und Firewall. Zudem erlaubt es ein detailliertes Mapping der IIoT-Umgebung sowie eine Risikobewertung aller Vorfälle im Steuerungssystem.

Hinter der Idee der vernetzten Produktion steckt der Aufbau intelligenter, sensorgestützter und vor allem selbststeuernder Produktionssysteme. Diese Autonomie der Fertigung bedarf jedoch einer starken Integration aller Unternehmenssysteme sowie eines zuverlässigen Monitorings. Schließlich müssen auch in einer vernetzten Produktion die Qualitätssicherung und Cybersicherheit gewährleistet werden. Zusätzlich soll über das kontinuierliche Monitoring der Anlagen- und Kommunikationsparameter die Predictive Maintenance realisiert werden.

Aktuell steht das Industrielle Internet der Dinge (IIoT) bei der Erreichung seiner Ziele noch vor einigen Herausforderungen:

  • Es gibt fast keine Integration der vernetzten Produktion in die Cybersicherheitsstrategie der Unternehmen.
  • Die Anlagenkommunikation im Steuerungssystem wird nicht für das Monitoring und die Maßnahmenableitung in Bezug auf Qualitätssicherung und Predictive Maintenance genutzt.
  • Es fehlt ein effektives Netzwerkmanagement, das auf einem transparenten Network Mapping und einer detaillierten Risikolandkarte basiert.
  • Es fehlt das Fachpersonal, um sowohl Cybersicherheit als auch das Netzwerkmanagement in der vernetzten Produktion sicherzustellen.
  • Es fehlt eine klare Risikobewertung (»Risk Scoring«) für Anomalien und Vorfälle im Steuernetz der vernetzten Produktion, um Maßnahmen effektiv zu priorisieren und das Risiko somit abschätzbar zu machen.

Vernetzung bedeutet auch Integration

Bislang waren Unternehmens-IT und Fertigungs-IT (im englischsprachigen Raum hat sich der Begriff der Operational Technology oder OT eingebürgert) mehrheitlich eigenständige Netzwerke in einem Unternehmen, die über die Automationspyramide zusätzlich in ein klar hierarchisches Verhältnis gesetzt wurden. Dementsprechend wurden auch die Technologien voneinander getrennt. Insbesondere die Technologien für Netzwerkmonitoring und Cybersicherheit sind noch immer vornehmlich auf die Unternehmens-IT zugeschnitten. Im Fertigungssteuernetz funktionieren sie in der Regel nicht.

Für die Realisierung einer selbststeuernden vernetzten Produktion wird diese Trennung und Hierarchie aufgebrochen. OT und IT werden ineinander integriert. Die Automationspyramide flacht vertikal und horizontal zusehends ab.

Deshalb werden Brückenfunktionen zwischen Leitstand, MES, SAP und den eingesetzten IT-Sicherheitstechnologien wichtiger. Gerade bei den aktuell immer stärker in den Fokus strebenden Themen Cybersicherheit, Anlagenverfügbarkeit und Effektivität im IIoT sollten Ansätze realisiert werden, die nicht eine weitere Insellösung in das ohnehin komplexe Netzwerk einbringen.

Ein Steuernetzmonitoring mit Anomalieerkennung kann hierbei als Brücke zu mehreren Systemen dienen:

  • Lieferung detaillierter Daten zu Sicherheitsvorfällen und Anomalien an eine Firewall, ein Intrusion Detection System (IDS) oder ein Security Information and Event Management System (SIEMS);
  • Lieferung detaillierter Daten zu Veränderungen der Anlagenkommunikation sowie Anlagendaten Richtung Leitstand für die Realisierung der Predictive Maintenance und Sicherstellung der Produktivität;
  • Integration der Daten zur Steuernetzkommunikation in übergeordnete Systeme wie MES oder SAP zur Steigerung der Produktivität sowie Optimierung der Geschäfts- und Fertigungsprozesse;
  • Network Mapping für die lückenlose Bestandsaufnahme und kontinuierliche Aufzeichnung aller sicherheitsrelevanten Anlagen.

Grundsätzlich liest die integrative Systemlösung für diese Funktionen die gesamte Kommunikation in einem Steuernetz mit. Die Analyse erfolgt auf Inhaltsebene, so dass eindeutige Aussagen zu den Vorgängen innerhalb des Steuernetzes gemacht und entsprechend spezifische Maßnahmen abgeleitet werden können.

Über eine individuell konfigurierbare Data-Filtering-Richtlinie können die Betreiber zusätzlich definieren, welche Daten und Meldungen an die anderen Systeme (SIEM, MES etc.) weitergeleitet werden. Die Übertragung erfolgt in Echtzeit, so dass z. B. im Fall einer negativen Veränderung im Steuernetz umgehend auf die Anomalie reagiert werden kann. So können Störungen vermieden und die Produktivität sichergestellt werden.

Diese Integration bedeutet auch, dass die bereits im Unternehmen aufgebaute IT-Workforce das Management der Produktions-IT betreuen kann. Unternehmen umgehen so den aktuell eklatanten Fachpersonalmangel. Zugleich bleibt die generelle, sinnvolle Trennung der IT und OT-Infrastrukturen erhalten.

Wissen, wo es brennt und darauf reagieren können

Je vernetzter eine Produktion ist, desto komplexer wird sie auch. In der Konsequenz bedeutet dies, dass sowohl das Datenvolumen als auch die Anzahl der Meldungen über Vorgänge im Steuernetz zunehmen. Die Betreiber stehen vor der Herausforderung, Meldungen aus dem Monitoring des Steuernetzes schnell zu sichten, einzuschätzen und entsprechende Maßnahmen abzuleiten.

Ein effektives »Risk Scoring« hilft, diese Aufgabe zu bewältigen. Dazu identifiziert und analysiert die Monitoringlösung alle Komponenten und Verknüpfungen im Steuernetz (Network Mapping) sowie die Standardkommunikation im Steuernetz.

Anschließend werden den Ergebnissen Risikoklassen zugeordnet, die folgende Fragen beantworten: wie relevant ist die Komponenten für die Fertigungsprozesse und welche Form der Kommunikationsänderung im Steuernetz hat eine große Auswirkung auf die Prozesse und Produktivität.

Entsprechend dieser Klassifizierung werden Anomalien bzw. Veränderungen im Steuernetz sogenannten Risikoklassen zugeordnet. So wird z. B. eine Änderung der Autorisierungen bei einer sehr relevanten Fertigungskomponente mit einem sehr hohen Risikopotential gemeldet. Über die Data-Filtering-Richtlinine kann diese Hochrisikomeldung in Echtzeit z. B. an das SIEMS gesendet werden. Die Verantwortlichen im Leitstand und im Cybersicherheitsteam erhalten somit eine priorisierte Meldung und können umgehend auf den Vorfall reagieren.

Ein so integriertes Steuernetzmonitoring gewährleistet erstmals eine vollständige Transparenz im Steuernetz, wie sie bereits von der Unternehmens-IT bekannt ist. Die Einbindung operativer Daten an den relevanten IT- und OT-Schnittstellen erlaubt darüber hinaus eine effektive Entscheidungshoheit für die Verantwortlichen einer vernetzten Produktion im Unternehmen.

Von einfach bis komplex: Wie Sie digitale Helfer für die Instandhaltung nutzen können

Noch vor wenigen Jahren war es vollkommen undenkbar, Maschinendaten auf einem Smartphone zu visualisieren oder ein Tablet zu verwenden, um Produktionsanlagen aus der Ferne zu steuern.

Doch inzwischen wirkt sich der digitale Wandel auf alle Unternehmensbereiche aus und besonders in der Instandhaltung zeigen mobile Endgeräte und entsprechende Anwendungen zur Prozessoptimierung Potenziale auf, die in der Industrie schlicht nicht mehr ignoriert werden können.

Seit Jahren bereits produzieren Maschinen Daten und Informationen, doch die Mehrwert bringende und besonders wirtschaftliche Nutzung solcher Daten ist erst mit zunehmender Verbreitung von digitaler Unterstützung möglich.

Was hat denn ein Verantwortlicher für die Instandhaltung davon, wenn die Erstellung und Analyse sämtlicher relevanter Daten eines Ausfalls zwei Wochen in Anspruch nimmt? Bis dahin hat ein kleiner Defekt in einem Bauteil möglicherweise schon zum Ausfall einer ganzen Anlage und Kosten geführt, die dem Management die Schweißperlen auf die Stirn treiben.

Maschinendaten müssen heute zum Glück nicht mehr an die Örtlichkeit der Maschine oder das Büro des Schichtleiters gebunden, sondern können von überall und zu jederzeit nutzbar gemacht werden. Das bedeutet: Ausnahmefälle können schneller erkannt und entsprechend bekämpft werden.

Wo fange ich an und wohin geht die Reise?  

Die Möglichkeiten sind so vielseitig wie die Industrie selbst und die Lösungen gestalten sich ebenso einfach oder komplex, je nach Anwendungsfall.

Das reicht von Alarmen als Push-Benachrichtigung auf Smartwatches bei der Erreichung festgesetzter Schwellenwerte über Remote Service mit Datenbrillen bis hin zu Anwendungen im Bereich Predictive Maintenance.

Diese neue mobile Datenverfügbarkeit sorgt dafür, dass Maschinendaten schneller zur Verfügung gestellt werden können, damit reduzieren sich Reaktionszeiten im Falle eines Defektes. Am Beispiel des Unternehmens Bosch zeigt sich, dass sich Smartwatches für solche Benachrichtigungen besonders eignen, denn hier können Statusinformationen in aller Kürze bereitgestellt werden und jede Arbeitsroutine ermöglicht einen kurzen Blick von Zeit zu Zeit, damit bei Nachrichten schnell reagiert werden kann.

Andere Anwendungsbeispiele beinhalten geführte Inspektionsprozesse mit Foto und Videoanleitung, automatisierte Dokumentation oder auch Anbindung von Lagerverwaltungssystemen oder Ersatzteilshops. Auch die Möglichkeit, großen Datenmengen schnell zu analysieren und selbstlernende Algorithmen aufzustellen, beeinflusst die Instandhaltung maßgeblich.

Durch die Digitalisierung werden unter anderem:

  • Reaktionszeiten drastisch verkürzt
  • Reisezeiten und -kosten minimiert, da vieles durch die richtigen Anwendungen aus der Ferne erledigt werden kann
  • Ersatzteilkosten gespart, da zustandsbasiert statt vorausbestimmt gewartet wird
  • Stillstände vermieden, da eine kontinuierliche Überwachung stattfindet und nicht für Routinewartungen unterbrochen werden muss
  • Personelle Ressourcen geschont, da Anwendungen Hilfestellung leisten, wo sonst Kollegen gefragt wurden
  • Fehler vermieden
  • Effizienz gesteigert

und natürlich die papierbasierte Arbeitsweise reduziert oder abgelöst. Denn wer möchte nicht den Regenwald retten?

Wo liegen heute die größten Fallstricke?

Trotz der momentanen Popularität von Digitalisierung, Vernetzung und Industrie 4.0 wissen viele Unternehmen noch nicht so genau, wo sie mit ihrer digitale Transformation anfangen sollen.

Doch nicht anzufangen ist der größte Fehler, den Unternehmen machen können, auch wenn die Verunsicherung verständlich ist. Da werden Daten im Sinne von Big Data gesammelt, ohne wirklich zu wissen, wozu man die Informationen nutzen möchte. Andere digitalisieren planlos drauflos und wundern sich, dass die IT-Landschaft komplexer und komplexer wird und irgendwann nicht mehr verwaltbar ist. Wieder andere Softwarehäuser bieten Kunden abstruseste digitale Lösungen zur Wartung ihrer Maschinenparks an, die nur unter immensen Anstrengungen technologisch umsetzbar sind.

Kleiner Tipp am Rande: seien Sie ehrlich zu sich selbst und zu ihren Kunden und starten Sie in die Digitalisierung, wenn auch nur mit kleinen Schritten. Eine nahtlose Digitalisierung Ihrer kompletten Wertschöpfungskette werden Sie ohnehin nicht innerhalb kurzer Zeit realisieren können.

Wie fange ich richtig an?

Suchen Sie sich einen Teilprozess ihres Wartungsgeschäfts, z.B. wie Ihre Kunden Ihnen Fehler an Maschinen melden oder wie Sie Wartungsaufträge an Ihre Servicemannschaft verteilen. Digitalisieren Sie zunächst nur diesen Prozess, so können Sie telefonische Fehlermeldungen durch eine Benachrichtigung auf einer Smartwatch ablösen oder die Auftragsvergabe per Mail direkt aus einem Ticketsystem abbilden.

Sukzessive lassen sich diese ersten Anwendungen ausbauen, z.B. über Integration eines ERP oder Issue-Tracking-Systems. Dabei sind Ihrer Phantasie kaum Grenzen gesetzt.

Um Ihre Anwendungen schnell zu erstellen und sie im Nachhinein einfach verändern zu können, bietet sich eine Plattform wie der Simplifier an. Über eine grafische Konfigurationsoberfläche erstellen und erweitern Sie Anwendungen für die nahtlose Digitalisierung Ihrer Instandhaltung.

Bereit für die digitale Kettenreaktion

Die chemische Industrie mit ihren komplexen Fertigungsumgebungen und Prozessketten verfügt über ein großes Potenzial, das mithilfe der digitalen Transformation gehoben werden kann. Wie reagieren Unternehmen auf die digitalen Herausforderungen? Zum Beispiel baut BASF mit Hewlett-Packard einen Supercomputer, um seine Kapazitäten für virtuelle Experimente deutlich hochzufahren. Der Supercomputer soll die Zeit von der Entwicklung neuer Polymere bis zu ihrer Markteinführung deutlich verkürzen und Kosten senken. Das treibt auch die Fein- und Spezialindustrie um, die sich bereits seit Jahren zur modularen und kontinuierlichen Produktion wandelt. Trotz dieser Innovationsfreude fällt es Unternehmen der Branche zunehmend schwer, die immer individueller werdenden Ansprüche der Geschäftskunden schnell zu bedienen. Abhilfe können die folgenden Technologien und IT-Trends schaffen.

Die Basis für 3D-Druck

Chemieunternehmen sollten prüfen, welche Geschäftsmodelle durch Digital Printing in ihrem Marktumfeld entstehen. Denn sie liefern die Rohstoffe, aus denen 3D-Drucker in kürzester Zeit Bauelemente und Ersatzteile kreieren. Die modernen Drucker verarbeiten bereits rund 30 Materialien, etwa Polymere, Harze und Weichmacher. In diesem Jahr wird diese Palette deutlich größer werden, was die Bandbreite der gedruckten Komponenten erweitert – und damit auch das Geschäftspotenzial. Die Komponentenzulieferer werden als Kunden an Bedeutung gewinnen und Unternehmen müssen sowohl Geschäftsbeziehungen als auch neue Lieferketten zu ihnen aufzubauen. Kosten und Reifegrad lassen zwar nicht erwarten, dass der 3D-Druck 2017 den großen Durchbruch in der Industrie feiert – doch die Branche muss diesen nahenden Trend intensiv und frühzeitig vorbereiten.

Digitale Vorhersagen

Die Agrarchemie wird sich durch Digital Farming nachhaltig verändern. Landwirte nutzen zunehmend Wetterdaten, und GPS-Systeme an ihren Maschinen liefern ihnen zudem Angaben zu Bodenbeschaffenheit, Feuchtigkeit, Nährstoffgehalt und Schädlingsbefall ihrer Felder. Diese Daten bilden eine solide Grundlage, um den Saatgutaustrag an die äußeren Bedingungen anzupassen und zu optimieren. So sparen Landwirte Geld, fahren mehr Erträge ein und schonen die Umwelt. Denn sie brauchen weniger Dünger, Saatgut und Pflanzenschutzmittel. Damit Chemieunternehmen durch diese Entwicklung keine Umsatzeinbußen davontragen, sollten sie an serviceorientierten Geschäftsmodellen arbeiten. Eine Möglichkeit ist die direkte Kommunikation mit dem Landwirt. Die Hersteller würden so deren Bedürfnisse besser verstehen und Marktchancen antizipieren. Einige Chemiefirmen nutzen bereits Messwerte von Bodenproben, um Winzern Hinweise für den optimalen Düngemittel-Einsatz zu geben.

Das Pflanzenschutzmittel muss der Landwirt rechtzeitig auf dem Feld austragen, sonst wirkt es nicht wie gewünscht. Auch ist ein Polymer wertlos, wenn es zu spät im Produktionslagertank ankommt. Das sind Szenarien, die die Chemielogistik – mithilfe digitaler Technologien – verhindern muss. Die dafür notwendige Digitalsierung der Wertschöpfungskette erfordert einen digitalen Informationsfluss und digitale Prozesse aller Mitglieder der Supply Chain. Erst dann lassen sich Informationen von Partnern und Zuliefer-Unternehmen in eigene Prozesse einbinden. Es gilt daher, Reibungsverluste mit Zulieferunternehmen und Partnern zu reduzieren und die „digitale Zusammenarbeit“ so zu gestalten, dass alle Beteiligten davon profitieren.

Datenströme erhalten Anlagen

Das Konzept „Predictive Mainentance“ wird künftig großflächig in der chemischen Industrie zum Einsatz kommen. Ein zentrales Element einer vorausschauenden Instandhaltung ist Big Data. Vor allem Streaming-Analytics-Plattformen eignen sich, um riesige Datenströme aus unterschiedlichen Quellen in Echtzeit zu korrelieren und zu aggregieren sowie Muster zu identifizieren. Zudem geben Maschinen selbstständig Bescheid, dass sie in Kürze einen Wartungstechniker benötigen und welches Teil dieser austauschen muss. Das befähigt Anwenderfirmen, jederzeit proaktiv die richtigen Maßnahmen zu treffen. Diese Technologien führen zu präzisen Vorhersagen und reduzieren die Ausfallzeiten von chemischen Anlagen. Vor allem in der Chemiebranche mit ihren oft komplexen Produktionsprozessen bringt „Predictive Analytics“ einen echten Mehrwert. Den versprechen die anderen IT-Trends 3D-Druck, Digital Farming und digitalisierte Wertschöpfungsketten auch. Das größte Entwicklungspotenzial steckt sicher in servicegetriebenen digitalen Geschäftsmodellen.

Hitachi Vantara: ein neuer Player entsteht auf dem Markt für Datenintelligenz

Letzte Woche wurde die Data Intelligence-Szene aufgemischt: Hitachi gab die Fusion seiner Sparten Hitachi Data Systems, Hitachi Insight Group und Pentaho bekannt. Das neue Unternehmen heißt Hitachi Vantara und plant, sich rasch ein großes Stück am rasant wachsenden Markt für Datenlösungen zu sichern. Für Unternehmen könnte die Fusion neue Möglichkeiten bieten, weil sich dadurch die IT- und Big Data-Expertise von Hitachi mit einem Jahrhundert operativer Technologiekompetenz verbinden. Glaubt man den Ankündigungen von Hitachi Vantara, entstehen daraus hoch innovative Lösungen, mit denen Unternehmen das Potenzial ihrer Daten noch mehr ausschöpfen können, um die Herausforderungen der digitalen Transformation zu bewältigen.

Der neue Konzern vereint Pentaho, Hitachi Data Systems und Hitachi Insight Group. Ziel von Hitachi Vantara ist es, Organisationen dabei zu unterstützen, Wachstum in einer unruhigen und hochdynamischen Zeit zu generieren und für zukünftige Herausforderungen gerüstet zu sein. Was bedeutet das konkret für den Anwender?

Ich glaube, dass er von dem neuen Unternehmen und seinen Lösungen stark profitieren wird. Ich erwarte, dass Hitachi Vantara seine Investitionen in Entwicklung und Forschung weiter verstärken wird, um die Lösungen aus dem Hitachi-Segment mit der Pentaho-Plattform zu integrieren. Beide Produkte verfügen über große Stärken in ihrem jeweiligen Bereich, wobei Pentaho von 15 Jahren Entwicklung durch eine globale Community profitiert. Was einst als Mix verschiedener Open Source-Projekte begann, gehört heute zu einer der mächtigsten Plattform für die Integration von Big Data-Quellen mit bestehenden Unternehmensinformationen. Vor allem die Datenintegrationskomponenten finden sich heute in vielen großen Organisationen und Behörden, darunter das CERN, die deutsche Bundespolizei oder Bosch.

Ein weiterer Vorteil entsteht aus der Einbettung in den Produkt- und Entwicklungszusammenhang von Hitachi, das zu einem der mächtigsten Technologieführer der IT-Branche zählt. Es ist deshalb damit zu rechnen, dass Hitachi Vantara ein Innovationstreiber für die Bereiche Big Data, IoT und Machine Learning wird, vor allem in den stark wachsenden Bereichen Datenintegration sowie Big Data und Predictive Analytics. Anwender dürften sich bald über kurze Entwicklungszyklen und leistungsstarke Releases freuen.

Unternehmen, die jetzt schon auf die Produkte von Hitachi und Pentaho setzen, werden in hohem Maße von dem Zusammenschluss profitieren, weil Hitachi Vantara den Pentaho-Lösungsstack massiv ausbauen wird. Pentaho hat bereits vor 15 Jahren auf eine simple Annahme gesetzt, nämlich dass Daten über die Zukunft eines Unternehmens entscheiden. Was in den Nuller Jahren noch als Nischenthema betrachtet wurde, ist heute ernsthaftes Business geworden: Organisationen, die es nicht schaffen, ihre Daten nutzbar zu machen, das heißt, sie auszuwerten und in Beziehung zueinander zu setzen, werden von der rasanten Entwicklung hinweggefegt werden. Pentahos Strategie, voll auf die Integration der vielen Datenquellen im Unternehmen zu setzen, hat sich als richtig erwiesen und Hitachi hat das erkannt. Ich prognostiziere daher, dass Hitachi Vantara seinen Kunden genau die Lösungen bieten kann, die sie brauchen, um einen datengetriebenen Geschäftsansatz zu realisieren und damit zukunftsfähig zu bleiben.

Big Data, das Internet of Things und Machine Learning sind dabei, die Datenwelt zu verändern – weg von Datensilos hin zu verknüpften, offenen und fließenden Informationen. Die Grenzen zwischen Infrastruktur, Operational Technology und IT verschwimmen zunehmend. Um aber die Transformation zum datengetriebenen Unternehmen zu schaffen, ohne das laufende Geschäft empfindlich zu stören, braucht es Technologien, die mit den bestehenden Daten und Infrastrukturen arbeiten können, gleichzeitig aber in der Lage sind, die neuen Datentypen und Technologien zu nutzen. Denn erst diese machen eine Organisation zu einem digitalen Unternehmen.

Hitachi Vantara hat zwei Produkte in seinem Portfolio, Pentaho Data Integration und Pentaho Analytics, mit denen Kunden den gesamten Wert ihrer Daten erfassen und nutzen können. Mit dem Pentaho-Stack können Daten integriert und effizient verarbeitet werden. Dadurch schließt sich die Lücke zwischen dem Bereich der Erzeugung riesiger Mengen an Informationen durch Sensoren und Geräte und ihrer Verwendung für Entscheidungsprozesse. Erst die Werkzeuge von Pentaho ermöglichen die Verbindung von unstrukturierten Daten mit den im Unternehmen bereits vorhandenen traditionellen Informationen, um kontextbezogene und intelligente Vorhersagen zu treffen, die für die digitale Transformation entscheidend sind.

Pentaho wurde vor zwei Jahren von Hitachi gekauft und seitdem erfolgreich in das Unternehmen eingegliedert. Damals wie heute waren Anwender besorgt über die Fortführung der Pentaho-Lösungen. Die erfolgreiche Zusammenarbeit zwischen den beiden Unternehmen machte aber deutlich, dass beide Seiten eine Vision teilen: die Entwicklung datengetriebener Lösungen. Die Integration von Pentaho, HDS und Hitachi Insight Group zu einem neuen Player für Datenintelligenz ist deshalb die logische Konsequenz aus dieser Entwicklung. Hitachi Vantara vereint ein Jahrhundert operativer Technologiekompetenz mit ausgereiften Technologien für Datenintegration, Big Data und Predictive Analytics. Ich wage zu behaupten, dass diese Kombination einmalig ist und dem Unternehmen ermöglichen könnte, einer stark wachsenden Kundenschicht genau die Lösungen anzubieten, die den Bedürfnissen von Organisationen in einer zunehmend vernetzten Welt gerecht werden. Die kommenden Monate werden sich zeigen, ob Hitachi Vantara seinem Anspruch, Antworten auf die Herausforderungen der digitalen Transformation zu bieten, gerecht wird.