So gelingt die Einführung von IoT

Ob Gesundheitswesen, Fertigung, Logistik oder Landwirtschaft: Fast alle Branchen nutzen inzwischen vernetzte Geräte zur Verschlankung von Prozessen und Verbesserung der Lieferkette. Nicht nur die Steigerung von Effizienz und Umsatz, auch die Angst, hinter innovativeren Wettbewerbern oder Startups zurückzufallen, treibt die Einführung von IoT-basierten Lösungen voran.

Gesamtlösung nötig

Doch dabei dürfen Unternehmen nicht Einzellösungen stückweise implementieren. Sie müssen ganzheitliche, unternehmensweite Ansätze entwickeln, die Geschäftsanforderungen durch das Aufbrechen von Silos zwischen Objekten, Daten, Prozessen und Menschen erfüllen. Dazu benötigen sie eine robuste, sichere und skalierbare IoT-Plattform.

Dabei gleicht die IoT-Einführung einer Reise. Sie beginnt mit der Digitalisierung sämtlicher Prozesse. Das ist keine einfache Aufgabe, daher sollte sie als langfristiges Ziel betrachtet und in kleinen Schritten realisiert werden. Gleichzeitig müssen Unternehmen die Kosten im Auge behalten. Dies erleichtern Testinstallationen für Rapid Prototyping und Use-Case Testing zur Bewertung der Erfolgsaussichten.

Viele Unternehmen haben zwar mit dieser Reise begonnen, doch bei genauerer Betrachtung befinden sich nur wenige auf einem Weg, der sie wirklich verändert. Der Erfolg hängt von einer unternehmensweiten IoT-Strategie ab, die den größten Teil der Daten von vernetzten Geräten auf eine Plattform zentralisiert. Nur dann erreichen sie ihre Ziele wie höhere Effizienz, profitablere Geschäftsmodelle, Wettbewerbsvorteil, Umsatzsteigerung und neue Marktchancen.

Die Sicherheitsproblematik

Neben veralteten Systemen bilden auch Sicherheitsbedenken eine hohe Hürde für die Einführung von IoT. Tatsächlich vergrößert die umfassende Vernetzung die mögliche Angriffsoberfläche. Gemäß Gartner steigt die Anzahl vernetzter Geräte von 2015 bis 2020 von 4,9 auf 26 Milliarden. Dies eröffnet Hackern viele neue Möglichkeiten. Wer dann ausschließlich auf herkömmliche Sicherheitslösungen setzt, wird einer modernen Cyberattacke eher früher als später zum Opfer fallen.

Der vorherrschende Ansatz besteht heute in der Erweiterung der aktuellen Cybersecurity-Modelle auf IoT-Geräte. Jedoch führt dies aus zwei Gründen zu erheblichen Problemen:

  • Die Prozessoren in den IoT-Geräten sind deutlich weniger leistungsfähig als in herkömmlichen Devices. Daher kann die Sicherheitslösung keine Datenbearbeitung dahin auslagern.
  • Die riesige Menge an IoT-Geräten in Kombination mit unregelmäßigen Kommunikationsmustern kann die Skalierungsmöglichkeiten vieler Cybersecurity-Komponenten überfordern. Dabei ist eine Analyse und Behebung in Echtzeit nötig, sobald eine Bedrohung entdeckt wurde.

So benötigen Unternehmen einen proaktiven Sicherheitsansatz, der sämtliche virtuelle wie physikalische Ebenen umfasst – von der Geräte-Authentifizierung bis zum effektiven Schutz der Daten. Dieser Ansatz ist vollständig anhand der individuellen Bedürfnisse zu entwickeln und sollte moderne Sicherheitslösungen enthalten wie Bedrohungsmodellierung, sichere Entwicklung, sichere Herstellung, Datenverschlüsselung, Datenschutz, Datentrennung, Zugangsverwaltung, Bedrohungserkennung, sichere Isolierung, realitätsnahe Übungen und so weiter.

Jedoch kann kein Unternehmen alleine die Security-Herausforderungen lösen. Behörden, Hochschulen, Forschungsinstitute und weltweit tätige Konzerne müssen zusammenarbeiten, um das IoT mit robusten Maßnahmen und Infrastrukturen abzusichern. Nur dann können Unternehmen langfristig vom IoT profitieren.

Administratorkonto umsichtig einsetzen und Rechte aufteilen

Zunächst sollten für die verschiedenen Serveranwendungen im Unternehmen auch jeweils verschiedene Administratorkonten verwendet werden. Administratorkonten für SQL-Server, sollten nicht auch noch für Exchange verwendet werden, oder zur Verwaltung von Active Directory. Wird ein solches Konto kompromittiert, dann sind auch alle anderen Serverdienste in Gefahr. Aber auch innerhalb der Standard-Serverdienste von Windows-Servern, sollte mit unterschiedlichen Konten gearbeitet werden. Windows-Server bieten dazu verschiedene Benutzergruppen an, die standardmäßig verfügbar sind, und auch genutzt werden sollten. Vor allem in Gesamtstrukturen sind diese Standardgruppen in der Rootdomäne besonders wichtig.

In sicheren AD-Umgebungen ist es sinnvoll, möglichst wenig mit Konten mit erhöhten Rechten zu arbeiten. Die Anmeldung sollte immer nur mit dem Administrator-Konto erfolgen, dass für den jeweiligen Serverdienst eingerichtet ist.An Standorten an denen die Domänencontroller nicht in geschützten Serverräumen positioniert sind, sollten schreibgeschützte Domänencontroller eingesetzt werden.

 

Benutzer und Kennwörter auf lokalen Servern und in Active Directory mit Gruppenrichtlinien absichern

Generell sollten Sie ständig überprüfen, welche Benutzer in Active Directory nicht mehr aktiv sind. Der beste Schutz für Kennwörter in Active Directory besteht zunächst darin nicht mehr notwendige Konten zu entfernen. Dazu verwenden Sie auf dem Domänencontroller den Befehl dsquery user -inactive <Anzahl der Wochen>. So erkennen Sie auf einem Blick welche Benutzerkonten nicht mehr aktiv sind. 

In Active Directory können Sie über Gruppenrichtlinien steuern, wie sicher die Kennwörter der Anwender sein sollen.  Haben Unbefugte Zugriff auf einen Rechner und Anmeldedaten eines Anwenders, können diese auf alle Daten und Serverdienste zugreifen, auf die der entsprechende Anwender Zugriff hat. Windows Server bieten für die Steuerung der Kennwörter einige Optionen an.

Die grundlegenden Einstellungen der Kennwörter sind bei Computerkonfiguration/Richtlinien/Windows-Einstellungen/Sicherheitseinstellungen/Kontorichtlinien/Kennwortrichtlinien zu finden. Einstellungen die Sie hier vornehmen, gelten für die Anwender auf die Sie die Richtlinie später binden.

Die wichtigsten Einstellungen für mehr Sicherheit von Kennwörtern sind im Bereich Computerkonfiguration\<Richtlinien>\Windows-Einstellungen\Sicherheitseinstellungen\Lokale Richtlinien\Sicherheitsoptionen zu finden. Mit der Richtlinie „Interaktive Anmeldung: Anwender vor Ablauf des Kennworts zum Ändern des Kennworts auffordern“ wird festgelegt wieviele Tage vor dem Ablauf eines Kennwortes die Anwender bereits eine Meldung erhalten, um ihr Kennwort zu ändern.

Die 360-Grad-Sicht ist tot

Die „360-Grad-Sicht“ hat in den letzten Jahren eine erstaunliche Karriere gemacht. Aus Marketing-Broschüren und -Präsentationen ist der Begriff kaum noch wegzudenken. Er formuliert ein Ideal, nach dem in der Ära der „Customer Centricity“ alle Unternehmen streben: Umfassende Kenntnisse zu haben von allem, was den Kunden betrifft – Kenntnisse von seinen Vorlieben und Eigenheiten, von seinem Status und seinem Stand, von seiner Kundenhistorie, seinen Beschwerden, Möglichkeiten und Plänen. Auf die IT gemünzt stand am Anfang die Erkenntnis, dass die Mitarbeiter im Kundenservice mit einer stetig wachsenden Zahl von Anwendungen konfrontiert waren, die alle irgendetwas über die Kunden verraten konnten, die aber doch nie in der Lage waren, ein konsistentes Bild zu zeichnen. Allzu oft bestand dann das Kundengespräch, also die direkte Interaktion mit demjenigen, um den sich doch alles drehen sollte, darin, dass der Mitarbeiter mit den unterschiedlichen Anwendungen zurecht kommen musste. 360-Grad-Sicht bedeutete dann den Fortschritt, alle diese Informationen aus unterschiedlichen Quellen und Systemen endlich übersichtlich auf einem Bildschirm darzustellen. Und damit im Weiteren, anstatt IT-Systeme zu bedienen, endlich Zeit zu gewinnen für das Gespräch mit dem Kunden und für dessen Beratung, was langfristig wiederum für mehr Kundenzufriedenheit und natürlich letztlich auch für zusätzliches Business sorgen sollte.

Mittlerweile, nach etlichen Jahren von „360-Grad at Work“, muss man allerdings mit einer gewissen Ernüchterung feststellen, so recht vorangekommen ist man mit diesen anspruchsvollen Plänen nicht. Die Klagen über schlechten Kundenservice reißen nicht ab, und die Kundenzufriedenheit hat sich zumindest nicht so verbessert, wie man hätte erwarten können und wie es vordem ja auch der Anspruch war.

Mehr als reine Informationen

In der Praxis hat sich gezeigt, dass es mit der umfassenden und konsistenten Darstellung der Informationen über den Kunden nicht getan ist. Wenn der Mitarbeiter im Kundenservice die ihm angebotenen Daten nicht interpretieren kann, wenn er sie falsch interpretiert oder wenn er sie schlichtweg ignoriert, weil er von ihrer Fülle überfordert ist, schrumpfen die 360-Grad schnell auf einen schmalen Ausschnitt zusammen, und man muss froh sein, wenn der Kunde überhaupt noch in Sicht ist.

Verschlimmert wird diese Situation dadurch, dass die pure Menge der Daten in den letzten Jahren massiv angewachsen ist – mit der wenig trostreichen Perspektive, dass dieses Wachstum auf absehbare Zeit so weitergehen wird. Man muss ja nicht nur ein oder zwei Kanäle, vielleicht Telefon und Filiale, im Auge behalten, sondern nun auch noch mehrere Social-Media-Kanäle, diverse Call Center, und die Legacy-Systeme produzieren – unter anderem – ja immer noch ständig Kundendaten. Kein Wunder, dass das Thema Big Data gerade im CRM-Umfeld eine zentrale Rolle spielt.

Ermittlung relevanter Daten

Wie aber will man diese Datenmengen in einer 360-Grad-Sicht noch sinnvoll verwenden? Wie soll der Mitarbeiter im Kundenservice die Übersicht behalten? Vielleicht reicht ein Bildschirm nicht mehr, um alles zu sehen, vielleicht benötigt man künftig zwei oder drei? Oder braucht der Kundenservice vor allem größere Monitore?

Das umfassende Bild vom Kunden ist jedoch kein Selbstzweck. Es geht vielmehr darum, aus den Daten Erkenntnisse zu gewinnen und aus den Erkenntnissen wiederum geeignete Aktionen abzuleiten. Entscheidend an den Daten ist also nicht, möglichst viele zusammenzutragen, sondern relevante Daten zu ermitteln. Man sollte also nicht, wie im 360-Grad-Kon­zept nahegelegt wird, dem Ideal eines vollständigen Datenschatzes hinterherlaufen, sondern sich am Begriff der Relevanz orientieren. Man muss sich fokussieren auf das, was für den Kunden aktuell relevant ist, man muss nicht alles über den Kunden wissen, sondern das, was ihn derzeit bewegt, wo ihn der sprichwörtliche Schuh drückt, was er derzeit plant und was bestimmt nicht. Der Anspruch, alles zu wissen und alle Daten präsent zu haben, verstellt den Blick auf das, worauf es ankommt. Und wieder in Richtung IT gesprochen: Was man benötigt, sind Systeme für eine konkrete Entscheidungsfindung und ‑unterstützung – Stichwort Decisioning –, Systeme, die Next-Best-Action-Konzepte verfolgen und die dem Mitarbeiter vorschlagen können, was sein Kunde jetzt braucht. Next-Best-Action ist hier also wörtlich zu nehmen – nicht All-Possible-Action.

Natürlich ist es nicht ganz einfach, in all dem sich anhäufenden Datenwust an die wirklich relevanten Dinge zu kommen, zumal, was gestern noch relevant war, sich heute als völlig irrelevant erweisen kann. Hier sind dann Lösungen gefragt, die den Datenberg mit Künstlicher Intelligenz (KI) automatisch und möglichst in Echtzeit analysieren können, die selbst lernen können und auf diese Weise in der Lage sind, ihre Entscheidungen zu optimieren. Oder ganz einfach formuliert: man muss keine 360-Grad-Sicht haben, wenn man in die Richtung schaut, in die auch der Kunde blickt.

Gruppen in Active Directory verstehen

In Active Directory sind folgende Gruppentypen anzutreffen:

  • Lokal
  • Domänenlokal
  • Global
  • Universal

Bei der Unterscheidung und Verwendung dieser Gruppen müssen Sie folgende Punkte beachten:

  • Lokale Gruppen — Werden für die Zusammenfassung von globalen Gruppen oder in Ausnahmefällen Benutzern eingesetzt, denen Sie Zugriffsberechtigungen erteilen. Aus lokalen Gruppen in einem Active Directory automatisch domänenlokale Gruppen. Der Unterschied besteht darin, dass diese Gruppen einheitlich auf allen Mitgliedssystemen der Domäne zu sehen sind. Der Vorteil ist, dass damit eine lokale Gruppe nur einmal pro Domäne definiert werden muss.
  • Globale Gruppen — Sind überall in der Gesamtstruktur sichtbar, können aber nur Mitglieder aus der eigenen Domäne enthalten. Globale Gruppen können Mitglied von lokalen und universellen Gruppen werden. Globale Gruppen können zudem verschachtelt werden.
  • Universellen Gruppen — Alle Informationen über Zugehörigkeiten zu universellen Gruppen sind auf den globalen Katalogservern gespeichert. Universelle Gruppen sind in allen Domänen der Gesamtstruktur verfügbar und können Mitglieder aus allen Domänen enthalten. Durch die Replikation im globalen Katalog belasten Sie allerdings das Netzwerk und die globalen Katalog-Server

Die Eigenschaften von Gruppen können Sie auch nach dem Erstellen bearbeiten. Dazu rufen Sie die Eigenschaften der Gruppen auf. Neben dem Gruppennamen können Sie eine Beschreibung für die Gruppe eingeben.

  • Auf der Registerkarte „Mitglieder“ können Sie über die Schaltflächen „Hinzufügen“ und „Entfernen“ neue Benutzer in Gruppen aufnehmen oder entfernen.
  • Auf der Registerkarte „Mitglied von“ werden die Gruppen angezeigt, in denen diese Gruppe Mitglied ist.
  • Über die Registerkarte „Verwaltet von“ sehen Sie den Benutzer, der für eine Gruppe zuständig ist. Dazu wird über die Schaltfläche „Ändern“ eine Liste der Benutzer und Gruppen geöffnet, aus der der entsprechende Benutzer ausgewählt werden kann.

Ordnerumleitungen von Benutzerprofilen

Die Größe der Profile ist dadurch reduziert, die Anmeldezeit verkürzt. Sie finden die Ordnerumleitungen im Gruppenrichtlinienverwaltungs-Editor unter Benutzerkonfiguration/Richtlinien/Windows-Einstellungen/Ordnerumleitungen.

Die effizienteste Möglichkeit, um Ordner umzuleiten, ist über eine Gruppenrichtlinie in einer Active Directory-Domäne. Windows Server 2016 bietet dazu auch die Möglichkeit, Ordner abhängig von einer Sicherheitsgruppe umzuleiten, sodass für unterschiedliche Abteilungen im Unternehmen unterschiedliche Ordner im Netzwerk als Umleitung verwendet werden können.

Bei der Umleitung können Sie die Ordner in vordefinierte Ordner auf den Servern umleiten oder für jeden Anwender in einem spezifischen Ordner automatisch einen Ordner für die Ordnerumleitung anlegen lassen. Die Einstellungen in den Richtlinien für die Ordnerumleitung sind selbsterklärend. Sie konfigurieren die Einstellungen über das Kontextmenü und wählen den Befehl „Eigenschaften“ aus.

Warum Softwaretests für das IoT wichtig sind

Weil die Konnektivität von IoT-Umgebungen in der Regel über ein öffentliches Netzwerk erfolgt, haben Hersteller von IoT-Geräten keine Kontrolle über mehrere Eigenschaften:

  • Sicherheit: Auch, wenn man die Sicherheit auf der Software-Ebene kontrollieren kann, ist das Netzwerk möglicherweise Attacken ausgesetzt.
  • Zuverlässigkeit: Zwar lässt sich die Selbstheilungsfähigkeit der Software kontrollieren, aber die Verfügbarkeit des Netzwerks liegt möglicherweise außerhalb der Einflusssphäre.
  • Ausmaß: Man kann die Ausdehnung der internen Infrastruktur überprüfen, nicht aber die des öffentlichen Netzwerks.

Also muss der Gerätehersteller sicherstellen, dass die soeben skizzierten Softwaremerkmale auf der Komponenten-Ebene einen gründlichen Test unterlaufen. Außerdem sollten Szenarien zur Behandlung von Fehlern ausgearbeitet und geprüft werden, die Ereignisse außerhalb des Systems auslösen. Hilfreich dafür sind sowohl die Service-Virtualisierung als auch API-Tests.

Ein System aus mehreren Systemen

Eine IoT-Umgebung kann ein System sein, das seinerseits Teil eines übergeordneten Systems ist, etwa ein vernetztes Auto als eine Komponente mit Internet-Anbindung. Innerhalb des Autos gibt es wiederum viele kleinere Komponenten, die entweder miteinander interagieren oder unabhängig mit dem Internet verbunden sind. Die Unterhaltungselektronik im Fahrzeug, OnStar usw. lässt sich direkt mit dem Internet vernetzen, während andere Komponenten dagegen an den CAN-Bus angeschlossen sind. Mit diesem kommunizieren etwa die Lenkungs- und Bremskomponenten, um gegebenenfalls auftretende Problemen nach außen zu melden. Hierdurch entsteht ein potenzielles Sicherheitsproblem, zudem können potenzielle Konflikte auftreten, wenn mehrere Systeme ihre Daten über den CAN-Bus übertragen. Darum müssen die Tests auf verschiedenen Ebenen erfolgen, wie zum Beispiel:

  • Diskrete Komponenten,
  • Komponenten im Kontext eines Subsystems,
  • Komponenten im Kontext eines übergeordneten Systems.

Sicherheitskritische Überlegungen

IoT-Systeme stellen einen potenziellen Ausfallpunkt in sicherheitskritischen Systemen z.B. in der Automobiltechnik, in der Luftfahrt usw. dar. Arbeiten Entwickler an einem IoT-Projekt in einem sicherheitskritischen Markt, sollten sie das Risikoniveau jeder einzelnen Komponente bewerten, um den Umfang der erforderlichen Tests zu bestimmen. Hier gibt es zwei Aspekte – nämlich das mit dem Ausfall einer Komponente verbundene Risiko und die Wiederherstellbarkeit.

Die meisten Autos lassen sich auch dann noch bedienen, wenn die Servolenkung oder der Bremskraftverstärker ausgefallen sind. Allerdings werden immer mehr mechanische Verbindungen zugunsten von Control-by-wire-Technologien weggelassen, um die allgemeine Effizienz des Systems zu verbessern. Ein Ausfall des Bremssystems ist katastrophal, jedoch wäre in Systemen ohne Control-by-wire-Technologie immer noch eine Rückfallebene vorhanden.

Wechselnde Risikobewertungen gibt es auch bei Flugsteuerungssystemen (Flight Control System – FCS) von Flugzeugen. Hier stellt der Ausfall eines FCS ein sicherheitskritisches Risiko gemäß SIL 1 dar, ist also ein katastrophaler, allerdings behebbarer Ausfall, denn es gibt ein Hydrauliksystem, mit dem der Pilot das Flugzeug in der Luft halten kann. In einigen Systemen aber sind die vom FCS angesprochenen Steuerflächen so kritisch, dass ein Ausfall des FCS ein Risiko mit SIL 0 darstellt. So hat beispielsweise die Komplexität der Steuerflächen mittlerweile ein Ausmaß erreicht, das eine manuelle Steuerung ohne das FCS unmöglich macht. Ein solcher Ausfall wäre somit nicht behebbar.

Software testen in komplexen Umgebungen

Beide genannten Beispiele enthalten ein System aus Systemen innerhalb einer IoT-Umgebung. In beiden Fällen gibt es kritische Komponenten, die auf verschiedenen Ebenen getestet werden müssen. Aber wie kann man in solch komplexen Umgebungen kontinuierlich testen, mit all den Abhängigkeiten?

Ein effektiver Ansatz ist die Simulation, wenn etwa kein Zugang zu einem zum  Testen notwendigen Mainframe existiert, oder Drittleistungen geprüft werden sollen. Die Service Virtualisierung ermöglicht Tests und Integration auf kontinuierlicher Basis. Um Integrationstests von Anfang an zu fahren, sollte man den Entwicklungsprozess um die Simulation ergänzen. Der Prozess ist mit einem Windkanal vergleichbar, wo Flugzeuge unter simulierten Konditionen getestet werden. Das sollte auch für die Software-Entwicklung gelten – mithilfe der Service Virtualisierung. Diese simulierte Testumgebung verschafft entscheidende Vorteile:

  • Niedrigere Betriebskosten durch kürzere Wartezeiten, Konfigurationszeiten und Zugangsgebühren.
  • Geringere Investitionsausgaben, da weniger an Hardware, Lizenzen und Labor-Infrastruktur benötigt wird.
  • Reduzierte Risiken durch früheres, schnelleres und vollständigeres Testen, und
  • höhere Umsätze, da Innovation und Markteinführung beschleunigt werden.

Einfaches Setup zum Einsteigen

Den Anfang bilden die Simulation zur Bearbeitung der Umgebung, ein Test-Datenmanagementtool zur Handhabung von Eingaben und Ergebnissen und ein gutes API Testtool zur Testerstellung und –ausführung. Mit diesen Tools lassen sich Dinge automatisieren, die zunächst unmöglich erschienen. Um schneller zu agieren, ermöglicht dieses Setup die Flexibilität zum Testen von Teilen der Anwendung, die üblicherweise nicht gut abgedeckt sind. Ohne die passenden Tools können sich Ausnahmenhandling, Fehleingaben, Fehlverhalten und Sicherheit als schwierig oder auch unmöglich zum Testen erweisen.  

Sollten Sie noch zur Gruppe der Manuellen Tester gehören – laut Voke Research ist das immer noch die Hälfte von Ihnen – dann schulden Sie es sich, das sie einen Blick auf die neuesten Tools in diesem Bereich werfen und sich informieren, wie Sie das Testen der Software beschleunigen und verbessern können.

 

OpenShift Online Next Generation

Unternehmen können mit einer PaaS-Plattform wie OpenShift Entwicklungsprojekte beschleunigen und produktiver machen. Die PaaS-Plattfom der Wahl muss neben einer hohen Verfügbarkeit dynamisch skalieren und eine automatische Provisionierung bieten.

Red Hats OpenShift war initial als PaaS gestartet, wird von Red hat aber heute als Container-Runtime-Plattform, die auch PaaS-Elemente beinhaltet, vermarktet.  Red Hat bietet OpenShift in vier Dareichungsformen verfügbar:  OpenShift Online ist den von Red Hat betriebene Public-Cloud-Online-Service. Darüber hinaus gibt es noch OpenShift Container Platform (ehemals OpenShift Enterprise), die installierbare Unternehmens-Version von OpenShift Origin (den Quellen der Community-Version) und Open Shift Dedicated, eine auf Amazon Web Services (AWS) oder Google Cloud Platform (GCP) gehostete Managed-Private-Cluster-Version von OpenShift.

OpenShift aus der Red-Hat-Cloud

OpenShift Online basiert genau wie die Red Hat OpenShift Container-Plattform auf Linux-Containern und Kubernetes und erlaubt Entwicklern eine einfaches und schnelles Erstellen und Einsetzen von Cloud-Anwendungen in einer öffentlichen Cloud.

Nach Angabe von Red Hat wurde OpenShift Online in den nunmehr sechs Jahren seit dem Start von hunderttausenden von Entwicklern genutzt. Die Plattform unterstützt inzwischen zahlreiche Programmiersprachen, darunter Java, Node.js, .NET, Ruby, Python und PHP. Als Datenbanken stehen MariaDB, MySQL, MongoDB und PostgreSQL in den unterschiedlichen Versionen bereit. Zudem können Entwickler mit beliebigen Frameworks arbeiten, wie Eclipse, Spring Boot, Node.js, Vert.x und ab jetzt auch mit Red Hat JBoss Middleware.

Was ist neu?

Mit Hilfe des Source-To-Image (S2I)-Frameworks lassen sich jetzt so genannte reproduzierbare Container-Images kreieren. Entwickler müssen so keine Docker-Images mehr erstellen oder verwalten und müssen sich daher auch nicht mehr mit Docker auseinandersetzen.

Entwickler, die trotzdem eine grafische Entwicklungsumgebung einsetzen möchten, können das dank der neuen Integrationsmodule mit Eclipse, Red Hat JBoss Developer Studio oder Titanium Studio tun.
Die neue Generation von OpenShift Online ermöglicht nach Aussage von Red Hat außerdem zahlreiche Vereinfachungen beim Starten der Container. Im einfachsten Fall genügt bereits ein einzelner Klick oder ein „git push“, zumindest wenn keine Notwendigkeit besteht, den Lebenszyklus des Containers im Detail zu steuern.
Ferner kann Open Shift Online Anwendungen jetzt automatisch skalieren. So lassen sich bei für automatische Skalierung „designten“ Anwendungen Lastspitzen durch das Starten zusätzlicher Instanzen abfangen.
Die ebenfalls neue OpenShift Application Services machen die Fähigkeiten aus dem Red Hat JBoss Middleware-Portfolio als Cloud-basierte Dienste auf OpenShift verfügbar.

Red Hat OpenShift Online ist in zwei Varianten verfügbar. Die kostenlose Variante „Starter“ bietet 1 GB RAM und 1 GB Datenspeicher für 1 Projekt. Bei der „Pro-Version zahlt man pro Monat und Gigabyte RAM und Speicher. Sie erlaubt bis zu 10 Projekte und startet mit 2 GB RAM und 10o GB Storage für 50 US$/Monat. Der Dienst wird in rund 200 Ländern angeboten.

Fedora 26 erschienen

Unter Kennern kein Geheimnis ist, dass Fedora von Red-Hat-Entwicklern und Red Hat nahe stehenden Entwicklern – Fedora ist natürlich ein Community-Projekt – als Test- und Spielwiese für Red Hat Enterprise Linux genutzt wird.

Erfreuliche Neuerungen in Fedora 26 gibt es beim Anaconda-Installer. Das Partitionieren der Festplatte gelingt mit einem neuen Partitionierwerkzeug „Blivet-gui“ jetzt deutlich komfortabler. Dessen Benutzeroberfläche ähnelt der von Gparted. Als Kernel kommt immer noch 4.11.8 zum Einsatz, erst in naher Zukunft soll ein Wechsel auf 4.12 folgen. Der Paketmanager DNF ist nun in Version 2.5 an Bord, die nicht nur Fehler behebt, sondern auch viele neue Funktionen bietet.

Fedora Workstation mit Gnome 3.24

Die Workstation-Variante von Fedora nutzt als Desktop-Umgebung Gnome 3.24; es gibt aber auch Spins mit Cinnamon, KDE, Mate, LXDE, SOAS oder Xfce und sogar ein Neues mit LXQt.

Zu den interessantesten Neuerungen der Workstation-Version (es gibt auch „Server“ und „Cloud“) von Fedora 26 gehört ein so genannter Nachtmodus namens „Night Line“. Er passt abends die Bildschirmfarben an. Ferner wartet Fedora 26 Workstation mit einer optimieren Nachrichtenzentrale und vielen kleineren Verbesserungen auf.

Zu den erwähnenswerten Paket-Aktualisierungen gehören NetworkManager 1.8, Firefox 54 und LibreOffice 5.3.4. Ein Novum für Fedora ist, dass Nutzer nun auch ohne Nachrüstpakete aus Epel&Co MP3-Dateien direkt nach dem Installieren von Fedora abspielen und auch erzeugen können. „Schuld“ daran sind die abgelaufenen Patente. Für Programmierer sind gcc 7.1, Golang 1.8, Python 3.6, Ruby 2.4 und PHP 7.1 erwähnenswert. Die GNU C Bibliothek ist in Version 2.25 dabei.

Neu in Fedora 26 ist auch ein verbessertes Caching der User- und Group-Informationen sowie ein verbesserter Umgang mit Debug-Informationen. Nicht mehr dabei ist der Synaptics-Treiber „xorg-x11-drv-synaptics, der ab der aktuellen Version durch die Libinput-Variante ersetzt wird.

In Bezug auf die Server-Version ist noch zu ergänzen, dass der Cyrus IMAP Server nun auf Version 3 und OpenVPN auf die Version 2.4.3 klettern. Interessant ist auch, dass Docker nun standardmäßig OverlayFS über den Overlay2-Treiber verwendet, was die Performance steigern soll.

Weitere Informationen findet man in der offizielle Ankündigung.

Die SPS als Gateway in die Cloud

Zentraler Bestanteil jedes Projekts in der Automatisierung ist die SPS. Hier laufen alle Sensoren, Zustände und Berechnungen zusammen. Diese Daten müssen gut aufbereitet zum Benutzer gelangen. Eigentlich ganz einfach sollte man meinen. Nicht in der Praxis: Undurchsichtige Übertragungsprotokolle, komplizierte Engineeringwerkzeuge und aufwändige IT-Infrastrukturen machen aus einer kleinen Anforderung ein teures Großprojekt.

Viel einfacher gelingt dies mit dem Cloud Portal AnyViz. Durch eine kostenlose Komponente verwandelt sich die SPS in ein IoT Gateway und verbindet sich selbstständig mit der Cloud. Schon sind alle freigegebenen Daten in der intuitiven Weboberfläche ersichtlich und können nach Belieben verwendet werden. Mit verschiedenen Anzeigeelementen ist eine Visualisierung mit nur wenigen Klicks erstellt. Im Handumdrehen sind Datenpunkte für die Aufzeichnung konfiguriert, sodass Analysen und Auswertungen ermöglicht werden. Auch an einer automatischen Überwachung der Datenpunkte fehlt es nicht. Ebenso einfach können Maschinen und Anlagen herstellerunabhängig über Standortgrenzen hinweg vernetzt werden (M2M). Denn mit der AnyViz-Cloud als zentraler Vermittlerin lassen sich die Datenpunkte nicht nur in die Cloud, sondern auch von einer Steuerung auf eine andere übertragen.

Überall erreichbar

Mobile first ist die Devise. Moderne Nutzer sind es gewohnt schnell von unterwegs das Bankkonto zu checken. Warum sollen diese nicht auch von unterwegs Maschinenkennzahlen, den Zustand der kommunalen Abwasseranlage oder die Verbräuche ihres Gebäudes einsehen können? Durch moderne Web-Technologie steht dem nichts im Wege. Egal ob Smartphone oder Tablet, egal ob Büro oder unterwegs, die Cloud ist stets verfügbar.

Wie steht es mit der Sicherheit?

Seriöse Online-Dienste, egal ob Online-Banking oder Cloud HMI verwenden lang erprobte Sicherheitsmechanismen und überprüfen diese zyklisch. Zudem muss zur Nutzung des Dienstes kein eingehender Port in der Firewall geöffnet werden. Ganz anders ist das bei den so oft eingesetzten VPN-Lösungen. Sollte hier der Zugang entwendet werden, hat man oft Zugriff auf das ganze private Netzwerk – mit allen zerstörerischen Möglichkeiten.

Planbare Kosten

Für das Cloud Portal fallen keinerlei Investitionskosten an. Je nach Nutzungsumfang wird nach einem transparenten Tarifmodell abgerechnet. Um eine stationäre Lösung zu schaffen müssen Hardware und Softwarelizenzen beschafft, sowie Arbeitsaufwendungen investiert werden, welche in einem endlichen Zeitraum abgeschrieben sind. Dennoch lohnt sich ein genauer Blick auf die Konditionen. Denn viele Produkte sind an Wartungsverträge geknüpft und Hardware muss aufgrund von Alterung oder Defekt erneuert werden. Zudem beanspruchen Updates und Backups Zeit. Wer die laufenden Kosten planbar haben und Zeit sparen möchte, setzt auf eine Cloud Lösung mit Geo-redundanter Datensicherung und kostenlosem Support.

Quelle: Mirasoft

 

Fazit

Cloud HMI Lösungen wie AnyViz ermöglichen die Digitalisierung unkompliziert und kostengünstig, sodass auch kleine Betriebe, Gebäude oder Kommunen von den Chancen der Industrie 4.0 profitieren können. Automatisierungstechniker sparen Zeit und können sich auf die wesentlichen Dinge konzentrieren.