Docker Push – Container in die Cloud laden

Das hat den Vorteil, dass Sie dieses Image jederzeit wieder herunterladen und auch auf anderen Container-Hosts verwenden können. Sie benötigen dazu eine Docker-ID und müssen sich mit docker login anmelden.

Für das Hochladen von Containerimages verwenden Sie den Befehl docker push:

docker push <Benutzername>/iis-dockerfile

Nach dem Upload können Sie mit docker pull das Image auf Container-Hosts herunterladen. Wollen Sie das Image nicht mehr verwenden, können Sie es löschen:

docker rmi <Benutzername>/iis-dockerfile

Sie können jederzeit erstellte Container mit Änderungen, die Sie durchgeführt haben, als neues Image speichern und dieses Image wiederum für neue Container verwenden. So erstellen Sie also enorm schnell zahlreiche Container mit allen Einstellungen, die Sie benötigen. Um ein Image zu erstellen, verwenden Sie zum Beispiel folgenden Befehl:

docker commit dockertest meincontainerimage

Sobald Sie das Image erstellt haben, können Sie es mit dem Befehl docker images anzeigen lassen und es als Grundlage für einen neuen Container verwenden:

docker run -it –name dockertest2 meincontainerimage cmd

Firewallregeln für Microsoft SQL Server steuern

Um die entsprechenden Ausnahmen für die Remoteverwaltung einzutragen, verwenden Sie zum Beispiel folgenden Befehl:

netsh advfirewall firewall add rule name=“SQL Server“ dir=in action=allow program=“C:\Program Files\Microsoft SQL Server\MSSQL11.MSSQLSERVER\MSSQL\Binn\sqlservr.exe“ enable=yes profile=domain

Da auf Core-Servern der SQL Server Konfigurations-Manager nicht funktioniert, können Sie das TCP/IP-Protokoll in der Registry ändern. Dazu setzen Sie den Wert HKLM\SOFTWARE\Microsoft>Microsoft SQL Server\MSSQL11.MSSQLSERVER\MSSQLServer\SuperSocketNetLib\Tcp auf 1. Anschließend starten Sie den Server neu. Standardmäßig ist nach der Installation von TCP/IP in SQL Server 2012/2014 und auch SQL Server 2016 aber ohnehin aktiviert. Sie sollten dennoch wissen, wie Sie den Wert steuern, wenn Sie die Installation über eine Konfigurationsdatei durchführen.

Sie müssen die Windows-Firewall auf dem Server konfigurieren, damit SQL-Server kommunizieren kann:

netsh advfirewall firewall add rule name = SQLPorttcp dir = in protocol = tcp action = allow localport = 1433-1434 remoteip = localsubnet profile = DOMAIN

netsh advfirewall firewall add rule name = SQLPortudp dir = in protocol = udp action = allow localport = 1433-1434 remoteip = localsubnet profile = DOMAIN

IoT als fester Bestandteil der Unternehmens-IT – Vision oder bereits Gegenwart?

IoT und Industrie 4.0 werden vor allem für Industrieunternehmen in den kommenden Jahren zu den wichtigsten Themen avancieren. Das bestätigt auch das Vodafone IoT Barometer 2016. In der Umfrage bezeichnen 74 % der Unternehmen das Internet of Things als „entscheidend“ für ihren zukünftigen Unternehmenserfolg. Fakt ist aber, dass sich der IoT-Markt noch in einem sogenannten „Early Adopter“-Stadium befindet. Denn aktuell wenden nur wenige der befragten Organisationen zukunftsweisende IoT-Technologien in ihrem Arbeitsalltag an. Was Mut macht: Immerhin 53 % der Firmen planen für die nächsten zwölf Monate die Einführung neuer IoT-Lösungen. Der große Rest der Befragten ist wiederum noch kaum mit den technologischen Möglichkeiten vertraut und zufrieden mit den aktuellen Prozessabläufen. Hier ist sicherlich Überzeugungsarbeit nötig, um zu verdeutlichen, welche Vorteile der Einsatz von digitalen Strategien à la IoT bietet.

Potenzial erkennen und ausschöpfen
Als besonders prägnante Vorteile von IoT-Lösungen sind vor allem effizientere Prozesse und damit enorme Kostenreduzierungen zu nennen. Zudem sind die Lösungen quasi branchenunabhängig einsetzbar – diese Bandbreite ist den meisten nicht klar. Neben der Industrie können unter anderem auch die Bereiche Gebäudetechnik, Nutzfahrzeuge, Energie und Medizintechnik von stärkerer Vernetzung profitieren. Zum Beispiel, indem z.B. Flottenmanager auf aktuelle Positions- und Fahrzeugbetriebsdaten zugreifen können, Logistikunternehmen zentral die Temperaturen in ihren Kühlhäusern überwachen und damit die lückenlose Dokumentation der Kühlkette gewährleisten, oder Betreiber von Automaten stets über Füllstände und mögliche Fehlerzustände informiert sind.


Die Grundlage, um solche IoT-Projekte umzusetzen, sind professionelle IoT-Plattformen. Sie erfassen und managen alle Datenströme im Internet of Things. Aus den Daten können mittels Analysen wichtige Rückschlüsse für die täglichen Arbeitsprozesse gezogen werden, z.B. ob ein wichtiges Gerät ausfallen könnte. Um das volle Potenzial des Internet of Things auszuschöpfen, nutzen einige IoT-Plattformen den neuen Protokollschnittstellenstandard OPC UA. Dieser macht die Datenkommunikation interoperabel und unabhängig vom Maschinen- oder Gerätetyp: Industrieanlagen der namhaften Hersteller können einheitlich miteinander kommunizieren. Das heißt, Rohdaten und verarbeitete Informationen lassen sich jetzt standardisiert übertragen. Dadurch macht das IoT einen großen Schritt nach vorne, weil Informationen nun noch einfacher zu jedem Zeitpunkt und an jedem Ort des Unternehmens für autorisierte Personen verfügbar gemacht werden können.

Sicherheitsbedenken ablegen
In diesen grenzenlosen Vernetzungsmöglichkeiten sehen 62 % der Firmen (Studie KfW Research) jedoch auch ein großes Risiko in puncto Datensicherheit. Ganz unrecht haben sie nicht: Umso mehr Devices miteinander vernetzt sind, umso anfälliger ist das Gesamtsystem für Hackerangriffe. Denn Maschinen im IoT-Umfeld arbeiten in Netzwerken und verfügen häufig über eine externe Datenverbindung. Sie sind also nicht mehr vollständig nach außen abgeschottet. Doch auch auf diese Sicherheitsbedenken wissen professionelle IoT-Plattformen eine Antwort. IoT-Plattformen verfügen über aktuelle, integrierte Verschlüsselungsmechanismen. Dadurch wird eine permanent abgesicherte Maschinenkommunikation erreicht.

Des Weiteren können Unternehmen verschiedene Zugangsstufen und Zugriffsberechtigungen für Maschinen und Anlagen festlegen. Beispielsweise darf ein Betreiber Parameter der Maschine nur noch innerhalb eng definierter Schwellwerte verstellen, während ein Servicetechniker oder der Hersteller der Maschine erweiterte Zugriffsrechte genießt. Dieses Berechtigungsschema kann mit IoT-Plattformen in Einklang gebracht werden, um auch beim Fernzugriff auf die Maschinen einen gleich hohen Sicherheitslevel zu gewährleisten. Das intelligente Informationsmodell der IoT-Plattform veranschaulicht schlussendlich, wer wann auf welche Daten zugegriffen hat.

Fazit: Visionen Gegenwart werden lassen
Professionelle IoT-Plattformen schaffen es durch ihre Informationstransparenz und ihre praktischen Vorteile immer mehr, Zweifel an der technischen Umsetzbarkeit und Sicherheit von IoT-Projekten auszuräumen. Mit kompetenten Technologiepartnern sind Unternehmen aller Branchen in der Lage, individuelle Konzepte zu kreieren, die ihre Arbeitsprozesse schon auf kurze Sicht optimieren und Kosteneinsparungen erzeugen. IoT ist somit mehr als bereit, schon heute ein fester Bestandteil der Unternehmens-IT zu werden. Jetzt sind die Unternehmen am Zug, um die IoT-Visionen Gegenwart werden zu lassen.

 

Wie mobile Kommunikation die Arbeit in den härtesten Branchen der Welt revolutioniert

Drahtlose Technologien wie LTE, WLAN, WWAN, GPS und Bluetooth sind das A und O für die intelligente Vernetzung von Mensch, Anlagen und Geräten. Zunehmende mobile Kommunikation bedeutet zugleich jedoch auch einen höheren Anspruch an die Endgeräte. Sie müssen über sichere, schnelle und flexible Netzwerke die Datenübertragung und Kommunikation auch über große Entfernungen zu jeder Zeit gewährleisten – insbesondere in potentiell gefährlichen, explosionsgefährdeten Bereichen oder in rauer Arbeitsumgebung.

Ein Bild sagt mehr als 1000 Worte

Bestes Beispiel dafür, wie mobile Wireless-Lösungen im Ex-Bereich neue Wege der Kommunikation bei der Dokumentation, Ferndiagnose, Wartung und Instandhaltung erschließen, sind Videokonferenzen in Echtzeit. Kameras an mobilen Endgeräten und eine kabellose Netzverbindung ermöglichen es mittels Videotelefonie-Applikationen, Schäden noch während der Inspektion oder Instandhaltung zu erfassen und zu beheben.

Der Mitarbeiter vor Ort streamt Videos einfach direkt aus dem Ex-Bereich und wird bei seinem Gang durch die Anlage ggf. aus der Ferne fachmännisch unterstützt. Experten oder verantwortliche Mitarbeiter in der Leitzentrale können ohne wertvolle Zeit zu verlieren, eine Ferndiagnose in Echtzeit stellen und erforderliche Maßnahmen oder Reparaturen sofort einleiten – ohne dass ein Spezialist die Anlage oder Offshore-Plattform persönlich besuchen muss. Damit spart der Einsatz mobiler Hardware und Videotelefonie Zeit und Geld.

Sicherheitskonzepte müssen einen umfassenden Schutz gewährleisten

Die zunehmende Vernetzung der Maschinen und Anlagen bringt allerdings höhere Risiken für die Sicherheit der Daten mit sich. Um einen aktuellen Sicherheitsstandard zu gewährleisten, empfiehlt es sich mit dem neusten Betriebssystem zu arbeiten. Durch die Einführung von mobilen Geräten mit Android Betriebssystem in potentiell gefährlicher Arbeitsumgebung, lassen sich individuelle Firmen‐ und Sicherheits-Applikationen nun auch im Ex‐Bereich anwenden. Eine breite Palette an Software‐Anwendungen kombiniert mit der Steuerung über ein Mobile Device Management System, ermöglichen es, Geräte so einzurichten, dass dem Mitarbeiter nur die Anwendungen zur Verfügung stehen, die er für seine Arbeitsprozesse benötigt und für die er sich mittels seines Accounts legitimiert.

Durch die hohen Datenübertragungsstandards 4G/LTE oder Wi-Fi können auch große Datenmengen in Echtzeit in das ERP-System eingespielt werden und betriebsbereite Anlagenteile in kürzester Zeit wieder die Produktion aufnehmen. Neben der Verbesserung der Datensicherheit optimieren diese Anwendungen auch den Diebstahlschutz, bieten höchste Sicherheit und sind individuell konfigurierbar. Dadurch wird Android zu einem, auch im industriellen Umfeld, optimalen Betriebssystem.

Drahtlose Kommunikation auch ohne WLAN Anbindung

Sollte keine WLAN Verbindung vorhanden sein, können Techniker mit dem WWAN (Wireless Wide Area Network) tauglichen PDA i.roc® Ci70 -Ex ebenfalls mobile Anwendungen nutzen, ohne auf Wi-Fi angewiesen zu sein – und damit in weit größeren Bereichen operieren. Mittels der Kombination der GPS Funktionalität des i.roc®s und WWAN lassen sich außerdem Inspektions- oder Reparatur-Positionen an einer Pipeline „geo-taggen“ und so die Zeit für die Identifikation der Schadensstelle beim nächsten Einsatz einsparen.

Verkehrte Welt

Seit Satya Nadella 2014 die Nachfolge von Steve Ballmer als Microsoft-Chef angetreten hat, wird aus dem IT-Dinosaurier offenbar ein hochdynamisches Startup mit ausgeprägter Open-Source-Affinität.

Dies äußert sich in Form einer ganzen Reihe von Maßnahmen, Projekten und Kooperationen wie u. a. der Freigabe von DotNet oder der Portierung der PowerShell. Dass Microsoft auch in vielen Open-Sourcen-Projekten, Stiftungen und Initiativen involviert ist, als Beispiel sei die OpenStack Foundation genannt, versteht sich fast von selbst.

Die Beispiele in puncto Kooperationsbereitschaft lassen sich beinahe beliebig fortsetzen, etwa Google als Mitglied der unabhängigen .NET-Foundation oder die Zusammenarbeit mit Red Hat, um u. a. RHEL in Azure bereitstellen zu können oder die Kooperation mit Samsung, um .NET-Programmierer bei der Entwicklung von Apps für Samsung-TVs, -Wearables, -Smartphones und -IoT-Geräte zu unterstützen.

Microsoft in der Linux Foundation

Jetzt hat die Linux Foundation mitgeteilt, dass Microsoft der Linux Foundation als Platinum-Mitglied beitritt.
Nach Aussage des Unternehmens soll durch diesen Schritt die Zusammenarbeit mit der Open-Source-Community intensiviert werden.

Microsoft-seitig erfolge die Bekanntmachung auf der Microsoft-Connect-Konferenz in New York. John Gossman, Architect im Microsoft Azure Team, soll dem Board of Directors der Linux Foundation angehören.

Darüber hinaus stellte Microsoft auf der Connect-Konferenz eine Public Preview des im März angekündigten SQL Server für Linux an. Das fertige Produkt soll Mitte 2017 verfügbar sein.

Teil 2: vSphere HA

Und zwar bringt VMware vSphere 6.5 im Rahmen der HA-Funktionalitätserweiterungen ein Features namens „VM resource and availability service” mit.
Die Erweiterung basiert auf einem bereits im vergangenen Jahr unter Mitwirkung von Duncan Epping (Chief Technologist – Storage und Availability bei VMware, Autor des HA Deepdive und Macher des Nr.1-VMware-Blogs Yellow Bricks) veröffentlichen Fling names  vm resource and availability service.

Das Fling ermöglicht im Rahmen der Planung der Failoverkapazität (Admission Control) eine Art „Was-wäre-wenn“Analyse in Bezug auf eintretende Host-Ausfälle. Der Administrator kann den Ausfall von einem oder mehreren Hosts im Cluster simulieren und dabei herausfinden …

• Welche VMs sich sicher auf anderen Hosts neu starten lassen
• Welche VMs nicht sicher auf anderen Hosts neu gestartet werden können
• Welche VMs nach dem Neustart auf einem anderen Host mit reduzierter Performance laufen.

VM resource reduction event threshold

Im bereits im 1. Teil vorgestellten überarbeiteten Web-Client-Dialog für die Admission-Control-Einstellungen gibt es jetzt analog zum erwähnten Fling die neue Einstellung „VM resource reduction event threshold”.

Die Einstellung erlaubt dem Administrator das Angeben eines Performance-Verlustes, den er beim Neustarten von VMs auf einem anderen Host im Fehlerfall zu akzeptieren bereit ist. Der Default-Wert ist 100%, abhängig von den SLAs im Unternehmen könnte man jetzt aber auch 30 % oder 0 % einstellen. Voraussetzung dafür ist, dass DRS aktiviert ist. HA benötigt DRS, um die Cluster Resource Usage zu erhalten.

Hat man in einem 3-Node-Cluster beispielsweise 96 GB RAM (3x32GB), der Wert bei “host failure to tolerate specified” steht auf 1, alle laufenden VM konsumieren aktuell 70 GB RAM und der Wert bei “VM resource reduction event threshold” steht auf 0 % führt dazu in der Analyse zu einer Warnmeldung. Warum ?

Beim Ausfall “eines Hosts” wären in Cluster noch 64GB RAM verfügbar (96GB -32 GB). Es werden aber 70GB für laufenden VMs benötigt, wenn diese auf den verbleibenden 2 Hosts neu gestartet werden, weil ja per Definition (0 %) keine Performance-Verluste in Kauf genommen werden sollen. Die Konsequenz ist, dass der Admin die verfügbare Failover-Kapaität erhöhen muss, will er keine Performance-Einbußen im Fehlerfall hinnehmen.

Indoor Positionsbestimmung: die häufigsten Fragen

  1. Warum kann man in Gebäuden kein GPS verwenden?

In Gebäuden, unter Wolkendecken und in Häuserschluchten fehlt der Sichtkontakt zu den GPS-Satelliten.

  1. Was ist der Unterschied zwischen clientseitiger und serverseitiger Ortung?

Es gibt grundsätzlich zwei verschiedene Techniken zur Indoor Positionsbestimmung.

insoft GmbH
insoft GmbH

http://dev.process.vogel.de/wp-api/index.cfm

Endgerätbasierte (clientseitige) Positionierung wird meist mit Beacons oder WLAN Accesspoints umgesetzt. Diese senden regelmäßig Signale. Das Endgerät analysiert die Signalcharakteristik und gleicht sie mit einer Referenzdatenbank ab. Hierzu ist eine App notwendig, an die auch Nachrichten gesendet werden können (Rückkanal). Die Position wird direkt auf dem Endgerät bestimmt, was dem Nutzer ein Höchstmaß an Datenschutz bietet.

Infrastrukturbasierte (serverseitige) Positionierung kehrt das oben beschriebene Verfahren um. Ein WiFi-fähiges Endgerät/Tag oder ein Bluetooth Beacon sendet Signale aus (MAC-Adresse), die von einer spezifischen Hardware detektiert und an einen Server weitergeleitet werden. Im Backend werden die ermittelten Messdaten abgeglichen, interpoliert und in weiteren Systemen dargestellt. Dieses Verfahren hat den Vorteil, dass auch Geräte ohne App erfasst und analysiert werden können.

Mehr Informationen zu clientbasierter und serverbasierter Indoor Positionsbestimmung.

  1. Welche clientbasierten Ortungsmethoden werden am häufigsten verwendet und welche Vor- und Nachteile haben sie?

WLAN und Beacons in Kombination mit den Smartphone-Sensoren kommen am häufigsten zum Einsatz.

 

Vorteile

Nachteile

WLAN

vorhandene WLAN-Infrastruktur kann genutzt werden

Devices müssen nur WLAN aktivieren

Rückkanal zum Kunden vorhanden

hohe Reichweite (bis zu 150 Meter)

relativ ungenau (5-15 Meter) im Vergleich zu BLE

keine clientseitige Positionsbestimmung mit WiFi unter iOS möglich

Nutzer braucht eine App

BLE Beacons

kostengünstige, unauffällige Hardware

geringer Energieverbrauch

flexible Einbindung in die Infrastruktur (Batteriebetrieb oder Stromversorgung über Lampen und Hauselektrik)

funktionieren überall, wo andere Techniken keinen Empfang haben

breite Plattformkompatibilität (Android und iOS)

hohe Positionsgenauigkeit im Vergleich zu WiFi (1-3 Meter)

zusätzliche Hardware

App ist Voraussetzung für Client-Ortung

relativ geringe Reichweite (ca. 30m)

 

  1. Was sind Beacons?

Es handelt sich dabei um kleine Sender, die einfache Signale an Geräte in ihrer Umgebung aussenden. Empfangen können sie nicht. Moderne Beacons (dt. „Leuchtfeuer“) basieren auf dem energiesparenden Bluetooth Low Energy Standard. Beacons bestehen aus einer winzigen Sendeeinheit und einer mehr oder weniger großen Batterie. Die Lebensdauer beträgt dementsprechend von wenigen Tagen bis zu mehrere Jahre. Die Batterie kann einfach ausgetauscht werden. Der Preis liegt zwischen drei und dreißig Euro. Die bekanntesten Beacon-Profile sind iBeacon von Apple und Eddystone von Google.

  1. Gibt es bei WLAN und Beacons die Gefahr der Abschirmung oder Interferenzen?

Die Signale können durch verschiedene Materialien wie Holz-, Beton- oder Metallwände abgeschirmt werden. Bei der Installation an Säulen im Raum muss man das ebenso beachten. Der beste Platz für die Installation liegt in etwa 2,5 bis 4 Metern Höhe. Auf niedrigerer Höhe können Menschen die Signale abschirmen. 

Beacons beeinflussen andere Signale nicht und auch medizinische Geräte bleiben ungestört. Installiert man jedoch Beacons in einem Raum mit sehr vielen WiFi-Signalen (zum Beispiel auf einer Messe), können Interferenzen auftreten, da sich BLE und WiFi den gleichen Frequenzbereich (2,4 GHz) teilen. Durch intelligente Konfiguration kann das Problem aber umgangen werden.

  1. Wie genau ist Indoor Positionsbestimmung?

Die Genauigkeit hängt stark von den Gegebenheiten im Gebäude (z.B. Abschirmung) und der Hardwaredichte (WiFi-Access Points, Bluetooth Beacons) ab. Einfach ausgedrückt: Je mehr Hardware – je engmaschiger das Netz – desto höher ist die Genauigkeit. Die Position kann mit Beacons bis auf 1-3 Meter und mit WLAN bis auf 5-15 Meter genau bestimmt werden.

Teil 1: vSphere HA

VMware vSphere 6.5 soll laut Ankündigung auf der VMworld zum Ende des 4. Quartals erscheinen, erwartungsgemäß wird es aber wohl eher Ende bis Mitte nächsten Jahres werden; spätestens mit dem offiziellen Release der angekündigten Verfügbarkeit von VMwares kompletten Software-Defined-Datacenter-Stacks in Amazon Web Services.

Trotzdem lohnt es sich, bereits jetzt einen Blick auf die neuen Features zu werden. Wir beginnen mit dem Thema Hochverfügbarkeit, da die Neuerungen hier sehr umfangreich ausfallen.

vCenter Server High Availability

Zunächst sei darauf hingewiesen, dass die kommende Version 6.5 des vCenter-Servers ein neues Feature namens  vCenter Server High Availability mitbringen wird.

Hierbei handelt es sich quasi um einem Ersatz für das ehemalige „vCenter Heartbeat“, das VMware aufgrund diverser Probleme seit einiger Zeit nicht mehr anbietet. Bei beiden Lösungen geht es darum, das vCenter selbst als Single Point of Failure möglichst hoch verfügbar zu halten.

Derzeit empfiehlt VMware, dazu das HA-Feature zu verwenden, was aber nur funktioniert, wenn das vCenter als virtuelle Maschine betrieben wird, etwa auf Basis der vCenter Server Appliance (VCSA). Da die Windows-Version strategisch in vSphere 6.5 aller Voraussicht nach keine Rolle mehr spielen wird, lohnt sich ein Umstieg auf die Appliance schon jetzt.

Der hier erwähnte neue Service „vCenter Server High Availability“ wird nämlich nur mir der Linux-Appliance verfügbar und in Dieser im Web Client einfach als Dienst aktivierbar sein.

vSphere HA Admission control

Doch zurück zum klassischen HA-Feature. VMware vSphere 6.5 wird bringt einige Neuerungen im Bereich „Admission Control“ mit. Hierbei geht es um Policies für das Berechnen der benötigten Failover-Kapazität (Admission Control).

Zwar hat VMware an den grundlegenden Algorithmen nicht viel verändert, wohl aber die zugehörigen GUI-Dialoge vereinfacht, weil es bei der Funktionsweise in der Praxis doch häufig Verständnisschwierigkeiten gab.

Mehr Automatik

Und zwar bietet der Dialog zur Cluster-Konfiguration im Bereich „vSphere HA” jetzt einen Link/Untermenü mit dem Titel “Admission Control“, der sämtliche Einstellungen zur Failover-Kapazität in einem Dialog vereint. Diese unterteilen sich jetzt übersichtlich in die drei Sektionen “Host failures cluster tolerates”, “Define host failover capacity by” und “Performance degradation VMs tolerate”.

Die Default-Einstellung bei “Define host failover capacity by” ist dabei “Cluster resource percentage”. Optional stehen im entsprechenden Listenmenü “Disabled”, “Slot-Policy” oder “Dedicated Failover Host” zur Verfügung, während die erste und dritte Einstellungen lediglich einen numerischen Wert erfordert, wie die Anzahl der Hosts im ersten Fall oder der prozentuale Wert im dritten Fall.  Dies führt zu den bekannten Verhalten von Admission Control, also “Host failures cluster tolerates”=1 in einem 2-Node-Cluster. 

Allerdings wird der Wert für “Define host failover capacity by” von 50 % jetzt automatisch errechnet, was ein altbekanntes Problem löst: Hatte man nämlich „vor“ vSphere 6.5 den 2-Node-Cluster um einen 3. Host erweitert, dabei aber vergessen, die Prozent-Regel anzupassen, führte dies zu einer Verschwendung von Ressourcen. 

Sicherheitskritische Software und die EN 50128 Norm

Die EN 50128 Norm  enthält klare Anforderungen an sichere Programmiertechniken, wie Modularität und komponenten-, struktur- und objektorientierte Programmierung. Zudem fordert sie den Einsatz von Modellierungs- und Programmierungsstandards sowie Sprachen-Subsets wie MISRA C. Für das Sicherheitsintegritätslevel (SIL) 3 und 4 sind diese Programmierungsstandards sogar obligatorisch. Hier bieten statische Analysetools wertvollen Support, denn sie eignen sich sehr gut zur Umsetzung strenger Codier-Standards, unabhängig davon ob es sich dabei um gängige wie MISRA C oder um kundenspezifische Versionen handelt.

 Tatsächlich schreibt die EN 50128 Norm die Nutzung statischer Analysetoolsunter Verwendung eines flexiblen Satzes von Programmierungsstandards, Steuerfluss- und Datenfluss-Analyseregeln vor, und empfiehlt sie dringend für SIL 1 bis 4. Interessanterweise heißt es in dieser Norm: „Nutzen Sie das inter-prozedurale Steuerflussanalyse-Modul, um eingesetzte Variablen vor deren Initialisierung, Pufferüberläufe, Speicherlecks usw. zu finden. Damit ist klar, dass die statische Analyse einen wichtigen Bestandteil jedes Instrumentariums für die Entwicklung sicherheitsrelevanter Software darstellt.

Grammatech
Grammatech

Die Tabelle veranschaulicht, wie spezifische Anforderungen von EN 50128  von statischen Analysetools erfüllt werden sowie ihren zugehörigen Empfehlungsgrad. Die Verweise beziehen sich auf einzelnen Klauseln in EN 50128.

Zusätzlich zur Konformität ist die Dokumentation zu ihrem Nachweis ein wichtiger Bestandteil der Erfüllung der Anforderungen von EN 50128. Automatisierte Softwaretools, einschließlich statischer Analyse, unterstützen den Zertifizierungsaufwand mithilfe von Berichtsfunktionen. Zusätzlich zu den weiteren Vorteilen wie Risikominimierung und einer kürzeren Entwicklungszeit erzielen sie eine schnellere Time-to-Market und Kosteneinsparungen.

Ein nach EN 50128 zertifiziertes Tool ist CodeSonar, dessen Funktionsumfang und Entwicklungsprozess von der SGS-TÜV Saar GmbH geprüft wurde, die auch bestätigt, dass es die Anforderungen für den Einsatz zur Entwicklung sicherheitsrelevanter Software erfüllt. Warum ist das wichtig? Werkzeuge zum Entwickeln von sicherheitsrelevanter Software müssen dokumentiert, und ihre Ergebnisse analysiert werden. Den Zertifizierungsvorgang mit zertifizierten Tools zu unterstützen verringert Risiko, Kosten und Zeit. Demgegenüber erfordern nicht zertifizierte Tools weitere Prüfungen durch die Zertifizierungsstellen – und führen gegebenenfalls zu höherem Aufwand und Risiko für das Entwicklungsteam.

Digitalisierung der gesamten Wertschöpfungskette im Mittelstand

Ein Ansatz dabei ist die Verknüpfung von Plan-Daten aus dem ERP-System mit Live-Daten aus der Fertigung. Eine schrittweise Digitalisierung des Informationsnetzwerkes im Unternehmen wird so vorangetrieben. Auch der Mensch wird dabei nicht außer Acht gelassen und bei der Überwachung und Steuerung der Prozesse sowie der Beherrschung von Abweichungen unterstützt. Dies ist die Basis für eine kontinuierliche Produktivitätssteigerung.

Ausgangslage:

Welche Zielstellung galt es zu lösen?

Einerseits können durch die erzielte Transparenz in den Produktionsabläufen ungenutzte Potenziale aufgedeckt werden. Andererseits erfolgt durch die Automatisierung von Prozessen eine Reduzierung von Durchlauf-/Bearbeitungszeiten, was somit zu einer höheren Produktivität führt. Beide Effekte dienen der besseren Wirtschaftlichkeit in den Anwendungsunternehmen.

Welcher konkrete Nutzen ergab sich?

Für unsere Kunden bieten Industrie 4.0-Lösungen die Möglichkeit, bisher ungenutzte Potenziale zu analysieren, um die Produktionsabläufe zu optimieren und transparenter zu gestalten. Fehler in der Herstellung werden sofort erkannt und Ausschussteile umgehend aus dem Produktionsdurchlauf aussortiert. Den Mitarbeiterinnen und Mitarbeitern steht durch den digitalen Fluss die richtige Information zur richtigen Zeit am richtigen Ort zur Verfügung.

Wie lässt sich der Industrie 4.0-Lösungsansatz beschreiben?

Durch die Einführung der Lösung „NuPMES“ bei Kunden inkl. der Integration in das ERP-System „APplus“ erfolgt eine Verknüpfung aller relevanten Prozessdaten. Durch die Verknüpfung von Prozessinformationen aus „NuPMES“ und den übergeordneten Auftragsdaten können das herzustellende Produkt identifiziert und die nächsten Fertigungsschritte inkl. der erforderlichen Prozessparameter gesteuert werden. Die Produktion wird so vom Beginn der Herstellung über die Durchführung bis zum Abschluss in einem zentralen System gemanagt und überprüft.

Ergebnisse:

Was konnte erreicht werden?

Durch die Vorgabe und durchgängige Dokumentation der Prozessparameter sowie die automatische Aussteuerung fehlerhafter Bauteile, steigt die Prozessqualität und -transparenz deutlich. Außerdem macht die ausführliche Dokumentation eine Rückverfolgung der schadhaften Bauteile möglich, um vorgelagerte Prozessschritte zu überprüfen und zu verbessern. Insgesamt ergibt sich eine hohe Flexibilität beim Produktionswechsel, so dass die Produktion in der Folge den DIN-Anforderungen gerecht wird. So konnten bei Kunden die Stückzahlen um ca. 80 % gesteigert werden, während die Personalstärke nahezu gleich geblieben ist.

 Erfolgsfaktoren:

Was können andere davon lernen?

Entscheidend für den Erfolg war eine sehr enge Kooperation zwischen dem Anwender und uns als Systemanbieter. Durch einen regelmäßigen Austausch und die gemeinsame Definition von langfristigen Unternehmenszielen, konnte eine Lösung eingeführt werden, welche auch nachhaltig wirtschaftliche Ergebnisse erzielt. Ein weiterer entscheidender Schritt war die frühzeitige Einbindung der Mitarbeiter.

Highlight der Anwendung

Die Zufriedenheit kann mit folgenden Worten des Kunden belegt werden: „Durch die Einführung der N+P-Automatisierungslösung können wir heute jederzeit sagen, welches Produkt, mit welcher Anlage und welchen Parametern, zu welchem Zeitpunkt, von welchem Mitarbeiter gefertigt wurde. Weiterhin konnten wir gemeinsam mit N+P durch die Optimierung unserer internen Organisation eine Steigerung in unseren Produktionszahlen um 80 % erreichen.“ Das hier aufgezeigte Beispiel ist ebenfalls auf der Plattform Industrie 4.0 veröffentlicht.