MultiPoint-Server Windows Server 2016

Multipoint installieren

Bevor Sie über den Server-Manager in Windows Server 2016 installieren, müssen Sie auf dem Server zunächst das Betriebssystem installieren, also Windows Server 2016 Standard oder Enterprise. Danach installieren Sie alle notwendigen Treiber auf dem Server, vor allem den Treiber für die Grafikkarte, da hier alle Monitore angeschlossen werden müssen. Auch Sound und USB-Treiber müssen auf dem Server verfügbar sein. Erst danach installieren Sie die MultiPoint-Services über den Server-Manager.

Die Installation erfolgt über die Serverrolle „MultiPoint Services“. Durch die Auswahl werden noch verschiedene Features installiert. Außerdem installiert der Server durch Auswahl der MultiPoint Services auch verschiedene Rollen der Remotedesktopdienste und weitere Features. Während der Installation müssen Sie keine weiteren Einstellungen vornehmen. Die Einrichtung von MultiPoint erfolgt erst nach der Installation der Serverrolle.

 

Achten Sie darauf, dass Sie nach der Installation der MultiPoint Services den Server und das Betriebssystem aktivieren müssen. Außerdem müssen Sie Lizenzen hinzufügen, genauso wie bei den Remotedesktopdiensten.  Die Verwaltung der Lizenzen können Sie auch im MultiPoint Manager auf der Registerkarte Start über den Menüpunkt Clientzugriffslizenzen hinzufügen verwalten. Hierüber starten Sie aber nur die Lizenzverwaltung der Remotedesktopdienste.  Wollen Sie den Server in einer Domäne betreiben, können Sie diesen als Mitgliedsserver genauso aufnehmen, wie jeden anderen Server und Computer auf.

Anwendungen und Drucker installieren

Bevor Sie Anwendungen wie Microsoft Office und Co auf einem MultiPoint Server installieren, aktivieren Sie im MultiPoint Manager auf der Registerkarte Start die Option „In den Konsolenmodus wechseln“. Nachdem Sie die Anwendungen installiert haben, aktivieren Sie die Option „In den Stationsmodus wechseln“.

Damit die Anwender auch drucken können, müssen Sie auf dem MultiPoint-Server die Drucker direkt installieren und freigeben. Außerdem sollten Sie in den Eigenschaften der Drucker auch mit Berechtigungen arbeiten. Die Drucker, für die Anwender berechtigt sind, werden automatisch an den Stationen angezeigt, sobald diese auf dem Server installiert sind.

MultiPoint einrichten

Nachdem Sie die notwendigen Rollen und Features installiert haben, beginnt die eigentliche Einrichtung von MultiPoint. Die Verwaltung der Rolle erfolgt über ein eigenes MultiPoint Dashboard. Dieses verhält sich ähnlich zur Essentials-Rolle in Windows Server 2012 R2 und Windows Server 2016. Über dieses Dashboard verwalten Sie die angeschlossenen PCs und Clients. Zusätzlich spielt auch noch der „MultiPoint Manager“ eine wichtige Rolle bei der Verwaltung des Dienstes. Hier legen Sie die Benutzer an und steuern viele wichtige Einstellungen. Mit dem MultiPoint Manager verwalten Sie also den MultiPoint-Server, mit dem MultiPoint Dashboard verwalten und steuern Sie die angebundenen Stationen. Sie können hier zum Beispiel Blockierungen einbauen, USB-Geräte sperren, Benutzersupport liefern und Stationen vom Server trennen.

 

Nachdem Sie MultiPoint Services installiert haben, starten Sie zunächst den MultiPoint Manager. Die Verwaltung des Servers über den MultiPoint Manager unterteilt sich in verschiedene Menüpunkte. Im oberen Bereich des Managers stehen die Menüpunkt Start, Stationen, Benutzer und Virtuelle Desktops zur Verfügung. Auf der rechten Seite des Managers legen Sie wiederum Einstellungen des Servers fest. Hier ist der Menüpunkt Servereinstellungen bearbeiten interessant. Hier steuern Sie zum Beispiel, ob sich ein Benutzer auch an mehreren Stationen anmelden darf, ob ein Remoteverwaltung möglich ist und einiges mehr

Microsoft gibt PowerShell frei

Vierzehn Jahre nach ihrer Geburtsstunde hat Microsoft seine PowerShell unter einer MIT-Open-Source-Lizenz auf GitHub verfügbar gemacht. Gerüchte gab es schon lange, dass die Redmonder einen solchen Schritt planten.

Nur der erste Schritt

Erstmals erschienen war Microsofts Kommandoschnittstelle für das Konfigurationsmanagement mit Anleihen bei Unix (Pipes) und objektorientierten Sprachen 2002. Nach Aussage von CEO Satya Nadellas fügt sich die Entscheidung, PowerShell unter Open Source zu stellen nahtlos in Microsofts Strategie, sich als Konzern mehr für die Open-Source- und Multi-Plattform-Community zu öffnen. Erster Schritt in dieser Richtung war die Open-Source-Stellung vom .NET Ende 2014.

Auch für Jeffrey Snover, Technical Fellow der Microsoft Enterprise Cloud Group und Verfasser des Blogposts zur PowerShell-Verfügbarkeit markiert der Schritt nur der Anfang einer spannenden Reise. Viele Microsoft-Teams arbeiteten derzeit daran, Kunden Verwaltungswerkzeuge an die Hand zu geben, mit denen diese künftig eine Vielzahl an Plattformen von überall und auf jedem Gerät verwalten können, egal ob mit Windows, Linux oder Mac OS:

Linux und Mac OS X

Die Open-Source-Variante der PowerShell unterstützt in der momentan vorliegenden Alpha-Status offiziell Ubuntu 14.04/16.04, CentOS 7.1 und Mac OS X 10.11. Die Kompatibilität mit Third-Party-Software ist derzeit laut Microsoft noch sehr beschränkt. Microsoft steht aber laut der offiziellen Ankündigung bereits mit anderen Vielen Software- und Cloud-Herstellern in Kontakt, darunter VMware, Amazon Web Services und Google Cloud Platform. Auch mit den Entwicklern von Chef werde bereits zusammengearbeitet. Weitere sollen folgen.

Auch bietet die Linux-Alpha-Version noch nicht sämtliche von Windows bekannten Funktionen. So ist zur Zeit z. B. nur eine lokale Anmeldung möglich, sodass sich entfernte Systeme noch nicht administrieren lassen. Microsoft arbeitet zudem bereits am OpenSSH-Support, um sichere Verbindungen zwischen Desktop-Versionen von PowerShell und Backend-Servern zu ermöglichen.

Deutschlands naiver Traum von der smarten Fabrik

Wer also ein reiches Angebot an altem Wein in neuen Schläuchen sehen will, der möge sich hier etwas umschauen. Unhaltbare Heilsversprechen, zahlreiche Trittbrettfahrer und eine enorme mediale Aufmerksamkeit – Industrie 4.0 erfüllt alle Kriterien für einen Hype. Zudem basiert Industrie 4.0 auf dem Denkfehler, dass ein nicht lineares und soziales System wie eine Fabrik mit Algorithmen steuerbar ist. Das hat noch nie funktioniert und dies wird auch dieses Mal so sein.

Das Narrenschiff ist auf dem Weg – ohne Ziel und ohne Kompass. Und alle wollen mit. Alle? Nein, denn ausgerechnet diejenigen, um die es eigentlich geht wollen partout nicht mit an Bord. So erklärt eine wachsende Zahl mittelständischer Produzenten offen, dass sie sich an Industrie 4.0 nicht beteiligen will. Das liegt aber nicht an deren vermeintlicher Schläfrigkeit, wie von den Treibern von Industrie 4.0 gerne kolportiert wird, sondern an der mangelnden Qualität des Angebotenen.

Das ist auch das Ergebnis einer desaströsen Kommunikation. Denn wie bei jeder großen Veränderung braucht auch Industrie 4.0 eine Vision und eine Antwort auf die Frage nach dem „Warum“. Auf beides warten wir seit fünf Jahren vergebens. Stattdessen hören wir die pauschale Aussage, dass dies nun einmal die nicht aufzuhaltende Zukunft sei. Man fügt noch eine Prise Angst hinzu und behauptet, dass derjenige unweigerlich ins Hintertreffen gerät, wer hier nicht mitmacht.

Der eigentliche Sinn der webbasierten Vernetzung besteht aber in datenbasierten Geschäftsmodellen, ihre Potenziale liegen außerhalb der Fabriken. Diese Potenziale findet man aber nicht, wenn der Denkhorizont nur bis ans eigene Werkstor reicht. Industrie 4.0 zielt hierzulande einseitig auf Performance der Produktion und kommt gedanklich nicht aus dem kleinen Karo der Fabrik hinaus.
 
Stattdessen betreibt man ebenso lustvoll wie selbstverliebt Nabelschau und löst mit Hingabe technische Probleme, vornehmlich die der Datenschnittstellen. Die Show hat auch einen Namen: Deutschland sucht den Super-Standard. Die Überlegung dahinter lautet, dass erst die Existenz eines technisch überzeugenden Informationsstandards spannende Anwendungen möglich macht. Umgekehrt ist es aber richtig: spannende Anwendungen bestimmen, welcher Standard sich durchsetzen wird.

Und genau das haben die Amerikaner erkannt. So tüfteln die Deutschen an Schnittstellen, während die Amerikaner Geschäftsmodelle entwerfen. Die Deutschen fragen sich, wie das funktioniert – die Amerikaner fragen sich, welches Geld man damit verdienen kann. Die Rollenverteilung ist klar. Die Amerikaner stecken die digitalen Claims ab und schaffen neue Märkte, während sich die Deutschen widerstandslos den Platz in der zweiten Reihe haben zuweisen lassen – als austauschbare Hardwarelieferanten von Internet-Unternehmen. Und unsere Fabrikausrüster, die Industrie 4.0 lediglich als Konjunkturprogramm begreifen und sich angesichts erwarteter Umsatzzuwächse derzeit freudig die Hände reiben, haben nicht verstanden, dass es genau diese Entwicklung ist, die sie selber hinwegfegen wird.

Industrie 4.0 darf nicht länger dogmatisch daherkommen und ist auch kein Selbstzweck. Einigkeit besteht darüber, dass die Vernetzung des Digitalen die Welt verändern wird. Deshalb hat Industrie 4.0 endlich die Technikecke zu verlassen und ist von der Gesellschaft und vom Markt her zu denken. Dies muss sich in neuen Geschäftsmodellen abbilden und bedarf der Bereitschaft, das eigene Geschäftsmodell unsentimental zu zerstören, statt es linear fortzuschreiben. Industrie 4.0 hat nur dann eine Chance auf Erfolg, wenn sie sich die Frage stellt, wie wir zukünftig wirtschaften, arbeiten und leben wollen und aus den Antworten die richtigen Schlüsse zieht.

 

Industrie 4.0 erfordert Sales 4.0

Eine Studie des Fraunhofer Instituts und der BITKOM zum Thema „Industry 4.0“ zeigt, dass durch den Trend zu Industrie 4.0 und Internet of Things alleine in 6 Marktsegmenten in Deutschland bis 2025 78 Mrd. Euro an zusätzlichem Geschäftspotential realisiert werden können. Das entspricht einer jährlichen Wachstumsrate von 1.7%.

Deutschland, die Schweiz und weitere europäische Länder sind regelmässig vorne mit dabei, wenn es um Entwicklungen und um Erfindungen geht.
Beim Ausschöpfen der Geschäftspotentiale daraus hapert es – Zukunfts-Themen werden oft in Ländern ausserhalb Europas besetzt oder schlicht „abgesogen“. Das volkswirtschaftliche Potential bleibt damit in Europa ungenutzt.
 
Dies führt dazu, dass die Wachstumsraten in Asien und den USA höher sind als in Europa und Schlüssel-Kompetenzen, Technologien und Ressourcen wandern ab. Können wir uns das auf Dauer leisten?

Was daran interessiert, sind die Gründe, die dazu führen. Wie immer bei solch komplexen Themen finden sich dafür keine mono-kausalen Ursachen.  

Ein offensichtlicher Unterschied wird jedoch kulturell bedingt bei den Themen Führungsarbeit und Leadership sichtbar – Europa scheint bei Anbietern zu „shoppen“, hat Bedenken und sieht Risiken, rennt Trends, Begriffen, Studien und Universitäten hinterher und die eigene Vision zur Steigerung der Wettbewerbsfähigkeit und des Kundennutzens bleibt (zu) oft auf der Strecke. Wer woanders abschreibt, wenig entscheidet und den aktuellen Geschäftserfolg verwaltet, arbeitet meist profitabel, geht wenig Risiko ein und kann sich immer auf jemanden berufen. Ein Abbruch eines wenig erfolgreichen Vorhabens wird hierzuland als Scheitern und als Makel angesehen. 

In Asien werden zwischenzeitlich hungrig langfristige Ziele und ein volkswirtschaftlicher Aufstieg verfolgt und gezielt Schlüsseltechnologien übernommen.

Die USA gehen Risiken mit neuen, oft disruptiven Geschäftsmodellen ein. Ein potentielles Scheitern wird dabei in Kauf genommen, gehört dazu und wird nicht als Makel angesehen.     

Wer als Entscheider und Unternehmer in Europa langfristig überleben will tut gut daran, nicht nur „Buzzwords“ abzuschreiben sondern selber zu denken und sich Gedanken zu machen, was in der aktuellen Situation wirklich zu einem gesteigerten Kundennutzen und zu einem realen Wettbewerbsvorteil führt.    

Wo anfangen – wie vorgehen – Empfehlungen aus der Praxis 

In der Praxis ist ein goldener Mittelweg möglich: Starten Sie mit Win- und Loss-Analysen im Vertrieb und arbeiten Sie ohne Scheuklappen die wahren Gründe für einen verpassten Kundennutzen heraus. Wundern Sie sich nicht, wenn sich Herausforderungen zeigen, die oft nur abteilungs-übergreifend gelöst werden können z.B. liegen die wahren Gründe für Auftragsverluste oft im Service oder im Produkte-Management.

Dann arbeiten Sie mit Ihren Kunden bei der Erarbeitung von Geschäftsmodellen und Business Cases und kunden- / branchenspezifischen Lösungen zusammen und identifizieren  Sie erweiterten Kundennutzen. Stellen Sie Ihr bisheriges Geschäftsmodell auf die Probe.  

Im nächsten Schritt schaffen Sie bei Ihnen intern die Rahmenbedingungen. Im Kern geht es dabei meist um Change Themen um Aufbruch zu schaffen und um die Stakeholder, die für eine erfolgreiche Umsetzung benötigt werden. Wer eine Vision hat und diese teilt, findet meist Schlüsselpersonen in der eigenen Unternehmung, die mitziehen.  

Dann folgt die Umsetzung bzw. die Optimierung. Diese lässt sich meist nur abteilungsübergreifend erfolgreich und nachhaltig bewältigen.  Die Herausforderung liegt darin, Ressourcen, die bisher fast ausschliesslich in Produkte- oder Abteilungs- Silos reaktiv und ausführend gearbeitet haben, proaktiv in einer Projektstruktur auf ein gemeinsames Ziel und den Kunden auszurichten.   

Bleiben Sie kontinuierlich dran. Industrie 4.0 / IoT ist nichts grundlegend Neues sondern lediglich die weitere Entwicklung der Industrialisierung, der Automatisierung und der Lösungen und Systeme. Viele kleine evolutionäre und sinnvolle Schritte machen in der Summe eine Revolution und erhalten oder steigern die Wettbewerbsfähigkeit. Wettbewerb findet nicht nur zwischen Branchen- oder Firmen sondern global statt. Überleben werden nicht nur die Grössten und Stärksten sondern die Agilsten. 

Fazit: In ausgetretenen Pfaden lässt sich schwer überholen! 

Univention Corporate Server 4.1-3

Das  dritte Update der 4.1´er Version kann wie gewohnt ab sofort in der frei verfügbaren Core Edition heruntergeladen werden.

Einfacher Umgang mit Containern

Die Verbesserungen beziehen sich z. B. unter anderem auf das Migrieren von Legacy-Apps zu Docker-Containern. Dieses gelingt laut Aussage von Univention nun wesentlich einfacher. Im UCS App Center können Apps jetzt in beiden Formaten co-existieren. Auch erlaubt Univention nun Apps-Programmierern, ihre Images mit einem eigenen Branding auszustatten.

Eher in größeren IT-Umgebungen mit zehntausenden von Clients und 100.000 Verzeichnisdienstobjekten interessant ist, dass mit UCS jetzt auch ein Domänenbeitritt weiterer Samba-basierter Active Directory Domänencontroller erlaubt.

Außerdem können Konfigurationseinstellungen für das Datenbankmanagementsystem MySQL jetzt mit Hilfe von UCR-Variablen definiert werden. So lassen sich Einstellungen der Datenbank einfacher an die Bedürfnisse der Apps anpassen.

Erhöhte Sicherheit

Für erhöhte sorgen die mitgelieferten Sicherheitsupdates für Samba, libvirt, OpenSSL, und QEMU. Außerdem gibt es Sicherheitsaktualisierungen in den Standard-LDAP-ACLs und beim UMC-Server. Sämtliche Neuerungen stehen wie gewohnt im Changelog der neuen Version.

Industrielle IoT Adapter und Industrie 4.0

Der Grund dafür liegt unter anderem darin, dass der Eingriff in den laufenden Betrieb vermieden werden soll. Die Maschinen müssen also nachträglich so befähigt werden, dass die Nutzer einfach einen Adapter nachrüsten, mit dem die Maschine Daten nach außen kommunizieren kann. Adapter, Box, Gateway, Middleware oder schlicht: „Kästchen“ – dies sind nur einige der Schlagworte mit denen aktuell Nachrüstlösungen für Industrie 4.0 oder auch industrielle IoT-Adapter (IIoT-Adapter) beworben werden. Trotz unterschiedlicher Marketing-Botschaften und Eigenschaften haben die Geräte oder Softwarelösungen aber viel gemeinsam.

Das Ziel: Interoperabilität

Laut der Studie „Cisco® Visual Networking Index (Cisco VNI)“ [1], [2] sollen im Jahr 2020 26.3 Milliarden Geräte – darunter auch 46 % Maschinen – weltweit vernetzt sein. Im Produktionsumfeld bedeutet dies nicht nur die Ausrüstung neuer Geräte und Maschinen für diesen Anwendungsfall, sondern vor allem in der kommenden Zeit die Nachrüstung bestehender Produktionssysteme. Daher sind viele Anwender auf der Suche nach DEM Standard, DEM Produkt oder DER Lösung. Diese ist heute aber nicht in Sicht und auf Grund der vorherrschenden Rahmenbedingungen seitens Hardware, Software, Protokollen, Tools, etc. nicht realistisch. Dennoch muss eine an die Situation und Umgebung angepasste Interoperabilität das Ziel sein.

Voraussetzung: Vernetzung und Verständnis

Damit die Interoperabilität, die im Rahmen von Industrie 4.0 gefordert wird, gelingt und in der Praxis umgesetzt werden kann, sind allerdings verschiedene Voraussetzungen zu erfüllen. Einerseits muss der Zugang zu den Beteiligten gewährleistet werden, es muss also geregelt sein, wie die Interaktion und Kollaboration mit den Partnern erfolgt. Dies beinhaltet sowohl die Kommunikation, als auch das Management der Beschreibungsdaten inklusive wichtiger Grundlagen wie z.B. die IT-Security. Hier kommt häufig die OPC Unified Architecture ins Spiel, die in der IEC 62541 international standardisiert ist. Damit diese aber mit existierenden Maschinen und Anlagen genutzt werden kann, muss eine Umsetzung zu vorhandenen Protokollen wie z.B. Modbus, CanOpen, Profinet, Profibus, IOLink oder auch Ethercat erfolgen.

Die Informationen, die zwischen den Beteiligten ausgetauscht werden, müssen aber auch verstanden und genutzt werden. Eine semantische Beschreibung der Maschinen und Produktionsanlagen ist hierfür nötig. Dieses einheitliche Verständnis lässt sich nicht nur durch eine einzige Sprache erreichen, da diese in der Praxis auf Grund der Vielfalt an verschiedenen Herstellern, Einsatzgebieten und Domänen nicht realistisch ist. Dennoch können hier vereinheitlichte Informationen, z.B. auf Basis des Datenaustauschformats AutomationML (IEC 62714) dazu beitragen, das Engineering der Maschinen und Anlagen effizienter zu gestalten. Dadurch können Kosten gespart und Prozesse optimiert werden. Diese Modelle müssen zu Gunsten der Nutzbarkeit selbsterklärend sein, d.h. nicht nur die reinen Nutzdaten, sondern ebenfalls die zu Grunde liegenden „Bibliotheken“ und Typ-Beschreibungen und die Semantik enthalten.

Die beiden genannten Standards (AutomationML und OPC UA) sind aufstrebende Kandidaten für das zukünftige Engineering von Neuanlagen. Schon heute ist die Erzeugung und Auslieferung eines digitalen Anlagenmodells in vielen Ausschreibungen von Neuanlagen zu finden.

Der Nutzen: Effizienz und Transparenz

Für die Engineering-Phase können IoT-Adapter, die die Vernetzung und das Verständnis sicherstellen, dazu beitragen, die so gelieferten bzw. erfassten Daten und Informationen für die Konfiguration im Sinne eines Plug-and-work zu nutzen und die Effizienz im Engineering zu steigern. Anwendungsmöglichkeiten sind hier eine schnellere Inbetriebnahme, das Mitliefern der Doku zur Maschine oder Anlage, sowie die Nutzung der Daten zum Engineering anderer Systeme, z.B. MES und Visualisierung.

In der Betriebs-Phase können die erfassten Prozessinformationen in Verbindung mit den bereit gestellten Modellen der Maschinen und Anlagen für Transparenz sorgen. Dies beinhaltet genauere Ausfallprognosen und vorbeugende Wartung (auf Basis der Betriebsdaten), aber auch einen schnellen und kundenfreundlichen Zugriff auf ausgelieferte Maschinen und Anlagen.

All-in-one-enabler for smart production

Um die Vorteile der Vernetzung und des modellgetriebenen Engineerings auch bei Bestandssystemen nutzen zu können, bietet das Fraunhofer IOSB in Kooperation mit der Firma Codewerk gemeinsam eine Lösung an:
den Plug-and-work Cube, ein flexibel erweiterbarer und modell-basierter Datensammler und -konverter.

handwerker_komm_highres0066

Bild: Vernetzung und Verständnis ©Fraunhofer IOSB

Er basiert auf Industrie-Hardware und aktuellen internationalen Standards, arbeitet modellbasiert, ist flexibel erweiterbar und mit zahlreichen Zusatz-Diensten kombinierbar. Bei vielen Anlagen ist die Anbindung rückwirkungsfrei und ohne Änderung des Steuerungsprogramms möglich, d.h. er beeinflusst den normalen Prozessablauf nicht und die Anlage muss nicht neu abgenommen werden.

Internationale Standards

Der Plug-and-work Cube beinhaltet einen aggregierenden OPC-UA Server mit AutomationML „im Bauch“. Das Abbild der Produktionskomponenten steckt also als Informationsmodell nach der OPC UA Companion Specification »OPC Unified Architecture for AutomationML« [3] im Plug-and-work Cube. Dieser kann automatisch seinen Adressraum mittels Informationsmodell (AutomationML, IEC 62714) aufbauen und bietet eine vereinheitlichte Kommunikation nach außen (OPC UA, IEC 62541), z.B. zum MES. Durch die Möglichkeit zur Einbindung mehrerer Kanäle kann die Prozessankopplung realisiert werden, z. B. die Anbindung an mehrere Steuerungen. Die Möglichkeiten, z.B. die Performanz, sind dabei abhängig von verschiedenen Faktoren, wie z.B. der Anzahl der SPS-Variablen und dem Abfragezyklus zur SPS. Weiterhin existieren die folgenden Kanäle: OPC UA Client, Siemens S7, ODBC, OPC DA. Weitere Kanäle können auf Anfrage integriert werden.

Industrie-Hardware

Der Plug-and-work Cube wird auf Basis eines kompakten SIMATIC Industrie-PCs (IPC227E) mit dem Betriebssystem Windows entwickelt.

Zusatz-Dienste

Weitere Dienste können in Zusammenhang mit dem Plug-and-work Cube von anderen Systemen mit Windows-Betriebssystem, wie z.B. der Engineering-Station oder dem Bediener-PC, genutzt werden. So zum Beispiel die Generierung von WinCC oder ProVis.Visu Visualisierung (Bilder) auf Basis des AutomationML Modells der Produktionskomponenten inkl. Kopplung an den aggregierenden OPC UA Server auf dem Plug-and-work Cube.

Auch die Konvertierung von AutomationMLModellen in die XML-Repräsentation der OPC UA Informationsmodelle nach den Regeln der OPC UA Companion Specification »OPC Unified Architecture for AutomationML« kann als Dienst erfolgen.

Weiterhin können zur Erstellung der benötigten AutomationML-Modelle verschiedene Assistenztools eingesetzt werden. Dies sind unter anderem:

  • Plugins für den offiziellen AutomationML-Editor, z.B. zur geführten Erstellung von AutomationML-Modellen nach individuellen Vorgaben oder zur Zusammenführung mehrerer AutomationML-Modelle
  • Prüfung der Modelle auf Konformität zur IEC Spezifikation IEC62714-1, sowie den zugehörigen XML-Schemata, sowie Hinweise zur Korrektur der Modelle und Autokorrekturmechanismen bei Abweichungen von der Spezifi kation
  • Importfunktionalität für weitere toolspezifische Schnittstellen, z. B. Grafikdaten (Format DXF), CSV,XML, Excel, Datenbank, API, …)

 

Die Partner

Das Fraunhofer IOSB befasst sich bereits seit Jahren mit Forschung, Standardisierung und Industrieanwendungen mit dem Thema Plug-and-work (http://plugandwork.fraunhofer.de/) in der Produktion. Die Idee: Produktionskomponenten in Produktionssysteme einfach und sicher integrieren – nach dem Vorbild USB. Ganz so leicht wie im Office-Umfeld ist dies in der Produktion allerdings auf Grund von Heterogenität und Komplexität nicht realisierbar.

Im Umfeld der verschiedenen industriellen Kommunikationsprotokolle und -mechanismen hat die Firma Codewerk aus Karlsruhe langjährige und tiefgreifende Erfahrung. So wurden für die verschiedenen Datenquellen innerhalb industrieller Anlagen (z.B. SPS-Steuerungen, Panels, SCADA-Systeme…) bereits viele Anbindungen realisiert, die die erforderlichen Daten effizient und leistungsfähig bereitstellen.

Hilfen für Anwender

Die am Markt verfügbaren Lösungen an Adaptern, Boxen, Gateways, Middleware, also industriellen IoT-Adaptern, sind für Anwender meist schlecht vergleichbar. Häufig sind aber auch die Auswahlkriterien nicht klar. Am Fraunhofer IOSB sind die Wissenschaftler in der vergangenen Zeit in zahlreichen Projekten auf den Einsatz von Adaptern, Gateways, Boxen, etc. (z.B. die Nutzung von Raspberry PIs oder spezielle Industrie-Lösungen) gestoßen. Daher sollen Nutzeranforderungen für solche IoT-Adapter mit Hilfe einer Umfrage verifiziert werden. Die Teilnehme an der Befragung ist anonym. Das Ausfüllen des Fragebogens nimmt etwa 5-10 Minuten in Anspruch. Die Umfrage, die unter anderem im Rahmen des SecurePLUGandWORK-Projekts (www.secureplugandwork.de) entwickelt wurde) ist bis Ende September unter http://bit.ly/2al7BXi verfügbar. Die Auswertung der Umfrage wird im Nachgang veröffentlicht.

Weiterhin ist die Erarbeitung einer Übersicht am Markt verfügbarer Industrie-Lösungen geplant. Hierfür wird das Fraunhofer IOSB sich direkt an die Hersteller solcher Lösungen wenden.

Das Ziel ist es, die Überschaubarkeit und Anwendbarkeit zu verbessern, so dass Industrie 4.0 noch besser, schneller, leichter, weitreichender ein- und umgesetzt wird.

Autoren des Beitrags: Miriam Schleipen, Peter Hensel, Olaf Sauer

Literatur

[1]       http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/complete-white-paper-c11-481360.html

[2]       http://www.cisco.com/c/m/en_us/solutions/service-provider/vni-forecast-highlights.html

[3]          OPC Unified Architecture for AutomationML, OPC UA Companion Specification, https://opcfoundation.org/developer-tools/specifications-unified-architecture/opc-unified-architecture-for-automationml/, February, 2016.

PowerCLI im vCenter Web Client

Das Tool “PowerActions for vSphere Web Client” ist ein so genanntes Fling und kann aus den  VMware Labs heruntergeladen werden. Die aktuelle Version  v1.5.0 stammt vom Juli dieses Jahres und bringt Support für vSphere 6.0, PowerCLI 6.0 und .NET 4.5 . Entwickelt wird das Tool seit der vSphere-Version 5.1.

Es integriert den vSphere Web Client mit PowerCLI, um komplexe Automatisierungslösungen im vCenter Web-Client anstoßen zu können. So kann der Nutzer PowerShell/PowerCLI-Skripte aus dem Web Client aufrufen oder aus dem Web Client auf eine integrierte PowerShell-Konsole zugreifen.

Wie arbeitet Power Actions?

Technisch betrachtet ist PowerActions als vSphere-Web-Client-Plugin realisiert. Das Plugin integriert zwei neue Symbole „PowerCLI Scripts“ und „PowerCLI Console“ in der der Home-Ansicht des Web-Clients. Außerdem steht ein „PowerCLI“-Menü im Kontextmenü diverses Objekte zur Verfügung. So können für das betreffende Objekt komfortable PowerCLI-Skripte ausgeführt oder erzeugt werden.

Installationsvoraussetzungen

Um das Tool nutzen zu können braucht man zunächst eine PowerShell-Host-Machine ab Windows 2003 Server oder neuer. Dort muss mindestens das .NET framework 4.0 zur Verfügung stehen.

Ferner braucht man PowerCLI selbst passend zur verwendeten vSphere-Version. Zudem braucht man administrative Privilegien. Der betreffende Account muss zumindest das Recht haben, einen neuen Service am VMware Lookup Service zu registrieren und SSO-Benutzer anzulegen. Das gilt aber nur für die Installation.

Installation

Für die Installation setzt man zunächst die benötigte Windows-Maschine auf, sofern nicht vorhanden und installiert dort die PowerCLI.

Vor der Installation des Plugins sollte man dann noch prüfen, dass die PowerShell-Host-Machine und die Maschine, die den VMware Lookup Service hostet – in unserem Fall eine VCSA-Appliance mit eingebettetem PSC – zeitsynchron sind, sonst gibt es seine Fehlermeldung.

Anschließend genügt es, das heruntergeladene msi doppelzuklicken und dem Assistenten zu folgen, wobei im Schritt 2 IP-Adresse oder FQDN der PowerCLI-Maschine anzugeben sind und dann im Schritt 3 IP-Adresse oder FQDN des vCenter-Servers (bzw. der Lookup-Service-Maschine) sowie der erwähnte administrative Account.

Production Checkpoints in Hyper-V

Sie können die Konfiguration der Prüfpunkte aber auch in der PowerShell steuern. Dazu verwenden Sie das CMDlet Set-VM. Als Option verwenden Sie den Namen der VM sowie die Art der Prüfpunkte, die Sie für die VM nutzen wollen:

Set-VM -Name VM_Name -CheckpointType Disabled – Prüfpunkte komplett deaktiviert

Set-VM -Name VM_Name -CheckpointType Production – Prüfpunkte aktiviert. Es werden Produktionsprüfpunkte genutzt, wenn das nicht möglich ist, erstellt Hyper-V einen Standardprüfpunkt

Set-VM -Name VM_Name -CheckpointType ProductionOnly – Prüfpunkte aktiviert. Es werden Produktionsprüfpunkte genutzt, wenn das nicht möglich ist, erstellt Hyper-V keinen Prüfpunkt

Set-VM -Name VM_Name -CheckpointType Standard – Es werden nur die Standard-Prüfpunkte erstellt.

Die Prüfpunkte erstellen Sie weiterhin über das Kontextmenü von VMs im Hyper-V-Manager oder in der PowerShell mit Checkpoint-VM. Wollen Sie einen Prüfpunkt löschen verwenden Sie Remove-VMSnapshot.

PowerShell Direct – Hyper-V in der PowerShell verwalten

PowerShell Direct

 Hier stehen dann die gleichen Befehle zur Verfügung, wie bei normalen Sitzungen. Der Unterschied liegt darin, dass in einer PowerShell Direct-Sitzung die Befehle direkt in der jeweiligen VM gestartet werden. Um eine Sitzung zu starten, geben Sie in der PowerShell-Sitzung auf dem Host einen der folgenden Befehle ein:

Enter-PSSession -VMName <Name der VM im Hyper-V-Manager>

Invoke-Command -VMName <Name der VM im Hyper-V-Manager> -ScriptBlock { Commands }

Für die erfolgreiche Verbindung müssen Sie sich unter Umständen an der Sitzung erst authentifizieren. Weitere Konfigurationen oder Einstellungen in der Firewall sind dazu nicht notwendig.

 

Wollen Sie sich mit einem anderen Benutzer authentifizieren, verwenden Sie Enter-PSSession –VMName <Computer> -Credential <Benutzer>. Mit Exit-Session beenden Sie diese Sitzung wieder. Sie können in Windows Server 2016 und Windows 10 auch Sitzungen unterbrechen und erneut aufzubauen. Bei unterbrochenen Sitzungen laufen die Cmdlets in der Sitzung weiter. Dazu nutzen Sie die Cmdlets Disconnect-PSSession, Connect-PSSession und Receive-PSSession.

Ohne IT-Sicherheit kein Internet der Dinge

Ob Produktion, Gesundheitswesen, Energie oder Transport – das IoT hält derzeit in zahlreichen Branchen Einzug, die zusammen fast zwei Drittel des globalen Bruttoinlandsprodukts erwirtschaften. Unter dem Schlagwort Industrie 4.0 machen sich hierzulande vor allem Unternehmen der Fertigungsindustrie die zunehmende Reife der IoT-Technologien zunutze. Politisch steht die Förderung der Digitalisierung ganz oben auf der Agenda. Im vergangenen Jahr hat das Bundesministerium für Wirtschaft und Energie im Rahmen der „Digitalen Strategie 2025“ mehrere sogenannte Mittelstand 4.0-Kompetenzzentren benannt, die vor allem kleinere und mittlere Unternehmen bei der Digitalisierung ihrer Produktionsprozesse unterstützen.

Hauptknackpunkt: Sicherheit des IoT

Während diese Entwicklung völlig neue Möglichkeiten für Unternehmen und Gesellschaft verspricht, werden jedoch auch zahlreiche Schwachstellen und Sicherheitsrisiken deutlich. Das IoT abzusichern, stellt Unternehmen vor große Herausforderungen. Denn allzu oft wird das Thema Sicherheit erst nachgelagert, als Technologiefolge fokussiert: Zuerst werden die neuen Technologien implementiert und erst im Nachhinein werden die erforderlichen Maßnahmen ergriffen, um sie vor cyberkriminellen Angriffen zu schützen. Hintergrund ist das hohe Innovationstempo und der steigende Wettbewerbsdruck, unter dem die meisten Unternehmen stehen. Die Folge sind Sicherheitslücken und Schwachstellen, die zunehmend professionell organisierte und kommerziell ausgerichtete Cyberkriminelle ausnutzen, um großen wirtschaftlichen Schaden anzurichten.

Bild: FFPR
Bild: HCL Technologies

IoT vergrößert Angriffsfläche um ein Vielfaches

Mit der stark zunehmenden Vernetzung im IoT entstehen für Unternehmen nicht nur neue Chancen, ihre Wettbewerbsfähigkeit zu steigern – sie machen sich dadurch auch angreifbar. Kernziel der Industrie 4.0 ist es, in der Produktion alle Anlagen, Maschinen, Werkstücke, Werkzeuge und Materialien mit Sensoren und eigenen Identitäten auszustatten und diese zu vernetzen, damit sie miteinander kommunizieren und die Produktion auf diese Weise automatisch steuern können. Dadurch entstehen unvorstellbar große Datenströme – die von Cyberkriminellen über die Vielzahl neu vernetzter Endgeräte angezapft werden können. Laut Gartner waren im vergangenen Jahr 4,9 Milliarden Geräte vernetzt. Bis 2020 sind es schätzungsweise 26 Milliarden – 26 Milliarden potenzielle Angriffsziele, über die Hacker Unternehmensnetze infiltrieren können.

Vor internen und externen Gefahren schützen

Daher müssen die ersten Maßnahmen dahin zielen, potenzielle Schwachstellen und Angreifer zu ermitteln. Dabei gibt es grundsätzlich zwei Kategorien:

  1. passive Angreifer, die Sicherheitslücken in IoT-Geräten und Netzwerken ausnutzen, um vertrauliche Daten – etwa Geschäftszahlen, Produktentwicklungen oder Ähnliches – zu stehlen. Diese Angriffe sind meist schwer zu erkennen, da sie häufig von internen Quellen ausgehen. Daher sollten Unternehmen ihre Mitarbeiter sensibilisieren und informieren, wie sie zur Sicherheit des gesamten Unternehmens beitragen können.
  2. aktive Angreifer, die IoT-Geräte und Netzwerke per Sybil- oder Distributed Denial of Service (DDoS)-Attacken angreifen. Ihr Ziel ist es, den Geschäftsbetrieb zu stören und bestimmte Anlagen oder Maschinen lahm zu legen. Diese Angriffe können schwerwiegende, teilweise sogar lebensgefährliche Folgen haben, wenn es sich beispielsweise um medizinische Geräte im Krankenhaus handelt. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hatte von einem solchen Angriff mit fatalen Folgen berichtet: Hacker verschafften sich mittels ausgefeilter Phishing-Taktiken Zugriff zum Netzwerk eines Stahlwerks. Dadurch konnten sie die Steuerung eines Hochofens manipulieren, sodass sich dieser nicht mehr herunterfahren ließ. Dies führte zu massiven Schäden in der Gießerei.

 

Sicherheit geht vor

Daher ist es für IoT-Projekte zwingend notwendig, sie von Anfang an auf Basis einer sicheren Infrastruktur aufzubauen. Dazu zählen neben der Einhaltung von Branchenrichtlinien, wie sie beispielsweise auch vom BSI empfohlen werden, auch regelmäßige Penetrationstests, die Unternehmen frühzeitig auf potenzielle Schwachstellen aufmerksam machen. Entscheidend ist dabei, dass die neuen Sicherheitsstrukturen sämtliche virtuellen und physischen Elemente abdecken, von der Authentifizierung auf Geräteebene bis hin zu Anwendungssicherheit und Datenschutz. Die Herausforderung, die jedes Unternehmen für sich lösen muss, ist es, ein individuelles, umfassendes Sicherheitskonzept zu entwickeln. Denn universelle Pauschallösungen für IoT-Sicherheit gibt es nicht.