Wie sich Microservices auf die Anwendungssicherheit auswirken

Microservices sind im Software Development schon seit mehreren Jahren auf dem Vormarsch. Viele kleine Services anstatt einzelner monolithischer Applikationen zu entwickeln, bietet in der Tat zahlreiche Vorzüge. Eine kleine Auswahl der positiven Effekte einer Microservices-Architektur:

  • Services in verschiedenen Apps mehrfach nutzen. Die Grenzen zwischen Anwendungen verschwinden. Das verändert auch, was eine Applikation eigentlich ausmacht. Ein Beispiel: An die Stelle von vier Apps mit jeweils einer Komponente zur Zahlungsabwicklung tritt ein Microservice für Zahlungen, den mehrere Anwendungen nutzen können.
  • Von größerer technologischer Vielfalt profitieren. Der Entwickler ist für die Dauer eines Projekts nicht länger auf eine einzige Plattform festgelegt. Vielmehr wählt er passgenau die Technologie, die die Anforderungen eines bestimmten Services am besten erfüllt.
  • Vereinfachte Wartung. Wenn ein Teil der Lösung veraltet ist oder Funktionsstörungen auftreten, muss nur ein kleiner Service aktualisiert oder ersetzt werden. Ein enormer Vorteil, denn bei großen Monolithen können schon kleinste Veränderungen gewaltige Wellen schlagen und einen Testing-Albtraum nach sich ziehen.
  • Höheres Entwicklungstempo. Anders als bei großen Plattformen lassen sich kleine Änderungen in einer Microservices-Architektur zügig planen, testen und implementieren. Dies beschleunigt Innovationen – und Unternehmen können neue Funktionen deutlich schneller auf den Markt bringen.

Neue Herausforderungen für die Application Security

Doch wie beeinflussen Microservices ein Programm zur Anwendungssicherheit – speziell im Hinblick auf das beschleunigte Entwicklungstempo, das sie mit sich bringen? Wo ergeben sich neue Herausforderungen für die Application Security? Die häufigsten Diskussionen drehen sich um folgende drei Aspekte:

  • Streben nach Hochgeschwindigkeit. Der Umstieg auf Microservices ist häufig ein Kernelement bei der Einführung von DevOps. Denn mit dem Application-Security-1.0-Ansatz – der Code wird zur Analyse an ein Sicherheitsteam geschickt und dieses liefert anschließend einen Report – bleibt entweder die Geschwindigkeit oder die Sicherheit auf der Strecke. Beides ist für eine DevOps-Kultur unakzeptabel, verspricht diese doch, qualitativ hochwertige – und umfassend gesicherte – Software schnell auf den Markt zu bringen. Das ist jedoch nur möglich, wenn die Anwendungssicherheit Softwaretests automatisiert und mit schnellen Feedbackschleifen ins DevOps-Konzept integriert.
  • Zentralisierte Sicht. Der Umstieg auf Microservices bedeutet für ein Application-Security-Team, dass es mehr – wenn auch kleinere – Anwendungen verwalten muss. Was vordem eine einzige Anwendung war, besteht nun aus Dutzenden von Microservices. Das stellt auch kleine und mittelständische Unternehmen vor eine Herausforderung, die große Firmen schon seit Jahren beschäftigt: Wie lässt sich ein effektives Anwendungssicherheitsprogramm nach Maß betreiben? Hier wird deutlich, wie wichtig eine leicht skalierbare Lösung ist, die eine zentrale Sicht ermöglicht und damit Compliance, die Pflege des Inventars sowie eine kennzahlengestützte Überwachung sicherstellt.
  • Technologisch Schritt halten. Einer der größten Vorteile von Microservices ist, dass genau die Technologie zum Einsatz kommt, die eine bestimmte Anforderung erfüllt. Entwicklungsteams sind immer seltener auf einzelne Programmiersprachen spezialisiert. Neben Java nutzen sie auch Scala oder js und beginnen, sich darüber hinaus beispielsweise GO anzueignen. Solch ein agiles Entwicklungsteam braucht ein agiles Sicherheitsprogramm, das seinen Support laufend auf zusätzliche Frameworks, Programmiersprachen und Integrationspunkte ausweitet.

Agile Anwendungssicherheit

Mit dem Umstieg auf Microservices oder noch einen Schritt weiter auf DevSecOps sollte es jedem Unternehmen möglich sein, Software schneller und in höherer Qualität zu entwickeln. Die Application Security muss diesen Wandel jedoch mitmachen und sich entsprechend anpassen. Andernfalls kommt es zum Konflikt zwischen Bereitstellungsgeschwindigkeit und Sicherheit der Software.

Logistik 4.0 und die digitale Zukunft – Hype oder Realität?

Die Digitalisierung schreitet voran und führt gleichzeitig zu großen Verunsicherungen. In einer repräsentativen Umfrage kannten fast 80 % der Befragten weder die Begriffe Industrie 4.0 oder Internet der Dinge, nur knapp 8 % konnten ansatzweise ihre Bedeutung beschreiben.

Auf der anderen Seite ist Digitalisierung auch immer wieder als Hype der IT- und Beraterbranchen beschrieben worden, die sehr viel von ihren Ideen, wenig aber von der Anwendbarkeit verstehen. Grund genug für eine vorläufige Bestandsaufnahme.

Ein wesentliches Grundprinzip der Logistik ist ihre Eigenschaft der Vernetzung von Leistungen. Kernbegriffe sind logistische Kette oder Supply Chain. Hieraus ergibt sich ein erster Ansatzpunkt. Schaut man genauer auf die Dynamik der Digitalisierung, wie dies jüngst auch das Weltwirtschaftsforum in einem Sondergutachten festgestellt hat, dann geht der Schwerpunkt der Förderung digitaler Innovationen in die Entwicklung von Insellösungen, nicht in vernetzte Anwendungen.

Daten – Ein unterschätzter Faktor

Tatsächlich scheitert die Umsetzung vieler innovativer digitaler Produkte entweder am schlichten Mangel valider Inputdaten und/oder an deren mangelnder Konnektivität, sprich diese organisatorisch wie auch technisch auf gemeinsamen Standards auszutauschen. So hat sich z.B. ein namhafter Geräte- und Anlagenhersteller der SHK-Branche selbst ein straffes 8 Jahresprogramm verordnet, die interne produktbezogene Datenerzeugung und -verwendung von der Entwicklung bis zum After Sales auf eine einzige Datenplattform zu überführen, um wirklich konsequent Industrie und Logistik 4.0 realisieren zu können. Diese Herausforderung wird leider vielfach unterschätzt.

Modellanwendungen sind oft solche, bei denen für ein oder zwei Produkte ein Werk auf der grünen Wiese erstellt wurde. Ein (logistisches) Lifecycle-Management ist in den Konzepten schlicht nicht vorgesehen. Bestes Beispiel ist das Fairphone, dass mit dem Anspruch auf ein nachhaltiges Smartphone angetreten ist und schon jetzt bei Generation 2 die Ersatzteilversorgung für die 1. Generation nicht mehr sicherstellen kann. Solche Entwicklungen sind aber für ganzheitliche Produktions- und Logistikkonzepte schlicht untauglich. Logistik bedeutet auch Nachhaltigkeit.

Mangelnde Schnittstellen, Protokolle und gemeinsame Lösungen

Jetzt erst beginnt die Industrie sich auf gemeinsame Schnittstellen und Protokolle für den Datenfluss zwischen Maschinen und Akteuren zu verständigen. Auch hier ist unmittelbar die Logistik involviert, die solche Informationen in der Supply Chain aufnehmen und weitergeben muss. Sie ist von den Herstellern abhängig.

Ein weiteres Problem der Konnektivität in der Logistik sind neben logischen Standards auch Physische. So hängen z.B. viele digitale Innovationen an intelligenten Behältern und Ladungsträgern (Paletten). Diese sind wieder wirtschaftlich abhängig von Poolsystemen, an denen sich viele Unternehmen beteiligen und so ein Tausch- und Kreislaufsystem ermöglichen.

Dies führt zu Innovationen in der Sackgasse. Bislang hat man daraus wenig Lehren gezogen. Statt endlich das eigentliche Problem der Umsetzung von Technologie anzupacken, setzt man bislang noch immer darauf, Pioniertechnologien zu fördern, die andere Pioniertechnologien schon wieder ablösen, bevor diese überhaupt Marktreife oder Marktdurchdringung erreicht haben.

Ausblick

Die Digitalisierung stellt sich hier gegenwärtig selbst ein Bein. Dies allein ist noch kein Grund generell Entwarnung zu geben. Die Herausforderung an die Mitarbeiter in der Logistik wird sein, auch als »Grenzgänger« die komplexere digitale Welt zu beherrschen. Im zweiten Teil dieser Reihe soll daher näher darauf eingegangen werden, welche Rolle der Flexibilitätsfaktor Mensch gegenüber intelligenten Maschinen in der Logistik hat. Im dritten Teil wird betrachtet, wie sich Logistikkonzepte in einer digitalen Umwelt verändern, welche Auswirkungen z.B. das Ziel Losgröße 1 oder der Trend zum Online-Shoppen haben.

Lesen Sie jetzt auch die weiteren Artikel der Reihe „Logistik 4.0 und die digitale Zukunft“:

IoT-Botnetz Reaper: Neue Gefahr für die Industrie?

Das Reaper Botnetz ist eine Weiterentwicklung des bekannten Mirai Botnetzes, über das Ende vergangenen Jahres mehrere spektakuläre DDoS-Angriffe abgewickelt wurden. Seit mehr als einem Monat ist Reaper still und heimlich gewachsen und hat sich dabei über viele verschiedene Typen an vernetzten Geräten hinweg verbreitet. Der größte Unterschied zwischen den beiden Botnetzen besteht darin, dass Mirai sich über Telnet mit den Geräten verbunden hat. Dabei nutzte es voreingestellte oder schwache Passwörter, um die Kontrolle über die Geräte zu erhalten.

Warum Reaper anders ist

Im Gegensatz dazu sucht Reaper nach Exploits oder ungepatchten Geräten, um auf diese zuzugreifen und sie in eine Command-and-Control-Plattform einzugliedern. Das bedeutet, dass das Botnetz weiter wachsen wird und sich für sämtliche Arten von kriminellen Aktivitäten nutzen lässt. Daher sollten sich Unternehmen auf diese neue Gefahr vorbereiten und sich effektiv davor schützen. Da vor allem Industrie-4.0-basierte Netze nach wie vor in der Regel schwach abgesichert sind, müssen hier zusätzliche Maßnahmen getroffen werden.

Schwachstellen in IoT-Geräten beseitigen, aber wie?

Dabei reicht ein einfaches Ändern des Passworts – wie bei Mirai – im Falle von Reaper nicht aus. Trotzdem sollten natürlich alle mit dem Internet und dem IoT vernetzten Geräte starke Passwörter besitzen. Um die weitere Verbreitung von Reaper zu verhindern, müssen alle Unternehmen und Privatnutzer sicherstellen, dass alle ihre Geräte die aktuellste Firmware-Version nutzen, die sämtliche Sicherheits-Patches enthält.

Da jedoch das Reaper Botnetz bereits viele Geräte kontrolliert, kann es für verschiedenartige Angriffe genutzt werden. Daher sollte sich jeder auf das schlimmste Szenario vorbereiten. Denn noch ist völlig unklar, welche Motive hinter dem Aufbau von Reaper stehen: allgemeines Chaos im Internet, finanzielle Gewinne oder Angriffe auf spezielle Unternehmen?

Für den optimalen Schutz sollten Unternehmen wissen, welche Informationen geschäftskritisch sind und jederzeit überall zur Verfügung stehen müssen. Um diese zentralen Bereiche zu schützen, sind umfassende Sicherheitsmaßnahmen zu installieren sowie ein Notfallplan für den Fall der Fälle zu entwickeln. Nur dann sind im Zeitalter des IoT auch Industrieanlagen vor Gefahren wie Reaper ausreichend geschützt.

Dieser Kommentar wurde von Ralf Sydekum, Technical Manager DACH bei F5 Networks verfasst.

Kosteneffektiv testen dank virtuellen Labs

Selbst das kleinste IoT-Gerät steckt in einer komplexen Umgebung, die zum Zeitpunkt seiner  Entwicklung nicht unbedingt in vollem Umfang untersucht ist. Wir kennen die Security-Probleme, die entstehen, wenn Geräte das erste Mal mit dem Internet verbunden werden. Eine realistische physische Prüflabor-Umgebung einzurichten ist schwierig, und ist diese Arbeit getan, wird diese Umgebung zum entscheidenden Engpass beim Systemtest. Virtuelle Labore beseitigen diesen Flaschenhals und bringen gleichzeitig neue Vorteile für das servicebasierte Testen von IoT-Geräten mit sich.

Viele IoT-Geräte sind nicht bereit für die Primetime

Eine jüngst durchgeführte Studie ergab, dass 80 Prozent der IoT-Applikationen nicht auf Security-Mängel geprüft werden. Wie die Barr Group außerdem herausfand, untersuchen 56% der Entwickler von Embedded-Geräten ihren Quellcode nicht auf Sicherheitslücken, und 37% arbeiten ohne einen schriftlich niedergelegten Codierstandard. Angesichts dieser nicht gerade ermutigenden Zahlen wird klar: Die Hersteller von IoT-Geräten müssen die Themen Qualität, Safety und Security ernster nehmen. In diesem Kontext ist die Testautomatisierung ein wichtiger Schritt, um zu sicherzustellen, dass das Testen mit mehr Rigorosität, Konsistenz und Gründlichkeit erfolgt. Speziell das Testen auf Sicherheitslücken wird oftmals als zu teuer und komplex angesehen, sodass es im Schnelldurchlauf erfolgt oder ganz übersehen wird. Dabei ist es ein kostspieliger Fehler, es den Kunden (und deren Angreifern) zu überlassen, die Sicherheit ihrer IoT-Geräte zu testen.

Die Bestandteile eines virtuellen Labors

Ein reales Prüflabor erfordert ein möglichst wirklichkeitsgetreues Abbild der Umgebung, in der ein IoT-Gerät eingesetzt werden soll. Allerdings gestaltet sich die Skalierung auf eine realistische Umgebung selbst in den modernsten Laboren schwierig. Dieses Problem löst ein virtuelles Labor. Zum Einsatz kommt die Service-Virtualisierung gemeinsam mit weiteren wichtigen Testautomatisierungs-Tools:

  • Die Service-Virtualisierung simuliert sämtliche Abhängigkeiten, die der Prüfling für einen umfassenden Systemtest braucht. Dies schließt alle vom Gerät benutzten Verbindungen und Protokolle sowie realistische Reaktionen auf die Kommunikation ein. Zum Beispiel erlaubt die Service-Virtualisierung die Simulation des Back-Ends eines Enterprise-Servers, mit dem ein IoT-Gerät kommuniziert, um periodische Sensorsignale bereitzustellen. Auf ähnliche Weise kann die Virtualisierung das IoT-Gerät auf realistische Weise steuern.
  • Mit Service- und API-Tests lässt sich der Prüfling so ansteuern, dass die von ihm bereitgestellten Dienste (und die gebotenen APIs) fehlerlos arbeiten. Zur Durchführung der nötigen Performance- und Security-Prüfungen ermöglichen diese Tests eine Bearbeitung über die Automatisierungs-Plattform.
  • Die Laufzeit-Überwachung detektiert Fehler am Prüfling in Echtzeit und zeichnet wichtige Trace-Informationen auf. Beispielsweise lassen sich Speicherlecks, die im fertigen Produkt unentdeckt bleiben können, hiermit frühzeitig und kostengünstig erkennen und beseitigen.
  • Prüflabor-Management und Analytik übernehmen die übergreifende Kontrolle des virtuellen Prüflabors. Einmal virtualisiert, kann die gesamte Laborausstattung nach Bedarf repliziert werden, und die Testläufe lassen sich automatisieren und wiederholen. Die Analysen schließlich liefern die erforderliche Zusammenfassung der Aktivitäten und ihrer Resultate.
Bild 1. Typisches IoT-Ökosystem mit embedded Geräten (Quelle: Parasoft)

Das in Bild 1 gezeigte Edge-Computing-IoT-Ökosystem stellt eine typische Umgebung dar, in der embedded IoT-Geräte eingesetzt werden. Sensoren und Steuerungsgeräte kommunizieren Informationen an die Edge-Struktur. Diese wiederum besteht aus einer Reihe von Geräten oder Applikationen, die Informationen entgegennehmen können und mithilfe von Logik den Geräten antworten oder mit der Cloud kommunizieren. In der Cloud befindet sich übergeordnete Logik, mit der sich auf die gesammelten Informationen reagieren lässt. Die Cloud besteht aus Diensten (Mikroservices, Verbindungen zu Datenbanken, ergänzender Logik oder Third-Party-Diensten) und bildet ein komplexes Geflecht funktionaler Bausteine (im Bild rechts dargestellt).

Tests im IoT-Ökosystem sind auf mehreren Ebenen erforderlich. Um beispielsweise eine neue hinzugekommene Funktionalität im Gateway zu testen, muss bestätigt werden, dass das Gateway Informationen von den Sensoren erhalten kann und in der Lage ist, diese gemäß ihrer Geschäftslogik zu kommunizieren.

Zur Validierung all dieser Komplexität werden Tools wie Parasoft Virtualize (zum Simulieren der erforderlichen Abhängigkeiten) und Parasoft SOAtest (zum Durchführen der Tests) eingesetzt, um diese Inputs zu simulieren. Die genannten Tools liefern Simulationen realistischer Aufrufe der Geräte über das Netzwerk (unabhängig davon, ob Protokolle wie REST/HTTP zum Einsatz kommen oder IoT-übliche Protokolle wie CoAP, XMPP oder MQTT) und prüfen, ob der Prüfling (in diesem Fall das Gateway) ordnungsgemäß mit den Cloud-Diensten kommuniziert. Hierzu werden die von SOAtest zurückkommenden Antworten validiert. Bild 2 zeigt ein Beispiel dafür, wie sich eine virtuelle Laborumgebung für zu prüfende Edge-Geräte zusammenstellen lässt.

Bild 2. Parasoft Virtualize und SOAtest fungieren als virtuelle Laborumgebung für ein zu testendes Edge-Gerät (Quelle: Parasoft)

Wenn es externe Möglichkeiten zum Kommunizieren von Informationen zum Gateway gibt, lassen sich diese Aufrufe ebenfalls simulieren. Parasoft Virtualize ist dafür vorgesehen, die Prüfumgebung zu stabilisieren und vorhersagbare Reaktionen auf Anfragen zu erzeugen, die sich auf Testdaten aus SOAtest stützen, um das Gateway und die Dienste umfassend zu prüfen.

Schließlich kommunizieren die Dienste der obersten Ebene unter Umständen mit der Edge sowie mit anderen Sensoren und externen Aktoren. Hier kann es wichtig sein, die Gewissheit zu haben, dass die Inputs durch die Umgebung zurück zu den Back-End-Systemen gelangen. Parasoft Virtualize übernimmt hier die Simulation des Empfangs dieser Aufrufe bis zur Edge (bis zu den IoT-Geräten) sowie die Weiterleitung dieser Informationen zurück nach SOAtest. So lässt sich bestätigen, dass der Aufruf den Hin- und Rückweg absolviert und sich innerhalb des IoT-Ökosystems wie erwartet verhalten hat. Die Kombination aus Parasoft Virtualize und SOAtest bietet die umfassende Kontrolle zum Testen der gesamten Umgebung – auch mit den Komplexitäten eines IoT-Ökosystems.

Normale Prüfumgebungen sind teuer und dürften sogar mehr kosten als von den meisten Entwicklungsleitern eingeplant. Eine Studie von voke Research ergab, dass in ein Vorproduktions-Labor durchschnittlich 12 Mio. US-Dollar investiert werden. Für die Einrichtung des Labors werden im Mittel 18 Tage benötigt, und für die Konfiguration weitere 12 bis 14 Tage. Somit bedeutet die Bereitstellung derartiger Labore einen enormen Zeit- und Kostenaufwand – und trotzdem stellen sie wegen ihrer eingeschränkten Verfügbarkeit noch einen Engpass für die Prüfaktivitäten dar. Signifikant sind auch die täglichen Betriebskosten eines physischen Labors. In den meisten Fällen kommt es aus Kostengründen ebenfalls nicht in Frage, zur Steigerung des Prüfdurchsatzes ein zweites physisches Labor einzurichten.

Vorteile eines virtuellen IoT-Prüflabors

  • Höhere Qualität durch besseres und umfassenderes Testen – Servicebasiertes Testen bietet die Gewähr dafür, dass alle wichtigen Anwendungsfälle probiert und perfektioniert werden. Automatisierte Performance-Tests gewährleisten Stabilität und Zuverlässigkeit auch bei starker Belastung. Die Laufzeit-Überwachung schließlich stellt sicher, dass schwer auffindbare Fehler gefunden und verfolgt werden.
  • Mehr Sicherheit durch automatisierte Penetrationstests zur Simulation falsch formatierter Daten – Belastungstests können Denial-of-Service-Attacken simulieren, während sich mit der Laufzeit-Überwachung Sicherheitslücken aufdecken lassen. Die Reproduzierbarkeit der Tests stellt sicher, dass jede Iteration, jeder Patch und jedes Release auf die exakt gleiche Weise getestet wird. Hinzu kommt die Vereinfachung der Testentwicklung und -manipulation (etwa zum Verbessern und Erstellen neuer Tests).
  • Geringerer Zeit- und Kostenaufwand und weniger Risiken durch Wegfall der Notwendigkeit teurer Abhängigkeiten für komplette Systemtests – Automatisierung ermöglicht ein Maß an Reproduzierbarkeit und Konsistenz, das von manuellen Tests nicht geboten wird, während gleichzeitig für bessere und vollständigere Tests gesorgt wird. Virtuelle Labore verringern ganz erheblich den Zeitaufwand gegenüber dem Einrichten physischer Labore, was entsprechende Auswirkungen auf die gesamte Testzeit hat.

Fazit

Angesichts des aktuellen Status der Entwicklung von IoT-Geräten sind Änderungen am Entwicklungs- und Prüfprozess unabdingbar. Zunächst ist die Testautomatisierung eine bewährte Möglichkeit, die Kosten und Risiken zu reduzieren. Der nächste große Schritt zur Verbesserung der Qualität und Sicherheit von IoT-Geräten ist die Verwendung virtueller Labore, die Service-Virtualisierung, servicebasiertes Testen, virtuelles Labor-Management und Laufzeit-Überwachung miteinander kombinieren. Dies reduziert die Bereitstellungs- und Konfigurationskosten enorm, während sich die Qualität der durchgeführten Tests gleichzeitig signifikant verbessert.

 

New seminar series set to introduce novices to AM Technology

In the “discover3Dprinting” series of seminars, formnext will be offering information on additive technologies to those new to the field. This two-hour presentation program, which will be held on all four days of the exhibition, is geared toward developers, CEOs, and other decision-makers – particularly those from small and midsize companies interested in learning more about how they might utilize 3D printing. Among other aspects, participants will find out where the potential of this technology lies and where it can benefit their own production operations.

discover3Dprinting is being held in cooperation with the Aachen Center for Additive Manufacturing (ACAM). The center’s director, Dr. Kristian Arntz, believes that midsize industrial companies, in particular, need a great deal more information about this emerging technology. “Industrial 3D printing is breaking through in many sectors and applications, but firms often don’t know enough about the specialized uses, unit quantities, and areas in which these new methods really pay off,” Arntz points out. 

Succeeding in AM requires a different mindset 

At formnext 2017, numerous exhibitors will be presenting intriguing solutions that can help industrial companies of all sizes benefit from the opportunities afforded by additive manufacturing. “To succeed with AM technology and ultimately turn a profit, you have to adopt a different, more ‘additive’ mindset,” asserts Christoph Stüker, the project manager responsible for discover3Dprinting at formnext organizer Mesago Messe Frankfurt GmbH. “That means coming up with lighter designs, integrating functions, and opting for complete assemblies rather than individual functional components, for example.”

Besides offering a sound overview of the technologies involved, discover3Dprinting will further support this change in mindset by discussing highly practical approaches to assessing the cost of AM equipment, integrating it into existing production processes, and accounting for all of the key factors in play during corresponding implementations. The two-hour program will feature experts from ACAM, who will demonstrate where additive manufacturing has proven useful and where problems can crop up based on real-world examples.

On all four days of the exhibition, the discover3Dprinting seminar will take place right in the middle of the action in the am4u area (Hall 3.0, booth H50) from 9:30 to 11:30 a.m. It will be held in both German (Tuesday and Thursday, 14/16 November) and English (Wednesday and Friday, 15/17 November). Following each seminar, visitors will have the chance to explore specific questions further with the experts from ACAM and apply what they have learned in conversations with this year’s exhibitors. Formnext attendees can take part in discover3Dprinting free of charge.

To find out more and register, please visit formnext.com/discover.

formnext 2017 bietet mit neuer Seminarreihe „discover3Dprinting“ Wissen über additive Technologien für Einsteiger

Mit der neuen Seminarreihe „discover3Dprinting“ bietet die formnext Wissen über die Additive Technologien für Einsteiger. Das zweistündige Vortragsprogramm, das an allen vier Messetagen angeboten wird, richtet sich an Geschäftsführer, Entwickler und Entscheider insbesondere in kleinen und mittleren Unternehmen, die das 3D-Printing näher kennen lernen und nutzen möchten. Die Teilnehmer erfahren unter anderem, wo die Potentiale liegen und wo diese Technologie gewinnbringend in der eigenen Produktion eingesetzt werden kann.

discover3Dprinting wird in Kooperation mit dem ACAM Aachen Center for Additive Manufacturing veranstaltet. ACAM-Geschäftsführer Dr. Kristian Arntz hat vor allem in der mittelständischen Industrie einen großen Informationsbedarf für diese noch junge Technologie ausgemacht: „Der industrielle 3D-Druck etabliert sich in vielen Branchen und Anwendungen. Trotzdem fehlen oftmals genaue Kenntnisse darüber, für welche Applikation, Stückzahlen und Themenfelder sich die neuen Verfahren wirklich lohnen.“  

Mit „Mind-Change“ AM erfolgreich nutzen

Auf der formnext 2017 bieten zahlreiche Aussteller interessante Lösungen, wie große, mittlere und kleine Industrieunternehmen von den Möglichkeiten der Additiven Fertigung profitieren können. „Um Additive Fertigung erfolgreich zu nutzen und letztendlich damit auch Geld zu verdienen, braucht man einen „Mind-Change“. Man muss lernen „additiv“ zu denken – also zum Beispiel in neuen, leichteren Konstruktionen, Funktionsintegration oder kompletten Baugruppen an Stelle einzelner Funktionsteile“, so Christoph Stüker, zuständiger Projektmanager beim formnext-Veranstalter Mesago Messe Frankfurt GmbH.

Bei diesem „Mind-Change“ möchte „discover3Dprinting“ helfen, indem die Seminarreihe einen fundierten Überblick über die eingesetzten Technologien gibt und gleichzeitig ganz praktische Ansätze diskutiert wie der Preis für eine Anlage ist, wie sich diese Technologie in bestehende Produktionsprozesse integrieren lassen oder was man alles bei der Einführung beachten muss. In dem zweistündigen Seminarprogramm zeigen Experten von ACAM anhand praktischer Beispiele, wo sich Additive Fertigung bewährt hat und an welchen Stellen auch Probleme auftauchen können.

Auf der formnext findet das Seminar „discover3Dprinting“ an allen Messetagen mitten im Geschehen, auf dem am4u Areal in Halle 3.0 Stand H50 jeweils von 9:30 bis 11:30 Uhr statt. Die Veranstaltung wird in deutscher Sprache (Dienstag, 14.11. und Donnerstag, 16.11.2017) und in englischer Sprache (Mittwoch, 15.11. und Freitag, 17.11.2017) angeboten. Im Anschluss besteht jeweils die Möglichkeit, mit den Experten von ACAM konkrete Fragen zu vertiefen, sowie gut vorbereitet auf einem Messerundgang weitere Themen mit den Ausstellern zu diskutieren. Die Teilnahme ist für Besucher der formnext kostenlos.

Weitere Informationen und Anmeldung unter www.formnext.de/discover

Augmented Reality verändert die B2B-Branche

AR verbindet die Wahrnehmung von Personen in der realen Welt mit computergenerierten Informationen. Am bekanntesten ist hier Google Glass. Die Brillen wurden viel diskutiert, aber es zeigte sich schnell, dass auch das nicht mehr als ein kurzer Hype war – zum Teil, weil schlicht die falsche Zielgruppe angesprochen wurde.

Einsatzszenarien neu denken

Im Business-Bereich gibt es viel geeignetere Anwendungsmöglichkeiten als im Alltag. Letztlich macht es mehr Sinn, wenn beispielsweise Ingenieure oder Maschinenbauer AR-Brillen verwenden. Man hat seine Hände frei und kann sich voll auf die Arbeit konzentrieren, da man alle wichtigen Daten zu einer Maschine direkt vor Augen hat. So lassen sich Maschinen dank nützlicher Einblendungen, wie Informationen zum Aufbau der Maschine oder mögliche Problemstellungen, viel schneller reparieren. Wenn man noch weitergehen will, ist der Ingenieur sogar in der Lage, fehlende Produkte direkt über die AR-Brille zu bestellen oder mit weiteren Personen in Kontakt zu treten, die bei der Problemlösung helfen könnten. Das ist viel sinnvoller, als wenn man im Alltag durch die Stadt läuft und währenddessen Werbeanzeigen präsentiert bekommt.

Eine im Jahr 2016 veröffentlichte Studie von PWC zeigt, dass einer von drei Herstellern erwartet, dass Virtual Reality (VR) und AR-Technologien bis 2018 im Einsatz sind. Und auch auf der 3. VDI- Fachkonferenz Augmented und Virtual Reality in München wurde die Unternehmenstauglichkeit und die Möglichkeiten der neuen Technologien diskutiert.

Stephen Dyson, Product Marketing Manager Europe bei Proto Labs: „Neue Technologien verändern die Arbeitswelt vor allem im Bereich der Herstellung teils grundlegend. Durch den Einsatz von 3D-Druck gefertigten Teilen können neue Arten von Prototypen entwickelt werden und Ingenieure und Maschinenbauer haben neue Möglichkeiten bei der Entwicklung. AR-Brillen und andere Technologien finden in diesen Bereichen einen geeigneten Einsatz und unterstützen die Abläufe in einer neuen Arbeitsumgebung. Schnelligkeit und Präzision sind wichtige Merkmale, die Unternehmen und deren Produkte auf dem Markt stark machen. Mit der Unterstützung von neuen Technologien lassen sich viele neue Wege gehen, die bisher nicht möglich waren. Auch unsere Kunden bringen immer wieder innovative Produkte auf den Markt, die wir dank der Kombination von 3D-Druck, CNC und Spritzguss-Lösungen nach Wunsch fertigen können.“

Ressourcenautorisierungsrichtlinien erstellen und verwalten

Remotedesktopserver entweder als einzelnes Computerkonto oder besser als Gruppe hinterlegt sind. Sie müssen an dieser Stelle sicher sein, dass Ihre Auswahl konsistent ist. Das heißt, dass für die Gruppen, die Sie in der RD-CAP definieren eine RD-RAP existieren muss, die auf die entsprechende Gruppe in Active Directory verweist, in der sich die Computerkonten der Remotedesktopserver befinden.

Damit das Remotedesktopgateway funktioniert, müssen Sie darüber hinaus sicherstellen, dass der Systemdienst Remotedesktopgateway gestartet ist. Ohne diesen Dienst ist keine Verbindung möglich. Auch die Standardwebseite in der IIS-Verwaltung muss gestartet sein, damit der Zugriff funktioniert. Stellen Sie sicher, dass das Zertifikat für den Gatewayserver installiert ist.

Sie können in den Eigenschaften des Servers auf der Registerkarte SSL-Zertifikat entweder das bei der Installation erstellte Zertifikat verifizieren oder ein neues Zertifikat ausstellen. Stellen Sie sicher, dass das Zertifikat auf dem Server installiert ist.

Damit sich Clients über das Internet mit dem Gateway verbinden, müssen Anwender in den Optionen für den Remotedesktopclient auf der Registerkarte Erweitert die Schaltfläche Einstellungen anklicken. Anschließend können Sie Einstellungen für den Verbindungsaufbau über ein Gateway konfigurieren.

Gruppenrichtlinieneinstellungen und Systemeinstellungen für die Spiegelung

Sie finden die Konfiguration über „Benutzerkonfiguration/(Richtlinien)/Administrative Vorlagen/Windows-Komponenten/Remotedesktopdienste/Remotedesktopsitzungs-Host/Verbindungen“. Hier finden Sie die Einstellung „Regeln für Remotesteuerung von Remotedesktopdienstebenutzern festlegen“.

Sie können an dieser Stelle entweder eine Gruppenrichtlinie in der Domäne erstellen und den Remotedesktop-Sitzungshosts zuweisen, oder Sie nehmen die Einstellung einfach in den lokalen Richtlinien der einzelnen Remotedesktops-Sitzungshosts vor (gpedit.msc). Ohne dass Sie etwas einstellen, dürfen nach Administratoren der Erstellung einer Sammlung im Server-Manager die Spiegelung durchführen. Es sind keine Zusatzwerkzeuge oder besondere Einstellungen notwendig, Spiegelungen funktionieren in Windows Server 2016 automatisch. Aktivieren Sie die Richtlinie auf einem Server haben Sie verschiedene Einstellungsmöglichkeiten:

Um Einstellungen zu ändern, aktivieren Sie die Richtlinie und wählen aus dem Dropdownmenü aus den angezeigten Optionen aus:

Keine Remoteüberwachung zulassen –  Administratoren können keine Remotesteuerung verwenden oder Remotebenutzersitzungen anzeigen. Eine Spiegelung ist daher nicht erlaubt. Wenn ein Administrator eine Sitzung spiegeln will, erscheint die Meldung, dass die Funktion über Richtlinien geblockt ist.

Vollzugriff mit Erlaubnis des Benutzers –  Erlaubt Administratoren mit der Zustimmung des entsprechenden Benutzers die Steuerung einer Sitzung, also auch die Bedienung. Natürlich ist dann auch das Anzeigen erlaubt.

Vollzugriff ohne Erlaubnis des Benutzers – Erlaubt Administratoren auch ohne Zustimmung des Benutzers die Steuerung der Sitzung. In diesem Fall können Administratoren beim Spiegeln auch den Haken bei der Option entfernen, dass der Benutzer gefragt werden muss. Auch die Anzeige-Funktion ist mit dieser Einstellung erlaubt.

Sitzung mit Erlaubnis des Benutzers anzeigen – Erlaubt Administratoren das Anzeigen von Sitzungen mit Zustimmung des Benutzers. Eine Steuerung der Sitzungen ist aber nicht erlaubt.

Sitzung ohne Erlaubnis des Benutzers anzeigen – Ermöglicht Administratoren das Anzeigen von Sitzung auch ohne dessen Zustimmung.

Cybersicherheit in der Industrie – ein Projekt mit großer Tragweite

Es mangelt nicht an Beispielen, die den Ernst der Bedrohung und die Anfälligkeit von verschiedenen Branchen unterstreichen: Energie, Transport usw. Cyberterrorismus kann hier nicht nur enorme Auswirkungen auf die Produktion oder Leistung haben, sondern auch das Image der Industrieunternehmen schädigen. Eine auf die jeweilige Branche zugeschnittene Sicherheitspolitik bietet Schutz vor digitalen Bedrohungen und bereitet das Unternehmen auf die Zukunft vor.

Schutz der gesamten Produktion

Ein altes Sprichwort sagt: Zeit ist Geld. Mit jeder Schwachstelle im Netzwerk entstehen ökologische und finanzielle Risiken. Zudem kann sie zu Datenverlusten und zur Gefährdung von Menschen führen. Immer wieder zeigen neue Cyberangriffe die Schwächen ungeschützter Systeme. Die Aktualisierung der Infrastrukturen unterliegt oft betriebsbedingten Einschränkungen und kann nicht vorgenommen werden. Deshalb sollte man auf zentrale Geräte setzen, die sowohl die Operational Technology (OT) als auch die Informationstechnologie (IT) abdecken. Die Produktionssysteme profitieren so von einer Kombination der Schutzmaßnahmen, ohne negative Auswirkungen auf das Geschäft.

Workstations: Sicherheitskette schließen

In einer Microsoft Windows-Umgebung, die im Arbeitsalltag in der Industrie eine wichtige Rolle spielt, sind Workstations im Betrieb Angriffspunkte. Eine effiziente Infrastruktur muss mit hochentwickelten Cyberattacken und Fahrlässigkeit umgehen. Dazu sind verschiedene Maßnahmen wie die Verhaltensanalyse oder die Kontrolle von Peripheriegeräten wie USB-Sticks erforderlich. Letztere stellen eine echte Gefahr dar, denn über sie ist ein unerwünschtes Eindringen ins System möglich.

Sichere Remote-Workstations und sicherer Remote-Zugriff

Manchmal muss der Zugang zu einem Industriesystem für die Überwachung, Fernwartung oder zur Optimierung der Prozesse (IOT und Cloud Computing) gewährt werden. Dadurch entsteht jedoch ein Schwachpunkt im System, den Cyberkriminelle ausnutzen können. Bei ganzheitlichen Umgebungen muss der Remote-Zugriff geschützt und die Remote-Workstation gesichert werden.

Hohe Netzwerkverfügbarkeit gewährleisten

Die IT-Verantwortlichen müssen dafür sorgen, dass das System innerhalb der Sicherheitsbestimmungen ordnungsgemäß funktioniert. Die Sicherheitsgeräte müssen mit den vorhandenen Prozessen kompatibel sein. Ein Hochverfügbarkeitssystem oder ein „Fail-Open“-Mechanismus sind zwingend erforderlich.

Eine Konvergenz zwischen IT und OT ist unbedingt notwendig. IT-Sicherheit ist dann gefordert, wenn der OT-Cyberschutz zur Nebensache wird. Dennoch unterscheiden sich die Risiken für industrielle Systeme im Vergleich zu denen der Informationstechnologie. Die beiden bisher unabhängigen Welten kommen sich langsam näher. Sie müssen aber voneinander lernen, um die Sicherheitsrisiken zu minimieren.

Im Original von Robert Wakim, Industry Offer Manager, Stormshield