Industrie 4.0: die ungeklärte Revolution – Teil 2

3. Wer verantwortet den 3D-Druck?

Noch überwiegt die Zahl der unbeantworteten Fragen. Derzeit ist beispielsweise weder geklärt, wer in einem Additive Manufacturing-Prozess für Sicherheit sorgen muss, noch wer eine rechtliche Gewährleistungspflicht für das Produkt hat: Ist es der Hersteller des 3D-Druckers, der Lieferant des Rohmaterials oder der Anwender des 3D-Druckers? Eine der größten Herausforderungen für die Qualitätssicherung und Zertifizierung in der additiven Fertigung ist es, geeignete Standards zu schaffen: für die Materialien, die Prozesse und die Produkte. Der erste Schritt in der Qualitätssicherung für ein additiv gefertigtes Produkt besteht darin, bereits die Rohmaterialien zu prüfen und zu charakterisieren. 3D-Druck mit Metallen beispielsweise findet im Wesentlichen mit einem Metallpulver als Rohmaterial statt – schon dessen Eigenschaften spielen für die Qualität des Endprodukts eine wesentliche Rolle: sei es die chemische Zusammensetzung des Pulvers, die Größenverteilung der Partikel, die Fließfähigkeit oder die Temperatur. Auch die Dichte des Pulverrohmaterials hat einen wichtigen Einfluss auf die Porosität des fertigen Produkts. Zudem sind prozessbegleitende Prüfungen notwendig, damit der eigentliche Fertigungsprozess innerhalb der erforderlichen Toleranzbereiche stattfindet. Ebenso sind natürlich Prüfungen des fertigen Produkts geboten. Was Qualitätssicherung, Validierung, Prüfung und Zertifizierung der Produkte aus additiver Fertigung angeht, gibt es noch große Lücken. UL unterstützt die Normierungsanstrengungen von Organisationen wie ISO und ASTM im Bereich additiver Fertigung, aber faktisch ist derzeit noch vieles ungeklärt.

  1. Arbeitssicherheit in der autonomen Smart Factory

Ein wichtiger Aspekt von Industrie 4.0 ist der hohe Grad an Selbstorganisation, der die Fertigung in der Smart Factory der Zukunft auszeichnen wird. Die neuen cyber-physischen Systeme sollen intelligent genug sein, Produktionsprozesse selbst zu definieren und autonom zu steuern. Die cyber-physische Smart Factory wird hochflexibel sein und soll dank einer umfassenden vertikalen Integration ad hoc auf eine konkrete Nachfrage reagieren können: Kündigt sich beispielsweise im Auto das Versagen einer Komponente an, bestellt die Smart Factory bereits die benötigten Rohstoffe, verändert den Standort von Betriebsmitteln, richtet die Fertigungsstraße ein und produziert das Ersatzteil. Auch unsere Arbeitswelt wird sich durch diese Dynamisierung nachhaltig ändern. Im hochflexiblen Smart Manufacturing der Zukunft werden Fertigungsmitarbeiter wohl auf die Rolle von Kontrolleuren für autonom arbeitende Systeme reduziert. Zugleich hat eine extrem dynamische Arbeitsumgebung gravierende Konsequenzen für die Arbeitssicherheit. Hier stellt sich die große Frage: Wie lässt sich überhaupt für Arbeitssicherheit in einer Industrie 4.0-Welt sorgen? Wie gelingt es, einen sicheren Rahmen für die flexible Arbeitsumgebung einer Smart Factory zu schaffen und Mitarbeiter vor Schaden zu schützen? Es wird die gemeinsame Aufgabe von Industrie einerseits und Sicherheits- und Zertifizierungsunternehmen andererseits sein, zu erforschen, wie Sicherheit in diesem Kontext sinnvoll definiert und gewährleistet werden kann.

Hier geht es zum ersten Teil des Artikels „Sicherheit als Herausforderung für eine Industrie 4.0-Welt

Open-Source-Object-Speicher auf Google Cloud Platform verfügbar

Mit Red Hats flexiblen und portabler Speicherlösung Red Hat Gluster Storage können Unternehmen auf einfache Weise einen skalierbaren, hybriden Cloud Storage implementieren.

Wie Red Hat vor wenigen Wochen mitteilte ist Red Hat Gluster Storage nun auch auf Googles Cloud Platform verfügbar. Mit dem Einsatz von Red Hat Gluster Storage in der Goolge Cloud können Unternehmen nun identische Storage-Technologie sowohl on premise, als auch auf einer Cloud-Plattform nutzen.

Dies erlaubt unter anderem ein Weiterverwenden vorhandenen Applikationen, wenn dieser in die Cloud migriert werden.

Einheitlicher Speicherpool

Technisch gesehen erlaubt das Zusammenführen mehrerer Google Persistent Disks mit Red Hat Gluster Storage das Bereitstellen eines einheitlichen, hochverfügbaren Speicherpools, der Datenmengen im Petabyte-Bereich ohne Unterbrechung des laufenden Betriebs verwaltet.

Dank Verwendung Posix-kompatiblen, verteilten Dateisystems können so eine Vielzahl verschiedener Anwendungen auf der Google Platform betrieben werden. Unternehmen können so die Cloud auf einfache Weise in ihre Backup- und Datensicherungsstrategie integrieren. Googles Public Cloud könnte dabei z. B. als Backup- oder Disaster-Recovery-Umgebung für Produktionsdaten oder Applikationen dienen.

Weitere Informationen: File Services on Google Compute Engine

Datensicherung lokal und in der Cloud verschlüsseln

SQL Server 2014 unterstützt die  Verschlüsselungsalgorithmen AES 128, AES, AES 192 256 und Triple DES. Als Verschlüsselung können Sie entweder ein Zertifikat oder einen asymmetrischen Schlüssel verwenden. Wollen Sie eine Sicherung wiederherstellen, ist das Zertifikat, oder der asymmetrische Schlüssel dafür notwendig.

Die Funktionen stehen allerdings in den Editionen SQL Server Express und SQL Server Web nicht zur Verfügung. Außerdem können Sie die Sicherungen nur auf Servern mit SQL Server 2014 wiederherstellen. Die Verschlüsselung können Sie entweder im Management Studio durchführen, oder über T-SQL. Auch die PowerShell können Sie zur Datensicherung und zur Verschlüsselung verwenden. Die Vorgehensweise ist dabei recht einfach, wie wir im folgenden Beispiel zeigen. Sie benötigen zunächst einen Datenbank-Hauptschlüssel der Masterdatenbank. Diesen legen Sie am besten mit einer T-SQL-Abfrage an:

USE master;

GO

CREATE MASTER KEY ENCRYPTION BY PASSWORD = ‚<Kennwort>‘;

GO

Idealerweise sollten Sie auch noch ein Zertifikat für die Sicherung erstellen. Auch dazu verwenden Sie eine T-SQL-Abfrage:

Use Master

GO

CREATE CERTIFICATE backupcert

   WITH SUBJECT = ‚Mein Sicherungs-Zertifikat‘;

GO

Wenn Sie die Vorbereitungen getroffen haben, können Sie die Sicherung ebenfalls mit T-SQL erstellen. Um eine Datenbanken verschlüsselt über T-SQL zu sichern, verwenden Sie zum Beispiel folgendes Skript:

BACKUP DATABASE [Einkauf]

TO DISK = N’C:\backup\Einkauf.bak‘

WITH

  COMPRESSION,

  ENCRYPTION

   (

   ALGORITHM = AES_256,

   SERVER CERTIFICATE = backupcert

   ),

  STATS = 10

GO

In der PowerShell verwenden Sie:

$encryptionOption = New-SqlBackupEncryptionOption -Algorithm Aes256 -EncryptorType ServerCertificate -EncryptorName „BackupCert“

Backup-SqlDatabase -ServerInstance . -Database „EinkaufDB“ -BackupFile „EinkauDB.bak“ -CompressionOption On -EncryptionOption $encryptionOption

Natürlich können Sie die verschlüsselte Sicherung auch auf einem Datenbankserver mit der grafischen Oberfläche durchführen. Dazu gibt es im Bereich Sicherungsoptionen den Abschnitt zur Verschlüsselung.

OpenSource Cloud-Speicher für private Cloud-Infrastrukturen

Auf Basis der Software, können Anwender Verzeichnisse zwischen verschiedenen Endgeräten im Netzwerk und mobil synchron halten. Das Tool bietet also eine umfassende Möglichkeit eigene Daten immer synchron zu halten, egal auf welchen Rechnern Sie arbeiten. Vor allem in Teams kann das sehr sinnvoll sein. Die Ersteinrichtung klingt kompliziert, ist aber überschaubar, im produktiven Betrieb ist das Tool sehr einfach bedienbar, auch auf Windows-Rechnern.

Funktionsumfang von SparkleShare

Nutzen im Unternehmen mehrere Anwender SparkleShare, dann können die Anwender Dokumente untereinander teilen. Das heißt, Sie können mit der Software auch Teams anbinden, die Dokumente untereinander austauschen, inklusive der gemeinsamen Bearbeitung und Versionierung.

SparkleShare erlaubt den Betrieb eines eigenen Servers auf Basis von Red Hat,  Debian, Fedora oder Ubuntu/Linux Mint. Über diesen Server tauschen Clients per SSH Daten aus und können Verzeichnisse synchronisieren. Die Synchronisierung kann auch über Windows-Clients erfolgen, der Server muss auf Linux installiert werden. Alternativ können Anwender aber auch Github zur Synchronisierung von Daten nutzen. Sie haben auch die Möglichkeit eigene Server anzubinden, Repositories in Github oder Projektarchive bei Plan.Io.

Auch wenn Sie verschiedene Quellen anbinden, lassen sich diese mit einem gemeinsamen Client aktuell halten. Für Anwender ist die Anbindung sehr transparent, es bestehen nur wenige Steuermöglichkeiten. Der Client wird einmal über eine SSH-ID an die verschiedenen Repositories angebunden und steht dann zur Verfügung. Es findet also keinerlei Speicherung von Benutzerdaten statt.

 

Überfordern wir unsere Kunden?

Zur Begründung verwies ich auf das Beispiel eines Gastronomen, der sich ratlos darüber wundern musste, dass eines Tages seine Gäste fernblieben. Wäre er in den sozialen Netzwerken präsent gewesen, hätte er rechtzeitig erfahren, dass sich seine Gäste dort über den unangemessenen Service eines neuen Mitarbeiters und das ausbaufähige Angebot seines Kochs beklagten. Diese Informationen hatte er jedoch nicht und musste schließen.

Digital Natives: Einkäufer von morgen

Kein Unternehmen kann es sich noch leisten, Social Media als Hype abzutun, der vorüber ziehen werde. Über soziale Netzwerke werden heute und in Zukunft Waren und Dienstleistungen entwickelt und optimiert. Über diese Kanäle werden Aufträge vergeben, Produkte vermarktet, Mitarbeiter rekrutiert, Images gepflegt. Diesbezüglich gibt es auch keinen Unterschied zwischen B2C und B2B, auf den sich noch immer KMU-Manager etwa der Investitionsgüter-Branche berufen.  Denn die Digital Natives von heute sind die Einkäufer, Produktentwickler, Vertriebler, Kundenberater von morgen. Sie sind mit diesen Medien aufgewachsen und erwarten, dass sie sie auch in ihrem beruflichen Alltag zu beruflichen Zwecken einsetzen können.

Acht von zehn Firmen faxen lieber

Dennoch nutzen nur 15 Prozent der Unternehmen in Deutschland soziale Netzwerke für die interne oder/und externe Kommunikation. Stattdessen vertrauen acht von zehn Firmen noch immer lieber auf das Faxgerät. Das sind fast 80 Prozent der Unternehmen. Nur halb so viele (40 Prozent) setzen auf Online- oder Videokonferenzen.  Das ist das Ergebnis einer aktuellen Studie des Digitalverbandes Bitkom. „Die Zurückhaltung bei der Nutzung sozialer Medien und beim Einstieg in die App-Ökonomie steht geradezu symbolisch für den noch zu zögerlichen Ansatz vieler Unternehmen bei der digitalen Transformation“, sagte Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder. Dazu passt die Aussage des Geschäftsführers eines mittelständischen Unternehmens, der mir gegenüber vor kurzem einräumte, dass er die Konsequenzen des geänderten Mediennutzungsverhaltens der Menschen für sein Unternehmen bislang unterschätzt habe.

Digitaler Dialog ist existenziell

Wie schwer sich gerade viele KMU mit der Digitalisierung und dem vernetzten Dialog mit ihren Kunden tun (Kommunikation 4.0) zeigt auch die Tatsache, dass viele Firmen entweder keine oder nicht zeitgemäße Homepages haben, die etwa für mobile Endgeräten optimiert sind. Das bestätigen mir zum Beispiel Vertreter von Industrie- und Handelskammern, die zudem beklagen, dass viele Einzelhändler noch Optimierungspotenzial beim eCommerce haben. Auch die zunehmende Ablehnung von Werbung durch die Nutzer ist bei etlichen Unternehmen noch nicht angekommen. Dieser Entwicklung müssten sie eigentlich dringend Rechnung tragen, zum Beispiel durch hochwertige narrative Inhalte. Doch allzu häufig werden Themen wie „Content Marketing“ und „Storytelling“ als Luxus oder Hype betrachtet. Doch egal wie man diese Kinder nennt: Kunden wollen heute anders angesprochen werden als noch vor einigen Jahren. Diese Änderungen im digitalen Dialog zu berücksichtigen, ist existenziell für die Zukunftsfähigkeit von Unternehmen. 

Ihnen bleibt gar nichts anderes übrig, als sich auf die vernetzte Kommunikation 4.0 einzustellen und die erforderlichen personellen und strukturellen Ressourcen in ihren Häusern zur Verfügung zu stellen. Wer das nicht tut, riskiert den Verlust von Aufträgen, den Verlust der Reputation und am Ende den Verlust von Arbeitsplätzen.

Wissen teilen und überzeugen

Wir, die wir uns beruflich mit Marketing und Kommunikation befassen und uns zum Beispiel auf dieser Plattform darüber austauschen, wissen das. Für uns sind diese nüchternen Zusammenhänge klar und ganz selbstverständlich. Damit stehen wir aber auch in der Verantwortung, dieses Wissen mit denen zu teilen, für die bislang die Entwicklung und der Vertrieb ihrer innovativen Produkte im Mittelpunkt ihres Denkens und Handelns standen. Diese Unternehmer sind fleißig, verantwortungsbewusst, bodenständig. Gerade deshalb sind sie in der Regel gleichzeitig offen für verständlich und überzeugend vorgetragene Argumente. Selbst für so komplexe Themen wie das der Kommunikation 4.0. Dort, wo der Prophet trotz aller Kompetenz leider im eigenen Land nichts gilt, können externe Sparringspartner argumentativ unterstützen. Am Ende eint uns das Ziel, durch unser Know-how signifikante Beiträge zum Erfolg von Unternehmen zu leisten. Das ist des Pudels Kern.

Domänencontroller können Sie mit Windows Server 2012 R2 optimal virtualisieren

Im Gegensatz zu anderen virtuellen Servern, sollten Sie beim Betrieb  von virtuellen Domänencontrollern aber einiges beachten. Zunächst sollten Sie die Virtualisierung auf Basis von Hyper-V 2012 R2 vornehmen. Kostenlos geht das zum Beispiel mit Microsoft Hyper-V Server 2012 R2.

Kompatibilität zur Virtualisierung sicherstellen

Die Virtualisierungslösung muss die Virtualisierung unterstützen, auch die so genannte VM-Generation ID. Aktuell ist das vor allem Windows Server 2012/2012 R2, aber auch VMware vSphere ab Version 5.0 Update 2. Wollen Sie mit anderen Lösungen virtualisieren, überprüfen Sie, ob die Generation-ID unterstützt.

Ob die von Ihnen eingesetzte Virtualisierungslösung die neue VM-Generation ID unterstützt, erkennen Sie im Geräte-Manager eines virtualisierten Servers mit Windows Server 2012 R2. Bei den Systemgeräten muss der Treiber Microsoft Hyper-V-Generierungszähler (Microsoft Hyper-V Generation Counter) mit der Treiberdatei vmgencounter.sys existieren.

Seit Windows Server 2012 R2 stellen Snapshots und geklonte Domänencontroller keine Gefahr mehr für das komplette Active Directory dar, auch wenn hier noch Optimierungsbedarf besteht, die Microsoft erst mit Windows Server 2016 integriert.

Achtung bei der Planung von virtuellen Servern

Windows Server 2012 R2 unterstützt die Verwendung von dynamischen Arbeitsspeichers bei der Virtualisierung. Weisen Sie für häufig verwendete Domänencontroller aber besser festen Arbeitsspeicher zu.

Virtualisieren Sie Domänencontroller, müssen Sie bei der Zeitsynchronisierung in der entsprechenden Virtualisierungslösung eventuell ebenfalls Konfigurationen vornehmen. Auf jedem virtuellen Server installiert Hyper-V automatisch die Integrationsdienste. Rufen Sie dazu die Einstellungen des virtuellen Servers auf, den Sie zum Domänencontroller heraufstufen wollen und klicken Sie auf Integrationsdienste. Für virtuelle Domänencontroller sollten Sie die Zeitsynchronisierung deaktivieren, da durch die Zeitsynchronisierung Inkonsistenzen auftreten können. Da die Server Mitglied und sogar Domänencontroller einer Domäne sind, synchronisieren diese die Zeit mit dem Domänencontroller mit der PDC-Masterrolle. Auf diesem sollten Sie die Zeitsynchronisierung besser über das Internet durchführen.

Startverhalten von virtuellen Domänencontrollern festlegen

In den Einstellungen von virtuellen Maschinen legen Sie fest, wie sich der virtuelle Server beim automatischen Starten oder Stoppen des Hyper-V-Hosts verhalten soll.

Microsoft empfiehlt in Hyper-V als Einstellung für Automatische Stoppaktion die Option Gastbetriebssystem herunterfahren. Die Speicherung des Zustandes empfiehlt Microsoft nicht, da dadurch die Synchronisierung der Server gestört wird. Das Herunterfahren ist die optimalste Einstellung, wenn der Host neu gestartet werden muss.

Als automatische Startaktion empfiehlt Microsoft entweder keine Aktion, oder die Einstellung, dass der Server neu starten soll, wenn er beim Herunterfahren gestartet war.

Wie Sie Fehler auf Servern mit Bordmitteln in Windows Server 2012 R2 finden und beheben

Installieren Sie Serverrollen und konfigurieren diese, gibt es oft fehlerhafte Konfigurationen. Dazu hat Microsoft die Best Practices Analyzer entwickelt, die regelmäßig die Server auf Konfigurationsprobleme überprüfen und entsprechende Hilfen für Maßnahmen zur Beseitigung geben.

Überprüfen von Servern über das Netzwerk

In Windows Server 2012 R2 lassen sich Server über den Server-Manager über das Netzwerk verwalten und auch überprüfen.Über Verwalten/Server hinzufügen lassen sich alle Windows Server 2012 R2-Computer im Netzwerk zum Server-Manager hinzufügen. Die Server ordnet der Server-Manager dann nach ihren Rollen und erstellt automatisch Servergruppen.

Im Dashboard des Server-Managers sind daraufhin für alle Serverrollen die BPA-Ergebnisse aller Server zu sehen. Allerdings muss dazu zunächst ein Scan der Rechner im Netzwerk gestartet werden. Klicken Sie in der Ansicht Alle Server auf einen Server im oberen Bereich, sehen Sie unten wichtige Fehlermeldungen der Ereignisanzeige.

Nach der Installation von Windows Server 2012 R2 sollten Sie im Server-Manager über das Kontextmenü der Server den Befehl Leistungsindikatoren starten ausführen, damit der Server über das Netzwerk überwachbar ist, die neuen Best Practices Analyzer funktionieren, und Daten abrufen können. Über das Kontextmenü der Server können Sie sich auch mit einem anderen Benutzernamen am Server anmelden, um diesen zu administrieren. Die Leistungsindikatoren haben aber nur am Rande etwas mit dem BPA zu tun. Die eigentliche Aktivierung erfolgt nachträglich.

BPA in der PowerShell starten

Am schnellsten starten und aktivieren Sie den BPA für Serverrollen durch Eingabe des Befehls Get-BPAModel | Invoke-BpaModel in der PowerShell.

Weitere Cmdlets für die PowerShell sind Get-BPAResult und Set-BPAResult. Diese Cmdlets zeigen Ergebnisse an oder blenden sie aus. Zur Analyse verwenden Sie aber besser den Server-Manager. Hier können Sie auch auf Windows 8.1 setzen. Neben der PowerShell, lässt sich der BPA für einzelne Serverrollen auch im Server-Manager starten. Dazu öffnen Sie den Server-Manager und klicken auf die Serverrolle die überprüft werden soll. Durch einen Klick auf Server sind die Server mit dieser Rolle im Netzwerk zu sehen.

Hier sind allerdings nur die Server zu sehen, die Sie über Verwalten/Server hinzufügen dem lokalen Server-Manager hinzugefügt haben. Im unteren Bereich des Server-Managers findet sich der Bereich Best Practices Analyzer. Durch einen Klick auf Aufgaben/BPA-Überprüfung starten beginnt der Test der Serverrolle. Zunächst müssen Sie aber den Server auswählen, den der BPA überprüfen soll.

Den Assistenten finden Sie im Server-Manager über Alle Server im unteren Bereich bei Best Practices Analyzer. Auch hierüber lassen sich alle Server, die an den lokalen Server-Manager angebunden sind überprüfen.

Industrie 4.0 – die ungeklärte Revolution

Betrachtet man all die Felder, auf denen die neuen Technologien und Geschäftsmodelle, die mit Industrie 4.0 verbunden sind, für tiefgreifende Veränderungen sorgen werden, kann man wirklich von revolutionären Umwälzungen sprechen. Der Begriff „Revolution“ weist allerdings auch schon auf eine entscheidende Herausforderung für alle Beteiligten hin, seien es Wirtschaftsunternehmen, Kunden, Politik und Gesetzgebung, Regulations- und Normierungsbehörden oder Zertifizierungsdienstleiter wie UL:

  1. Die Revolution braucht Sicherheit

Ob man es lieber Industrial Internet of Things, Smart Manufacturing oder – wie vor allem im deutschsprachigen Raum – Industrie 4.0 nennt: die Digitalisierung von Produktionsprozessen und Produkten ist in der Tat eine revolutionäre Umwälzung. Fertigungsanlagen entstehen aus cyber-physischen Systemen, die umfassend miteinander vernetzt sind. Zugleich wird ein ebenfalls wachsendes Internet of Things – die Vernetzung von immer mehr Produkten – starken Einfluss auf die Geschäftsmodelle in verschiedensten Branchen haben. Während es im Jahr 2010 rund fünf Milliarden per Internet vernetzte Menschen gab, werden bis 2020 rund 50 Milliarden vernetzte Dinge hinzukommen. Der Handel ist von der umfassenden Digitalisierung ebenso betroffen wie der Finanzsektor oder Branchen wie beispielsweise Automotive, Hightech und Energy. In vielen Branchen verlieren klassische Geschäftsmodelle mehr und mehr ihre Daseinsberechtigung – was sie zunehmend angreifbar macht. Hinzu kommt, dass die verschiedenen Entwicklungen von der Smart Factory über Connected Car, Connected Home und Smart Metering bis hin zu Smart Watches und anderen Wearables ganz neue Ansprüche an die Sicherheit stellen. Für Hersteller und Anbieter wird Sicherheit ein Kernbestandteil des Umsetzungsprozesses von Industrie 4.0.

  1. Hochindividuelle Produkte

Produktionsabläufe werden in einer Welt des Smart Manufacturing andere sein. Unter anderem verabschiedet sich die Fertigung in der Smart Factory der Zukunft vom alten industriellen Paradigma der Standardisierung. Die Automobilbranche erlaubt bereits einen Ausblick auf den Trend: Längst gibt es nicht mehr für jeden Kunden denselben schwarzen „Ford Model T“, sondern ein hochindividuell konfiguriertes Fahrzeug. Im Industrie 4.0-Zeitalter ist es mit der sprichwörtlichen Gleichförmigkeit von Industrieprodukten endgültig vorbei. Gerade die modernen Technologien des Additive Manufacturing – in der deutschen Öffentlichkeit eher als 3D-Druck geläufig – versprechen die Möglichkeit einer nahezu unbegrenzten Individualisierung: mit einer Chargengröße von 1. Dies hat auch Auswirkungen auf das Kerngeschäft von Sicherheits- und Zertifizierungsunternehmen wie UL. Vor mehr als 120 Jahren in den USA als Underwriters Laboratories gegründet, hat UL seit jeher die Entwicklung von Normen und innovativen Sicherheitslösungen für den Schutz der Lebens- und Arbeitswelt begleitet. Wenn heute etwa ein Ladegerät verkauft werden soll, braucht es dazu, beispielsweise für den amerikanischen Markt, eine Zulassung gemäß den bestehenden Normen. Solch ein Zertifizierungsvorgang, also die Überprüfung der Konformität mit der relevanten Sicherheitsnorm, ist einfach durchführbar, solange es von dem Ladegerät einen Prototypen oder eine Vorserie gibt. Wenn die Losgröße von Produkten aber auf 1 schrumpft, stehen interne Qualitätssicherung wie externe Zertifizierung vor einer völlig neuen Herausforderung – die nur in internationalem Maßstab zu lösen ist. Für UL stellt die Beschäftigung mit den Sicherheitsfragen rund um Industrie 4.0 eine konsequente Fortführung jener „Safety Mission“ dar, die das Unternehmen seit seiner Gründung verfolgt. Es ist allerdings absehbar, dass sich durch Industrie 4.0 auch das Kerngeschäft der Zertifizierungsunternehmen deutlich verändern wird.

Planung einer Exchange 2016-Infrastruktur

Sie können die Größe entweder über die Nachrichtenprotokolle in Erfahrung bringen, oder über Zusatztools. Eine solche Analyse kann zum Beispiel durch die Leistungsüberwachung durchgeführt werden. Migrieren Sie von Exchange Server 2007, können Sie für diese Werte auch Microsoft Exchange Server Profile Analyzer (https://www.microsoft.com/en-us/download/details.aspx?id=10559) verwenden. Wie Sie das Tool bedienen, lernen Sie auf der Seite http://blogs.technet.com/b/neiljohn/archive/2011/08/09/user-profile-analysis-for-exchange-server-2010.aspx.

Exchange Server 2016 unterstützt maximal 24 CPUs und maximal 96 GB Arbeitsspeicher (http://blogs.technet.com/b/exchange/archive/2015/06/19/ask-the-perf-guy-how-big-is-too-big.aspx). Es macht daher keinen Sinn Server mit mehr CPUs oder mehr Arbeitsspeicher zu planen.

Wollen Sie die Planung umfangreicher durchführen, finden Sie auf dem Blog der Exchange-Entwickler einen umfassenden Beitrag dazu (http://blogs.technet.com/b/exchange/archive/2013/05/06/ask-the-perf-guy-sizing-exchange-2013-deployments.aspx).

VMware bietet eine kostenlose PDF-Datei, mit der sie den Betrieb von Exchange Server 2016 auf Basis von vSphere planen können (http://www.vmware.com/files/pdf/vmware-microsoft-exchange-server-2016-on-vsphere-best-practices-guide.pdf).

Sie können dieses Dokument für die Planung des Einsatzes von Exchange Server 2016 auf Basis von VMware vSphere verwenden. Nehmen Sie als Grundlage für die Planung der virtuellen Prozessoren zusätzlich noch die Informationen der Exchange-Entwickler (http://blogs.technet.com/b/exchange/archive/2015/10/15/ask-the-perf-guy-sizing-exchange-2016-deployments.aspx).

Mehr Sicherheit für Webanwendungen mit Zed Attack Proxy Project (ZAP)

Aus diesem Grund sollten sich Verantwortliche mit dem Thema Penetrationstests auseinandersetzen, also dem gezielten Suchen nach unsicheren Bereichen in der Webanwendung.

In diesem Beitrag stellen wir Ihnen das OpenSource Tool Zed Attack Proxy Project (ZAP) vor. Dieses bietet umfassende Sicherheitsanalysen und Tests für verschiedene Arten von Webangriffen. Die Einrichtung ist schnell erledigt, die Tests sind aussagekräftig, und das Tool ist ein gutes Hilfsmittel beim Entdecken von Sicherheitslücken.

Voraussetzungen und Grundlagen zu ZAP

Zunächst muss festgehalten werden, dass Tools wie Zed Attack Proxy (https://www.owasp.org/index.php/OWASP_Zed_Attack_Proxy_Project) zwar dazu genutzt werden können, um Sicherheitslücken in Webanwendungen zu entdecken. Allerdings können solche Tools keinen Ersatz oder eine Basis für die Sicherheitsstrategie von Webanwendungen sein.

ZAP dient als Zusatztool, um Ihre bereits bestehende Sicherheitsinfrastruktur und die Webanwendungen zu testen. Vorteil von ZAP ist die, im Vergleich mit anderen Tools, einfache und schnelle Installation, wenn Sie zum Beispiel die Windows-Variante herunterladen. Sie benötigen auf den Servern, die Sie testen, keinen Agent und müssen auch keine Änderungen vornehmen. Sie benötigen nur einen PC oder einen Server, der Verbindung mit der Webanwendung aufbauen kann. Auf diesem installieren Sie ZAP und Java und schon können Sie mit den Tests Ihrer Webanwendung beginnen.