Cybersecurity – Was User und Unternehmen wissen müssen

Cyberkriminalität boomt und wird weiterhin rasante Entwicklungen und Herausforderungen für die IT-Sicherheit mit sich bringen. Sicherheitsexperten und Datenwissenschaftler haben sieben Entwicklungen identifiziert, die ein Umdenken in der Cybersecurity erfordern: von biometrischem Hacking, Künstlicher Intelligenz und der Cloud als Einfallstor für IoT-Hacks bis hin zu branchenweiten Security Trust Ratings und einem Cyber Cold War aufgrund von neuem Isolationismus der Politik und Wirtschaft durch Handelsembargos.

Das gefälschte Gesicht – Hacker manipulieren Gesichtserkennungssoftware

Mit Phishing-Attacken und Hacks wie „SIM SWAPS“ untergraben Angreifer bereits regelmäßig die Wirksamkeit von Zwei-Faktor-Authentifizierung-(2FA)-Methoden (z. B. Login mit Passwort und SMS-Code). Eine mehrstufige Authentifizierung durch biometrische Merkmale bietet hier eine zusätzliche Sicherheitsebene. Sie verwendet Daten, die spezifisch für den End-User sind. Der Technologiegigant Apple setzt bei seinen neuen iPhones etwa auf Gesichtserkennung. Fakt jedoch ist: Keine Authentifizierungsmethode ist zu 100 Prozent sicher. Hacker werden zukünftig Identitäten trotz und gerade mit Gesichtserkennungssoftware stehlen. So überlistete bereits 2016 ein Bildverarbeitungsspezialist der University of North Carolina Gesichtserkennungssysteme mit öffentlich verfügbaren Digitalfotos und mobiler VR-Technologie. Unternehmen sollten sich daher mit verhaltensbasierten Systemen schützen. Tastenanschlag, Mausbewegungen, Geschwindigkeit beim Scrollen et cetera – physisches Verhalten einer Person ist eindeutig und lässt sich nicht nachahmen.

Industrie 4.0 – Angreifer nutzen Schwachstellen bei Hardware- und Cloud-Infrastruktur

In einer Umfrage identifizierten 76 Prozent der 1.000 Teilnehmer die massive Einflussnahme auf das industrielle IoT als wichtige Sicherheitsfrage. Die Vielzahl vernetzter Geräte, mobile Zugriffe und verschiedene Applikationen machen den Schutz von Systemen und Daten zunehmend komplexer. Mit gleichzeitig steigender Datenmenge setzen Unternehmen immer mehr auf Cloud-Lösungen und -Provider für Wartung, Updates und Device-Management. Die Multi-Tenancy-Architektur vieler skalierbarer Dienste für IoT-Systeme führt aber zu technologischen Schwachstellen. Angriffe auf die Cloud-Infrastruktur sind daher deutlich lukrativer, um wichtige Systeme zum Stillstand zu bringen. Produktion, Energieerzeugung und andere wichtige Sektoren könnten gleichzeitig betroffen sein. Ein effektiver, ganzheitlicher Schutz erfordert daher Einblicke in das Verhalten von Mensch und Maschine, um automatisch unautorisierte Eingriffe in IoT-Systeme zu verhindern, ohne dass die Verfügbarkeit beeinträchtigt wird.

Künstliche Intelligenz bleibt nur ein Buzzword in der Cyber-Sicherheit

Künstliche Intelligenz, die menschliche Kognition beziehungsweise geistige Aktivität reproduzieren kann, gibt es in der Cybersecurity nicht. Auch in 2019 wird KI ein beliebtes Schlagwort für Marketer und unausgereifte Produktlösungen bleiben. Manche Firmen gehen dabei sogar soweit, menschliche Eingriffe in ihr Produkt zu verschleiern. Automation und nicht KI per se, kann Security-Experten im Unternehmen in hohem Maße entlasten. So können sich diese durch einen hohen Automatisierungsgrad und adaptive, risikobasierte Lösungen sowie Anpassungen etwa ganz auf relevante, auffällige Aktivitäten konzentrieren.

Politische Isolation und Handelsstreit beschwören Cyber Cold War herauf

Spionage hat Staaten und Unternehmen schon immer einen Weg zum Erwerb neuer Technologien eröffnet. Allein 43 Milliarden Euro Schaden durch Hackerangriffe hat der IT-Verband Bitkom und das Bundesamt für Verfassungsschutz für Unternehmen in Deutschland in den vergangenen zwei Jahren festgestellt. Isolationismus bei der Handelspolitik wird in vielen Fällen Nationen und Unternehmen dazu veranlassen, verstärkt durch Cyber-Taktiken Einfluss auf andere Staaten, kritische Infrastrukturen und wichtige Branchen zu nehmen oder geistiges Eigentum stehlen. Solche Angriffe zielen dabei häufig auf einzelne Mitarbeiter als Einfallstor für Schadsoftware. Statt weitere Mauern zu bauen, gilt es daher, besser zu verstehen, wie und warum Menschen mit sensiblen Daten umgehen und wo sich diese bewegen. Mit der Analyse von Nutzerverhalten kann gezielt auf hochriskante Aktivitäten eingegangen werden. Mittels automatischer Anomalie-Erkennung können Unternehmen normales Nutzerverhalten sowie gewöhnlichen ein- und ausgehenden Datenverkehr von verdächtigen Datenbewegungen unterscheiden.

Security Trust Ratings – die neue Grundlage für Kooperationen in der Wirtschaft

In der heutigen „Zero Perimeter World“, einer digitalen Welt ohne klare Grenzen, sind kritische Daten und geistiges Eigentum mehr denn je gefährdet. Die Verantwortung für die Datensicherheit bleibt dabei jedoch immer beim Unternehmen, auch wenn die Daten beispielsweise bei einem Provider liegen. Branchenweite Security Trust Ratings sind notwendig, wenn Unternehmen nach Zusicherungen suchen, dass Partner und Wertschöpfungsketten vertrauenswürdig und ausreichend gesichert sind. Firmen müssen Security daher von oben nach unten in ihre Unternehmenskultur integrieren. So kann diese etwa nur dann funktionieren, wenn Mitarbeiter das Gefühl haben, einen Beitrag zur ganzheitlichen Sicherheit des Unternehmens zu leisten. Das Thema darf daher nicht nur in der Verantwortung der IT-Teams liegen, sondern ist ein Geschäftswert. So suchen schon jetzt 58 Prozent der befragten Forcepoint-Umfrageteilnehmer aktiv nach vertrauenswürdigen Cloud-Anbietern mit einem guten Ruf für Sicherheit.

DSGVO – Mitarbeiter und Unternehmen streiten über Verantwortlichkeiten bei Datenverlust

Mit der DSGVO sind Konfrontationen im Gerichtssaal vorprogrammiert: 2019 wird es Gerichtsverfahren wegen Datenschutzverletzungen geben, bei denen ein Mitarbeiter seine Unschuld bekundet und ein Arbeitgeber vorsätzliches Handeln unterstellt. Ob ein Richter zugunsten eines Arbeitgebers oder eines Arbeitnehmers entscheidet, ist dabei nahezu irrelevant. Vielmehr werden mangelhafte IT-Sicherheitsmaßnahmen eines Unternehmens öffentlich präsentiert. Firmen müssen daher Menschen und Daten schützen und bösartige Aktivitäten identifizieren, bevor sie kritische Systeme und IPs schädigen. Die Analyse von Nutzerverhalten und Datenbewegungen am Arbeitsplatz hilft dabei, das Gesamtbild eines Vorfalls zu verstehen. Eingesetzte Lösungen müssen dabei drei Grundprinzipien erfüllen: legitimer Zweck, Verhältnismäßigkeit und vollständige Transparenz. Der Schutz personenbezogener Daten und der Privatsphäre sollte Grundvoraussetzungen für jedes erfolgreiche Unternehmen sein.

Datenskandale – mit Edge Computing die Vertrauenslücke schließen

Der Facebook-Datenskandal rund um Cambridge Analytica war 2018 nur die Spitze des Eisbergs. Das Vertrauen der User in viele Online-Dienste und dem verantwortungsvollen Umgang mit ihren Daten ist gering. Unternehmen werden versuchen mit Edge Computing diese Vertrauenslücke zu schließen. Daten werden nicht mehr automatisch in die Cloud geladen und zentral in einem Datencenter gespeichert, sondern auf dem jeweiligen Endgerät oder der Applikation (also am Rande des Netzwerks – dem „Edge“). Das verbessert den Datenschutz und erlaubt Usern mehr Kontrolle über ihre Daten. Edge Computing allein wird das mangelnde Vertrauen der Verbraucher aber nicht überwinden können. Es reicht nicht aus, dass Unternehmen Daten sowohl auf dem Gerät als auch in der Cloud erfassen und sichern. Um Vertrauen zu schaffen, müssen sie nachvollziehbar offenlegen, wie Nutzerdaten gesichert und genutzt werden.

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Windows-Bereitstellungsdienste nutzen

Als nächstes startet das Bootimage mit Windows PE, das in den Hauptspeicher geladen wird. Über einen Eintrag in der Antwortdatei wird die Festplatte angepasst. Das Setup führt die in der Antwortdatei enthaltene Anmeldung an den WDS-Server aus. Existiert dieser Eintrag nicht, wird um eine Authentifizierung gebeten. Soll eine unbeaufsichtigte Installation durchgeführt werden, darf immer nur ein Image in der Imagegruppe existieren.

Wurde die Antwortdatei mit Informationen, wie Product Key, Sprachversion und Domänenkonto korrekt konfiguriert, läuft die Installation völlig automatisiert ab.

Die Installation besteht aus der Installation der Serverrolle und der anschließenden Ersteinrichtung des Servers. Als erstes starten Sie den Server-Manager und installieren die Rolle Windows-Bereitstellungsdienste über das Menü Verwalten.

Standardmäßig wird sowohl der Bereitstellungsserver als auch der Transportserver installiert. Zur Installation gehört eine Ersteinrichtung, auch Initialisierung genannt, die über die Verwaltungskonsole der Windows-Bereitstellungsdienste durchgeführt wird. Während der Installation nehmen Sie keine Einstellungen vor. Die Anpassung des Dienstes wird erst nachträglich vorgenommen.

Öffnen Sie für die erste Einrichtung die Verwaltungskonsole der Windows-Bereitstellungsdienste über Tools im Server-Manager oder durch Eingabe von wdsmgmt.msc im Startmenü. Der Server wird angezeigt, ist aber noch mit einem Warnzeichen versehen.

Über das Kontextmenü starten Sie den Befehl Server konfigurieren. Es startet ein Assistent, über den Sie den WDS-Server einrichten. Auf der ersten Seite nach dem Begrüßungsfenster legen Sie den Speicherort fest, in dem die Installationsabbilder gespeichert werden. Es bietet sich an, dafür eine eigene Partition zu wählen. Statt über den Assistenten können Sie diesen Vorgang auch über die Eingabeaufforderung mit dem Befehl wdsutil /initialize-server /reminst:<Ordner> durchführen.

Windows-Bereitstellungsdienste in Windows Server 2019

Der WDS-Server muss außerdem Zugang zu einem aktiven DHCP-Server haben. Der Server benötigt eine separate Partition, die mit NTFS oder ReFS formatiert ist. In dieser speichern Sie die Abbilder zur automatisierten Installation von Windows 10. Die PCs im Netzwerk booten und verbinden sich mit dem Server. Dieser kopiert dann über das Netzwerk das Image auf den Computer und führt die Installation von Windows 10 durch.

Multicast-Verbindung zu langsamen Clients kann ein WDS-Server automatisch trennen und so Übertragungen auf Basis der Clientgeschwindigkeit in mehrere Streams aufzuteilen. Außerdem wird Multicasting in Umgebungen mit IPv6 unterstützt. Mit Transportserver sind Netzwerkstarts und Datenmulticasting im Rahmen einer erweiterten Konfiguration möglich. Ein Transportserver ist ein eigenständiger Server der WDS der PXE, also das Booten von Computern über das Netzwerk unterstützt.

Beim Verwenden eines Transportservers für Netzwerkstarts und Multicasting sind Sie nicht auf ein Active Directory oder DNS angewiesen. WDS unterstützen Netzwerkstarts von x64-Computern mit EFI, einschließlich Funktionen zum automatischen Hinzufügen, DHCP-Verweisen zum Weiterleiten von Clients an einen bestimmten PXE-Server sowie der Fähigkeit, Startabbilder mithilfe von Multicasting bereitzustellen. Treiberpakete lassen sich jetzt direkt in Startabbilder integrieren.

Installationsabbilder dienen der Installation von Windows und erfordern eine Abbildgruppe. Eine Abbildgruppe ist ein Ordner, der sich unterhalb des Knotens Installationsabbilder befindet. Für alle Clientcomputer, die keine Unterstützung für PXE bieten, gibt es die Möglichkeit, ein Startabbild zu exportieren. Somit können auch diese Clientcomputer durch den WDS-Server bedient werden.

Videokonferenz: Läuft bei mir

Rhetoriktrainer Peter Flume hat sich mal wieder etwas Neues einfallen lassen. Der Experte in Sachen gesprochenes Wort erfindet sich seit 25 Jahren regelmäßig neu. Jetzt hat er gemeinsam mit dem Schauspieler Vincent Courtens eine humorvolle Video-Reihe aufgesetzt, die vermittelt, worauf es bei der Kommunikation per Videokonferenz ankommt. Damit virtuelle Begegnungen genauso stark wirken, wie das persönliche Miteinander.

Beim virtuellen Gespräch fehlt die emotionale Rückmeldung

Was uns im Alltag so praktisch vorkommt, hat auch Schattenseiten: Es fehlt die unmittelbare körpersprachliche Rückmeldung. Selbst beim Konferieren über Video kann die Einschätzung trügen, weil kein Augenkontakt besteht, oder verzögert übertragen wird. Schließlich entsteht über die Webcam immer eine Diskrepanz. Auch und gerade Emotionen können per Videochat schlecht transportiert werden. Sie werden oft über Betonung und Stimme übermittelt. Je nach Medium kann das falsch oder gar nicht ankommen.

Missverständnisse sind in der virtuellen Kommunikation vermeidbar

Peter Flume rät deshalb, sich innerhalb von virtuellen Gesprächen besonders deutlich auszudrücken und auch zu artikulieren. Hier gilt es Doppeldeutigkeiten zu vermeiden. Das kann man innerhalb einer Konferenz beispielsweise durch eine gute Vorbereitung und/oder ein Skript sicherstellen. Monologe gilt es tunlichst zu vermeiden. Die Faustformel: Immer an die Zuschauer denken und daran, welche Informationen diese benötigen – und welche nicht.

Gesprächsteilnehmer können durch Rückfragen sicherstellen, dass sie richtig verstanden haben und selbst korrekt verstanden wurden. Aufmerksamkeit ist das Gebot der Stunde. Das fokussiert auch Flumes aktueller Fachtitel „Die Kunst der Kommunikation“. Einander ausreden lassen und nicht nebenher andere Dinge zu erledigen ist in realen wie in virtuellen Gesprächen höflich und wichtig.

Virtuelle Meetings sind genauso wichtig wie persönliche

Eine gute Haltung ist nicht nur gut fürs Kreuz. Sie macht unter anderem im Videochat Sinn. Die Stimme kann im aufrechten Sitzen besser und sympathischer klingen. Ein Lächeln zwischendurch lockert die Gesichtszüge sowie die Gesprächsatmosphäre auf. Für die Körpersprache gibt Flume folgenden Tipp: Gestik und Mimik sind auch bei Videokonferenzen erwünscht. Allerdings ist hier der Bildausschnitt begrenzt, sodass Gesten im Rahmen des Sichtfensters ausgeführt werden und nicht zu schnell sein sollten.

Nicht zu vernachlässigen ist auch die Kleidung im virtuellen Meeting. „Die Leute erschrecken vor ihrem eigenen Bild, statt sich gezielt in Szene zu setzen“, sagt der Schauspieler Vincent Courtens. Sein Tipp: Die persönliche Marke herausstellen und Alleinstellungsmerkmale setzen.

Das Fazit: Ein virtuelles Gespräch ist genauso wichtig, wie ein Persönliches. Machen Sie sich die Schwachstellen einer digitalen Kommunikation bewusst und vermeiden Sie Missverständnisse durch eine besondere Achtsamkeit in der Vorbereitung und während des Gesprächs.

Softwareverteilung über Gruppenrichtlinien

Die Softwareverteilung erfolgt über die in diesem Kapitel ausführlich behandelten Gruppenrichtlinien. Die Konfiguration der Softwareverteilung in Gruppenrichtlinien erfolgt über den Bereich Computerkonfiguration/Richtlinien/Softwareeinstellungen beziehungsweise Benutzerkonfiguration/Richtlinien/Softwareeinstellungen. Dort findet sich jeweils der Eintrag Softwareinstallation.

Über den Befehl Paket im Untermenü Neu des Kontextmenüs dieses Eintrags führen Sie die Bereitstellung eines Programms auf Basis von .msi-Dateien durch. Dazu kopieren Sie zunächst die Installationsdateien des Programms, welches Sie installieren wollen, auf eine Netzwerkfreigabe, die Anwender auch lesen dürfen. Anschließend binden Sie die .msi-Datei ein. Installationen, die auf .exe-Dateien aufbauen, funktionieren mit diesen Möglichkeiten nicht.

Wählen Sie anschließend die .msi-Datei von der Netzwerkfreigabe aus. Als Nächstes können Sie die Bereitstellungsmethode auswählen. Stellen Sie das Paket für Computer bereit, nicht für Benutzer, steht die Option Veröffentlicht nicht zur Verfügung.

Wählen Sie die Option Veröffentlicht aus, erscheint das Paket auf dem Client zur manuellen Installation in der Systemsteuerung. Alle erforderlichen Einstellungen sind automatisch gesetzt. Durch einen Doppelklick auf das Paket können Sie die Eigenschaften bearbeiten.

Wählen Sie die Option Zugewiesen aus, erstellt Windows ebenfalls automatisch einen Eintrag. Wählen Sie besser die Option Erweitert aus. Bei dieser Auswahl können Sie Einstellungen genau setzen. Es öffnet sich ein neues Fenster mit verschiedenen Registerkarten, über die Sie die automatische Installation konfigurieren können.

Fehlerbehebung im Netzwerk

Im Anschluss an die Konfiguration und Anbindung von Richtlinien daran können Sie die Gruppenrichtlinie auf einer Windows-Arbeitsstation mit gpupdate /force in der Eingabeaufforderung übertragen.

Windows 10 und Windows Server 2019 bieten die Möglichkeit, Gruppenrichtlinien über die Windows-PowerShell zu verwalten. Dazu steht das PowerShell-Modul „GroupPolicy“ zur Verfügung, das Sie mit dem Befehl „Import-Module GroupPolicy“ in die Windows-PowerShell ISE oder einer normalen PowerShell-Sitzung importieren können. Die wichtigsten Cmdlets können Sie sich anzeigen lassen, wenn Sie „Get-Command *gpo*“ eingeben.

Falls Gruppenrichtlinien nicht funktionieren, können die Ursachen sehr unterschiedlich sein. Sie sollten Schritt für Schritt untersuchen, wo das Problem liegen könnte. Legen Sie am besten für die unterschiedlichen Einstellungen verschiedene Gruppenrichtlinien an und verknüpfen Sie diese mit der entsprechenden OU oder der ganzen Domäne. Bei der Überprüfung helfen noch folgende Punkte:

  • Stellen Sie sicher, dass die Clients den DNS-Server verwenden, auf dem die SRV-Recordsvon Active Directory gespeichert sind.
  • Überprüfen Sie mit Nslookupin der Eingabeaufforderung, ob auf den Clients die Namensauflösung zur Domäne funktioniert.
  • Überprüfen Sie die Ereignisanzeige auf Fehler.
  • Ist der Benutzer/Computer in der richtigen OU, auf der die Richtlinie angewendet wird?
  • Versuchen Sie die Richtlinie auf eine Sicherheitsgruppe anzuwenden? Dies ist nicht ohne Weiteres möglich, und erfordert einige Nacharbeit.
  • Stimmt die Vererbung? In welcher Reihenfolge starten die Gruppenrichtlinien?
  • Haben Sie etwas an der standardmäßigen Vererbung der Richtlinie verändert?
  • Haben Sie irgendwo Erzwungen oder Vererbung deaktivieren aktiviert?
  • Geben Sie auf dem PC in der Eingabeaufforderung als angemeldeter Benutzer gpresult > gp.txt ein, um sich das Ergebnis der Richtlinie anzeigen zulassen.

Das Windows-MMC-Snap-In Richtlinienergebnissatz bietet eine grafische Oberfläche und wertet die angewendeten Richtlinien aus. Sie können sich den Richtlinienergebnissatz auf einer Arbeitsstation über MMC/Datei/Snap-In hinzufügen/Richtlinienergebnissatz anzeigen lassen. Eine weitere Möglichkeit ist die Eingabe von rsop.msc.

Wenn Gruppenrichtlinien auf einzelnen Rechnern nicht korrekt angewendet werden, können Sie das kostenlose Microsoft Tool Group Policy Log View (http://www.microsoft.com/en-us/download/details.aspx?id=11147) verwenden um die Fehler genauer einzugrenzen.

Potential von IIoT, Open Source und Sicherheit noch lange nicht erschöpft

Die Prognosen sind vielversprechend. So sollen die Industrial-IoT-Umsätze in Deutschland jährlich um rund 19 Prozent wachsen und 2022 einen Umsatz von 16,8 Milliarden Euro erzielen. Weltweit wird erwartet, dass der IIoT-Markt in den nächsten drei Jahren rund 123 Mrd US-Dollar erwirtschaftet. Dabei wollen Unternehmen aus der Fertigung, dem Transportwesen und der Logistik bis 2020 jeweils 40 Mrd. US-Dollar in entsprechende IoT-Plattformen investieren.

Doch so gut wie die Prognosen auch sind, in der Realität kämpfen Unternehmen nach wie vor mit der Umsetzung. Laut einem Bericht von Capgemini gelingt es beispielsweise nur 30 % der Unternehmen Serviceeinnahmen über ihre IoT-Produkte zu generieren. Zudem bleiben viele Fragen zum Thema Cybersicherheit oder digitaler Infrastruktur – Stichwort 5G-Ausbau – weiter offen.

Wie lassen sich neue IoT-Geschäftsmodelle monetarisieren? Wo liegt der viel beworbene Mehrwert von Daten? Und welche Sicherheitsrisiken gewinnen an Priorität? Für Software- und Gerätehersteller stehen damit auch weiterhin wieder wichtige Themen auf der IIoT-Agenda. Hier ein Überblick:

Vernetzte Geräte werden zu Innovations-Plattformen

Die industrielle Fertigung nimmt in der Umsetzung und Implementierung des Internet of Things sowohl in Deutschland als auch weltweit eine Vorreiterrolle ein. Die Einführung digitaler Geschäftsmodelle wird dabei im nächsten Jahr deutlich Fahrt aufnehmen. Die Monetarisierung verschiebt sich vom einmaligen Verkauf eines Produkts zum ‚As-a-Service‘-Modell, bei dem Geräte, Maschinen und Anlagen, Software, Services und Daten als Gesamtpaket angeboten werden.

Geräte und Systeme verwandeln sich zu Innovations-Plattformen, wobei die Gerätehersteller stärker die Entwicklung von modularen Systemen vorantreiben. Dazu gehört auch das elektronische Hinzufügen und Ändern von Gerätefunktionalitäten, wodurch Hersteller Produkte, die beim Kunden bereits im Einsatz sind, auf aktuellem Stand halten und kontinuierlich verbessern können. Damit werden auch neue, flexiblere Geschäftsmodelle und Preisstrategien möglich. Diese wiederum benötigen entsprechende Lösungen zum Lizenz- und Berechtigungsmanagement, um die entsprechenden Prozesse zu automatisieren und umzusetzen. In diesem Zusammenhang investieren Unternehmen auch verstärkt in ‚Self-Service‘-Angebote sowie in automatisierte Prozesse für die Softwareauslieferung und Updates.

Daten als neues Geschäftsfeld

Die Datenbereitstellung, -aufbereitung und -auswertung entwickelt sich dabei zum Schlüssel: Hersteller benötigen aussagekräftige Datenanalytik, um Kundenzufriedenheit, Produktakzeptanz und tatsächliche Nutzung auszuwerten und auf dieser Basis neue Produktstrategien zu definieren und Geschäftsmodelle anzupassen. Anbieter, die Datenströme in wirkliche Einblicke umwandeln, werden hier gewinnen. Auf Basis dieser Einblicke lässt sich zum Beispiel die Kundenzufriedenheit erhöhen, die sich beim Übergang auf wiederkehrende Umsatzmodelle maßgeblich auf Vertragsverlängerungen auswirkt.

Gleichzeitig wird das Angebot an SaaS-Lösungen zur Anzeige und Analyse der Datenfeeds aus IoT-Edge-Geräten steigen. Hier sind neue Modelle zur direkten Monetarisierung der Daten zu erwarten. Die Mehrheit der Anbieter wird allerdings auf verbrauchsbasierte Modelle für die Nutzung der SaaS-Anwendungen setzen und sich so weiter von einem Preismodell pro Nutzer entfernen.

Edge-Geräte im Fokus

Cyberattacken, Schwachstellenmanagement und Datenleaks stehen wohl auch weiterhin auf der Tagesordnung. Ein neuer Fokus wird dabei jedoch auf Edge-Geräte gelegt. Um die Fläche für Angriffe zu minimieren, arbeiten Software- und Gerätehersteller daher intensiv mit ihren Kunden an der Sicherheit von Edge-Geräten, um so beispielsweise auch nicht permanent mit dem Internet verbundene Systeme zuverlässig patchen und überwachen zu können.

Rückverfolgbarkeit bei Open Source

Ein ähnlich hohes Risikopotential bergen Open Source Software(OSS)-Komponenten. Sie werden meist undokumentiert in Softwareprodukten verwendet und bringen dadurch IT-Sicherheit sowie Compliance in Gefahr. Softwareanbieter werden sich zwangsläufig stärker mit der Überprüfung und Dokumentation von OSS- und Dritt-Komponenten in ihren Produkten auseinandersetzen und entsprechende Prozesse und Richtlinien etablieren müssen. Open Source Scanning entwickelt sich damit zum integralen Bestandteil jedes agilen DevOps-Zyklus. Die Stückliste für Softwareprodukte (Bill of Materials, BOM) wird für Anbieter zur Pflichtübung – sowohl um neuen gesetzlichen Vorgaben als auch dem Sicherheitsbedürfnis von Kunden zu entsprechen.

Die nächste Evolutionsstufe für Produktions- und Engineering Services

Mithilfe der PoCs konnten Unternehmen schnell die vielfältigen Geschäftsvorteile des industriellen IoT validieren. Die Branche beginnt jetzt nach und nach, IoT in den operativen Standorten einzuführen. Da mehr als 80 Prozent der Industrieanlagen Brachland sind, wird die Umsetzung in Phasen und nicht in einem einzigen Schritt erfolgen.

Darüber hinaus werden die Prozesse mithilfe von Erfahrungswerten verbessert und stabilisiert. Dabei ergeben sich eine Vielzahl von Entwicklungsmöglichkeiten für die Branche – die drei wichtigsten davon sind:

  • Die IT-OT (Operational Technology)-Integration steht weiterhin im Mittelpunkt, insbesondere bei der ISA-95-Stack-Integration über alle Layer hinweg. Eine engere Vernetzung zwischen Menschen, Prozessen und Maschinen wird zu einer höheren Transparenz des Betriebs, einer besseren Auslastung und Leistung der Anlagen, einer effizienteren Lieferkette und reduzierten Betriebskosten führen.
  • Während die Einführung des industriellen IoT den Mainstream erreicht, evaluieren alle Branchen neue Technologien wie Augmented Reality (AR) / Virtual Reality (VR), künstliche Intelligenz (KI), Machine Learning und Autonome Technologien.
  • Technologien wie Blockchain werden innerhalb des industriellen IoT keine direkte Anforderung sein, da es sich bei den Produktionssystemen nach wie vor meist um geschlossene, bewährte Systeme handelt. Cyber-Sicherheit wird zur Hauptanforderung für die Gerätesicherheit, Daten- und Geräteintegrität, Zugangskontrolle und Autorisierung – und dies über den Datenschutz hinaus.

Das industrielle IoT hat das Potential, den digitalen Wandel in der Industrie voranzutreiben. Die Digitalisierung umfasst den gesamten Lebenszyklus der Fertigung, einschließlich Design, Produktion, Verkauf und Service. Die digitale Fertigung ist ein entscheidendes Element dieser Transformation. Die Integration der Systeme wird daher über den gesamten Design-, Herstellungs-, Betriebs- und Servicelebenszyklus hinweg gesteuert. Darunter fallen unter anderem:

  • Integriertes Lifecycle Management – Das Product Lifecycle Management (PLM)-System spielt eine zentrale Rolle. Die digitalen Artefakte eines Produkts – angefangen beim Digital Engineering, das durch CAD/CAE, Manufacturing Operations Management (MOM), Manufacturing Engineering Services (MES) und Qualitätsmanagement ermöglicht wird – unterstützen bei der Produktnachverfolgung über alle Phasen des Lebenszyklus hinweg. Die IT-OT-Integration vereint alle Daten aus Maschinen, Anlagen, Prozessen und Systemen auf einer gemeinsamen Plattform, hilft bei der Einrichtung und Verfolgung der Lebenszyklusphasen sowie bei der Statusverfolgung von ‚wie geplant‘ versus ‚wie betrieben‘ versus ‚wie gewartet‘.
  • Digitalisierung – Das industrielle Set-Up verfügt über viele Funktionen, die noch manuell gesteuert werden. Dazu gehört auch die Datenerfassung. Industrielles IoT ermöglicht die Digitalisierung und Automatisierung von Arbeitsprozessen. Daten von SPS, Maschinen, Prozessen und Echtzeitverarbeitung über MES gewährleisten die Compliance des Produktionsprozesses, ermöglichen Qualitätssicherung und reduzieren den Materialverbrauch. All dies ist auf einem einzigen Dashboard integriert. Alle Mitarbeiter einer Fabrik können somit in Echtzeit auf Informationen zugreifen und schneller Entscheidungen treffen.
  • Organisatorischer Wandel – Die Art und Weise wie Betreiber, Techniker, Betriebsleiter oder Produktionsleiter arbeiten, wird sich grundlegend ändern. Unternehmen müssen deshalb in Schulungen der Mitarbeiter investieren, damit die Auswirkungen der Transformation auf das laufende Tagesgeschäft so gering wie möglich sind. Die Arbeitsumgebung muss sich zudem an die Technologien anpassen, die hinter der Transformation stehen. Die Neuausrichtung der bestehenden Belegschaft wird für den Übergang zur digitalen Fertigung entscheidend sein: Unternehmen müssen ganzheitlich denken und Silos aufbrechen, um kollaborativer und integrierter zu sein.

Goldbeck Solar und Eneco realisieren ihr erstes gemeinsames Projekt in den Niederlanden

Es werden etwa 1.900 Megawattstunden produziert und in das öffentliche Netz eingespeist, die im Rahmen eines subventionierten SDE+-Vertrags vergütet werden. Goldbeck Solar ist eines der wenigen Unternehmen, welches das strenge Auswahlverfahren von Eneco für Partner bestanden hat.

„Wir freuen uns über dieses erste Projekt und hoffen, dass dieser Solarpark die Grundlage für eine zukünftige Zusammenarbeit schafft. Nach unserer niederländischen Premiere in Veendam und den aktuellen Projekten in den Niederlanden arbeiten wir gerne weiter mit Eneco als starkem Partner zusammen“, sagt Tobias Friedrich, International Key Account Manager bei Goldbeck Solar und verantwortlich für den Vertrieb in den Niederlanden.

Zwei Projekte im zweistelligen MW-Bereich werden in diesem Jahr fertiggestellt und in den Niederlanden ans Netz gehen. Björn Lamprecht, COO von Goldbeck Solar, gibt einen positiven Ausblick: „Die Chancen stehen gut, das Geschäft in den Niederlanden auszubauen. Die Auftragsbücher füllen sich gerade.“

„Die Niederlande sind derzeit einer unserer am stärksten wachsenden Märkte. Deshalb haben wir eine niederländische Tochtergesellschaft gegründet. Goldbeck Solar Netherlands B.V. mit Sitz in Arnheim gibt uns die Möglichkeit, noch schneller mit unseren EPC- und O&M-Abteilungen im Land zu reagieren“, sagt Tobias Friedrich.

BAM – CMS Blog