Neue Technologien für energieeffiziente Rechenzentren

Große internationale Cloud-Unternehmen setzen sehr stark auf die Verwendung regenerativ erzeugten Stroms – und auch die Nutzung der Abwärme der Rechenzentren tritt mehr und mehr in den Fokus. Skandinavien zeigt da vorbildlich, was alles möglich ist.

Aber auch für kleine und mittlere Rechenzentren wird das Thema des nachhaltigen Betriebs immer wichtiger. Die hohen Strompreise in Deutschland bieten Anreize, mit neuen Technologien Energie und Kosten einzusparen. Auch neue Rahmenbedingungen wie die Verknappung von Teilfluorierten Kohlenwasserstoffen (HFKW) als Kältemittel für Rechenzentren stellen die Betreiber vor Herausforderungen.

Der Markt – und hier insbesondere auch der innovative deutsche Mittelstand – stellt Lösungen zur Verfügung, Rechenzentren in Zukunft noch nachhaltiger zu betreiben. Das Spektrum reicht von flüssiggekühlten Servern und Adsorptionskältemaschinen bis hin zu innovativen Ansätzen der Batteriespeicherung im Rechenzentrum. Auch neue Möglichkeiten der Abwärmenutzung und alternative Methoden der Kälteerzeugung mit Wasser bieten Chancen für das energieeffiziente Rechenzentrum von Morgen.

Das Netzwerk energieeffiziente Rechenzentren (NeRZ) möchte über solche Ansätze informieren und führt am 9. Mai 2019 in Frankfurt einen Anwenderworkshop zum Thema „Neue Technologien für die Rechenzentrum von Morgen“ durch. Die Veranstaltung ist kostenfrei. Die Zahl der Teilnehmer ist begrenzt. Weitere Informationen finden Sie hier.

Weitere Informationen zum Thema Energieeffizienz in Rechenzentren: www.ne-rz.de

Datendeduplizierung im Server-Manager steuern

Installieren Sie den Rollendienst Datendeduplizierung über Datei- und Speicherdienste/Datei- und iSCSI-Dienste, integriert der Installations-Assistent auch ein Befehlszeilentool, mit dem Sie die doppelten Dateien suchen können, um abzuschätzen, ob der Rollendienst auf Ihren Dateiservern sinnvoll einsetzbar ist.

Das Tool Ddpeval befindet sich im Ordner \Windows\System32. Ddpeval unterstützt lokale Laufwerke und Netzwerkfreigaben; die Syntax des Tools lautet ddpeval <Volume:>. Beispiele für die Ausführung sind ddpeval e:\ oder ddpeval \\nas\daten. Erst wenn das Tool doppelte Daten findet, ist es sinnvoll, die Datendeduplizierung zu verwenden. Das Tool selbst bereinigt keinerlei Dateien, sondern gibt nur an, ob die Datendeduplizierung auf dem Server sinnvoll ist.

Anschließend aktivieren Sie die Datendeduplizierung auf dem entsprechenden Server. Sie können dazu entweder den Server-Manager verwenden und die Datendeduplizierung als Rollendienst installieren, oder Sie verwenden die PowerShell und das Cmdlet

Install-WindowsFeature -Name FS-Data-Deduplication. Mit dem Cmdlet Enable-DedupVolume <Laufwerk>

Aktivieren Sie die Funktion auf einem Server. Konfigurieren können Sie die Funktion mit

Set-DedupVolume <Laufwerk> MinimumFileAgeDays <Alter>.

Um die Datendeduplizierung zu verwenden, installieren Sie zunächst den bereits erwähnten Rollendienst. Anschließend überprüfen Sie mit Ddpeval ob sich die Aktivierung für Laufwerke lohnt. Wenn Sie ein positives Ergebnis erhalten, aktivieren Sie die Datendeduplizierung im Server-Manager. Klicken Sie auf Datei-/Speicherdienste und dann auf Volumes.

Im Fenster sehen Sie alle Laufwerke, die auf dem Server angelegt sind. Über das Kontextmenü von Volumes starten Sie die Einrichtung der Datendeduplizierung.

Im neuen Fenster aktivieren Sie zunächst die Datendeduplizierung. Außerdem legen Sie das Alter fest, ab dem der Dienst Dateien als dupliziert speichern soll. Im Fenster können Sie auch Dateierweiterungen von der Suche ausschließen. Außerdem können Sie in diesem Fenster die Optimierung des Servers über Zeitpläne steuern.

Sie können eine sofortige Durchführung der Deduplizierung mit dem folgenden Befehl starten:

Start-DedupJob -Volume <Laufwerkbuchstabe> -Type Optimization

Wollen Sie auf eine Rückgabe der Suche warten, verwenden Sie den folgenden Befehl:

Start-DedupJob <Laufwerkbuchstabe> -Type Optimization -Wait

Den aktuellen Zustand des Auftrags zeigen Sie mit Get-DedupJob an.

Den aktuellen Zustand der Duplizierung von Daten lassen Sie sich mit Get-DedupStatus anzeigen. Mehr Informationen erhalten Sie mit Get-DedupStatus |fl. Weitere Informationen erhalten Sie mit Get-DedupVolume.

Speicher in Windows Server 2019 replizieren

Die Speicherreplikation bietet vor allem drei verschiedene Einsatzszenarien. Im ersten Szenario können Sie wichtige Datenträger schnell und einfach auf andere Server (ServerA ->ServerB), auch in anderen Rechenzentren replizieren. Dadurch erhalten Sie eine Absicherung Ihrer Daten, vor allem im Katastrophenfall.

Das zweite wichtige Einsatzgebiet ist das Replizieren von Daten in einem Geo-Cluster, auch Stretched Cluster genannt (Clusterknoten1 -> Clusterknoten2). Ein Einsatzgebiet kann zum Beispiel die Replikation von virtuellen Servern und deren Konfigurationsdaten sowie virtueller Festplatten zwischen verschiedenen Rechenzentren sein. Dabei sind die Clusterknoten auf verschiedene Rechenzentren verteilt.

Die beiden Szenarien lassen sich auch zu einem gemeinsamen Einsatzszenario verbinden. In diesem replizieren Sie die Daten eines Clusters zu einem anderen Cluster in einem anderen Rechenzentrum (Clusterknoten1-Cluster1 -> Clusterknoten1-Cluster2). Dabei sind die Cluster aber nicht auf verschiedene Rechenzentren aufgeteilt, sondern Bestandteil eines einzelnen Rechenzentrums. Die Daten werden also nicht innerhalb eines Clusters repliziert, sondern zwischen verschiedenen Clustern. Die Cluster selbst sind dann natürlich idealerweise in verschiedenen Rechenzentren verteilt.

 

Die Replikation kann synchron und asynchron konfiguriert werden. Größere Unternehmen können mit der Technologie auch auf Clusterebene Daten zwischen Rechenzentren replizieren (Stretched Cluster). Dadurch lassen sich Geo-Cluster aufbauen, also Cluster deren Knoten international in verschiedenen Rechenzentren verteilt sind.

Der Vorteil der neuen Technologie ist die Unabhängigkeit von Speicherlösungen und Speicherherstellern. Sie können jeden beliebigen Speicher replizieren, solange dieser mit einem Server auf Basis von Windows Server 2019 verbunden ist und funktioniert. Die Replikation erfolgt über das Server Message Block (SMB)-Protokoll mit Windows Server 2019. Dabei kann das Protokoll auf die ganze Bandbreite zurückgreifen, welche durch die Adapter zur Verfügung gestellt werden.

Sie können Bitlocker-Laufwerke replizieren sowie Datenträger auf denen die Datendeduplizierung aktiviert ist. Auch Multichannel und Multipath werden unterstützt, was vor allem für die Replikation in Clustern eine wichtige Rolle spielt (siehe Kapitel 9 und 34). Die Daten lassen sich während der Übertragung zwischen Quell- und Ziel-Server verschlüsseln und signieren. Wollen Sie Failover-Szenarien umsetzen, können Sie auch nur einzelne Laufwerke verwenden, Sie müssen das Failover nicht für alle replizierten Laufwerke eines Servers auf einmal starten.

Sie können zum Beispiel zwei Cluster in physisch getrennten Rechenzentren betreiben und den gemeinsamen Speicher der Cluster replizieren lassen. Fällt ein Rechenzentrum aus, kann das andere Rechenzentrum sofort übernehmen. Hier ist auch die neue Funktion zum Verwendung von Microsoft Azure als Cloudzeuge interessant.

Ablauf der Replikation

Das Betriebssystem schreibt Blöcke auf den Quell-Server (Schritt 1). Storage-Replika erkennt das und speichert die Vorgänge in der Protokolldatei. Außerdem überträgt der Quell-Server die Daten mit SMB sowie RDMA zum Zielserver übertragen (Schritt 2). Anschließend schreibt der Server im Ziel-Standort die Daten ein sein Protokoll (Schritt 3). Danach bestätigt der Ziel-Server die erfolgreiche Replikation (Schritt 4), und der Quell-Server meldet, dass er die Bestätigung empfangen hat (Schritt 5). Anschließend werden auch die Protokolle entsprechend angepasst (Schritt 6).

Wie energieeffizient sind die Rechenzentren in Deutschland?

Wie sich der Rechenzentrumsmarkt und insbesondere das Thema der Energieeffizienz in Rechenzentren in Deutschland entwickelt, ist Thema einer aktuellen Umfrage bei Rechenzentrumsbetreibern. Die Umfrage wird vom Borderstep Institut im Rahmen des vom Bundesministerium für Wirtschaft und Energie geförderten Forschungsprojektes TEMPRO durchführt.  

Rechenzentrumsbetreiber werden gebeten, sich an dieser vertraulichen Umfrage zu beteiligen. Unter allen Teilnehmern wird ein IPad verlost. Die Forscher erhoffen sich, mit Hilfe der Ergebnisse der Befragung auch künftig Informationen zur Marktentwicklung und zur Entwicklung der Energieeffizienz im Deutschland zur Verfügung stellen zu können.

Migration öffentlicher Ordner zu Office 365-Gruppen

Office 365-Gruppen stellen ein Sicherheitskonzept dar, mit dem Gruppenarbeit in Office 365 effektiver dargestellt werden kann. Grundsätzlich sind Office 365-Gruppen ein Objekt in Azure Active Directory, das mit Office 365 verbunden ist. Administratoren können einer Office 365-Gruppe verschiedene Benutzer zuordnen. Dadurch stehen den Gruppen verschiedene Funktionen zur Verfügung, mit denen sich auch Daten speichern lassen.

Mit dieser Kombination können Gruppen Zugriffsberechtigungen erteilt werden, die für einzelne Teammitglieder gelten. Erhält ein Benutzer zum Beispiel das Recht auf die Office 365-Gruppe „Einkauf“ zuzugreifen, erhält der Benutzer automatisch Zugriff auf alle Tools und Daten der Gruppe. Dazu gehört zum Beispiel auch die SharePoint-Teamsite der Gruppe und die verschiedenen Datenablagen.

Office 365-Gruppen erhalten ein Exchange-Postfach in Office 365, so wie es bei öffentlichen Ordnern möglich ist. Außerdem erhalten Office 365-Gruppen einen gemeinsamen Kalender. Dieser erlaubt die Koordination von Terminen für die ganze Gruppe.

Die Erstellung einer Office 365-Gruppe kann an verschiedenen Stellen durchgeführt werden. Administratoren können Gruppen über die Office-365-Admin-Umgebung, in Azure Active Directory (AAD) oder mit der PowerShell erstellen.

Microsoft Teams bietet den Vorteil, dass verschiedene Kollaborationsdienste gemeinsam zur Verfügung stehen. Dazu gehören Dateiablage, Notizbuch, Planer und PowerBI. Diese Bereiche stehen über Office 365-Gruppen zur Verfügung.

VMs per Skript sichern

Neben dem HTLM5-vSphere-Client können Sie VMware-Umgebungen auch über die PowerShell verwalten, überwachen und auch sichern. Dazu benötigen Sie die PowerShell-Erweiterung PowerCLI. Zusätzlich bietet VMware kostenlose Skripte für die Verwaltung oder für das Anzeigen von Informationen, die auch bei der Datensicherung helfen können.

Auch Dritthersteller bieten kostenlose Erweiterungen für die PowerCLI oder kostenlose Skripte, welche die Verwaltung und Sicherung von VMs in vSphere erleichtern. Die aktuelle Version der PowerCLI laden Sie im Download-Center bei VMware herunter.

Mit „Connect-VIServer“ wird eine Verbindung zum Host oder einem vCenter-Server aufgebaut. Der Befehl „Connect-VIServer -Server <IP-Adresse> -Protocol https -User <Benutzername> -Password <Kennwort>“ baut die Verbindung auf. „Get-VM“ zeigt Daten von VMs an. Durch dieses CMDlet können Sie auf die Schnelle testen, ob die PowerShell-Verbindung erfolgreich hergestellt wurde. Die hier angezeigten Server und VMs können Sie anschließend sichern oder wiederherstellen.

Sie können mit Skripten auch Snapshots erstellen, zum Beispiel mit dem CMDlet „New-Snapshot“. Ein Beispielbefehl sieht folgendermaßen aus:

“New-Snapshot -vm server1 -Memory:$false -confirm:$false -name „Ticket number 12345”

Natürlich lassen sich auch mehrere VMs bei der Erstellung eines Snapshots berücksichtigen:

„New-Snapshot -vm server1,server2,server3 -Memory:$false -confirm:$false -name „Ticket number 12345“

Natürlich stellt das Erstellen von Snapshots keine richtige Sicherung einer VM dar. Aber auch für das Sichern von VMs lassen sich Skripte nutzen. Ein Beispiel dafür ist das Skript „GhettoVCB“. Das Skript bietet keine grafische Oberfläche, wie die Vielzahl an Tools, mit denen sich VMs sichern lassen, sondern richtet sich vor allem an Administratoren, die Server per Skript sichern wollen.

.  Sie können mit „Export-VM“ auch mehrere VMs auf einmal exportieren. Dazu können Sie zum Beispiel mit „Get-VM“ eine Liste der VMs abfragen und diese dann an „Export-VM“ weitergeben. Alternativ können Sie auch einfach mit „Get-VM“ die VMs anzeigen und dann einzelne VMs exportieren:

Get-VM

Export-VM w2k19 -Path F:\Backups

Wollen Sie alle VMs exportieren, verwenden Sie im Skript das Pipe-Zeichen:

Get-VM | Export-VM -Path F:\Backups

Sie können exportierte VMs mit „Import-VM“ importieren. Das Exportieren können Sie mit einem PowerShell-Skript durchführen. In diesem Fall können Sie das Skript in der Aufgabenplanung hinterlegen.

Eine weitere Möglichkeit, um VMs in Hyper-V zu skripten besteht darin das kostenlose „Hyper-V Virtual Machine Backup Utility“ (https://gallery.technet.microsoft.com/scriptcenter/PowerShell-Hyper-V-Backup-7d444752) aus dem Microsoft Script Center zu verwenden.

Virtuelle Server gruppieren

Die Verwaltung von Gruppen findet vor allem in der PowerShell statt. Dazu stehen die folgenden CMDlets zur Verfügung:

  • New-VMGroup
  • Get-VMGroup
  • Remove-VMGroup
  • Add-VMGroupMember
  • Remove-VMGroupMember
  • Rename-VMGroup

Haben Sie Gruppen erstellt, können Sie jederzeit VMs zur Gruppe hinzufügen, oder VMs aus den Gruppen entfernen. Um eine Gruppe zu erstellen verwenden Sie zum Beispiel:

New-VMGroup -Name JoosGroup -GroupType VMCollectionType

Um VMs einer Gruppe hinzuzufügen, arbeiten Sie am besten mit einer Variablen. Im ersten Schritt erstellen Sie eine Variable mit der Gruppe, der Sie eine VM hinzufügen wollen:

$VMG1 = Get-VMGroup -Name JoosGroup

Die einzelnen VMs nehmen Sie auch als Variable hinzu:

$VM1 = Get-VM -Name Essentials

Danach können Sie die VM der Gruppe hinzufügen:

Add-VMGroupMember -VMGroup $VMG1 -VM $VM1

Die Gruppenmitgliedschaft können Sie wiederum mit der Option „groups“ anzeigen lassen, wenn Sie zum Beispiel das CMDlet get-vm verwenden:

Get-VM | ft Name, state, groups -AutoSize

VMs können Mitglied in mehreren Gruppen sein. Außerdem können Sie auch Gruppen verschachteln. Dazu müssen Sie Gruppen mit der Option „ManagementCollectionType“ erstellen.

Hyper-V-VMs exportieren

Der Befehl zum Exportieren steht über das Kontextmenü von virtuellen Server zur Verfügung. In Windows Server 2012 funktioniert diese Technik nur dann, wenn der virtuelle Server nicht gestartet ist. Das ist in Windows Server 2012 R2 und Windows Server 2019 anders. Sie können hier auch im laufenden Betrieb durchführen.  Der Exportvorgang umfasst die .vhd(x)-Dateien, Prüfpunkte und die Einstellungen des virtuellen Servers. Die Größe der Exportdateien entspricht der Größe der Quelldateien.

Wollen Sie einen virtuellen Computer importieren, steht der Befehl Virtuellen Computer importieren im Aktions-Bereich des Hyper-V-Managers zur Verfügung. Über den Assistenten wählen Sie den Ordner aus, in dem sich die Exportdatei befindet, und erhalten im nächsten Fenster Informationen zum Servernamen angezeigt. Auf der nächsten Seite wählen Sie die Optionen aus, um den Server zu importieren.

Virtuelle Server können Sie mit „Import-VM“ importieren und mit „Export-VM“ exportieren. Diese beiden CMDlets sind für das Erstellen von Skripten also besonders hilfreich.  Sie können mit „Export-VM“ auch mehrere VMs auf einmal exportieren. Dazu können Sie zum Beispiel mit „Get-VM“ eine Liste der VMs abfragen und diese dann an „Export-VM“ weitergeben. Alternativ können Sie auch einfach mit „Get-VM“ die VMs anzeigen und dann einzelne VMs exportieren:

Get-VM

Export-VM w2k19 -Path F:\Backups

Wollen Sie alle VMs exportieren, verwenden Sie im Skript das Pipe-Zeichen:

Get-VM | Export-VM -Path F:\Backups

Sie können exportierte VMs mit „Import-VM“ importieren. Das Exportieren können Sie mit einem PowerShell-Skript durchführen. In diesem Fall können Sie das Skript in der Aufgabenplanung hinterlegen.

Neues Projekt zur Abwärmenutzung in Rechenzentren

Server in Rechenzentren erzeugen hohe Mengen an Abwärme, die bisher mit hohem Energieaufwand aus dem Gebäude abgeführt und an die Umwelt abgegeben wird. Viel mehr Sinn würde es machen, diese Abwärme zu nutzen. Das dies nicht geschieht, liegt aus Sicht der Rechenzentrumsbetreiber vor allem an drei Gründen. Zum einen ist die Nutzung der Abwärme in Deutschland oft zu teuer. Zum zweiten findet sich oft kein Abnehmer für die Abwärme in der Umgebung des Rechenzentrums. Und zum dritten ist das Niveau der Abwärme mit etwa 30 bis 40°C oft zu niedrig, um sie einer sinnvollen Nutzung zukommen zu lassen (Grafik).  

In dem neuen Forschungsprojekt wird genau an dieser Stelle angesetzt. Ziel ist es, eine wirtschaftlich attraktive Nutzung von Abwärme in Rechenzentren zu ermöglichen. Mit Hilfe der von der Thomas Krenn AG entwickelten Hot Fluid Computing-Technologie wird die Abwärme der Server mit Wasser abgeführt und kann auf hohem Temperaturniveau (> 55°C) zum Zwecke der Gebäudeheizung oder für Brauchwassererwärmung zur Verfügung gestellt werden. Im Rahmen des Projektes wird diese Technologie aber auch genutzt, um in einem standardisiertem Rechenzentrum („Private Datacenter“ von dc-ce RZ-Beratung und Tobol) mit Hilfe einer Adsorptionskältemaschine von InvenSor Kälteleistung zu erzeugen. Die Kombination aus Abwärme und Adsorptionskälte erlaubt es, die Serverabwärme zum kühlen zu nutzen. Gekühlt werden können z.B. die im Rechenzentrum vorhandenen  Speichersysteme, Netzwerkkomponenten oder Unterbrechungsfreien Stromversorgungen.  Durch die Kombination der drei Ansätze „Private Datacenter“, „Hot Fluid Computing“ und „Adsorptionskältemaschine“ soll eine Effizienzsteigerung von mindestens 300% gegenüber konventionellen Rechenzentren erreicht werden. Das neue Konzept wird zum einen unter Laborbedingungen an der TU Berlin (Hermann Rietschel Institut) und zum anderen unter Praxisbedingungen bei Noris Networks umgesetzt und demonstriert.

HotFlAd wird im Rahmen der Förderinitiative „EnEff.Gebäude.2050 – Innovative Vorhaben für den nahezu klimaneutralen Gebäudebestand 2050“ vom Bundesministerium für Wirtschaft und Energie gefördert.

In Kritischen Infrastrukturen ist Meldepflicht Selbstschutz

Die gesetzliche Pflicht, Störungen in den Netzwerken kritischer Infrastrukturen zu melden, wird oft als bürokratischer Aufwand wahrgenommen. Der vorgeschriebene Informationsaustausch zwischen kritischen Infrastrukturen und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) birgt ohne Zweifel Aufwände und Unklarheiten. Jedoch überwiegt der Mehrwert, der sich aus der Schwarmintelligenz ergibt. Je mehr Akteure über Gefährdungen berichten, desto mehr Akteure können sich gegen diese auch aktiv vorbereiten, bevor Störungen entstehen. So wird Meldepflicht zum Selbstschutz.

Der Mehrwert kann jedoch nur entstehen, wenn über den Tellerrand der gängigen Monitoring- und Sicherheitssysteme geschaut wird. Genau hier setzt das Prinzip des Defense-In-Depth an, das die gängigen Lösungen (Firewalls, Virenscanner etc.), die mittlerweile als Standard in jeder Kritischen Infrastruktur angenommen werden können, um Abwehrmechanismen erweitert, die auch das Unbekannte sichtbar machen.

Dass bislang unbekannte Angriffs- und Störungsmuster in Zukunft eine entscheidende Rolle bei der Gefährdungslage spielen, zeigten nicht zuletzt die mehrstufigen, lange Zeit verborgen agierenden Kampagnen Industroyer und Dragonfly 2.0. Während mit Dragonfly 2.0 Angreifer über Monate bis Jahre Kritische Infrastrukturen auch in Deutschland ausspioniert haben, legte Industroyer 2016 die Stromversorgung Kiews für mehrere Stunden lahm.

Auf der Suche nach dem Unbekannten

Genau hier liegt auch die größte Unklarheit für die Informationssicherheitsbeauftragten in kritischen Infrastrukturen. Das IT-Sicherheitsgesetz (und damit das EnBW, AtG und BSIG) fordert eine Meldung von »erheblichen Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse, die zu einem Ausfall oder einer Beeinträchtigung der Funktionsfähigkeit der von ihnen betriebenen Kritischen Infrastrukturen führen können oder geführt haben.«

Die Formulierung birgt zwei Unschärfen, mit denen Betreiber zu kämpfen haben:

  1. Wie sollen Störungen erkannt werden, die erst langfristig zu einer Beeinträchtigung führen könnten, zum Beispiel Advanced Persistent Threats?
  2. Wie kann bewertet werden, ob die Beeinträchtigungen durch eine Störung erheblich sein könnten?

Auf der FAQ-Seite des BSI findet sich zur ersten Frage lediglich der Hinweis: »Werden Angriffe auf die Kritische Infrastruktur unter Verwendung von neuartigen, außergewöhnlichen, zielgerichteten oder aus technischer Sicht bemerkenswerten Angriffsverfahren entdeckt, muss davon ausgegangen werden, dass eine Einwirkung auf die Kritische Infrastruktur möglich ist, sobald sich die Angreifer dazu entschließen«.

Auch bei der Frage, was »erheblich« bedeutet, sind Informationssicherheitsbeauftragte weitestgehend auf sich gestellt: »Eine eindeutige, umfassend geltende Antwort, wann eine Störung erheblich ist, ist nicht möglich. Stattdessen ist es erforderlich, dass die Verantwortlichen in KRITIS-Unternehmen Einzelfallentscheidungen treffen«.

Aus unseren Erfahrungen des Monitorings von Leitsystemen und Netzleittechnik mittels industrieller Anomalieerkennung wissen wir, dass weder versteckte Angriffe noch offene Sicherheitslücken eindeutig erkannt und eingeschätzt werden. Hinzu kommt, dass die Entwicklungen der Digitalisierung und des Smart Grid zu immer komplexeren Kommunikationsstrukturen führen, die neben Sicherheitsgefährdungen auch die Wahrscheinlichkeit technischer Fehlerzustände erhöhen.

Wer entscheiden will, muss sehen können

Betreiber benötigen somit Werkzeuge, die zwei Dinge ermöglichen:

  1. Vorgänge erkennen, die durch gängige Sicherheitslösungen mit Blacklisting- oder Whitelistingansatz übersehen werden.
  2. Vorgänge dahingehend bewerten, ob diese (erhebliche) Beeinträchtigungen hervorrufen könnten.

Netzleittechnik und Leitsysteme sind von einer deterministischen Kommunikationsstruktur geprägt. Dadurch können zum Beispiel mit einer industriellen Anomalieerkennung alle Vorgänge erkannt werden, die in irgendeiner Form vom deterministischen Grundmuster abweichen. Ein gutes Monitoringsystem erkennt bei den sicherheitsrelevanten Vorfällen u.a. neue:

  • Netzteilnehmer oder Kommunikationsbeziehungen;
  • Verbindungen zum Internet;
  • Protokolle;
  • Befehlsstrukturen sowie Netzwerkscans.

Hinzu kommen sowohl bestehende CVE-Sicherheitslücken an Geräten und Software, als auch Netzstörungen, die keine IT-Sicherheitsvorfälle sind, aber an das BSI gemeldet werden müssen. Zu letzteren gehören Konfigurations- und Kommunikationsfehler sowie andere technische Fehlerzustände, die sich beispielsweise aus der Abnahme der Netzwerkqualität ergeben. Gefährdungen jeglicher Form werden somit in ihrem frühesten Stadium erkannt und in Echtzeit gemeldet.

Die Bewertung der Vorfälle wird durch die industrielle Anomalieerkennung über verschiedene Stufen ermöglicht. Zum einen wird jede Meldung in Sicherheit oder Netzwerkqualität kategorisiert. Des Weiteren erhält jede Meldung eine Risikobewertung in Abhängigkeit von Kommunikationsvorgang und betroffenen Komponenten. Schlussendlich wird jede Meldung inklusive der Rohdaten als frei exportierbares PCAP gespeichert. Somit ist eine umgehende forensische Analyse auf einer vollständigen, nachvollziehbaren Datenlage für alle Stakeholder möglich. Informationssicherheitsbeauftragte können damit auf jede potentielle Gefährdung reagieren, bevor es zur Beeinträchtigung kommt.

BAM – CMS Blog