Sichern von Active Directory-Zertifikatdiensten

Wählen Sie im Kontextmenü der Zertifizierungsstelle in der Verwaltungskonsole die Option Alle Aufgaben/Zertifizierungsstelle sichern. Anschließend startet der Assistent, über den die Zertifizierungsstelle und deren Daten gesichert werden können.

Auf der nächsten Seite des Assistenten wählen Sie aus, welche Dateien gesichert werden sollen und in welcher Datei die Sicherung abgelegt wird. Anschließend vergeben Sie ein Kennwort für die Sicherung, damit niemand Zugriff auf die Daten erhält. Im Anschluss wird die Zertifizierungsstelle gesichert. Auf dem gleichen Weg lassen sich auch Daten wiederherstellen.

Zertifizierungsstellenverwaltung delegieren

Verwaltungsrollen können an verschiedene Personen in einer Organisation verteilt werden. Die rollenbasierte Verwaltung wird von Unternehmenszertifizierungsstellen und eigenständigen Zertifizierungsstellen unterstützt.

Klicken Sie auf der Registerkarte Zertifikatverwaltungen auf Zertifikatverwaltungen einschränken, und überprüfen Sie, ob der Name der Gruppe oder des Benutzers angezeigt wird. Klicken Sie unter Zertifikatvorlagen auf Hinzufügen und wählen Sie die Vorlage für die Zertifikate aus, die von diesem Benutzer oder dieser Gruppe verwaltet werden sollen. Über Berechtigungen konfigurieren Sie die Rechte auf die einzelnen Gruppen. In Windows Server 2019 sind Zertifikatvorlagen enthalten, die unterschiedliche Registrierungs-Agenttypen aktivieren.

Die Einstellungen für diese Agents werden auf der Registerkarte Registrierungs-Agents durchgeführt. Klicken Sie im Bereich Registrierungs-Agents auf Hinzufügen und geben Sie die Namen des Benutzers oder der Gruppen ein.

Auf der Registerkarte Überwachung werden die zu überwachenden Ereignisse ausgewählt. Die generellen Optionen der Überwachungsrichtlinie können in Gruppenrichtlinie unter Computerkonfiguration/Windows-Einstellungen/Sicherheitseinstellungen/Lokale Richtlinien eingestellt werden. Die Ereignisse werden im Überwachungsprotokoll der Ereignisanzeige festgehalten.

 

Alluxio – Open Source Memory Speed Virtual Distributed Storage

Das System wird unter der Apache 2.0-Lizenz bereitgestellt. Es gibt daher eine kostenlose Community Edition. Im Fokus des Systems steht die Anbindung von Big-Data-Lösungen, wie zum Beispiel Hadoop oder anderen Systemen, die große Datenmengen verarbeiten müssen. Dazu verbindet sich die Lösung, mit der Daten verarbeitet werden, mit Alluxio. An Alluxio sind wiederum die verschiedenen Datenquellen angebunden. Alluxio kann diese Daten aus verschiedenen Quellen anschließend für die jeweilige Anwendung bereitstellen.

Alluxio unterstützt zahlreiche Storage-Systeme. Diese müssen nicht unbedingt mit HDFS betrieben werden. Auch Amazon S3 oder Swift werden uneingeschränkt unterstützt. Neben der Anbindung von lokalen Dateisystemen, die Daten für Alluxio zur Verfügung stellen, können parallel auch Clouddienste angebunden werden.

Alluxio hilft dabei Probleme bei der Extraktion von Daten zu lösen. Dazu stellt das Tool eine Brücke zwischen Anwendungen und Speichersystemen bereit, auf denen Daten gespeichert sind. Alluxio vereinfacht die Vorgehensweise für den Datenzugriff und unterstützt Anwendungen dabei unabhängig von Format und Standort auf Daten zuzugreifen.

In vielen Unternehmen wird die Objektspeicherung als wichige Datenquelle für Datenanalyseanwendungen wie Spark, Presto, Hadoop oder Machine Learning/AI-Workloads wie Tensorflow genutzt. Bei der Objektspeicherung kann es sich um Clouddienste wie AWS S3, Azure Blob Storage, Google Cloud Storage, Aliyun OSS, Tencent COS oder um lokale Objektspeicher wie Ceph oder Swift handeln.

Wie wird Cloud Computing grün?

Diese Frage diskutierte das Borderstep Impact Forum am 21. Mai 2019 im Harnack-Haus in Berlin in fünf Fachforen und einer Podiumsdiskussion. Auf dem Panel debattierten Rita Schwarzelühr-Sutter, Parlamentarische Staatssekretärin im BMU, Per Thoeresson, Botschafter von Schweden, Dr. Bela Waldhauser, CEO von Telehouse Deutschland und Dr. Jens Struckmeier, Gründer und CTO von Cloud&Heat Technologies.

In ihrer Keynote analysierte Rita Schwarzelühr-Sutter positive und negative Auswirkungen der Digitalisierung. „Digitalisierung ist der Schlüssel für eine nachhaltige Entwicklung, doch ist es wichtig, dass wir es in der Hand haben, in welche Richtung es geht.“

Per Thoeresson, Botschafter von Schweden, unterstrich in seinem Redebeitrag, dass Schweden bereits seit 1991 eine Steuer auf den Ausstoß von Kohlendioxid erhebt. Die Bürgerinnen und Bürger unterstützen das. Mehr noch – Nachhaltigkeit als Ausgangspunkt jeden Regierungshandelns ist sogar in der schwedischen Verfassung festgeschrieben. Doch im Alleingang kann auch ein vorbildlich aufgestellter Staat wenig erreichen. „Nur die Zusammenarbeit innerhalb Europas ermöglicht eine wirklich smarte Digitalisierung.“

Das Fachforum „Rechenzentren: Die energieeffiziente Basis der Digitalisierung?“, das u.a. vom Netzwerk energieeffiziente Rechenzentren organisiert wurde, befasste sich mit aktuellen Trends wie Edge Computing, Industrie 4.0 und Blockchain. Es wurde vorgestellt, wie eine Gaming-Plattform als Management-Tool für das Rechenzentrum genutzt werden kann und welche Potenziale in einer verteilten Edge-Lösung für mehr Nachhaltigkeit bestehen.

Going Global: IndustryStock BarCamps in China

IndustryStock und das Wirtschaftsministerium der Provinz Hebei hatten eingeladen und jeweils über 100 Gäste aus China, Deutschland, Polen, Tschechien, Holland, Italien, Schweden und Frankreich waren zu den zwei Veranstaltungen am 19. Mai 2019 nach Langfang gekommen.

Ursprünglich als klassische BarCamps geplant, wollten es die chinesischen Kollegen dann doch etwas traditioneller. Das sollte dem Interesse aller Beteiligten allerdings in keiner Weise schaden.

Im Rahmen der zielgruppenadäquaten Vorträge wurden natürlich auch die Industrie-Plattform IndustryStock und die neue Sensor-Plattform diribo der Initiatoren dieser Veranstaltung vorgestellt. Präsentator Silvio Haase (IndustryStock- und diribo-CMO) moderierte im Anschluss auch gleich noch die Podiumsdiskussion mit chinesischen und deutschen Gästen, die auf ein außerordentlich interessiertes Publikum traf.

Auf dem Podium diskutierten Shuguo Hu, Hebei Development and Reform Commission, Jing Wang, HBIS Group, Liang Chen, TradeAider, Kristin Wenk, WFBB und Matthias Ploechl, BioenergieBeratungBornim.

Höhepunkt der zweiten Veranstaltung war die offizielle Freischaltung der neuen Kooperationsplattform von IndustryStock. Gemeinsam mit Jing An, Stellvertetender Generaldirektor des Wirtschaftsministeriums der Provinz Hebei, leitete Silvio Haase den Countdown ein. Die Kooperationsplattform (www.industrystock.com/en/cooperation) ist eine aktive Anwendung, die passende Partner in aller Welt automatisiert matchen kann – egal ob es um Sales-, Technologie-, Forschungskooperationen oder Kauf und Beteiligungen geht.

Durch beide Veranstaltungen führte der Abteilungsleiter der Investitionsagentur Hebei, Jiang Qian, der unter anderem sagte, die neue Kooperationsplattform von IndustryStock ist auch für Hebei eine große Chance, ausländische Investoren zu gewinnen und zu fördern sowie die richtigen Partner zusammenzubringen.

Hebei
Die Provinz Hebei ist mehr als doppelt so groß wie Österreich, hat 70 Millionen Einwohner und umschließt Peking, die Hauptstadt Chinas. Hebei erfreut sich aufgrund der folgenden drei Fakten zunehmender Bedeutung: Die wirtschaftliche Entwicklung in Peking, Tianjin und Hebei werden staatlich koordiniert und gefördert. Mit der Xiong’an New Area entsteht ein ähnliches Wirtschaftsgebiet wie Shenzhen und Shanghai Pudong. Im Jahr 2022 werden die Olympischen Winterspiele in Peking und Hebei stattfinden.

IndustryStock
IndustryStock ist eine vom Deutschen Medien Verlag betriebene, weltweit agierende B2B-Plattform für Industrieunternehmen. Der geschäftliche Fokus der Plattform liegt darauf, Unternehmen aus aller Welt datengetrieben zu matchen, also auf digitalen Wegen neue Absatzmärkte zu erschließen.

Basis dafür ist die intelligente Nutzung von Daten wie zum Beispiel des Suchverhaltens von Fachbesuchern aus aller Welt sowie der Daten von mehr als 350.000 Unternehmen und 3,2 Mio. Industrieprodukten, die nach 100.000 Keywords klassifiziert und in 16 Sprachen abrufbar sind.

So wird die Plattform für Einkäufer in Industrieunternehmen zu einer weltweiten Spezialsuchmaschine, mit der gezielt neue Lieferanten und Geschäftspartner gesucht und gefunden werden. Verkäufer, Unternehmer und Manager nutzen zusätzliche IndustryStock-Tools als Platform-as-a-Service zur Digitalisierung von Sales- und Marketing-Prozessen.

Die Internationalität erschöpft sich nicht in der Mehrsprachigkeit. In Polen vermarktet der Industriefachverlag ELAMED IndustryStock.pl und in Tschechien Business Media CZ Industrystock.cz. Der Business-Verlag TPI ist im spanischen Sprachraum Partner und betreibt IndustryStock.es. In China zeichnet Gongji Network Technology für industrystock.cn und industrystock.hk verantwortlich. Das Netzwerk wächst weiter.

 

Offlinedefragmentation der Active Directory-Datenbank

Bevor Sie eine Offlinedefragmentation durchführen, sollten Sie eine Sicherung des Systemstatus Ihres Active Directory durchführen. Wie bei der Offlinedefragmentation von Exchange wird zunächst die Datenbank kopiert, dann offline defragmentiert und anschließend zurückkopiert. Stellen Sie daher sicher, dass sich auf dem Datenträger, auf dem Sie die Offlinedefragmentation durchführen, genügend Speicherplatz frei ist. Um eine Offlinedefragmentation durchzuführen, gehen Sie folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie den Befehl files ein, um zur file maintenance zu gelangen.
  5. Geben Sie den Befehl compact to <Laufwerk:\Ordner> Wählen Sie als Verzeichnis einen beliebigen Ordner auf der Festplatte aus. Ntdsutil kopiert die Datenbankdatei in diesen Ordner und defragmentiert sie.
  6. Wenn keine Fehlermeldungen während der Offlinedefragmentation auftreten, können Sie die Datei dit aus dem Ordner, in welchen sie defragmentiert wurde, zurück in den Datenbankpfad der produktiven Datenbank kopieren. Diesen Vorgang führt Ntdsutil nicht automatisch aus, Sie müssen die Datei manuell kopieren. Sichern Sie die alte Version der ntds.dit aus dem produktiven Datenbankordner. Verschieben Sie die defragmentierte Datei in den produktiven Ordner der Datenbank und überschreiben Sie die alte Version.
  7. Geben Sie in der file maintenance von Ntdsutil den Befehl integrity ein, um die Integrität der Datenbank festzustellen.
  8. Wenn die Integrität der neuen Datenbank sichergestellt ist, können Sie den Domänencontroller ganz normal neu starten. Sollten Fehler auftreten, kopieren Sie die zuvor gesicherte Originalversion zurück und führen Sie einen erneuten Integritätstest durch. Ist der Test diesmal erfolgreich abgeschlossen, versuchen Sie erneut eine Offlinedefragmentation und starten Sie den Test erneut. Sie sollten den Domänencontroller erst in den normalen Modus starten, wenn sichergestellt ist, dass die Datenbank auch konsistent ist.

Vorbereitungen für ein Linux-RAID

Linux unterstützt mehr Software-RAIDs als Windows und macOS. Welches RAID-System Sie nutzen können, hängt meistens von der Anzahl an Festplatten ab, die auf dem System zur Verfügung stehen. Folgende RAID-Systeme stehen zur Verfügung:

RAID 0 – Auch in Linux gibt es die Möglichkeit Software-RAIDs auf Basis der Zusammenfassung von mindestens zwei Datenträger zu einem gemeinsamen Datenträger zu erstellen.

RAID 1 – Festplattenspiegelung mit mindestens zwei Datenträger.

RAID 4 – Funktioniert ähnlich zu RAID 5. Allerdings werden die Paritätsdaten auf einer eigenen Festplatte gespeichert. Daher sind hier mindestens 4 Datenträger notwendig. Der Verlust eines Datenträgers kann kompensiert werden.

RAID 5 – Hier werden drei Festplatten benötigt. Im Gegensatz zu RAID 4 werden die Paritätsdaten auf den drei Festplatten verteilt. Der Verlust von einem Datenträger kann kompensiert werden.

RAID 6 – Mindestens 6 Festplatten sind notwendig. Der Verlust von zwei Festplatten kann kompensiert werden.

RAID 10 – Hier werden die Geschwindigkeitsvorteilte von RAID 0 mit der Datenspiegelung von RAID 1 kombiniert. Es sind mindestens 4 Festplatten notwendig.

In fünf Schritten zu Sicherheit und Stabilität in Kritischen Infrastrukturen

Das Mai 2018 in zweiter Fassung veröffentlichte Whitepaper »Anforderungen an sichere Steuerungs- und Telekommunikationssysteme« übersetzt die Highlevel-Forderungen aus dem deutschen IT-Sicherheitsgesetz und dem »Österreichische Programm zum Schutz Kritischer Infrastrukturen« (APCIP) in technische Anforderungen. Trotz des vergleichsmäßig hohen Detailgrades, auf den sich der deutsche Bundesverband der Energie- und Wasserwirtschaft (BDEW) und Österreichs Energie (OE) geeinigt haben, bleiben die Maßnahmen vage in der konkreten Umsetzung.

Das Whitepaper beschreibt auf 80 Seiten und in acht Maßnahmengruppen, wie die Prozess- und Netzleittechnik (PNLT) von Energie-, Wasserwirtschafts- und Öl/Gas-Unternehmen vor Störungen geschützt werden soll. Die Gruppen umfassen:

  1. Allgemeine Anforderungen (Sichere Systemarchitektur, definierte Verwaltungsprozesse, Sicherstellung der Datensicherheit und -integrität)
  2. Projektorganisation (Ansprechpartner, Tests, Datenspeicherung und -übertragung, Übergabeprozesse)
  3. Basissystem (Systemhärtung, Schadsoftware-Schutz, Authentifizierung, Virtualisierung)
  4. Netzwerk und Kommunikation (Protokolle, Segmentierung, Fernzugänge, Dokumentation)
  5. Anwendung (Rollen, Authentifizierung, Autorisierung, Umgang mit Webapplikationen, Integritätsprüfung, Logging)
  6. Entwicklung (Standards, Freigabe, Integrität)
  7. Wartung (Updates, Konfigurations- und Change Management, Sicherheitslücken)
  8. Datensicherung und Notfallplanung (Backup, Wiederanlauf)

Am Tagesgeschäft vorbei gedacht

Die Maßnahmengruppen des Whitepapers folgen damit der Architektur und Struktur der PNLT. Das Whitepaper verfehlt damit jedoch die Day-to-Day-Workflows und Zusammenhänge zwischen einzelnen Maßnahmen. Die Prozess- und Organisationslogik der IT/OT-Sicherheit wird nicht abgebildet. Insbesondere fehlt die Eingliederung in die etablierten Managementsysteme (wie QMS oder ISMS), die der Logik des kontinuierlichen Verbesserungsprozesses (Plan, Do, Check, Act) folgen. In der IEC 62443 wird dies zumindest in Teilen mit der Beschreibung der Risikoanalyse begonnen. In der Schweiz orientiert sich das »Handbuch Grundschutz für «Operational Technology» in der Stromversorgung« des VSE explizit am US-amerikanischen NIST-Standard. Dieser bricht die Cybersicherheit in Kritischen Infrastrukturen auf fünf logische Ebenen eines Defense-In-Depth-Konzepts herunter, die in einem Verbesserungsprozess münden:

  1. Identifizieren (Identify)
  2. Schützen (Protect)
  3. Erkennen (Detect)
  4. Reagieren (Respond)
  5. Wiederherstellen (Recover)

Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)
Abb. 1: Der kontinuierliche Verbesserungsprozess für die Verfügbarkeit und Sicherheit der Steuerungsnetze hängt maßgeblich von der Transparenz und Sichtbarkeit durch eine Monitoring- und Anomalieerkennungslösung ab (Quelle: Rhebo)

BDEW-Whitepaper im Prozesskontext

Es ergibt daher Sinn, die Anforderungen des BDEW-/OE-Whitepapers auf die fünf Schritte des NIST-Frameworks zu beziehen.

Schritt 1: Identifizieren

Hinter dem Identifizieren verbergen sich alle Aspekte einer detaillierten Risikoanalyse. Der erste Schritt ist hierbei die Herstellung vollständiger Transparenz in Bezug auf:

  • Netzwerkstruktur
  • Komponenten, ihre Eigenschaften, Prozesse und Services
  • Bestehende Sicherheitslücken
  • Kommunikationsverbindungen (intern und mit externen Netzen)
  • Kommunikationsverhalten der einzelnen Komponenten
  • Kommunikationsprotokolle
  • Kommunikationsinhalte
  • Unterliegende Prozesse

Letztlich verbirgt sich hierunter vor allem die Maßnahmengruppe 4 »Netzwerk und Kommunikation«. Aber auch Aspekte der Gruppen »Allgemeine Anforderungen« (bestehende Sicherheits- und Monitoringstrukturen, Verwaltungsprozesse), »Projektorganisation« (Verantwortliche) und »Wartung« (Updates, Konfigurationen, Sicherheitslücken) fallen hierunter.

Grundsätzlich geht es darum, eine ganzheitliche Istanalyse der PNLT, organisatorischen Struktur und Gefährdungslage durchzuführen. Sie bildet die Basis, um festzulegen, worüber überhaupt gesprochen werden muss. Damit die nachfolgenden Schritte der Sicherung weder im Gießkannenprinzip ausgeführt werden, noch zu kurz gedacht werden, muss zwingend vollständige Transparenz hergestellt werden. Technologisch sollte hierbei über diesen Zeitraum der Istanalyse hinaus gedacht werden, denn auch im laufenden Betrieb der Sicherung, Erkennung und Reaktion steht und fällt die Handlungsfähigkeit der Verantwortlichen mit der Transparenz.

Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)
Abb. 2: Im ersten Schritt müssen allen Komponenten, deren Verbindungen und die Verbindungsqualität analysiert werden. Rechts oben wird der Gesamtqualitäts-Score für das jeweilige Netzwerk auf einer Skala von 0-10 errechnet (Quelle: Rhebo Industrial Protector)

Die Istanalyse ist auch nicht nur relevant, um die eigene PNLT besser zu verstehen. Sie offenbart in der Regel auch bestehende Engpässe, Gefährdungen und Fehlerzustände. In Stabilitäts- und Sicherheitsaudits, die wir regelmäßig in Kritischen Infrastrukturen im Rahmen der Erst- und Wiederholungsanalyse durchführen, finden sich im Schnitt rund 22 Gefährdungskategorien, die bislang den Verantwortlichen unbekannt waren. Die Analyse erfolgt hierbei mittels der industriellen Anomalieerkennung Rhebo Industrial Protector, die jegliche Kommunikation und Komponenteneigenschaften innerhalb der PNLT bis auf Inhaltsebene analysiert.

Schritte 2 und 3: Sichern und Erkennen

Diese Systemlösung bildet im Anschluss des Schrittes »Identifizieren« als Monitoring- und Detektionswerkzeug auch das Rückgrat der Sicherung der PNLT und des Erkennens von Störungen. Hierbei lernt die Anomalieerkennung das zu erwartende Verhaltensmuster der PNLT und analysiert die Kommunikation im Normalbetrieb auf Abweichungen (Anomalien). Wie vielfältig diese Anomalien ausfallen können, skizziert ein im März 2019 von der Allianz für Cyber-Sicherheit des BSI veröffentlichte Empfehlung zu Monitoring und Anomalieerkennung in industriellen Netzen. Die Anomalien werden in Echtzeit gemeldet und für die forensische Analyse inklusive der Rohdaten gespeichert.

Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen abgerufen (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo)
Abb. 3: Die Anomalieerkennung meldet jede abweichende Kommunikation im Steuerungsnetz und weist dieser eine Risikobewertung zu (1). Weiterhin können Details mit Handlungsempfehlungen nachgeschaut werden (2) und die Anomaliemeldung für die forensische Analyse als PCAP herunterladen werden (3). (Quelle: Rhebo Industrial Protector)

Bei der Sicherung kommen hierbei die bekannten Mechanismen wie Segmentierung, Rollenkonzepte, Authentifizierung, Autorisierung, Prüfung der Datensicherheit und -integrität, Veränderungsmanagement, aktive Schadsoftware-Werkzeuge zum Einsatz. Diese sind im BDEW-/OE-Whitepaper über fast alle Kategorien verteilt. Im Sinne des Defense-in-Depth-Ansatzes, nach dem »Es gibt keine 100 prozentige Sicherheit.« die Basis aller Erkenntnis ist, übernimmt die Anomalieerkennung hier die Instanz eines durchgängigen Überwachungs-, Analyse- und Frühwarnsystems. Der Schutz der PNLT geht somit Hand in Hand mit der Fähigkeit, jedwede Veränderung zu detektieren. Denn nur was gesehen wird, kann auch abgewehrt werden. Das ist umso wichtiger in Infrastrukturen, die aus pragmatischen Gründen nicht auf Fernzugänge oder Webapplikationen verzichten können. Veränderungen betreffen hierbei nicht nur Vorfälle, die eindeutig als Sicherheitsgefährdung identifiziert werden können. Insbesondere wird auf die Fähigkeit hingewiesen, Vorgänge zu erkennen, die nicht durch die gängigen Blacklisting- oder Whitelisting-Konzepte abgedeckt werden. Diese Anomalien oder Abweichungen vom zu erwartenden Netzverhalten bergen bei täglich rund 400.000 neuen Schadprogrammen die eigentliche Gefahr.

Schritte 4 und 5: Reagieren und wiederherstellen

Diese Schritte werden im BDEW-/OE-Whitepaper nur sehr abstrakt behandelt, auch wenn sie im Tagesgeschäft die eigentliche Herausforderung darstellen. Über alle Kategorien wird auf die Notwendigkeit einer Notfallkonzeption verwiesen, konkrete Ansätze hierfür fehlen jedoch auch im eigentlichen Kapitel »Datensicherung und Notfallplanung«.

Eine sinnvolle Reaktion auf einen Vorfall im Sinne der Abwehr sowie internen und externen Kommunikation kann nur erfolgen, wenn alle Daten zum jeweiligen Vorfall vorliegen. Dazu gehören sowohl Details zu den Kommunikationsinhalten als auch Informationen zum Verlauf und den beteiligten Komponenten und Systemen. Die notwendige Vorfallsanalyse ist letztlich nur so gut, wie die Vorfallsdaten vollständig sind. Entsprechend hängen sowohl Effektivität der Reaktion als auch die Geschwindigkeit der Wiederherstellung und die kontinuierliche Verbesserung zur Steigerung der Resilienz maßgeblich von einer stichhaltigen und schnellen Analyse ab. Nicht zuletzt ist die Fähigkeit zur Analyse und Dokumentation auch für die Meldepflicht maßgeblich.

Verantwortliche in Kritischen Infrastrukturen sollten deshalb Überwachungssysteme auch danach bewerten, ob diese die Reaktion auf Vorfälle und die Wiederherstellung unterstützen. Dazu gehören:

  • Detailspeicherung von Anomalien mit Metadaten und Rohdaten;
  • Speicherung in universellem Format (z. B. PCAP), um Daten leicht teilen und programmunabhängig analysieren zu können;
  • universelle Schnittstellen (REST-API, Syslog u.a.) zur schnellen, verlustfreien Weiterleitung an andere Sicherheitssysteme (z. B. aktiv blockende Firewalls oder SIEM)
  • automatisierte Weiterleitungsregeln zur Unterstützung der unternehmensinternen Prozesse.

Auch diese Anforderungen können von einigen industriellen Anomalieerkennungen vollumfänglich abgebildet werden.

In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)
Abb. 4: In Steuerungsnetzen kann es zu plötzlichen und schleichenden Störungen (Stillstand oder Blackout) sowie Effizienzverlusten kommen. Eine Monitoring- und Anomalieerkennungslösung minimiert die Wahrscheinlichkeit des Auftretens und unterstützt umgehend bei der Wiederherstellung (Quelle: Rhebo)

Fazit

Wer das BDEW-/OE-Whitepaper umsetzen möchte, sollte auch weitere Empfehlungen (z. B. des VSE und des BSI) berücksichtigen, um gezielt und strukturiert die Anforderungen umsetzen zu können. Grundsätzlich sollte das Konzept der Defense-in-Depth verfolgt werden. Zu dieser gehört neben aktiven Absicherungswerkzeugen (Firewalls, Virenscanner, Datendioden) auch eine passive Monitoringkomponente in Form einer industriellen Anomalieerkennung. Die Chief Information Security Officers und IT-Leiter Kritischer Infrastrukturen erhalten die bislang fehlende Sichtbarkeit in ihre Netzwerke, ein proaktives Frühwarnsystem und schaffen eine fundierte Basis für das übergeordnete Netzwerk-Monitoring und die forensische Datenanalyse. Damit können sie ihre Prozess- und Netzleittechnik effektiv gegen Störungen wie Cyberattacken, Manipulation aber auch technische Fehlerzustände schützen und die Versorgungssicherheit gewährleisten.

Deutscher Medien Verlag kauft Sensor-Plattform diribo

Die Deutscher Medien Verlag GmbH aus Cottbus übernimmt ab sofort die Sensor-Plattform diribo.com der Geitmann GmbH aus Menden.

Das Digitalunternehmen aus Cottbus betreibt bereits seit 2003 die global agierenden B2B-Plattform IndustryStock, die in 16 Sprachen weltweit Industrieunternehmen unterstützt, auf digitalen Wegen neue Absatzmärkte zu erschließen.

Mit diribo kommt jetzt ein Spezialanbieter dazu. Die Sensor-Plattform wird nicht in IndustryStock integriert, sondern als eigenständige Marke weiterentwickelt und vor allem internationalisiert. Zum einen gibt es weltweit noch keinen relevanten Anbieter, der den europäischen und den asiatischen Markt für Sensorik und Messtechnik abbildet. Zum anderen zeichnet sich diribo durch eine speziell für Sensoren entwickelte einzigartige Datenbankstruktur aus.

„Sowohl die Präsentation von Unternehmen und Produkten als auch die Recherche nach Sensoren und Messtechnik werden in Zukunft kostenfrei sein,“ kommentiert diribo-Geschäftsführer Olaf Tonn die Neuerwerbung. „Das heißt, Aufmerksamkeit sowie Reichweite werden sich erhöhen und mittels der intelligenten Verarbeitung der Unternehmens- und Produktdaten sollen in Zukunft mehr Leads und vor allem auch internationale Geschäftskontakte generiert werden.“

„Digitalisierung, Industrie 4.0, Internet of Things: Ohne Sensor gibt es keine intelligente Fabrik, kein autonomes Fahren, kein smart home. Der Sensor ist eines der wichtigsten Industriegüter der Zukunft,“ gibt diribo-CMO Silvio Haase, der für die internationale Vermarktung der Plattform für Sensorik und Messtechnik verantwortlich sein wird, zu Protokoll: „Wir werden eine globale Sensor-Plattform aufbauen, auf der Produzenten, Entwickler und Einkäufer zusammenfinden, und damit das effizienteste globale Netzwerk des Sensor-Universums schaffen.“

Dieses ambitionierte Ziel ist nicht aus der Luft gegriffen. Mit IndustryStock bringt die Deutscher Medien Verlag GmbH neben der digitalen auch die betriebswirtschaftliche Expertise mit und schreibt – im Gegensatz zu vielen anderen digitalen Geschäftsmodellen – mit der Industrie-Plattform seit Jahren schwarze Zahlen. Die sich daraus ergebenden Synergien sind der perfekte Ausgangspunkt für eine digitale Erfolgsgeschichte namens diribo „Made in Germany“.

Goldbeck & Fraunhofer ITWM entwickeln Energie-Optimierungs-Software

Fernwärme und Kaltwassersatz mit PV-Anlage?, Blockheizkraftwerk plus Brennwertkessel und Fernkälte?, Geothermie mit Solar-Unterstützung?, Die besten Energie-Szenarien für Heizung, Kühlung und Strom berechnet das GEOS binnen Sekunden für jedes Bürogebäude. „Was ein erfahrener Planer früher aus dem Bauch heraus vorschlagen konnte oder den komplexen Vorgang mit vielen Variablen mühsam erarbeiten musste, berechnet das GEOS nun rasch auf der Basis von Gebäudedaten“, erläutert Lukas Romanowski, Innovationsmanager bei Goldbeck. Damit seien Planer und Berater in der Lage, den Kunden noch umfänglicher aus einem energetischen Baukasten heraus zu umsorgen. Schön sei auch, so der Innovationsmanager, dass der Kunde mehr Transparenz im Entscheidungsprozess erfährt. „Gerade unsere mittelständischen Kunden sind sehr offen für die Vorschläge des GEOS. Selbst sind sie Experten in ihrem Gebiet, selten Profis für Gebäude- oder Energietechnik. Mit mehr Visualisierung und Plausibilisierung können wir Unternehmer besser abholen“, erläutert Romanowski, der sich mit GEOS derzeit in der Rollout-Phase innerhalb der Goldbeck-Gruppe befindet. Die ersten Rückmeldungen der Key-User beim Einsatz in realen Projekten sind sehr positiv: Die kurze Rechenzeit und die übersichtlichen Schaubilder erleichtern die Beratung enorm.

Nach Berechnung der Effizienz des jeweiligen Energie-Szenarios – dabei werden Investitions-, Verbrauchs- und Betriebskosten sowie die CO2-Einsparung berücksichtigt – werden die Möglichkeiten mit einem Referenz-Szenario verglichen. Als Referenz dient standardmäßig das in der Anschaffung wirtschaftlichste Konzept. Anschließend schränkt der Experte die Auswahl auf die interessantesten, maximal sechs Möglichkeiten ein. „So stellen wir Nachhaltigkeit und Wirtschaftlichkeit gegenüber und bieten dem Käufer bereits frühzeitig die Möglichkeit, die Vor- und Nachteile der diversen Möglichkeiten zu verstehen und zu einander in Relation zu setzen“, erläutert Romanowski. Unterstützt wurden er und sein Team durch das Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM). Die Wissenschaftler lieferten beispielsweise die statistischen und algebraischen Rechenmodelle, die hinter der Software stehen.

Auch die Fachjury des The smarter-E-Awards hat die Innovationskraft der GEOS-Software erkannt und das System in die engere Auswahl genommen. Im Mittelpunkt stehen dabei Lösungen und Konzepte, die mit erneuerbaren Energien, Dezentralisierung und Digitalisierung alle Energiebereiche aus den Sektoren Strom, Wärme und Verkehr intelligent miteinander verbinden.

IIS 2019 überwachen und Protokolldateien konfigurieren

Doppelklicken Sie im Internetinformationsdienste-Manager auf das Feature Ablaufverfolgungsregeln für Anforderungsfehler, können Sie Regeln erstellen, mit denen Sie die fehlerhaften Zugriffe auf den Server überwachen.

Neue Regeln lassen sich über das Kontextmenü oder den Aktionen-Bereich erstellen. Das Feature ist aber erst verfügbar, wenn Sie die Rollendienste Ablaufverfolgung und Anforderungsüberwachung bei Systemzustand und Diagnose installieren.

Neben der Ablaufverfolgung für fehlerhafte Anforderungen, können Sie auch den normalen Betrieb von IIS protokollieren. Dazu steht der Punkt Protokollierung auf der Startseite des Internetinformationsdienste-Managers zur Verfügung.

Über das Feature Arbeitsprozesse auf der Startseite des Internetinformationsdienste-Managers werden die laufenden Prozesse sowie deren Ressourcenverbrauch angezeigt. Anwendungspools können dabei auch mehrere Arbeitsprozesse, oft auch als Worker Processes bezeichnet, starten. Die eigentlichen Websites, sei es in Form von simplen statischen Websites oder als komplexe webbasierende Anwendungen, werden über diese Worker Processes abgewickelt, die eine Art von Mini-Webservern sind.

Diese Arbeitsprozesse nutzen die Dienste der zentralen Komponenten, agieren also aus Sicht der Anwendungen als Webserver. Die Verwaltungskomponente überwacht den Status der Arbeitsprozesse, löscht sie, wenn sie nicht mehr erforderlich sind und kann sie neu starten, wenn Fehler in diesen Prozessen auftreten.

BAM – CMS Blog