Fedora CoreOS verfügbar

Fedora CoreOS ist ein automatisch aktualisierendes, minimales, monolithisches, Betriebssystem für Container-Umgebungen, das für den Betrieb im Cluster konzipiert ist. Der Betrieb kann auch auf alleinstehenden Servern realisiert werden. Auch der Betrieb zusammen mit Kubernetes ist möglich. Technologien wie Ignition, rpm-ostree und SELinux sind ebenfalls integriert. Im Fokus steht der Betrieb als Container-Host.

Fedora CoreOS baut auf Fedora 31 und Kernel 5.4 auf. Die neue Version unterstützt Docker und Open Container Initiative (OCI). CoreOS steht über AWS zur Verfügung, genauso wie in Microsoft Azure und Google Cloud Platform. Die Einrichtung der Distribution wird auf der Seite „Fedora CoreOS – Getting Started“ beschrieben. Folgende Plattformen werden von FedoreCoreOS unterstützt:

  • AWS
  • Azure
  • DigitalOcean
  • GCP
  • OpenStack
  • Packet
  • QEMU
  • VirtualBox
  • VMware

Die Migration zu Fedora CoreOS  wird durch eine Neu-Provisionierung der Maschine mit Fedora CoreOS durchgeführt. Die Entwickler wollen eine Dokumentation und Tools zur Verfügung stellen, um die Migration zu unterstützen.

 

CentOS stellt freie Version von Red Hat Enterprise Linux 8.1 bereit

CentOS stellt die Funktionen von RHEL kostenlos zur Verfügung. Eingesetzt wird die Version entweder auf Servern oder auf Arbeitsstationen. Neben der umfassenden Version mit allen Paketen, bieten die CentOS-Entwickler auch eine reduzierte Version an, in der notwendige Pakete erst installiert werden müssen. Das Pendant von RHEL 8.1 ist CentOS 8 (1911). CentOS 8 1911 setzt auf den Kernel 4.18, der allerdings mit Treibern und Erweiterungen versorgt wurde.

Download CentOS 8 (1911)

In der kostenlosen Distribution fehlen einige Funktionen, die Red Hat vor allem für Kunden vorgesehen hat. Ein Beispiel dafür ist die Analyse und Optimierungsfunktion Insights. Integriert sind aber dafür Sicherheitsfunktionen mit denen sich Anwendungen für Benutzer sperren lassen. Auch ein Tool zur Steuerung von Richtlinien für SELinux sind in CentOS und RHEL 8.1 verfügbar. 

Allerdings müssen Unternehmen, die CentOS einsetzen darauf achten, dass die Entwickler nicht immer sehr aktuell bei Updates sind. Von der Version 8 gab es mehrere Monate keine Updates. 

Im Gegensatz zu RHEL kann der Kernel in CentOS 8.1 allerdings nicht live gepatcht werden. Diese Funktion ermöglicht die Installation von Patches im laufenden Betrieb.

Der Schutz von kritischen OT- und IT-Umgebungen hat Priorität

Bestärkt durch sein solides, über dem Marktdurchschnitt liegendes Wachstum, verfeinert der Sicherheitshersteller Stormshield seine strategische Ausrichtung mit dem Ziel, zum europäischen Cybersicherheits-Bezugspunkt im Umfeld kritischer Infrastrukturen, sensibler Daten und Industrieumgebungen zu werden. Diese Ankündigung ist der Gipfelpunkt der Arbeit der letzten zwei Jahre zur Vorbereitung dieser Evolution.

Pierre-Yves Hentzen, CEO von Stormshield, ist der Ansicht, dass sich viele Unternehmen, öffentliche Einrichtungen und Betreiber wesentlicher Dienste der Bedeutung bewusst sind, die Kontrolle über ihre sensiblen Daten und kritischen Infrastrukturen zu behalten. „Darüber hinaus konvergieren IT und OT zu hyperverbundenen Umgebungen, was zur Entstehung größerer Angriffsflächen führt. Angesichts dieser Bedrohungen und deren dramatischen Auswirkungen auf die Sicherheit von Vermögenswerten und Personen müssen die betreffenden Unternehmen – unabhängig von ihrer Größe – Sicherheitsmaßnahmen einführen, die auf den Grad der Exposition ihrer IT- und OT-Umgebungen abgestimmt sind. Unser Ziel ist es, sie bei dieser Herausforderung zu unterstützen.“

Um dieses Projekt zum Erfolg zu führen, baut Stormshield auf festen Fundamenten auf:

  • Die erlangte Reife im Umfeld der OT-Technologien, die dem Unternehmen einen Vorsprung bei der Bewältigung der industriellen Cybersicherheitsanforderungen verschafft.
  • Ein Produktportfolio, das das weltweite Absicherungsbedürfnis von IT/OT-Umgebungen abdeckt.
  • Exzellente Lösungen europäischen Ursprungs, zertifiziert und qualifiziert von der französischen Organisation ANSSI und zugelassen von der Europäischen Union und der NATO gemäß den Richtlinien des kommenden europäischen Zertifizierungssystems.
  • Eine neue Segmentierung des Angebots, die auf dem Konzept der Kritikalität der Aktivität basiert.
  • Lokale Präsenz, die eine persönliche Beratung, einen reaktionsschnellen Service und die Fähigkeit zur präzisen Anpassung an die Kundenbedürfnisse gewährleistet.
  • Begeisterte Teams, die von dem Wunsch angetrieben werden, an der Schaffung eines vertrauenswürdigen digitalen Raums mitzuwirken.
  • Partner, die aufgrund ihrer Expertise ausgewählt wurden und eng mit Stormshield zusammenarbeiten, um neue Anforderungen für kritische und operative Umgebungen zu erfüllen.
  • Und schließlich ein starkes, profitables Wachstum in ganz Europa, das zusätzliche Investitionskapazitäten schafft.

Matthieu Bonenfant, Marketingdirektor von Stormshield, erklärt: „Unsere neue Roadmap wird es uns ermöglichen, unsere Kunden wirkungsvoll zu unterstützen, damit sie sich bedenkenlos auf ihre Kernaktivitäten konzentrieren können, die für den reibungslosen Betrieb der Institutionen und Wirtschaft sowie für die Erbringung der Bürgerdienste unerlässlich sind.“

Bonenfant führt aus: „Dieses Projekt führt alle Teams von Stormshield zusammen und wird zum Leitfaden aller Aktivitäten des Unternehmens in den kommenden Jahren. Kundennähe, Spitzentechnologien und Mitarbeiter, die sich für unsere neue Positionierung einsetzen: das sind die Säulen, worauf die Umsetzung unserer Ambitionen basiert. Stormshield den Vorzug zu geben bedeutet, sich dafür zu entscheiden, was uns bezeichnet, nicht nur im Hinblick auf europäische, menschliche und technische Werte, sondern auch auf Legitimität und Vertrauen. In diesem Rahmen, über unsere neuen strategischen Ziele hinaus, stehen wir allen Unternehmen zu Diensten, die unsere Werte und anspruchsvollen Standards teilen.“

Nach zwei Jahren, 2018 und 2019, die durch ein starkes Unternehmens- und Umsatzwachstum geprägt wurden (+57 % in dem Zeitraum), geht Stormshield mit neuen Ambitionen und dem Wunsch in das Jahr 2020, sein Ansehen als europäische Wahl im Bereich der Cybersicherheit zu erhöhen.

Privatpatienten: Raus aus der Beitragsfalle

PKV wird immer teurer – ein Ende der Beitragserhöhungen scheint nicht in Sicht. Zum Glück gibt es Wege aus der Beitragsfalle und es lassen sich dauerhaft Tausende von Euro einsparen.

Laut Bundesministerium für Gesundheit sind rund 8,7 Millionen Deutsche privat krankenversichert. Sie profitieren zwar von besseren Leistungen, werden aber in den letzten Jahren mit Beitragserhöhungen verstärkt zu Kasse gebeten. Durchschnittlich steigen die Beiträge der privaten Krankenversicherung (PKV) laut Branchenverband um drei Prozent pro Jahr. Weil die Steigerung nicht jedes Jahr direkt weitergegeben wird, kamen so beispielsweise im Jahr 2017 im Durchschnitt zehn Prozent Erhöhung bei den Versicherten an.

Rund um den Jahreswechsel bekommen viele privat Krankenversicherte wieder ein Schreiben von ihrer Versicherung. Immobilienexperte Alex Fischer aus Düsseldorf war einer von ihnen: „Die wollten rund 100 Euro pro Monat mehr Beitrag von mir. Für die gleiche Leistung.“ Erklärung gab die Versicherung auch ab: gestiegene Krankheitskosten. Gleichzeitig sind auch die gesunkenen Zinsen wichtiger Grund, warum die PKV immer teurer wird. Was die privaten Versicherer monatlich einnehmen, legen sie zum Teil für ihre Kunden zurück. Denn sind diese älter, steigen die Kosten und bisher sorgten die Zinsen dafür, dass sich das Geld vieler Versicherter vermehrt und damit die gestiegenen Kosten trägt. Weil seit Jahren die Verzinsung sinkt, geht das Geschäftsmodell der Versicherer nicht mehr auf. Die Folge: immense Beitragserhöhungen.

„Privat Krankenversicherte sitzen in einer Falle, aus der sie scheinbar nicht mehr herauskommen“, erläutert Finanzexperte Dieter Homburg. Spätestens, wenn das Einkommen sinkt oder eine Krankheit kommt, frisst die Versicherung einen Großteil der Einnahmen oder der Rente auf. So lange die Zinspolitik so bleibe, sind regelmäßige Mehrkosten bei der PKV vorprogrammiert, so der Autor des Buchs Altersvorsorge für Dummies. Als Folge davon verlieren die privaten Krankenversicherer mehr und mehr Kunden. Von 2013 rund neun Millionen Mitgliedern, sind bis 2019 bereits rund 300.000 von ihnen abgewandert. Gerade die jungen und gesunden Beitragszahler, die das System erst ermöglichen, binden sich weniger leichtfertig an die Privaten. Dazu kommt: Immer weniger Staatsbedienstete werden verbeamtet, eine immer weiter sinkende Kundengruppe der PKV.

Menschen wie Alex Fischer fragen sich, ob diese Spirale für immer weitergehen muss. „Falls mein Einkommen einmal sinken wird, wird die PKV schwierig zu finanzieren“, sagt der 46-Jährige. Erst vor kurzem hat er erfahren, dass es zum Beispiel möglich ist, innerhalb seiner Versicherung in einen günstigeren Tarif zu wechseln. Laut einem Urteil des Verwaltungsgerichtshofs von 2004 müssen Allianz, DKV und andere nämlich auf Anfrage günstigere Tarife zu gleichen Leistungen vorhalten. „Ein wichtiges Urteil, von dem fast niemand weiß“, beobachtet Homburg. Bei einer Leseraktion gemeinsam mit dem Magazin Focus beriet er im letzten Jahr rund 1500 Fälle gratis, um auf das verbraucherschutzrechtliche Thema aufmerksam zu machen. „Es ist unglaublich, wie viele Menschen unter den hohen Kosten leiden. Mit der richtigen Beratung und einem guten Anwalt im Rücken konnten wir den Betroffenen im Schnitt 2000 Euro pro Jahr einsparen“, sagt Homburg.

Wer in einen günstigeren PKV-Tarif wechseln möchte, bekommt immer wieder Schwierigkeiten. Nur ungern rückt das Versicherungsunternehmen die bezahlbare Police heraus. Stattdessen wird mit Leistungskürzungen oder Eigenbeteiligung argumentiert. „Darauf sollten sich PKV-Versicherte nicht einlassen. Sie haben das Recht auf gleiche Leistungen ohne weitere Gesundheitsprüfung“, so der Experte für Altersvorsorge. Wer bereits mit seiner Versicherung im Clinch liegt, kann sich bei unabhängigen Beratern oder der Verbraucherzentrale Hilfe holen. „Mit einem spezialisierten Anwalt im Rücken lässt sich die Sache meist binnen einiger Wochen klären“, verrät Homburg.

Auch für Alex Fischer hat sich die Sache zum Guten gewendet, ihm konnten mit Dieter Homburgs Ansatz rund 2000 Euro pro Jahr eingespart werden.

OpenNebula vOneCloud und miniOne

Mit OpenNebula können Administratoren Regeln definieren, auf deren Basis Ressourcen in privaten Cloudumgebungen automatisiert bereitgestellt werden. Im Fokus der Lösung stehen vor allem hybride Clouds. Derzeit werden vor allem Hypervisoren unterstützt und hier Xwn, KVM Und VMware. Die Software wird unter der Apache License 2-Lizenz bereitgestellt. 

Neben der kostenlosen Open Source-Version, stellen die Entwickler auch eine kommerzielle Version mit professionellem Support zur Verfügung.  Neben der großen Variante OpenNebula können sich Tester auch die Appliance vOneCloud ansehen. Mit dieser lassen sich in einer VMware-Umgebung mit vCenter eine Self-Service-Cloud aufbauen. miniOne ist wiederum eine Test-Version von OpenNebula für KVM oder für Container.  Auf Linux-Rechnern, zum Beispiel auf Basis von Ubuntu, kann die Installation und Einrichtung mit den beiden folgenden Befehlen erfolgen:

wget „https://github.com/OpenNebu-
la/minione/releases/latest/
download/minione“

sudo bash minione

Das System ermöglicht den Test von OpenNebula in einer vCenter-gesteuerten VMware-Umgebung

Sicherer Datenaustausch in der Private Cloud mit ownCloud

ownCloud gehört sicherlich zu den bekanntesten Lösungen, wenn es darum geht im Data Center eine eigene Cloud-Lösung bereitzustellen.  Mit „Secure View“ können Anwender oder Administratoren konfigurieren, dass bestimmte Dokumente in ownCloud nicht heruntergeladen werden dürfen, sondern nur online zur Verfügung stehen. Auch Nur-Lesen-Einstellungen sind möglich. Die gängigen Office-Formate werden dabei unterstützt.

In den Einschränkungen kann auch verhindert werden, dass Anwender Dokumente ausdrucken oder Inhalte aus dem Dokument kopieren können. Secure View zeigt die Dateien auf dem Empfängercomputer dazu als Bild dar. Das originale Dokument bleibt dabei immer auf dem Server.

Secure View hilft also dabei Office-Dokumente über ownCloud sicherer freigeben zu können. Auch verschiedene Berechtigungen für unterschiedliche Anwender sind möglich. Administratoren können Regeln hinterlegen, bei denen bestimmte Dokumente auf Basis der Inhalte automatisch geschützt werden. Das ermöglicht das Erstellen von sicheren Datenräumen in ownCloud, in denen gespeicherte Dokumente besonders geschützt werden. 

Container-Management mit OpenShift

Einfach ausgedrückt handelt es sich bei OpenShift um eine spezielle Kubernetes-Distribution, die sich im Rechenzentrum genauso betreiben lässt, wie in der Cloud oder auf einzelnen Computern. 

Der größte Unterschied zwischen OpenShift (das auf Kubernetes aufbaut) und Kubernetes selbst ist die eher einfachere Bedienung von OpenShift. Allerdings ist das sicherlich Geschmacksache und Kubernetes  bietet durch sein Dashboard ebenfalls eine einfachere Verwaltungsmöglichkeit. 

OpenShift Origin wird auch als Origin Community Distribution (OCD) bezeichnet Die kostenpflichtigen Varianten von Red Hat OpenShift  lassen sich bis zu 60 Tage bei einer lokalen Installation testen.

OpenShift Online ist die Variante der Plattform in der Cloud. Wer auf ein vollständig verwaltetes System setzen will, kann mit OpenShift Dedicated (https://www.openshift.com/products/dedicated/) auf OpenShift in AWS oder Google Cloud Platform.

Wer OpenShift in Microsoft Azure nutzen will, kann auf Microsoft Azure Red Hat OpenShift (https://www.openshift.com/products/azure-openshift) setzen.  Auch hierbei ist die Umgebung vollständig verwaltet. 

Entwickler können auch auf Red Hat CodeReady Containers setzen. Hierbei handelt es sich um eine Entwicklungs-Umgebung für einzelne Rechner/Notebooks. 

Am 14. Januar 2020 endet Support für Windows Server 2008/2008 R2

Ab dem 14.01.2010 gibt es für Windows Server 2008/2008 R2 keinen technischen Support und keine Updates mehr. Beim Betrieb in Azure kann dieses Problem temporär behoben werden. 

Unternehmen, die aktuell noch auf Windows Server 2008 oder Windows Server 2008 R2 setzen, können als Sofortmaßnahme auch jetzt noch die Server als virtuelle Server in Microsoft Azure umziehen.  Im Rahmen des Umzugs erhalten die Server weitere drei Jahre kostenlos Sicherheitsupdates. Der Umzug kann entweder temporär sein, bis eine endgültige Migration erfolgt, oder auch dauerhaft, mit entsprechender Aktualisierung des Betriebssystems. 

Der temporäre Umzug zu Microsoft Azure hat den Vorteil, dass aktuelle Software generell weiter betrieben werden kann, und Unternehmen mehr Zeit haben eine vollständige Migration der Server durchzuführen, zum Beispiel zu Windows Server 2019. 

TCP-Port, Komprimierung und Verschlüsselung für die Replikation steuern und kontrollieren

Mit dem folgenden Befehl sehen Sie den aktuell verwendeten Port für DAGs:

Get-DatabaseAvailabilityGroup <DAG-Name> -Status | fl ReplicationPort

Um den Port anzupassen, verwenden Sie den Befehl:

Set-DatabaseAvailabilityGroup <DAG-Name> -ReplicationPort <Portnummer>

Aktualisieren Sie eine Postfachdatenbankkopie, sehen Sie mit „Netstat -an |more“, dass Exchange den neuen Port nutzt.

Standardmäßig komprimiert Exchange die Daten vor einer Replikation. Sie können sich den Status mit dem folgenden Befehl anzeigen lassen:

Get-DatabaseAvailabilityGroup <Name der Gruppe> -Status | fl NetworkCompression

Sie können folgende Werte verwenden:

Disabled — Keine Komprimierung

Enabled — Komprimierung bei allen Netzwerken

InterSubnetOnly — Komprimierung nur zwischen Subnetzen

SeedOnly — Komprimierung nur beim manuellen Seeding

Wollen Sie die Komprimierung für alle Netzwerke einschalten, verwenden Sie in der Exchange Management Shell den Befehl:

Set-DatabaseAvailabilityGroup <Name der DAG> -NetworkCompression Enabled

Standardmäßig verschlüsselt Exchange die Daten vor einer Replikation zu den Kopieservern, wenn diese in verschiedenen Subnetzen positioniert sind. Sie können sich den Status mit der folgenden Anweisung ansehen:

Get-DatabaseAvailabilityGroup <Name der Gruppe> -Status | fl NetworkEncryption

Wollen Sie die Verschlüsselung für alle Netzwerke einschalten, verwenden Sie in der Exchange Management Shell den Befehl:

Set-DatabaseAvailabilityGroup <Name der DAG> -NetworkEncryption Enabled

Serverswitchover und Rechenzentrumswitchover mit Exchange 2019

Bei einem Serverswitchover können Sie alle aktiven Postfachdatenbanken vom aktuellen Postfachserver auf einen oder mehrere Postfachserver mit entsprechenden Postfachdatenbankkopien umschalten. Die Server, auf denen Sie die Postfachdatenbankkopien aktivieren, also zu den produktiven Datenbanken machen, müssen Mitglied in derselben Datenbankverfügbarkeitsgruppe sein.

Serverswitchover durchführen

Um einen Serverswitchover durchzuführen, können Sie die Exchange Admin Center einsetzen. Navigieren Sie zu „Server“. Wählen Sie den gewünschten Postfachserver aus, auf dem aktuell die produktiven Datenbanken gespeichert sind, und klicken auf den Server. Wählen Sie „Serverswitchover“ aus.

Anschließend können Sie Exchange die Wahl überlassen, welche Postfachdatenbankkopien auf den verschiedenen Servern mit den Kopien aktiv geschaltet werden. Alternativ können Sie manuell einen Zielserver auswählen, auf dem Exchange die Postfachdatenbankkopien als produktive Datenbanken einsetzt.

Sie können den Vorgang auch in der Exchange Management Shell durchführen, indem Sie das folgende Cmdlet verwenden:

Move-ActiveMailboxDatabase -Server <Quellserver> -ActivateOnServer <Zielserver>

Switchover von ganzen Rechenzentren

Sie können für Datenbankverfügbarkeitsgruppen (DAG) einen Modus für Rechenzentren aktivieren. Die Option ist sinnvoll, wenn Sie größere DAGs betreiben und diese über verschiedene Active Directory-Standorte verteilt sind. Der Modus ist standardmäßig deaktiviert.

Sie sollten den Modus nur für Datenbankgruppen mit mehr als drei Mitgliedern aktivieren, die über mehrere Rechenzentren verteilt sind. 

In einer Konfiguration mit mehreren Datencentern kann dieses Verhalten zu Problemen führen, wenn Mitglieder der Datenbankverfügbarkeitsgruppen untereinander nicht mehr kommunizieren können, wenn zum Beispiel das Netzwerk zwischen den Rechenzentren ausfällt.