FreeBSD 11 soll bald Docker unterstützen

Docker ist ursprünglich im PaaS-Umfeld entstanden und lässt sich bekanntlich für verschiedene Zwecke einsetzen, sei es für eine „Atomisierung“ von Updates in Form von Microservices bei auf Containertechnik basierenden Betriebssystemen oder um „portierbare Umgebungen“ oder Apps zu bauen, die sich über App-Repositorys verteilen und anderen Nutzern zugänglich machen lassen.

Allerdings funktioniert Docker bisher nur auf Basis von Linux-Hosts und es lassen sich auch nur Linux-Apps in Container verfrachten.

Senkrechtstarter mit Linux

Der Erfolg von Docker spricht für sich, konnte doch die Docker Inc., das Unternehmen hinter Docker, in den gerade mal 2 Jahren nach Initiierung des Projektes in bisher drei Finanzierungsrunden 120 Millionen US-Dollar Risikokapital einsammeln.
Zwei der derzeit wichtigsten mit Docker in Verbindung stehenden Projekte sind das Open Container Project und die Cloud Native Computing Foundation. Beider haben zum Ziel, ein weiteres Fragmentieren des Docker-Ökosystems zu verhindern.

Wal und Teufelchen

Mit der erst vor wenigen Wochen gestarteten FreeBSD-Implementierung von Docker wird es darüber hinaus in Zukunft erstmals möglich sein, Docker auf einer BSD-Plattform zu betreiben. Die Docker-Umsetzung von FreeBSD 11 basiert auf dem Dateisystem ZFS, der Container-Technologie Jails (dem BSD-Pendant zu Solaris Zones oder Linux LXC), sowie einer neuen, im vergangenen Monat erst enstandenen 64 Bit-Linux-Kompatibilitätsschicht für den BSD-Kernel.

Die FreeBSD-Ports – die Paketverwaltung von FreeBSD – enthalten neben den eigentlichen Kernel-Erweiterungen für FreeBSD 11 auch das gleichnamige Managementtool. Der Projektsstatus ist noch experimentell. Die Entwicklung selbst findet auf Basis von FreeBSD 11 statt, das im Juli nächsten Jahres erscheinen soll. Weitere Einzelheiten dazu finden sich im WIKI des Projektes.

Red Hats Systemverwaltungstool unterstützt Containerverwaltung

Red Hat Satellite (früher Red Hat Network – RHN) dient allgemein zum Verwalten sämtlicher im lokalen Netz angemeldeter Red-Hat-Server- und Clients. Die Lösung vereint Konfigurationsmanagement, Softwaremanagement, Provisioning und Subskriptionsverwaltung unter eine webbasierten Oberfläche.

Mit Satellite 6.1 sollen sich die Verwaltungsmöglichkeiten von Satellite nicht mehr nur auf physische Systeme, sondern auch auf virtualisierte Servern erstrecken. Ferner kann Red Hat Satellite 6.1 jetzt auch Container verwalten.

Weitere Neuerungen

Red Hat hat zudem die Report-Funktionen verbessert, damit Administratoren Schwachstellen schneller identifizieren. Auch das Bereitstellen von Servern und Desktops soll mit Satellite 6.1 einfacher werden, da die Software nun automatisch physische Rechner im Netzwerk findet, wobei sich neue Knoten selbst bei Red Hat Satellite registrieren und ihre Hardware-Daten übermitteln können.

Neu ist zudem eine Preview des beim Red-Hat-.Summit in Juni vorgestellten Red Hat Access Insights.

Weitere Details zu den Neuerungen lassen sich der Veröffentlichungsmitteilung entnehmen.

Red Hat Satellite ist wie alle Red-Hat-Produkte nur per Subskription einschließlich Support und Updates erhältlich.

Weitere Informationen

Produktseite
Datenblatt
Demo

Freigaberichtlinien erstellen und verwalten

Mit Freigaberichtlinien können Sie steuern, wie Benutzer in Ihrer Organisation Kalender- und Kontaktinformationen für Benutzer außerhalb der Organisation freigeben können. Sie können für jede externe Domäne eine Freigaberichtlinie erstellen.

Erstellen von neuen Freigaberichtlinien

Öffnen Sie zur Erstellung von neuen Freigaberichtlinien die Exchange-Verwaltungskonsole, navigieren Sie zu Organisation/Individuelle Freigabe, und klicken Sie auf Hinzufügen. Standardmäßig legt Exchange bereits eine Standardrichtlinie an, die Sie anpassen und verwenden können. 

Nachdem Sie die Freigaberichtlinie erstellt haben, können Sie in den Eigenschaften von Postfächern auf der Registerkarte Postfachfunktionen bei Freigaberichtlinie auswählen, welche Richtlinie der entsprechende Anwender nutzen soll.

Wählen Sie bei gedrückter (Strg)-Taste mit der Maus mehrere Postfächer aus, können Sie die Einstellungen auch für mehrere Benutzer gleichzeitig anpassen. Sie können Freigaberichtlinien aber auch in der Exchange-Verwaltungsshell anpassen:

Set-Mailbox -Identity <Benutzer> -SharingPolicy <Richtlinie>

Im folgenden Beispiel werden für alle Benutzerpostfächer in der Marketing-Abteilung die Freigaberichtlinie Contoso Marketing verwendet:

Get-Mailbox -Filter {Department -eq „Marketing“} | Set-Mailbox -SharingPolicy „Contoso Marketing“

Im nächsten Beispiel lassen Sie alle Postfächer anzeigen, auf die die Freigaberichtlinie Contoso angewendet wird:

Get-Mailbox -ResultSize unlimited | Where {$_.SharingPolicy -eq „Contoso“ } | ft Alias, EmailAddresses

Um eine Freigaberichtlinie in der Exchange-Verwaltungsshell zu erstellen, verwenden Sie das Cmdlet New-SharingPolicy.

Beispiele:

  • New-SharingPolicy -Name „Contoso“ -Domains contoso.com: CalendarSharingFreeBusyDetail, ContactsSharing
  • New-SharingPolicy -Name „Richtlinie01“ -Domains ‚contoso.com: CalendarSharingFreeBusySimple‘,’microsoft.com:CalendarSharingFreeBusyDetail,ContactsSharing‘ -Enabled $false

Konfigurieren von Freigaberichtlinien

In den Eigenschaften von Freigaberichtlinien können Sie die Einstellungen anpassen, die Sie bereits beim Erstellen konfigurieren können. Sie haben hier die gleichen Möglichkeiten wie bei der Erstellung. Sie können die Anpassungen auch in der Exchange-Verwaltungsshell vornehmen.

Beispiele:

  • Set-SharingPolicy -Identity Contoso -Domains ‚contoso.com: CalendarSharingFreeBusySimple, Contacts‘
  • Set-SharingPolicy -Identity richtlinie01 -Domains ‚contoso.com: CalendarSharingFreeBusySimple‘,’atlanta.contoso.com: CalendarSharingFreeBusyReviewer‘, ‚beijing.contoso.com: CalendarSharingFreeBusyReviewer‘

Neue Docker-Version mit signierten Images

Die wichtigste Neuerung in Docker 1.8 hört auf den Namen Docker Content Trust. Hierbei handelt es sich um eine in die Docker-Engine eingebettete Erweiterung, welche Docker-Images mit dem privaten Schlüssel des Entwicklers des Images signiert, sobald der ein Image anderen Benutzern zur Verfügung stellen möchte und es dazu in eine Docker-Registry hochlädt. Die Signatur soll garantieren, dass das Image in dem Zustand ist, in dem es hochgeladen wurde, also nicht manipuliert wurde.

Docker Content Trust basiert auf dem mit Unterstützung der National Science Foundation (NSF) entwickelten Projekt The Update Framework. Dieses kommt derzeit in mehreren freien Projekten zum Einsatz.

Das eigentliche für das Signieren verwendete Tool heißt Notary.
Nutzer müssen laut Aussage von Docker allerdings keine neuen Befehle lernen, weil die Signatur-Funktion von der DockerEngine automatisch berücksichtigt wird.

Was noch neu ist

Darüber hinaus enthält die Docker-Engine jetzt Volume Plugins. Diese waren in Docker 1.7 noch als experimentell eingestuft. Mithilfe dieser Plugins können Speichersysteme und Volumes aller Art als Partitionen in Docker-Images gemountet werden, darunter sämtliche Linux-Dateisysteme und alle Netzwerk-Dateisysteme. Weitere Plugins wollen die Docker-Partner Blockbridge, Ceph, ClusterHQ, EMC und Portworx zur Verfügung stellen.

Kopieren von Dateien

Ferner haben die Entwickler die Docker-Engine mit zusätzliche Methoden ausgestattet, mit deren Hilfe sich z. B. Logs aus den Containern auf das Hostsystem bringen lassen. Zu den weiteren Neuerungen zählt, dass sich z. B. Dateien mithilfe des Befehls docker cp vom Host in den Container kopieren lassen.

Geänderte Syntax

Ferner gab es einige Änderung an der Befehlssyntax für das Starten des Daemons. Darüber hinaus haben die Entwickler zusätzliche Formatierungsmöglichkeiten für den Befehl docker ps hinzugefügt. Außerdem besteht jetzt die Möglichkeit zur Angabe alternativer Konfigurationsverzeichnisse.

Docker Toolbox

Neu in Docker 1.8 ist zudem die Docker Toolbox für Mac OS X und MS Windows. Diese enthält sämtliche Komponenten, die zum Installieren von Docker erforderlich sind. Weitere Details zu installieren.

Weitere Einzelheiten lassen sich der Veröffentlichungsmitteilung entnehmen.

Verbundvertrauensstellungen erstellen und verwalten

Um eine Vertrauensstellung zwischen Exchange-Organisationen zu erstellen, können Sie den Assistenten in der Exchange-Verwaltungskonsole verwenden. Anpassen können Sie die Optionen dann ebenfalls in der Verwaltungskonsole oder der Verwaltungsshell.

Bevor Sie jedoch eine solche Vertrauensstellung installieren, müssen Sie dem Exchange-Server ein Zertifikat von einer Zertifizierungsstelle zuweisen, der alle verbundenen Exchange-Organisationen vertrauen. Erstellen Sie die Vertrauensstellung ohne Zertifikat, verwendet der Assistent ein selbst signiertes Zertifikat.

Wollen Sie die Aufgabe in der Exchange-Verwaltungsshell durchführen, wählen Sie zuerst eine Liste der Zertifikate mit folgendem Befehl aus:

Get-ExchangeCertificate | where {$_.IsSelfSigned -eq $false} | fl

Sie können die Ausgabe von Get-ExchangeCertificate auch direkt an das Cmdlet New-FederationTrust weiterleiten:

Get-ExchangeCertificate | where {$_.IsSelfSigned -eq $false} | New-FederationTrust -Name „Verbundvertrauensstellung“

Verbundvertrauensstellungen erstellen

Klicken Sie in der Exchange-Verwaltungskonsole auf Organisation/Freigabe und dann auf Aktivieren.

Die Domäne, die Sie zum Erstellen einer Verbundvertrauensstellung verwenden, muss aus dem Internet aufgelöst werden können. Die beiden Exchange-Organisationen in einer Verbundfreigabebeziehung müssen die gleiche Microsoft Federation Gateway-Instanz für ihre Verbundvertrauensstellungen verwenden

Nachdem die Verbundvertrauensstellung eingerichtet ist, können Sie jederzeit Anpassungen vornehmen und auch neue Domänen hinzufügen oder Domänen entfernen. Eine der akzeptierten Domänen in der Organisation wird die primäre Domäne für den Verbund. Auch das können Sie in der Exchange-Verwaltungskonsole anpassen.

Die primäre Domäne des Verbundes wird auch als Namensraum (OrgID) des Verbundes verwendet. Dazu wird ein Präfix wie FYDIBOHF25SPDLT angehängt, sodass die OrgID zum Beispiel FYDIBOHF25SPDLT.contoso.com lautet.

Zum Überprüfen, welche Microsoft Federation Gateway-Instanz eine Exchange-Organisation für eine vorhandene Verbundvertrauensstellung verwendet, rufen Sie den folgenden Befehl in der Exchange-Verwaltungsshell auf:

Get-FederationInformation -DomainName <DNS-Namensraum>

Sie können die Einstellungen der Verbundvertrauensstellung jederzeit in diesem Bereich ändern und zum Beispiel weitere Domänen hinzufügen. Klicken Sie in Freigabeaktivierte Domänen auf Durchsuchen. Wählen Sie in Akzeptierte Domänen auswählen die primäre freigegebene Domäne aus, und klicken Sie auf OK. Die ausgewählte Domäne wird zur Konfiguration der Organisations-ID für die Verbundvertrauensstellung verwendet. Sie benötigen diese Zeichenfolge, um einen TXT-Eintrag auf Ihrem öffentlichen DNS-Server zu erstellen. Die Zeichenfolge des Nachweises für die Verbunddomäne besteht aus alphanumerischen Zeichen.

Mit Get-FederationTrust | fl listen Sie Daten der Vertrauensstellung in der Verwaltungsshell auf.

Der folgende Befehl zeigt ebenfalls Informationen an:

Get-FederationInformation -DomainName <Erste Domäne>

Sie können Verwaltungsaufgaben für Verbundvertrauensstellungen auch in der Exchange-Verwaltungsshell konfigurieren. Sie können zum Beispiel einzelne Domänen entfernen:

Remove-FederatedDomain -DomainName berlin.contoso.com

Auch das Hinzufügen von Domänen ist möglich:

Add-FederatedDomain -DomainName stuttgart.contoso.com

In folgendem Beispiel zeigen Sie die Verbundorganisations-ID und die Verbunddomänen sowie den Status für die Exchange-Organisation an:

Get-FederatedOrganizationIdentifier

Um sich den Status von Verbundzertifikaten auf allen Postfach- und Clientzugriffsservern in der Organisation anzuzeigen, verwenden Sie das Cmdlet Test-FederationTrustCertificate.

Wichtig sind auch die verwendeten Zertifikate. Auch für diese lassen sich Informationen anzeigen:

Get-FederationTrust „Microsoft Federation Gateway“ | Select Org*certificate

 

SAR- statt Sigma-Delta-A/D-Wandler für hohen Dynamikbereich

SAR- und Sigma-Delta-ADCs haben jeweils eigene Vor- und Nachteile. Somit müssen Entwickler von Datenerfassungssystemen stets Kompromisse hinsichtlich Leistungsfähigkeit, Geschwindigkeit, Platzbedarf, Leistungsaufnahme und Kosten eingehen.

Leistungsfähige Signalerfassung in Geräten der Industrie, Mess- und Medizintechnik muss einen hohen Dynamikbereich aufweisen und genaue Messungen ermöglichen. Der Dynamikbereich eines A/D-Wandlers lässt sich mit einem zusätzlichen programmierbaren Verstärker oder durch mehrere parallel geschaltete A/D-Wandler erhöhen.

Dabei wird mit digitaler Nachverarbeitung der Mittelwert des Messergebnisses gebildet. Diese Methoden können sich jedoch aufgrund von Vorgaben hinsichtlich Energieverbrauch, Platzbedarf und Kosten als weniger praktikabel erweisen. Mit einer Überabtastung (Oversampling)kann ein A/D-Wandler einen hohen Dynamikbereich bei geringen Kosten erreichen. Zugleich lassen sich Herausforderungen bezüglich Platzbedarf, Wärmeentwicklung und Leistungsaufnahme lösen.

Beim Überabtasten wird das Eingangssignal mit einer wesentlich höheren als der Nyquist-Frequenz (doppelte Signalbandbreite) abgetastet, um das Signal/Rausch-Verhältnis (SNR) und die effektive Bit-Anzahl (ENOB) zu erhöhen. Bei Überabtastung eines A/D-Wandlers wird das Quantisierungsrauschen so verteilt, dass sich sein größter Teil außerhalb der zu interessierenden Bandbreite befindet. Daraus resultiert ein erhöhter Dynamikbereich bei niedrigen Frequenzen.

Bild 1: Oversampling eines Nyquist-Wandlers (Bild: Analog Devices)
Bild 1: Oversampling eines Nyquist-Wandlers

Das Rauschen außerhalb der interessierenden Bandbreite lässt sich mit digitaler Nachverarbeitung eliminieren (Bild 1). Das Oversampling-Verhältnis (OSR) ist die Abtastrate, dividiert durch die Nyquist-Frequenz. Die Verbesserung des Dynamikbereichs (ΔDR) aufgrund von Oversampling ist ΔDR = log2 (OSR) 3 dB. Zum Beispiel ergibt sich bei einer Überabtastung des A/D-Wandlers mit einem Faktor 4 ein 6 dB größerer Dynamikbereich oder ein zusätzliches Bit an Auflösung.

Oversampling ist im Prinzip in den meisten Sigma-Delta-A/D-Wandlern mit integrierten Digitalfiltern enthalten. Die Modulator-Taktfrequenz ist normalerweise 32 bis 256 Mal höher als die Signalbandbreite. Der Einsatz von Sigma-Delta-ADC ist jedoch auf Anwendungen begrenzt, die kein schnelles Umschalten zwischen Eingangskanälen verlangen.

Die SAR-Architektur weist keine Latenz- oder Pipeline-Verzögerungen auf und ermöglicht so schnelle Regelschleifen und schnelles Umschalten zwischen Eingangskanälen. Wegen des hohen Datendurchsatzes ist auch Oversampling möglich.

Obwohl beide A/D-Wandler-Topologien niederfrequente Signale genau messen können, verändert sich die Leistungsaufnahme eines SAR-ADC linear mit dem Durchsatz. Dies reduziert den Energieverbrauch um mindestens 50% gegenüber Sigma-Delta-Wandlern, die normalerweise eine konstante Leistung aufnehmen. Das 5 MSample/s schnelle 18-Bit-SAR-Modell AD7960 von Analog Devices ist ein Beispiel für hohen Durchsatz mit linearer Änderung der Leistungsaufnahme.

Ein vor einen SAR-ADC geschaltetes Tiefpassfilter minimiert Aliasing und reduziert Rauschen, indem es die Bandbreite begrenzt. Das hohe Oversampling-Verhältnis und die Digitalfilter von Sigma-Delta-Wandlern minimieren die Anti-Aliasing-Anforderungen an den Analogeingängen. Oversampling reduziert das Gesamtrauschen. Für erhöhte Flexibilität kann eine individuelle Digitalfilterung auch in einem FPGA erfolgen.

Aufgrund ihres niedrigen Grundrauschens und ihrer hohen Linearität können hochleistungsfähige SAR-A/D-Wandler eine höhere Bandbreite und eine hohe Genauigkeit erreichen. Außerdem ermöglichen sie eine diskrete Abtastung in einem schmalen Zeitfenster, das in schnellen Mess- und Steuerungsanwendungen erforderlich ist.

Wegen ihrer Eigenschaften wie hoher Durchsatz, geringe Leistungsaufnahme und kleine Abmessungen können Entwickler mit hochleistungsfähigen SAR-A/D-Wandlern die üblichen Anforderungen von Systemen mit hoher Kanaldichte erfüllen. Dazu gehören zum Beispiel geringer Platzbedarf, geringe Wärmeentwicklung, niedrige Leistungsaufnahme und andere Herausforderungen.

SAR-ADC bieten auch das niedrigste Grundrauschen relativ zum Vollausschlag-Eingangssignal. Daraus resultieren ein höheres SNR und eine ausgezeichnete Linearität. Gegenüber Sigma-Delta-ADCs können sie jedoch kein 1/f-Rauschen in der Nähe von DC (50/60 Hz) unterdrücken.

Mit Simulationswerkzeugen Stromversorgungen entwerfen

Dieser Schaltungstipp stellt zwei Entwicklungswerkzeuge vor, welche dabei helfen, optimierte Stromversorgungen zu entwickeln.

Beim Entwurf einer optimierten Stromversorgung müssen Entwickler viele Entscheidungen treffen. Um diese so einfach wie möglich zu gestalten, gibt es eine Vielzahl an Entwicklungswerkzeugen. Hersteller von Schaltreglern helfen auf ihrer Webseite dabei, die richtige Spannungswandler-Topologie auszuwählen. Hier gibt der Entwickler die gewünschten Ströme und Spannungen ein und erhält Vorschläge zu möglichen Schaltungstopologien. In Einzelfällen werden unübliche Topologien nicht vorgeschlagen. Generell funktioniert dieser Auswahlprozess jedoch gut.

Tools berechnen schnell

Simulationswerkzeug ADIsimPE zum schnellen Simulieren mit SIMetrix/SIMPLIS (Bild: Analog Devices)
Simulationswerkzeug ADIsimPE zum schnellen Simulieren mit SIMetrix/SIMPLIS

Um die optimierten passiven Bauteile geschickt auszuwählen sind viele Berechnungen notwendig. Die entsprechenden Datenblätter der Schaltregler enthalten die entsprechenden Formeln zur Berechnung. Da es viele Abhängigkeiten der verschiedenen Berechnungen zueinander gibt, ist es üblicherweise für eine Optimierung notwendig, iterativ viele Berechnungen anzustellen. Diese können sehr viel Zeit benötigen. Besonders wenn nicht nur die typischen Werte der Bauteile berücksichtigt werden, sondern wirkliche Werte in unterschiedlichen Betriebszuständen.

Beispielsweise können sich die Kapazitäten von Kondensatoren und die Induktivitäten von Drosseln bei veränderter Temperatur, sowie unterschiedlichen Betriebsbedingungen wie unterschiedliche Strömen und Spannungen, verändern. Für diese komplexen Berechnungen hat es sich als sinnvoll erwiesen, Berechnungswerkzeuge zu nutzen. Anfänglich haben sich Entwickler von Stromversorgungen eigene Berechnungs-Sheets in Kalkulationprogrammen wie etwa Excel erstellt.

Heute gibt es passende Werkzeuge von den Herstellern der Schaltregler. Diese sind mittlerweile sehr ausgereift wie beispielsweise das ADIsimPower-Werkzeug von Analog Devices. Auf dem ersten Bild ist die graphische Benutzeroberfläche zu sehen.

Bei der Schaltungsberechnung werden die Parameter von echten Bauteilen zugrunde gelegt. Details wie die Kernverluste der Drosseln sowie Kapazitätsreduktion aufgrund von DC-Spannungsvorladung sind berücksichtigt. Somit liegen die berechneten Ergebnisse sehr nahe an gemessenen Werten einer aufgebauten Schaltung mit echten Bauteilen.

ADIsimPower liefert nach wenigen Momenten eine optimierte Stückliste mit zugrunde liegenden Bauteilenummern von verschiedenen Herstellern aus der hinterlegten Datenbank. Bevor die Schaltung mit den entsprechenden Bauteilen aufgebaut wird, besteht die Möglichkeit die Schaltung bereits in der Simulation zu testen. In diesem Schritt kann man sich sehr detailliert mit der Schaltung auseinandersetzen und Überraschungen bei der Evaluierung der ersten Hardware vermeiden.

Simulationswerkzeug ADIsimPE zum schnellen Simulieren mit SIMetrix/SIMPLIS (Bild: Analog Devices)
Simulationswerkzeug ADIsimPE zum schnellen Simulieren mit SIMetrix/SIMPLIS

Es gibt unterschiedliche Simulationsumgebungen für Stromversorgungen. Die am häufigsten verwendeten sind Spice in den unterschiedlichsten Derivaten sowie für Stromversorgungen optimierte Umgebungen wie beispielsweise SIMetrix/SIMPLIS.

Letzteres hat gute Eigenschaften was die Konvergenz der Schaltungsmodelle betrifft. Dadurch ist eine Schaltungssimulation einfach und schnell.

SIMPLIS ist für das Simulieren von Stromversorgungen optimiert. Auftretende Schaltübergänge werden wesentlich schneller berechnet, was zu einer Beschleunigung um den Faktor 10 bis 50 im Vergleich zu anderen Simulationsmethoden wie beispielsweise Spice führt. Dadurch lassen sich unterschiedliche Schaltungsszenarien in kürzester Zeit mit dem Simulator ausprobieren.

Oberfläche eines Werkzeuges zum Optimieren einer Stromversorgung. (Bild: Analog Devices)
Oberfläche eines Werkzeuges zum Optimieren einer Stromversorgung.

Eine Simulation ersetzt die Berechnung einer optimierten Schaltung nicht. Durch einen schnellen Simulator wie ADIsimPE von Analog Devices wird auch iterativ optimiert. Auf dem zweiten Bild ist die graphische Benutzeroberfläche zu sehen. Die zuvor ermittelten Werte können mit ADIsimPower eingelesen werden.

Die Simulation erfolgt mit den zur Verfügung gestellten Modellen der Schaltregler sowie unterschiedlichen Schaltungsvorschlägen. Dadurch kann sofort mit dem Simulieren losgelegt werden. Die Schaltung kann dann beliebig angepasst und ergänzt werden. Snubber (Schwingungsdämpfer) reduzieren die Spannungsspitzen am Schaltknoten und Filter verringern die Ausgangsspannungswelligkeit. Die Simulationen finden auf dem eigenen Rechner statt und die Ergebnisse stehen zukünftig als Referenzen zur Verfügung. Die Software ADIsimPE kann kostenfrei auf der Firmenwebseite heruntergeladen werden.

Der Autor: Frederik Dostal, Analog Devices

Archivierung in Exchange 2013 nutzen

Bevor Sie die Archivierung für Anwender aktivieren, legen Sie zunächst eine Archiv-Datenbank an. Dabei handelt es sich im Grunde genommen um eine ganz normale Postfachdatenbank. Am einfachsten geht das im Exchange Admin Center:

  1. Klicken Sie auf Server und dann auf Datenbanken.
  2. Klicken Sie auf das Pluszeichen und legen Sie die neue Datenbank an.
  3. Geben Sie der Datenbank die Bezeichnung „Archiv-Datenbank“ oder einen ähnlichen Namen.
  4. Legen Sie fest wo die Datenbank gespeichert werden soll und auf welchem Server Sie die Datenbank bereitstellen wollen.
  5. Achten Sie darauf Transaktionsprotokolle und Datenbankdateien auf unterschiedlichen Datenträgern zu speichern, wenn das möglich ist. Dadurch steigt die Leistung, und Sie können die Datenbank leichter wiederherstellen, wenn ein Datenträger ausfällt. Sie können die Protokolle und Datenbankdateien aber auch auf den gleichen Datenträgern speichern.

Wie normale Datenbanken auch, können Sie Archiv-Datenbanken in Datenbankverfügbarkeitsgruppen integrieren und damit die Verfügbarkeit der Datenbank erhöhen. Das ist aber nur optional und zu Beginn nicht notwendig. Nachdem Sie die Postfachdatenbank erstellt haben, sollten Sie noch die Einstellungen der neuen Postfachdatenbank aufrufen. Zunächst sollten Sie über das Menü Grenzwerte die Grenzwerte für die Datenbank festlegen, das gilt auch für die Aufbewahrungszeiträume für gelöschte Objekte im Archiv. Gehen Sie noch die weiteren Einstellungen durch und passen Sie diese an die Bedürfnisse Ihres Unternehmens an. Sie sollten die Datenbank auch an die Datensicherung anbinden, wenn das durch Ihre Software nicht automatisch geschieht.

Sobald die Postfach-Datenbank zur Verfügung steht, können Sie im Empfänger-Bereich des Exchange Admin Centers für einzelne oder alle Empfänger das Archiv aktivieren:

  1. Dazu rufen Sie im Bereich Empfänger des Exchange Admin Centers die Eigenschaften eines Empfängers auf und wechseln zum Menü Postfachfunktionen.
  2. Im unteren Bereich finden Sie die Option Archivierung:Deaktiviert. Mit dem Link Aktivieren schalten Sie die Archivierung für Benutzer ein.
  3. Im neuen Fenster „Compliance-Archiv erstellen“ klicken Sie bei Postfachdatenbank für das Archiv auswählen auf Durchsuchen und wählen die von Ihnen erstellte Postfachdatenbank für das Archiv aus.
  4. Klicken Sie auf OK um das Archiv zu erstellen.
  5. Über Details anzeigen können Sie Informationen zum Archiv anzeigen und Kontingente für das Archiv steuern. Außerdem können Sie hier die Bezeichnung des Archiv-Ordners im Postfach des Anwenders festlegen.

Red Hat Enterprise Linux OpenStack Platform 7 verfügbar

Die neue Version 7 von Red Hat OpenStack Platform basiert nun erwartungsgemäß auf der OpenStack-Community-Version Kilo. In Kombination mit Funktionen von Red Hat Enterprise Linux stellt Red Hat Enterprise-Nutzern damit eine hochverfügbare, fehlertolerante Plattform für Aufbau und Betrieb von Private-Clouds bereit. Ferner legt Red Hat mit Version 7 nach eigener Aussage „das Fundament für strukturierte Live-Updates des Systems und künftige Versionen“.

OpenStack Platform Director

Mit dem neuen OpenStack Platform Director sollen sich Installation und Verwaltung von OpenStack deutlich beschleunigen lassen. Das neue Tool eignet sich generell für die Verwaltung von OpenStack-Umgebungen und erleichtert die Bereitstellung von Ressourcen. So beherrscht OpenStack Platform Director etwa ein komplett automatisiertes Cloud-Enrollment, wobei ein System-Health-Check eine korrekte Installation gewährleisten soll.

Der OpenStack Platform Director basiert auf dem OpenStack-Community-Projekts TripleO, das Red Hat mit einem einheitlichen Framework erweitert hat. Damit ermöglicht Red Hat OpenStack Platform Director zum Beispiel auch eine Live-Orchestrierung von OpenStack.

Noch neu in Red Hat Enterprise Linux OpenStack Platform 7

Ebenfalls neu: die aus Red Hat Enterprise Linux stammende Funktion Compute Host Node High Availability vereinfacht, bzw. ermöglicht das Migrieren geschäftskritischer Anwendungen, wenn diese unter OpenStack hohe Verfügbarkeit brauchen.

Zudem bietet die OpenStack-Netzwerkkomponente Neutron jetzt mehr Flexibilität, verbesserte Redundanz und stattet die Lösung mit IPv6-Funktionalität aus. Ferner verbessert das überarbeitete Neutron die Überwachungsfunktionen.
Im Storage-Bereich ermöglicht die neue Version schnelleren Blockspeicher-Backups. Der Einsatz von Snapshot-Backups senkt die Kapazitätsanforderungen und verringert Zeit, weil nur inkrementelle Änderungen seit dem letzten vollständigen Backup gesichert werden.

Öko-System

Das von Red Hat rund um Red Hat Enterprise Linux OpenStack Platform 7 aufgebaute Ökosystem ist laut Red Hat zudem inzwischen auf 350 zertifizierte OpenStack-Partner angewachsen, welche weitere Anwendungen und Services für Compute, Storage und Networking offerieren.

Weitere Neuerungen lassen sich der Produktseite entnehmen.

Ingenieure gehen die Hindernisse auf dem Weg zum IoT an

Die Sicherheit der Systeme gegen Angriffe ist ein sehr sensibles Thema. Bei einer Podiumsdiskussion über die Zukunft des IoT tragen alle Teilnehmer sehr ernste Mienen zu Schau, als das Gespräch auf das Thema Sicherheit kommt. Greg Gorman, Director für das Produktmanagement im Bereich IoT bei IBM, gibt sogar zu, ganz bewusst ein altes Auto zu fahren, weil er das Thema Connected Car derzeit noch kritisch sieht: „Mein Auto ist von 1992, und das hat seinen Grund“, erklärt Gorman vor den versammelten Journalisten.

Die Sicherheit von mit dem Internet verbundenen Geräten und Anlagen gegen Angriffe aus dem Netz ist eine große technische Herausforderung; darin sind sich die Diskussionsteilnehmer einig. Paul Didier, Architekt für Industrielösungen beim Netzwerkspezialisten Cisco, erklärt dazu, dass zur Zeit an besseren Sicherheitsmodellen und –protokollen gearbeitet wird. Insbesondere das Komitee für den  ISA99-Standard (jetzt ISA/IEC 62443) zur Sicherheit von Industrieautomatisierungs- und Steuerungssystemen leiste gute Arbeit, sagt Didier.

Ein weiteres Problem ist die Bandbreite der Netzwerke. „Unsere Netze sind nicht für 50 Milliarden angeschlossene Geräte im Jahr 2025 ausgelegt“, sagt Mark Cudak, Principal Research Specialist beim Telekommunikationsausrüster Nokia. Abhilfe sollen die Fortschreibung des LTE-Standards und Funktechniken, die im Millimeterband operieren, bringen.  Künftige 5G-Techniken werden sich durch größere Zuverlässigkeit und geringere Latenzzeiten auszeichnen, davon ist Cudak überzeugt.

Das ist auch bitter nötig, denn viele der im Zusammenhang mit dem Internet der Dinge angedachten Anwendungen brauchen zuverlässigere Netzverbindungen, als sie heute möglich sind. Andrea Goldsmith, Professorin an der renommierten kalifornischen Stanford University, kann sich zum Beispiel Remote-Operationen vorstellen, bei denen Ärzte ihre chirurgischen Instrumente über das Netz fernsteuern. Goldsmith möchte aber nicht das erste Versuchskaninchen sein, das sich für diese Chirurgie hergibt, da die Verbindungen noch nicht verlässlich genug sind. „Wir schaffen es heute noch nicht mal, Youtube zuverlässig zu betreiben“, sagt Goldsmith auf der NIWeek-Bühne in Austin.

Trotz der nach wie vor bestehenden Baustellen zweifelt aber keiner der Diskutanten und Referenten daran, dass diese Schwierigkeiten zu bewältigen sind. Beim Zeitverhalten verteilter Systeme gibt es zum Beispiel Fortschritte, erklärt Jamie Smith, Director für Embedded-Systeme bei National Instruments. Das White-Rabbit-Protokoll, das das Ethernet um Möglichkeiten zur Synchronisation im Sub-Nanosekundenbereich ergänzen soll und an dem unter anderem das Kernforschungszentrum CERN in der Schweiz arbeitet, habe großartige Vorarbeiten geleistet, sagt Smith. Smith hofft, dass sich möglichst viele Elemente des White-Rabbit-Protokolls bald auch im Standard-Ethernet wiederfinden werden.

Den größten Optimismus legt Mickey McManus an den Tag. McManus leitet das Maya-Zukunftslabor beim Konstruktionsspezialisten Autocad. Für ihn ist das Internet der Dinge nur einer der drei Megatrends, die bereits ins Rollen gekommen sind beziehungsweise in Kürze in Bewegung geraten werden. Dazu zählen einerseits die digitalisierte Produktion mit Techniken wie dem 3-D-Druck und andererseits lernende Maschinen.

Die digitale Revolution auf der Produktionsseite führt für McManus dazu, dass praktisch bald jeder in der Lage sein wird, sich Gegenstände des täglichen Lebens zuhause auszudrucken. Jamie Smith von NI pflichtet ihm bei: „Ich freue mich auf den Tag, an dem ich nicht mehr zum Baumarkt gehen muss, wenn ich einen Schraubenzieher brauche, sondern ihn in meiner Garage selber herstellen kann. Das wird noch zu unseren Lebzeiten möglich sein.“

Der Zukunftsforscher McManus geht sogar noch etwas weiter. Trotz aller ungelöster Probleme bietet das Internet der Dinge zusammen mit den beiden anderen Megatrends aus seiner Sicht gewaltige geschäftliche Möglichkeiten. Auch deshalb, weil die Menschheit aus seiner Sicht insgesamt mehr zum Guten neigt als zum Schlechten. „Ich habe Vertrauen in die Menschheit. Wir machen zwar beim ersten Mal alles falsch – das ist die menschliche Natur. Aber wenn man den Menschen die Chance gibt, Dinge zu machen, dann wird man am Ende überrascht sein. Ich jedenfalls habe hohe Erwartungen.“