Red Hat präsentiert OpenShift Enterprise 3.1 und Atomic Enterprise Platform

Beide haben laut Aussage von Red Hat zum Ziel, eine modulare Lösung für das Entwickeln, Bereitstellen und Verwalten Container-basierter Applikationen in einer offenen Hybrid-Cloud zu ermöglichen.

OpenShift Enterprise 3.1

Die neueste Version von Red Hats Applikationsplattform wartet mit einem überarbeiteten Application-Lifecycle-Management für Container auf. Das bedeutet: die neuen Version bietet Nutzern neben ergänzenden und aktualisierten Self-Service-Werkzeugen zur Anwendungsentwicklung im Web bzw. mittels Befehlszeilen oder IDE nun auch eine Jenkins-CI-Integration sowie Funktionalitäten zur automatischen Implementierung und Übergabe von Applikationen in den produktiven Betrieb.

Red Hat weist außerdem darauf hin, dass die OpenShift-Container-Infrastruktur nun das aktuelle Docker-Container-Format sowie Googles Orchestration Engine Kubernetes nutzt.
Damit will Red Hat eine möglichst stabile Umgebung für das Entwickeln Microservice-basierter Applikationen schaffen. Darüber hinaus soll es laut Red Hat ebenso einfach möglich sein, Red Hats Middleware-Services Red Hat JBoss Fuse, Red Hat JBoss BRMS und Red Hat JBoss Data Grid in die Container-Architektur zu integrieren. Ferner bringt OpenShift 3.1 neue Managementfunktionen in den Bereichen Container und Projekte mit und ermöglicht Nutzern die zentrale Kontrolle traditioneller Infrastrukturen und privater oder öffentlicher Clouds.

Red Hat Atomic Enterprise Platform Public Preview

Im Zusammenhang mit der Veröffentlichung von OpenShift 3.1 hat Red Hat auch eine Public Preview seiner Red Hat Atomic Enterprise Platform vorgestellt. Hierbei handelt es sich um eine Infrastruktur-Lösung zur Implementierung und für Betrieb und Management unternehmensweiter Container. Auch das Runtime- und Packaging-Format von Red Hat Atomic Enterprise Platform basiert auf Docker und dem Format der https://www.opencontainers.org/ Open Container Initiative.

Die Orchestrierungs- und Cluster-Services der Plattform verwenden ebenfalls Kubernetes zum Orchestrieren und Steuern von Multi-Container-Services in einem Host-Cluster. Die Networking- und Storage-Plugins der Plattform basieren auf Open vSwitch und erlauben den Einsatz skalierbarer Multi-Host-Netzwerklösungen. Darüber hinaus sind die persistenten Storage-Plugins der Lösung für den Betrieb von Stateful-Services in Containern verantwortlich. Für ein sicheres Speichern und Verwalten gemeinsam genutzter Container-Images sorgen die Registry-Services von Red Hat Atomic Enterprise Platform.

Stimmen

Nach Ansicht von Ashesh Badani, Vice President und General Manager für OpenShift hätten die Möglichkeiten, die Linux-Container insbesondere im Hinblick auf die Skalierbarkeit böten das Potenzial, die gesamte Landschaft der Unternehmens-IT neu zu erfinden – angefangen von der Art und Weise, wie wir Applikationen erstellen und einsetzen, bis dahin, wie wir Ressourcen und Services verteilen und bereitstellen. OpenShift Enterprise 3.1 und die Red Hat Atomic Enterprise Platform trügen laut Ashesh Badani dazu bei, die Innovationen im realen Rechenzentrumsbetrieb einzuführen. Sie böten Unternehmen sowohl eine sicherere, stabile und flexible Infrastruktur, wie einen leistungsfähigen Services Layer für das Erstellen, Implementieren, Verwalten und den Support der nächsten Generation von Applikations-Containern.

Weitere Informationen

OpenShift Enterprise
Zur Red Hat Atomic Enterprise PlatformDie Container-Lösungen von Red Hat

Runderneuerung für das Steckernetzteil

Möglich war dies mithilfe einer fortschrittlichen Schaltungstopologie und ausgeklügelter Regelungsmethoden. Der im lückenden Betrieb arbeitende Sperrwandler ist die populärste Topologie für Ladegeräte mit einer Leistung von 5 bis 10 W . Aus ihm ging der Quasiresonanz-Sperrwandler hervor, der einige Schaltverluste reduziert. Im lückenden Sperrwandler traditioneller Art ist die Schaltfrequenz stets konstant, und das Controller-IC variiert lediglich den Spitzenstrom im Leistungsübertrager.

Bild 1: Zur Verringerung der CU²-Verluste schalten Quasiresonanz-Sperrwandler den FET nur ein, wenn dessen Drainspannung ihr Minimum erreicht.  (Bild: TI) Bild 1: Zur Verringerung der Schaltverluste schalten Quasiresonanz-Sperrwandler den FET nur ein, wenn dessen Drainspannung ihr Minimum erreicht.

Somit gelangt pro Schaltzyklus jeweils eine bestimmte Energiemenge an den Verbraucher. Der Signalverlauf an der Drain des Leistungsschalters ist in Bild 1 zu sehen. Während des Ladeintervalls (dies ist jener Teil des Schaltzyklus, in dem die Spannung 0 V beträgt) wird Energie in der primärseitigen Induktivität gespeichert.

Sobald der Leistungsschalter abschaltet, fließt die Energie an die Sekundärseite, wo sie im Ausgangskondensator gespeichert und schließlich an den Verbraucher abgegeben wird. Ist der Leistungsübertrager entmagnetisiert, bricht die Drainspannung des FET zusammen und oszilliert um die Eingangsspannung. Nach dem traditionellen Verfahren wird der FET im nächsten Schaltintervall des FET eingeschaltet.

Dies geschieht unabhängig von der Drainspannung, die ihren Minimal- oder Maximalwert haben oder irgendwo dazwischen liegen kann. Die Verluste durch das Schalten dieser Spannung können beträchtlich sein und nicht selten eine Wirkungsgradeinbuße von 2 bis 3 % bewirken. Quasiresonanz-Sperrwandler minimieren die Schaltverluste, indem sie den FET nur dann einschalten, wenn die Drain-Spannung gerade ein Minimum aufweist.

Bild 2: Die Regelung des primärseitigen Spitzenstroms und die Frequenzmodulation ergeben einen höheren Wirkungsgrad über den Ausgangsleistungsbereich.  (Bild: TI) Bild 2: Die Regelung des primärseitigen Spitzenstroms und die Frequenzmodulation ergeben einen höheren Wirkungsgrad in Abhängigkeit von der Ausgangsleistung.

Neuere Regelungsmethoden beschränken sich jedoch nicht nur auf dieses ‚Valley-Switching‘. Bild 2 veranschaulicht, wie zwei Parameter (nämlich die Schaltfrequenz und der primärseitige Spitzenstrom) zum Regeln der Ausgangsspannung variiert werden. Bei voller Leistung wird der Wandler mit maximalem Spitzenstrom und maximaler Schaltfrequenz betrieben. Da sowohl die Ausgangsleistung als auch die Schaltverluste von der Schaltfrequenz des Wandlers abhängen, verläuft der Wirkungsgrad in dieser Betriebsart nahezu flach. Da das Valley Switching nach wie vor genutzt wird, ist die Schaltfrequenz des Wandlers nicht konstant.

Das Einschalten des Leistungs-FET erfolgt jeweils beim Minimum der Drainspannung, was eine durchschnittliche Schaltfrequenz wie in Bild 1 ergibt. Die Schaltfrequenz darf wegen der möglichen Geräuschentwicklung allerdings nicht beliebig reduziert werden, denn das Schalten des Wandlers kann in induktiven Bauelementen und Keramik-Kondensatoren zu hören sein. In vielen Fällen kann ein Absenken der Frequenz unter 10 bis 20 kHz unerwünscht sein, sodass man ein anderes Regelungskonzept vorzieht. Zum Regeln der Ausgangsspannung bei niedriger Ausgangsleistung wird hier bei Erreichen der vorgegebenen Mindestschaltfrequenz der Spitzenstrom im primärseitigen FET geregelt.

Bild 3: Ein fortschrittliches Controller-IC kommt dank primärseitiger Spannungsabtastung ohne Optokoppler aus.  (Bild: TI) Bild 3: Ein fortschrittliches Controller-IC kommt dank primärseitiger Spannungsabtastung ohne Optokoppler aus.

Bild 3 zeigt das typische Schaltbild eines 5-W-Ladegeräts mit universeller Eingangsspannung. Die recht einfache Schaltung benötigt weder eine Referenz noch einen Optokoppler zum Regeln der Ausgangsspannung. Als Rückkoppelinformation wird die an die primäre Bias-Wicklung reflektierte Ausgangsspannung verwendet. Die in Bild 1 gezeigte FET-Drainspannung spiegelt die Bias- und die Ausgangsspannung wieder.

Wenn die Drainspannung ansteigt, wird sie von der Ausgangsspannung zuzüglich der diodenbedingten und ohmschen Spannungsabfälle auf der Sekundärseite bestimmt. Die Drainspannung nimmt linear ab, während die reflektierte Induktivität über die Ausgangsdiode entladen wird. Wenn die Leitphase der Diode endet, entsprechen diese Spannung und die Spannung an der Bias-Wicklung der Ausgangsspannung zuzüglich eines Dioden-Spannungsabfalls. Die um diese reflektierte Spannung gebildete Regelschleife ergibt eine hinreichende Regelgenauigkeit von 3 bis 5 %.

Eine zusätzliche Herausforderung entsteht, wenn die Spannungsregelgenauigkeit von Wandlern dieser Art verbessert werden soll. Da das zu ladende Gerät über ein Kabel angeschlossen ist, kann der Spannungsabfall entlang dieses Kabels bei voller Ausgangsleistung erheblich sein. In der hier vorliegenden Implementierung schätzt der Controller die Ausgangsleistung anhand des Spitzenstroms im Leistungsschalter, sodass die Ausgangsspannung eingestellt werden kann, um den Spannungsabfall entlang des Kabels zu kompensieren.

Bild 4: Eine hohe Schaltfrequenz und fortschrittliche Regelungsmethoden verleihen diesem Offline-Ladegerät für Mobiltelefone minimale Abmessungen und geringste Verluste.  (Bild: TI) Bild 4: Eine hohe Schaltfrequenz und fortschrittliche Regelungsmethoden verleihen diesem Offline-Ladegerät für Mobiltelefone minimale Abmessungen und geringste Verluste. (Bild: TI)

Die reale Umsetzung der Stromversorgungsschaltung ist in Bild 4 zu sehen. Eine hohe Schaltfrequenz und fortschrittliche Regelungsmethoden führen zu erheblichen Verbesserungen gegenüber früheren Steckernetzteilen. Anstatt einer fest vorgegebenen Eingangsspannung ist die Schaltung jetzt für alle gängigen Netzspannungen geeignet, und die früher bei 1 W liegende Leistungsaufnahme ohne Last ist auf unter 30 mW gesunken.

Der vormals im Bereich von 50 % angesiedelte Wirkungsgrad beträgt jetzt mit Diodengleichrichtung ca. 80 % und mit Synchrongleichrichtung mehr als 85 %. Auch die Abmessungen und die Formgestaltung wurden deutlich verbessert.

Mithilfe fortschrittlicher Schaltungstechniken war es somit möglich, die einst recht klobigen Mobiltelefon-Ladegeräte zu unauffälligen, von einem herkömmlichen Stecker kaum zu unterscheidenden Produkten weiterzuentwickeln. Auch die Verlustleistung konnte deutlich verringert werden.

Angesichts der fast zwei Milliarden Mobiltelefone, die jährlich neu in die Hände der Konsumenten gelangen, ergibt dies eine Energieersparnis, die der Kapazität von ein paar Dutzend Kraftwerken entspricht. Genauere Informationen über einige neue Ladegeräte-Designs gibt es auf www.ti.com/pmp4335-ca, www.ti.com/pmp7389-ca und www.ti.com/pmp8286-ca.

User Principal Name und E-Mail-Domänen anpassen

Generell ist es auch in Exchange 2016 sinnvoll, wenn Sie den UPN-Anmeldenamen in den Eigenschaften von Benutzerkonten in Active Directory mit der primären E-Mail-Adresse erweitern.

Der UPN ist eine Syntax der Anmeldennamen in der Form von <Benutzername>@<Active Directory-Domäne>. UPNs sind in einer Gesamtstruktur immer eindeutig. Sie können durchaus UPNs erstellen, die den E-Mail-Adressen der Anwender entsprechen. Das vereinfacht die Anmeldung.

Das hat den Vorteil, dass AutoDiscovery und andere Dienste wesentlich besser funktionieren. Sie sollten beim Einsatz von Unified Messaging und Spye for Business Server 2015 auch die SIP-Adresse als UPN nutzen (siehe auch Kapitel 18 und Kapitel 19). Sie finden den UPN in den Eigenschaften auf der Registerkarte Konto.

Sie können die UPN-Suffixe der Active Directory-Domänen im Snap-In Active Directory-Domänen und Vertrauensstellungen in den Eigenschaften des obersten Menüpunkts Active Directory-Domänen und Vertrauensstellungen pflegen.

Tragen Sie als UPN-Suffix die Domänen ein, die Sie für Benutzer als primäre E-Mail-Adresse nutzen. Sie können nach dem Anlegen in den Eigenschaften der Benutzerkonten diese Domänen auswählen. Jedem Benutzer können Sie aber nur einen UPN zuordnen, mit dem er sich auch an der Domäne anmelden kann. Verwenden Sie hier die E-Mail-Adresse, kann sich der Benutzer am Rechner mit seiner E-Mail-Adresse anmelden und auf Wunsch auch in Lync oder Skype for Business.

Das Routing schneller JESD204B-Verbindungsleitungen

Der serielle Schnittstellenstandard JESD204B für A/D- und D/A-Wandler unterstützt eine maximale Übertragungsgeschwindigkeit von 12,5 GBit/s pro Leitung (Lane Rate). Da bei A/D- und D/A-Wandlern Daten über mehrere JESD204B-Leitungen übertragen werden, kann die Komplexität, die bei der Einhaltung der Signalintegrität entsteht, zur Herausforderung für Systementwickler führen.

Bei einer JESD204B-Schnittstelle verhält sich jeder Übertragungskanal als Tiefpassfilter. Diese Eigenschaft ist auf parasitäre Kapazitäten zurückzuführen, die zwischen den Leiterplattenverbindungen und dem dielektrischen Material des Boards entstehen. Die Transmitter PHY-Kompensationsmethoden (Channel Compensation, Bild 1), bekannt unter den Bezeichnungen Pre-Emphasis und De-Emphasis, bewirken bei der Übertragung von Daten einen annähernd flachen Frequenzverlauf und können das Risiko von Bit-Fehlern verringern.

Pre-Emphasis

Ein normaler, unveränderter Kanal weist eine Eckfrequenz auf, die sich relativ zur Verbindungslänge und je nach Leiterplattenmaterial verändert. Ein Kanal mit Pre-Emphasis hebt hohe Frequenzen an und verhält sich wie ein Hochpassfilter. Durch diese Eigenschaft werden die Verluste, die durch Anheben des Signals über den Nennspannungspegel (Uss) entstehen, kompensiert.

Damit ist das Systemverhalten auf dem Pre-Emphasis-Kanal aufgrund der Verstärkung der hochfrequenten Daten ausgewogen. Ein Kanal mit Pre-Emphasis weist gegenüber einem ohne Pre-Emphasis bei bestimmten Bit-Übergängen ein größeres Signal auf und bewirkt eine HF-Anhebung. Dies schwächt die Einflüsse niederfrequenter Eckfrequenzen ab und ermöglicht die Übertragung von Daten über weitere Distanzen.

De-Emphasis

De-Emphasis normalisiert das Signal, so dass Uss für alle Bit-Breiten gleich bleibt. Dies geht zu Lasten einer niedrigeren Uss bei bestimmten Bit-Übergängen, wie durch eine „Data Look-Ahead“ Methode vorgegeben. Ein Kanal mit De-Emphasis hat eine geringeren Signal-Nennspannungspegel als das Original bei bestimmten Bit-Übergängen.

De-Emphasis kann Inter-Symbol-Interferenzen kompensieren, die bei „Runt Pulses“ auftreten können. Diese neigen dazu, bei einem Augendiagramm die ersten Maskenverletzungen (Mask Violations) zu zeigen.

Equalization

JESD204B Receiver Equalization sorgt für eine HF-Anhebung der Eckfrequenz des Kanals. Pre-Emphasis- und De-Emphasis-Methoden verlangen Kenntnisse bezüglich künftiger Übergänge der eintreffenden Daten, die am PHY-Empfänger nicht zur Verfügung stehen. Stattdessen ist der Equalization-Block am Empfänger ein Hochpassfilter, der die von der Tiefpassfrequenz abhängigen Einflüsse des Kanals kompensiert.

JESD204B-Sender und -Empfänger mit Emphasis und Equalizern können kombiniert werden, um im Gegensatz zur ausschließlichen Nutzung von Emphasis am Sender oder Equalization am Empfänger die Einfügedämpfung gemeinsam auszudehnen.

Neuer Standard für Enterprise-Cloud-Anwendungen

Dies haben sowohl  Microsoft, als auch Red Hat übereinstimmend in ihren Blogs verkündet.

Ein zentraler Bestandteil der Ankündigung ist, dass Microsoft Red Hat Enterprise Linux als die bevorzugte Lösung für Enterprise-Linux-Workloads auf Microsoft Azure anbieten will. Darüber hinaus wollen Microsoft und Red Hat künftig gemeinsam an der Bewältigung zentraler Herausforderungen von Unternehmen, ISVs und Entwicklern beim Aufbau, bei der Bereitstellung und Verwaltung von Applikationen auf Software von Red Hat in Private und Public Cloud arbeiten.

Die zentralen Inhalte der Partnerschaft lauten im Einzelnen:

  • Native Verfügbarkeit der Red-Hat-Lösungen für Microsoft-Azure-Anwender: Microsoft will es Nutzern in den kommenden Wochen ermöglichen, ihre auf Red Hat Enterprise Linux basierenden Applikationen und Workloads auch auf Microsoft Azure zu nutzen. Im Gegenzug sollen Microsoft-Azure-Anwender Red Hats Applikationsplattformen nutzen können. Darüber hinaus arbeiten Microsoft und Red Hat an einem neuen Angebot „Red Hat On-Demand”. Dieses umfasst „Pay-as-you-go”-Red-Hat-Enterprise-Linux-Images, die im Azure Marketplace mit Red-Hat-Support zur Verfügung stehen sollen.
  • Integrierter Support für hybride Umgebungen: Mit einem Zusammenziehen von plattform- und unternehmensübergreifenden Support-Teams an gleichen Standorten soll ein einfacher und nahtloser Service in Cloud-Geschwindigkeit gewährleistet werden.
  • Einheitliches Workload-Management in Hybrid-Cloud-Umgebungen: Da Red Hat CloudForms mit Microsoft Azure und Microsoft System Center Virtual Machine Manager interoperabel ist, sollen CloudForms-Nutzer Red Hat Enterprise Linux gleichermaßen unter Hyper-V, wie unter Microsoft Azure verwenden können.
  • Gemeinsame Arbeit an .NET, um neue Möglichkeiten der Applikationsentwicklung zu ermöglichen: Demnach soll die im Frühjahr angekündigte Preview von „.NET on Linux“ erweitert werden. Entwicklern sollen damit Zugang zu .NET-Technologien über Angebote von Red Hat erhalten, darunter auch Red Hat OpenShift und Red Hat Enterprise Linux.

A/D-Wandler für hohen Dynamikbereich – Sukzessive Approximation oder Sigma/Delta?

Antwort: Leistungsstarke Signalketten für die Datenerfassung, die in Industrie-, Messtechnik- und Medizingeräten eingesetzt werden, verlangen einen großen Dynamikbereich und hohe Genauigkeit. Der Dynamikbereich eines A/D-Wandlers lässt sich mit einem PGA (Programmable-Gain Amplifier) vergrößern. Alternativ kann man mit mehreren parallel geschalteten ADCs arbeiten und digitale Nachbearbeitung nutzen, um das Ergebnis zu mitteln.

Doch diese Methoden können sich aufgrund von Entwicklungsvorgaben hinsichtlich Leistungsaufnahme, Platzbedarf und Kosten als nicht praktikabel erweisen. Mit Überabtastung (Oversampling) kann ein A/D-Wandler bei niedrigen Kosten einen hohen Dynamikbereich erreichen. Zugleich lassen sich Herausforderungen hinsichtlich Platzbedarf, Wärmeentwicklung und Leistungsaufnahme adressieren.

Überabtastung erfolgt, indem man das Eingangssignal mit einer wesentlich höheren Frequenz als die Nyquist-Frequenz abtastet (die doppelte Signalbandbreite), um das SNR (Signal-to-Noise Ratio) und die effektive Bitzahl (ENOB) zu erhöhen. Wird der A/D-Wandler überabgetastet, verteilt sich das Quantisierungsrauschen so, dass sein größter Teil außerhalb der relevanten Bandbreite liegt. Daraus resultiert ein höherer gesamter Dynamikbereich bei niedrigen Frequenzen. Das Rauschen außerhalb der relevanten Bandbreite kann durch digitale Nachverarbeitung eliminiert werden.

Das OSR (Oversampling Ratio) ist die Abtastrate dividiert durch die Nyquist-Frequenz. Die Verbesserung des Dynamikbereichs (DR) aufgrund von Oversampling ist DR = log2 (OSR) × 3 dB. Zum Beispiel sorgt ein Oversampling des A/D-Wandlers um einen Faktor von 4 für einen um 6 dB höheren Dynamikbereich oder für ein zusätzliches bit an Auflösung.

Oversampling ist in den meisten Sigma/Delta-ADCs mit integrierten Digitalfiltern implementiert, bei denen die Modulator-Taktfrequenz typischerweise 32 bis 256 Mal die Signalbandbreite beträgt. Sigma/Delta-ADCs sind jedoch für Anwendungen nicht geeignet, die ein schnelles Umschalten zwischen den Eingangskanälen verlangen. Die SAR-Architektur weist weder Latenz, noch Pipeline-Verzögerungen auf. Dies ermöglicht sehr schnelle Steuerschleifen und ein schnelles Umschalten zwischen Eingangskanälen. Außerdem erlaubt der hohe Durchsatz der SAR-Architektur Oversampling.

Obwohl beide ADC-Topologien niederfrequente Signale exakt messen können, skaliert der Energieverbrauch eines SAR-A/D-Wandlers mit der Durchsatzrate. Dies reduziert die Leistungsaufnahme um mindestens 50% verglichen mit Sigma/Delta-ADCs, die normalerweise eine feste Menge an Energie verbrauchen. Der 18 Bit SAR-ADC AD7960 mit 5 MSample/s ist ein Beispiel für einen hohen Durchsatz bei linearer Leistungsskalierung.

Der einem SAR-ADC vorgeschaltete Tiefpassfilter minimiert Aliasing und reduziert Rauschen durch Begrenzung der Bandbreite. Das hohe Oversampling-Verhältnis und der Digitalfilter von Sigma/Delta-ADCs minimieren die Antialiasing-Anforderungen an ihren Analogeingängen. Außerdem reduziert Oversampling das Gesamtrauschen. Für weitere Flexibilität kann individuelle Digitalfilterung auch im FPGA durchgeführt werden.

Aufgrund ihres niedrigen Grundrauschens und ihrer hohen Linearität können Hochleistungs-SAR-ADCs eine erhöhte Bandbreite sowie hohe Genauigkeit liefern und diskrete Abtastung ermöglichen. Und das in einem kleinen Zeitfenster, das für schnelle Mess- und Steuerapplikationen erforderlich ist. Ihr hoher Durchsatz sowie der geringe Energieverbrauch und die kleinen Abmessungen helfen Entwicklern, Herausforderungen hinsichtlich Platzbedarf, Wärmeentwicklung und Leistungsaufnahme sowie weitere bei Systemen mit hohen Kanaldichten Anforderungen zu erfüllen. SAR-ADCs bieten auch das niedrigste Grundrauschen, bezogen auf das Vollausschlags-Eingangssignal. Daraus resultiert ein höheres SNR und eine ausgezeichnete Linearität. Doch im Gegensatz zu Sigma/Delta-ADCs können sie nicht 1/f-Rauschen in der Nähe von DC (50/60 Hz) unterdrücken.

SAR- und Sigma/Delta-ADCs bieten jeweils eigene Vor- und Nachteile. Entwickler von Datenerfassungssystemen müssen stets Kompromisse bezüglich Leistungsfähigkeit, Geschwindigkeit, Platzbedarf, Leistung und Kosten eingehen.

Autor: Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

System-Benutzerpostfächer verschieben und neu erstellen

Bei Reparatur-Installationen, Testumgebungen, oder auch in größeren Netzwerken passiert es häufig, dass sich Exchange nicht installieren lässt, weil Postfächer fehlen, oder auf gelöschten Datenbanken angelegt wurden. Um das Problem zu lösen werden diesen Benutzern einfach neue Postfächer auf anderen Datenbanken zugewiesen.

Probleme machen in diesem Fall vor allem Systempostfächer und Systembenutzer für die Archivierung.

Mit dem folgenden CMDlet lassen sich alle Benutzer anzeigen, für die Exchange aktuell kein Postfach finden kann. Sollen neue Server installiert werden, erhalten Administratoren häufig Fehler in der Art „Cannot find E-discovery arbitration mailbox with name=$name“ und „Skipping creating Discovery Arbitration mailbox beause of insufficient permissions“

Lassen Sie sich dazu zunächst die Arbitration-Postfächer anzeigen:

Get-Mailbox -Arbitration | Select Name,Database

Danach können Sie die defekten Postfächer reparieren:

Set-Mailbox <Fehlerhaftes Postfach> -Database <Neue Datenbank> -Arbitration

Danach können Sie mit dem folgenden CMDlet nach weiteren Benutzern suchen für die kein Postfach gefunden werden kann:

Get-Mailbox | Select Name,Database

Danach können Sie die defekten Postfächer auch hier reparieren:

Set-Mailbox <Fehlerhaftes Postfach> -Database <Neue Datenbank>

Haben Sie diese Befehle ausgeführt, sollten keinerlei defekte Postfächer angezeigt werden. Starten Sie die Installation neu, sollte diese an genau der Stelle fortgesetzt werden, an der sie abgebrochen ist.

Bewegungsschalter mit geringem Strombedarf schützt Festplatten

In Bild 1 ist die Grundschaltung dargestellt, die durch einen zweiten, programmierbaren Ausgang sowie die SPI Schnittstelle erweitert werden kann.

Bild 1: Grundschaltung des Bewegungsschalters(Bild: Analog Devices)
Bild 1: Grundschaltung des Bewegungsschalters (Bild: Analog Devices)

Das Herzstück der Schaltung ist ein MEMS (Mikroelektromechanisches System) basierter Beschleunigungsaufnehmer mit drei Achsen. Dieser Baustein, der ADXL362 von Analog Devices, hat in Kombination mit dem ADP195 einen Ruhestrom von 300 nA, bei aktiviertem Leistungsschalter sind es weniger als 3 µA. Der Sensor des Beschleunigungsaufnehmers arbeitet kapazitiv. In Ruhestellung sind die Abstände des beweglichen Aufnehmers zum nicht beweglichen Teil gleich groß (Mittelstellung). Findet eine Bewegung oder Lageänderung statt, ändern sich die Abstände und damit die Spannung am kapazitiven Spannungsteiler.

Die bewegliche Masse wird über Polysilizium-Federn im Gleichgewicht gehalten. Eine Kraft auf diese Masse, die durch die Erdanziehung oder eine Bewegung verursacht werden kann, verursacht eine Kapazitätsänderung zwischen beweglicher Masse und der festen Struktur. Das hieraus gewonnene Signal wird verstärkt, gefiltert und durch einen ADC gewandelt. Dieser Wert wird mit voreingestellten Schwellwerten verglichen und wie in der Beispielschaltung, an INT2 ausgegeben. Das Signal geht dann auf den Eingang des Leistungsschalters ADP195, um die Last (z.B. ein Sendemodul) zu versorgen.

Die Spannungsversorgung der Schaltung ist im Bereich von 1,6 V bis 3,5 V möglich, was in bestimmten Fällen direkt aus der Batterie erfolgen kann. Für die Funktion wird kein Mikroprozessor benötigt, da der MEMS im Stand-Alone-Modus betrieben wird. So erkennt der Baustein sowohl eine Bewegung die einen absoluten Beschleunigungswert überschreitet als auch eine relative Änderung der Beschleunigung. Im absoluten Modus prüft der Baustein ob der Wert von 1 g auf einer Achse überschritten wird. Dabei ist Vorsicht geboten, da der Wert der Erdanziehung (1g) mit in die Auswertung einfließt.

Der referenzierte (relative) Modus reagiert nur auf eine Änderung der Beschleunigung. Dazu werden die ersten Daten als Referenzwert gespeichert. Anschließend werden alle Änderungen mit dieser Referenz verglichen. Wichtig ist bei beiden Modi die Zeit, in der die Änderungen über der eingestellten Grenze liegen müssen. Die Zeit für Aktivität (Aufwachen) und Inaktivität (Ruhemodus) kann in Registern eingestellt werden. Der Arbeitsbereich des Sensors ist einstellbar für ±2 g, ±4 g und ±8 g. Neben der Messung von Beschleunigung kann der Sensor auch Temperaturen mit einer absoluten Genauigkeit von ±0,5°C Messen und über die SPI Schnittstelle ausgeben. Um den Stromverbrauch auch im Betrieb mit Mikroprozessor zu minimieren, ist ein 512-Bit-FIFO implementiert, der Daten über einem einstellbaren Grenzwert zwischenspeichert.

Eine Anwendung des Sensors ist die Freifallerkennung, wie sie in Notebook-Festplatten eingebaut ist. In diesem Fall müssen alle drei Achsen eine Beschleunigung nahe 0 g aufweisen, da die Erdanziehung im freien Fall nicht auf den Sensor wirkt. Typische Einstellungen sind 300 mg bis 600 mg und Inaktivitäten von 150 ms bis 350 ms.

Ein Füllhorn an Neuerungen

Seit gestern steht Fedora 23 in den Flavours Server, Desktop und Cloud, sowie in verschiedenen Spins für KDE; Xfce usw. zum Herunterladen zur Verfügung.

Wie üblich bringt Fedora eine Fülle von Neuerungen mit. Der freie RHEL-Wegbereiter ist bekannt für die zeitnahe Integration aktuellster Technologien und neuster Pakete. So bringen sowohl die Desktop-Variante, die traditionell auf den Gnome-Desktop setzt, wie auch die Server-Version viele Änderungen für Nutzer mit.

Der Großteil der Neuerungen der Desktop-Version geht allerdings auf das Konto der neusten Gnome-Version 3.18, die unter anderem Google-Drive im Dateimanager unterstützt und die Möglichkeit bietet, Firmware direkt über die Softwarezentrale zu aktualisieren.

Support für XDG-App in Fedora Desktop

Ferner enthält Fedora 23 das Gnome-Projekt XDG-App als Technologievorschau. Die Gnome-Entwickler arbeiten mit XDG-App seit Anfang 2015 an einer neuen Technik, die es künftig erlauben soll, Desktop-Anwendungen unter Linux in einer Art Sandbox auszuführen und diese auch „gebündelt“ ausrollen zu können.

Das Ziel des Projektes besteht laut Projektleiter Christian Schaller darin, einen neuen Standard zu etablieren, der es erlaubt, auf dieser Art gebündelte Desktop-Anwendungen genauso einfach übergreifend verwenden zu können, wie es mit Docker für Server-Anwendungen möglich ist. Die Technik basiert unter anderem auf LXC.

Wayland

Außerdem haben die Fedora-Entwickler den Wayland-Support deutlich erweitert, auch wenn Wayland erst in Fedora 24 zum Default-Display-Server mutieren soll.

Auf den neusten Stand ist auch LibreOffice in der aktuellste Generation 5. LibreOffice 5 bringt z. B eine Stylevorschau im Sidebar und kann Bilder direkt in Dokumenten beschneiden. Ferner wurde der Support für Microsoft Office-Dateiendeutlich erweitert.

Fedora Server

Eine der wichtigste Verbesserungen der Server-Version besteht in der verbesserten Administration mithilfe von Rolekit. Neben den beiden Bestehenden gibt es jetzt eine weitere Rolle für den Einsatz als Cache-Server für Web-Anwendungen.

Verbesserungen haben die Entwickler auch am Admin Interface Cockpit vorgenommen, etwa in Form der Unterstützung für SSH-Key-Authentifizierung. Darüber hinaus gibt es jetzt ein einfaches Cluster-Dashboard für Kubernetes. Die wichtigste Neuerung der Cloud-Variante dürfte die Aktualisierung auf Docker 1.8 sein.

Allen Flavours …

… gleichermaßen gemein ist eine veränderte Basis-Softwareausstattung. So haben die Entwickler aus Gründen der Sicherheit die Unterstützung für SSL3 und RC4 entfernt, weil Beide durch grundlegende Schwachstellen negativ aufgefallen waren. Zudem unterstützt Fedora 23 jetzt systemweit Unicode 8. Die freie .Net-Implementation Mono wurde mit Version 4 zudem auf den aktuellsten Stand gebracht.

Sämtliche Neuerungen im Detail lassen sich wie üblich den Release Notes entnehmen.

Den ADP2370 als LED-Treiber nutzen

Die Leuchtstoffröhre in meiner batteriegespeisten Campinglampe war ausgefallen. Eine neue war nicht verfügbar. So beschloss ich, die defekte Leuchtstoffröhre durch mehrere weiße 1-W-LEDs zu ersetzen. Die beste Möglichkeit zum Treiben der LEDs ist es, einen allgemein verfügbaren integrierten Abwärtswandler zu verwenden.

Moderne LEDs mit hoher Leistung sind effizienter und erreichen eine längere Lebensdauer als Glühlampen oder kompakte Leuchtstoffröhren. Ferner entfällt bei LEDs das die Augen ermüdende Flackern. Dies macht LEDs gegenüber Leuchtstofflampen weit überlegen.

Dieser Analogtipp beschreibt, wie der Abwärtswandler ADP2370 mit einstellbarer Ausgangsspannung den LED-Strom aus zahlreichen Energiequellen regelt, um einen einfachen, robusten und hocheffizient dimmbaren LED-Treiber zu realisieren.

LED-Treiber mit geregeltem Strom

Geregelter LED-Treiber mit dem ADP2370 (Bild: ADI)
Quelle: Redaktion Elektronikpraxis
Geregelter LED-Treiber mit dem ADP2370

Abwärtswandler wie der ADP2370 setzen normalerweise eine Eingangsspannung auf eine niedrigere Ausgangsspannung herunter. Die LED-Treiber-Schaltung in Bild 1 nutzt den ADP2370 jedoch, um statt einer Ausgangsspannung den LED-Strom zu regeln.

Die Widerstände R7 und R8 dienen als Last und als Strommesswiderstände. R6 und R9 mitteln die Strommessspannungen am Eingang von Operationsverstärker U2 und gleichen die LED-Ströme aus. Der Verstärker U2 verstärkt die Spannung über dem Strommesswiderstand mit der durch R2 und R3 eingestellten Verstärkung. Außerdem treibt er den Eingang FB des ADP2370 und bewirkt somit eine Regelung des LED-Stromes. Eine Verstärkung von 5,32 stellt den Strom in jeder LED auf etwa 320 mA ein.

R4, R5, R6 und R9 stellen eine Dimmerfunktion bereit. Eine Verringerung des Wertes von R4 bewirkt, dass die Strommessspannung einen geringfügigen Offset über 0 V erhält. Dies reduziert den LED-Strom. Ein Fotosensor könnte R4 ersetzen, um die LEDs in Abhängigkeit von der Intensität der Umgebungsbeleuchtung zu dimmen.

Ein Übertemperaturschutz lässt sich implementieren, indem man R4 durch einen NTC-Thermistor ersetzt oder R4 einen NTC-Thermistor parallel schaltet. So wird der Treiberstrom reduziert, sobald die LEDs eine bestimmte Temperatur übersteigen. Thermistor und LEDs müssen für genaue Temperaturmessungen einen guten thermischen Kontakt aufweisen.