Docker kündigt RunC an

Zentrales Thema der Keynote, sowie in einem Interview von/mit Docker CEO Ben Golub auf Dockers Entwicklertreffen war ein klares Bekenntnis von Docker zu Open Source unter anderem mit der Ankündigung, einen Großteil der Docker-Infrastruktur in Form der portablen Docker-Laufzeitumgebung runC dem Open Container Projekt zu spenden.

Open Containers Project

Dieses war von wenigen Tagen unter dem Dach der Linux Foundation von mehr als 20 Unternehmen mit dem Ziel gegründet worden, allgemeine Spezifikationen für Container-Formate und Laufzeitumgebungen zu definieren. Zu den Gründen gehören neben der Docker Inc. auch Microsoft, Red Hat, VMware, EMC, Google, Pivotal, AWS, Cisco, HP, IBM, Intel, CoreOS,  Fujitsu Limited, Goldman Sachs, Huawei,  Joyent, Mesosphere, Apcera und Rancher Labs,

Docker goes Open Source

Golub  argumentierte die Entscheidung damit, dass ohnehin gut fünfzig Prozent der Docker-Infrastruktur aus kleinen Tools bestünden, welche viele der für Dockers  Container-Technik essenzielle Aufgaben nach Ansicht von Docker einfach und verlässlich erledigten und ohne die die Kommunikation von Betriebssystemfunktionen wie  systemd oder iptables nicht möglich wäre.

Genau diesen Teil der Docker- Infrastruktur hat Docker nun in Form von runC  in das Anfang des Monats gegründete  Open Containers Project (OCP) eingebracht, das auf auf  GitHub gehostet ist.

Portabler Container Standard

RunC ist portabel und in der Lage, einen standardisierten Container zu schaffen, der „überall“ lauffähig ist, unter Linux ebenso, wie unter Windows 10 oder Windows Server 2016. Microsoft ist bekanntlich gerade damit befasst, native Unterstützung für Windows-Container zu implementieren.

Dass RunC nicht auf den Docker-Daemon zurückgreift, bietet neben der angestrebten Universalität weitere Vorteile, etwa dass nach einer Aktualisierung von Docker nicht mehr sämtliche  Container neu gestartet werden müssten.  RunC unterstützt Linux-Namensräume, Control Groups, sowie SELinux und AppArmor.

Außerdem soll es künftig abgesehen von Linux noch weitere Plattformen für Docker geben, neben Windows künftig auch  ARM, Power und Sparc, an deren Unterstützung  ARM, Intel, Qualcomm und IBM gerade tüfteln. RunC können so gemeinsam mit zusammen mit appc eine Basis für einen allgemeinen Container-Standard unter der Obhut der Linux Foundation  werden.

Korrektes FET-Timing in synchronen Abwärtswandlern

Es gibt zwei Zustandswechsel während einer Schaltperiode: das Einschalten des Low-seitigen Schalters und das Einschalten des High-seitigen Schalters.

Kritisch ist das Einschalten des Low-seitigen Schalters, da dieser Zustandswechsel nahezu ohne Verluste erfolgt. Nach dem Abschalten des High-seitigen Schalters sorgt der Strom in der Drossel dafür, dass die Spannung am Schaltknoten verlustfrei auf das Massepotenzial gezogen wird. Das Ende dieses Zustandswechsels ist der beste Zeitpunkt zum Einschalten des Low-seitigen Schalters.

Es ist unkritisch, wenn die Body-Diode kurzzeitig leitend ist, bevor der Low-seitige Schalter einschaltet, da hieraus keine Sperrverzögerungsverluste entstehen. Außerdem werden überschüssige Ladungsträger in der Sperrschicht vor dem nächsten Zustandswechsel abgebaut. Allerdings kommt es zu einem übermäßigen Leitungsverlust, wenn der Strom in der Body-Diode übermäßig lange bestehen bleibt.

Das Timing für den Einschaltvorgang des High-seitigen FET ist deshalb auf den Zustandswechsel ausgerichtet.. Zu frühes Einschalten würde zu Shoot-Through-Verlusten durch Querströme über den Low-seitigen FET führen. Zu spätes Einschalten wiederum hat zusätzliche Leitungsverluste zur Folge und injiziert überschüssige Ladungsträger in die Body-Diode des Low-seitigen FET, die dementsprechend abgebaut werden müssen. Ob zu früh oder zu spät – beides geht zu Lasten des Wirkungsgrads.

Bild 1: Zu frühes Einschalten des high-seitigen Schalters hat Shoot-Through-Ströme zur Folge Bild 1: Zu frühes Einschalten des High-seitigen Schalters hat Shoot-Through-Ströme zur Folge

Um den Wirkungsgrad als Funktion des Einschaltens zwischen den beiden Treibersignalen zu charakterisieren, entwickelte ich Stromversorgungen, bei denen sich die Verzögerung der Treibersignale verstellen lässt. Die Bilder 1 bis 3 zeigen die Ergebnisse meiner Auswertung der Effizienz als Funktion der Verzögerungszeiten.

Der in Bild 1 gezeigte Verlauf ist zu beobachten, wenn der High-seitige FET einschaltet, bevor der Low-seitige FET vollständig abgeschaltet hat. Ein erweiterter Miller-Bereich zeigt sich bei der Gate-Ansteuerung des Low-seitigen FET, wenn der Low-seitige und der High-seitige FET gleichzeitig leitend sind und es dadurch zu Shoot-Through-Strömen im Leistungsteil kommt. Schaltet der Low-seitige FET schließlich ab, kommt es zu zusätzlichen Spannungs-Überschwingern am Schaltknoten.

Bild 2: Verzögert sich das Einschalten des high-seitigen Schalters, wird die Body-Diode leitend Bild 2: Verzögert sich das Einschalten des high-seitigen Schalters, wird die Body-Diode leitend

In Bild 2 wird der High-seitige FET eingeschaltet, nachdem der Low-seitige FET abgeschaltet hat und sich in der Body-Diode bereits ein Strom aufgebaut hat. Schaltet der High-seitige FET nun ein, stößt er den Erholungsvorgang der Body-Diode an und man sollte erwarten, dass eine Stromspitze die Spannung am Schaltknoten zum Schwingen bringt. Dass es hierzu nicht kommt, ist der extrem kurzen Sperrverzögerungszeit (12 ns) der verwendeten MOSFET-Body-Diode zu verdanken. Langsamere Body-Dioden würden tatsächlich ein erhebliches Schwingen verursachen.

 

Bild 3: Hier ist das optimale Timing zu sehen, das den Wirkungsgrad verbessert und die Belastung für die Bauelemente verringert Bild 3: Hier ist das optimale Timing zu sehen, das den Wirkungsgrad verbessert und die Belastung für die Bauelemente verringert

Der beste Wirkungsgrad stellt sich bei den in Bild 3 gezeigten Verhältnissen ein. Die Low-seitige Gate-Spannung geht hier beinahe auf das Massepotenzial zurück, bevor der High-seitige Schalter eingeschaltet wird. Der High-seitige Schalter wird eingeschaltet, bevor die untere Body-Diode leitend wird, sodass sich das Schwingen am Schaltknoten auf ein Mindestmaß beschränkt.

Bild 4 zeigt die Wirkungsgradkurve für die Leistungsstufe eines mit 300 kHz getakteten Wandlers mit 12-V-Eingangsspannung und einer Ausgangsspannung von 1 V/15 A, wenn das Einschalten der Gate-Ansteuerung variiert wird. Auf der linken Seite wird der High-seitige Schalter zu früh eingeschaltet wie in Bild 1, während das Einschalten rechts zu spät erfolgt (Bild 2). Der links erkennbare steile Abfall des Wirkungsgrads ist auf die Shoot-Through-Ströme im Leistungsteil zurückzuführen.

Bild 4: Diese Kurve macht die drastischen Auswirkungen des Treiber-Timings auf den Wirkungsgrad deutlich Bild 4: Diese Kurve macht die drastischen Auswirkungen des Treiber-Timings auf den Wirkungsgrad deutlich

Die (flacher verlaufende) Abnahme der Effizienz auf der rechten Seite hat zwei Ursachen, nämlich Leitungsverluste und Sperrverzögerungsverluste in der Body-Diode des Low-seitigen FET. Während die Body-Diode leitend ist, fällt an ihr eine Spannung von etwa 0,7 V ab. Während dieser Zeit errechnet sich der maximal erreichbare Wirkungsgrad der Stromversorgung näherungsweise gemäß Gleichung 1:

Gleichung 1 Gleichung 1

Wenn die Diode in jeder der 3 µs dauernden Schaltperiode für eine Zeitspanne von 50 ns leitend ist, wirkt sich dies mit rund 1,2 % auf den Gesamtwirkungsgrad aus. Bei der hier vorliegenden Leistungsstufe ist der Sperrverzögerungsverlust irrelevant, da MOSFETs mit kurzen Sperrverzögerungszeiten von 12 ns verwendet werden.

Zusammenfassend ist zu sagen, dass ein korrektes Einschalten der Gate-Treibersignale entscheidend für die Maximierung des Wirkungsgrads von synchronen Buck-Schaltreglern ist. Das Timing sollte so gestaltet sein, dass die Body-Diode des Low-seitigen FET nur für eine möglichst kurze Zeitspanne leitend ist. Das Einschalten des High-seitigen FET ist der kritischste Zustandswechsel und sollte erst dann erfolgen, wenn der Low-seitige FET vollständig abgeschaltet hat. Auf diese Weise werden die Schaltverluste minimiert, und auch das Schwingen der Spannung während des Zustandswechsels verringert sich.

Fehlerbehebung bei der Clientanbindung

Binden Sie Domänencontroller oder andere besonders abgesicherte Server an SCOM an, erhalten Sie beim Klicken auf Verwaltung\Verwalteter Agent teilweise Fehlermeldungen bei der Anbindung. Diese äußern sich mit einer Warnung des installierten Agenten.

Ist das bei Ihnen der Fall, müssen Sie die Konfiguration nacharbeiten. Sie sehen diesen Fehler auch bei Überwachung\Ermitteltes Inventar.

Die Einstellungen, die Sie ändern müssen, finden Sie direkt auf dem angebundenen Server. Öffnen Sie auf diesem das Verzeichnis eine Eingabeaufforderung, und wechseln Sie in das Verzeichnis in das der SCOM-Agent installiert ist, zum Beispiel Programme\Microsoft Monitoring Agent\Agent. Geben Sie den Befehl hslockdown – l ein.

Sie sehen welche Benutzer Recht haben, den Agent zu verwenden. Erscheint für einen Server in der SCOM-Konsole ein Fehler, erhalten Sie normalerweise durch diesen Befehl die Information, dass der Benutzer System auf dem Server kein Recht für den Agenten hat. 

Um dem Systembenutzer die notwendigen Rechte zu erteilen, verwenden Sie den Befehl

Hslockdown <Verwaltungsgruppe> /r „NT Authority\System“

Lassen Sie sich die Liste erneut anzeigen, sollte der Benutzer von der Verweigerungsliste entfernt worden sein. 

Rufen Sie danach mit services.msc die Verwaltung der Systemdienste auf. Starten Sie den Dienst Microsoft Monitoring Agent neu. Überprüfen Sie nach dem Neustart erneut mit hslockdown – l die notwendigen Rechte. Der Server sollte jetzt überwacht werden.

Benutzerrollen in SCOM verwalten

Über Verwaltung\Sicherheit\Benutzerrollen, können Sie die Rechte von Administratoren im SCOM-Netzwerk delegieren. Hier sehen Sie bereits zahlreiche Standard-Gruppen, deren Einstellungen Sie an dieser Stelle anpassen können. Sie haben hier aber auch die Möglichkeit eigene Benutzerrollen anzulegen und Gruppen aus dem Active Directory zuzuweisen.

Mit den Rechten steuern Sie zum Beispiel welche Administratoren Warnungen anzeigen dürfen, für welche Server sie zuständig sind und mehr. Auch das Ändern des Status von Warnungen können Sie über die Benutzerrollen steuern. 

Sobald Sie eine neue Benutzerrolle angelegt haben, erscheint ein Assistent, mit dem Sie festlegen welche Benutzerkonten Mitglied sind und welche Rechte die Benutzer haben. Im Assistenten legen Sie auch fest welche Server mit der neuen Rollengruppe verwaltet werden darf.

Natürlich dürfen Sie auch festlegen, welche Rechte die Administratoren genau auf den angebundenen Servern haben. Auch die verschiedenen Ansichten der Benutzer können Sie an dieser Stelle festlegen. Die kompletten Einstellungen werden über den Assistenten gesteuert. Die Einrichtung können Sie jederzeit anpassen.

Docker 1.7

Die wohl wichtigste Neuerung in Docker 1.7, das wie gewohnt unter Github downloadbar ist besteht darin, dass die Entwickler den Network-Stack komplett neu implementiert haben. Diese und weitere Neuerungen wie der ebenfalls neu geschriebene Code zum Einbinden von Laufwerken sind Teil des libnetwork-Projekts von Docker.

Darüber hinaus haben die Entwickler die Container-Engine überarbeitete, sowie einige neue Flags für den Build-Prozess implementiert, wie z. B. die Schalter

–cgroup-parent,–cpu-period,–cpu-quota,–cpuset-cpus oder—cpuset-mem, mit denen sich die

Ressourcenverwaltung beeinflussen lässt.

Weitere Neuerungen

Einige weitere Neuerungen sind auch bei der Laufzeitumgebung selbst zu finden. So unterstützt Docker jetzt unter anderem das Dateisystem ZFS. Ferner können Anwender nun UTS-Namensräume mit

docker run –uts=host

mit dem Host teilen. Weitere Neuerungen finden sich im Änderungsprotokoll.

BSI veröffentlicht Papier zu Betrieb und Sicherheit von OwnCloud

Das Papier des BSI ist ab sofort als PDF auf der Webseite des BSI downloadbar. Es beschreibt auf knapp 30 Seiten den Funktionsumfang von OwnCloud, zeigt mögliche Risiken auf und liefert passende Sicherheitsmaßnahmen, diese zu minimieren. Der Leitfaden ermögliche so laut Aussage des BSI Unternehmen den schnellen Start eines selbst betriebenen Sharing-Dienstes mit OwnCloud und helfe damit, Grenzen zwischen Organisationen oder Geräten zu überwinden.

Die Sicherheitsfeatures von OwnCloud

OwnCloud ist eine populäre Open-Source-Software zum sicheren Synchronisieren und gemeinsamen Verwenden von Dateien auf Basis der eigenen Server-Farm, bzw. im eigenen Rechenzentrum. Dabei werden Dateien auf dem Server verschlüsselt und Administratoren können den Zugriff über Richtlinien einschränken oder optional ein verschlüsseltes Dateisystem nutzen. Die Schlüssel sind ausschließlich auf den Servern der Unternehmens gespeichert, das ownCloud einsetzt und nicht etwa bei der OwnClou Inc. oder anderswo.

Erweiterte Verschlüsselungsfunktionen geplant

Laut OwnCloud-Erfinder und heutigem CTO der OwnCloud Inc. Frank Karlitschek, die ihr Geld mit einer kostenpflichtigen Enterprise-Version von OwnCloud verdient, arbeitet das Unternehmen derzeit gemeinsam mit großen Kunden daran, die Verschlüsselung und Schlüsselverwaltung flexibler zu gestalten, etwa durch das Integrieren verschiedener Key-Server, bzw. externer KeyStores oder einer erweiterten Auswahl von Verschlüsselungsalgorithmen, womit unter anderem eine Zusammenarbeit einer Zwei-Faktor-Lösung mit der Verschlüsselungstechnik von OwnCloud ermöglicht werden soll.

Warnungen verstehen und auflösen

Die einzelnen angebundenen Serverdienste melden Probleme mit Serverdiensten als Warnung. Diese sehen Sie im Bereich Überwachung\Aktive Warnungen. Klicken Sie eine Warnung mit der rechten Maustaste an, können Sie verschiedene Aufgaben durchführen, zum Beispiel die Warnung auflösen.

Bei diesem Vorgang weisen Sie der Warnung einen bestimmten Status zu. Nach diesem Status können Sie auch eigene Arbeitssbereiche erstellen, welche nur die Warnungen mit dem entsprechenden Status anzeigen. 

Auch in den Arbeitsbereichen können Administratoren den Auflösungsstatus ändern und auf diesem Weg anderen Teams zuweisen, oder den Fehler als Geschlossen konfigurieren.

Den Status der Warnungen sehen Sie auch in der Spalte Auflösungsstatus. Konfigurieren Sie eine Warnung als Geschlossen, wird diese ausgeblendet. Warnungen von Serverdiensten resultieren häufig auch zu anderen Fehlern für ganze Server oder Infrastrukturen. Rufen Sie über das Kontextmenü eines Servers oder Serverdienstes den Integritäts-Explorer auf, sehen Sie die verschiedenen Warnungen für den Server. 

Für Fehler erhalten Sie an dieser Stelle auch Hinweise, wie Sie disen lösen können. Auf der Registerkarte Statusänderungsereignisse sehen Sie den zeitlichen Verlauf des Fehlers, und wie dieser entstanden ist.

Klicken Sie auf Integrität zurücksetzen, berechnet SCOM die Integrität des Servers neu. Über die Ereignisansicht im Kontextmenü eines Servers sehen Sie weitere Informationen zum Status eines Servers.

 

Fehlerbehebung bei der Clientanbindung

Binden Sie Domänencontroller oder andere besonders abgesicherte Server an SCOM an, erhalten Sie beim Klicken auf Verwaltung\Verwalteter Agent teilweise Fehlermeldungen bei der Anbindung. Diese äußern sich mit einer Warnung des installierten Agenten.

Ist das bei Ihnen der Fall, müssen Sie die Konfiguration nacharbeiten. Sie sehen diesen Fehler auch bei Überwachung\Ermitteltes Inventar.

Die Einstellungen, die Sie ändern müssen, finden Sie direkt auf dem angebundenen Server. Öffnen Sie auf diesem das Verzeichnis eine Eingabeaufforderung, und wechseln Sie in das Verzeichnis in das der SCOM-Agent installiert ist, zum Beispiel Programme\Microsoft Monitoring Agent\Agent. Geben Sie den Befehl hslockdown – l ein.

Sie sehen welche Benutzer Recht haben, den Agent zu verwenden. Erscheint für einen Server in der SCOM-Konsole ein Fehler, erhalten Sie normalerweise durch diesen Befehl die Information, dass der Benutzer System auf dem Server kein Recht für den Agenten hat. 

Um dem Systembenutzer die notwendigen Rechte zu erteilen, verwenden Sie den Befehl

Hslockdown <Verwaltungsgruppe> /r „NT Authority\System“

Lassen Sie sich die Liste erneut anzeigen, sollte der Benutzer von der Verweigerungsliste entfernt worden sein. 

Rufen Sie danach mit services.msc die Verwaltung der Systemdienste auf. Starten Sie den Dienst Microsoft Monitoring Agent neu. Überprüfen Sie nach dem Neustart erneut mit hslockdown – l die notwendigen Rechte. Der Server sollte jetzt überwacht werden.

LinkedIn Pinot wird Open Source

Laut  Aussage von  LinkedIn-Produkt Manager Kishore Gopalakrishna werde das im Herbst 2014 erstmals vorgestellte Echtzeitanalysesystem Pinot inzwischen von mehr als 25 Analyseprodukten als Backend eingesetzt, sodass das System reif sei, von der Open-Source-Gemeinschaft weitergeführt zu werden.

SQL-ähnliche Abfragesprache

LinkedIn selbst setzt Pinot seit gut zwei Jahren als Plattform für Online-Analysen ein. Pinot bedient sich dazu aus von  Apache Hadoop und Kafka gelieferten Daten. Für Abfragen kommt eine an SQL angelehnte Sprache zum Einsatz, wobei allerdings keine Lesezugriffe möglich sind. Pinot verzichtet auch gänzlich auf table joins, damit die grundlegenden Eigenschaften Skalierbarkeit, Echtzeit-Fähigkeit und Ausfallsicherheit gewahrt bleiben.

Pinot wird derzeit auf Githib gehostet, steht aber unter einer Apache 2.0 Lizenz, was die Vermutung nahelegt, dass das Projekt irgendwann zur Apache Software Foundation umzieht.

Eine Auflistung sämtlicher gegenwärtig implementierter Funktionen steht auf der Projektseite zur Verfügung.

Umgang mit hohen di/dt-Lasttransienten

In Power-Tipp 42 haben wir über die Anforderungen für Bypass-Kondensatoren bei Lasten mit sich schnell ändernden Stromstärken gesprochen. Wir haben gesehen, dass Kondensatoren mit geringer äquivalenter Serieninduktivität (ESL) nahe an der Last platziert werden sollen, da schon eine Induktivität von weniger als 0,5 nH extreme Spannungsspitzen verursachen kann. Um diese geringe Induktivität zu realisieren, sind mehrere Bypass-Kondensatoren und mehrere Zwischenverbindungen im Prozessorgehäuse erforderlich. Sehen wir uns die Anzahl der erforderlichen Bypass-Kondensatoren bei realistischen di/dt-Anforderungen am Ausgang der Stromversorgungen an.

Bild 1: Ein einfaches P-SPICE-Modell hilft beim Systemdesign Bild 1: Ein einfaches P-SPICE-Modell hilft beim Systemdesign

Bild 1 zeigt das dieser Diskussion zugrundeliegende P-SPICE-Modell des Stromversorgungssystems. In der Darstellung sehen wir eine Stromversorgung mit Kompensationsschaltung, Modulator (G1) und Ausgangskondensator. Verbindungsinduktivität sowie ein Lastmodell mit Bypass-Kondensator, Gleichstromlast und gestuften Lasten sind ebenfalls vorhanden.

Als erstes müssen Sie entscheiden, ob Stromversorgung und Last voneinander getrennt oder als ein geschlossenes Stromversorgungsdesign behandelt werden sollen. Im zweiten Fall können Sie die Bypass-Kapazität der Last nutzen, um die Ausgangskapazität des Netzteils zu verringern und so Kosten zu sparen. Im ersten Fall können Sie Stromversorgung und Last einzeln prüfen. Unabhängig von Ihrem Konzept müssen Sie festlegen, wie viel Bypass-Kapazität an der Last erforderlich ist.

Gleichung 1 Gleichung 1

Schätzen Sie zuerst die Verbindungsinduktivität und den Widerstand zwischen Stromversorgung und Last ab. Diese Verbindungsinduktivität (LINTERCONNECT) erzeugt mit dem Bypass-Kondensator (CBYPASS) einen Tiefpassfilter. Nehmen wir an, der Ausgangswiderstand an der Stromversorgung ist gering. Verwenden Sie den charakteristischen Widerstand dieses Tiefpassfilters (ZO), die Höhe des Lastsprungs (ISTEP) und die zulässige Spannungsschwankung (dV), um die Bypassfilter-Anforderungen zu bestimmen (Gleichungen 1 und 2):

Gleichung 2 Gleichung 2
Gleichung 3 Gleichung 3

Wenn wir Gleichung 2 nach Z0 auflösen und das Ergebnis in Gleichung 1 einsetzen, erhalten wir Gleichung 3.

Interessanterweise hängt die erforderliche Kapazität vom Quadrat des Laststroms geteilt durch das Quadrat der zulässigen Störung ab. Diese beiden Faktoren müssen also sorgfältig festgelegt werden.

Die Verbindungsinduktivität kann von wenigen Zehntel nH bei Stromversorgungen nahe der Last bis zu einigen Hundert nH bei weiter entfernten Stromversorgungen reichen. Eine brauchbare Faustregel ist, dass die Verbindungsinduktivität 6 nH pro cm beträgt. Für einen Lastsprung von 10 A und ein zulässiges Überschwingen von 30 mV können die Bypass-Anforderungen von 500 µF bei 5 nH bis zu unglaublichen 50 mF bei 500 nH reichen.

Gleichung 4 Gleichung 4
Gleichung 5 Gleichung 5
Gleichung 6 Gleichung 6

 

 

 

Gleichung 7 Gleichung 7

Dieser Filter reduziert auch die Steilheit des Laststromanstiegs im Netzteil. Wenn ein verlustfreier Filter von einem Strom mit Rechteckform angesteuert wird, ist der Induktionsstrom sinusförmig. Die Anstiegsrate wird berechnet, indem die Strom-Wellenform in den Gleichungen 4–7 abgeleitet wird.

Mit einer Verbindungsinduktivität von 5 nH und einem Bypass von 500 µF erzeugt ein Lastsprung von 10 A eine Anstiegsrate von 0,2 A/µS in der Stromversorgung. Eine höhere Induktivität verringert di/dt. Die Zahlen hier sind viel kleiner als die, die Entwickler normalerweise angeben.

Bei einem Ansatz mit geschlossenem System sollten Sie die Gesamtkapazität minimieren und die Regelkreisbandbreite maximieren. Sehen wir uns jetzt einmal den Ansatz mit einzelnen Elementen an. Hier müssen Sie Stabilität der Stromversorgung einerseits ganz ohne und andererseits mit der maximal anzunehmenden Bypass-Kapazität sicherstellen. Wie bereits erwähnt kann die Verbindungsinduktivität die Anforderungen an die Bypass-Kapazität der Last erhöhen. Dies wiederum beeinflusst die Kapazität in der Stromversorgung beim Ansatz mit einzelnen Elementen. Der Wert der Lastkapazität bestimmt die untere Grenzfrequenz des Netzteils. In den Regelkreismodellen Spannungs- wie im Strommodus sind beide proportional. Sie maximieren die untere Grenzfrequenz ohne Lastkapazität, aber sobald die Last verbunden ist, fällt diese signifikant ab.

Tabelle 1: Begrenzung der Stromversorgungskosten durch Design als geschlossenes System. Tabelle 1: Begrenzung der Stromversorgungskosten durch Design als geschlossenes System.

Tabelle 1 zeigt einen Vergleich der erforderlichen Kondensatoren für drei verschiedene Verbindungsinduktivitäten in unserem Beispielsystem. Diese Daten erhält man, indem man die Verbindungsinduktivität variiert, die Last-Bypass-Kapazität berechnet und eine passende Ausgangsstufe und einen Regelkreis für das Netzteil entwirft. In Fall 1 sind Last und Netzteil nahe beieinander; in Fall 2 existiert zwischen beiden eine mittelgroße Verbindungsinduktivität. In Fall 3 liegt im System eine extrem hohe Verbindungsinduktivität vor, was für ein über lange Kabel verbundene Stromversorgung typisch ist. Die erforderliche Bypass-Kapazität hängt direkt mit der Verbindungsinduktivität zusammen.

In diesem Beispiel ist die Induktivität, und somit die Bypass-Kapazität, im 3. Fall 100x so hoch. Dies beeinflusst das Design des Netzteils, da es mit und ohne Bypass-Kondensatoren stabil sein muss. Der erste Ansatz wird sicher bevorzugt, da hier die geringste Zahl an Kondensatoren verwendet wird und er somit am kostengünstigsten ist. In Fall 2, mit einer vernünftig kontrollierten Verbindungsinduktivität, erhöht sich die Zahl der Kondensatoren leicht. Eine hohe Verbindungsinduktivität, wie in Fall 3, erzeugt jedoch ein signifikantes Kostenproblem. Die Fälle 2 und 3 bedeuten eine Vereinfachung des Tests einer Stromversorgung.

Bild 2: Spannungsüberschwingen wird bei hoher Verbindungsinduktivität zum Problem. Bild 2: Spannungsüberschwingen wird bei hoher Verbindungsinduktivität zum Problem.

Bild 2 vergleicht die Simulation der Ausgangsspannungsänderungen während Lasttransienten bei geringer und hoher Verbindungsinduktivität. Eine geringe Induktivität dämpft die Schwingung schnell, während dies bei hoher Induktivität viel länger dauert. Die Gründe hierfür sind der höhere charakteristische Impedanz und die niedrigere Resonanzfrequenz. Zudem können sehr starke und potenziell schädigende Spannungsschwankungen auftreten, wenn der Laststrom bei dieser Resonanzfrequenz pulst.

Zusammenfassend ausgedrückt erfordern hohe di/dt-Lastsprünge eine sorgfältige Auswahl der Bypasskondensatoren, um die dynamische Regelung des Netzteils aufrechtzuerhalten. Es ist also äußerst wichtig, auf eine Verbindung zu achten, die eine geringe Verbindungsinduktivität besitzt, sowohl zwischen Last und Bypass-Kondensator als auch zwischen Bypass-Kondensator und Stromversorgung. Ein Designansatz als geschlossenes System stellt die kostengünstigste Lösung dar. Viele Systemingenieure übersehen diese möglichen Einsparungen durch die Verringerung der Lastkapazität, gegenüber dem getrennten Ansatz bei dem Systemprüfungen einfacher sind.