Gebloggt: Virtuelle Netzwerkkarte reaktivieren

Nach den Tauschen der virtuellen Netzwerkkarte der virtuelle Maschine bindet z.B. Debian die neue Netzwerkkarte nicht wieder unter der bisherigen Bezeichnung, z.B: „eth0“ ein. Das gleiche Phänomen ereignet sich auch bei einer V2V-Migration, z.B. von VirtualBox auf KVM oder VMware, bzw. wenn man den Netzwerkkarten-Typ von Legacy auf virtio ändert.

Dass damit keine Netzwerkdienste mehr zur Verfügung stehen,  ist bei einem Server sagen wir mal „suboptimal“. Bei einem Univention Corporate Server beispielsweise funktioniert dann kaum noch ein Dienst sinnvoll und auch die webbbasierte Administrationsoberfläche ist dann nicht mehr verfügbar.

Das Verhalten ist eigentlich plausibel und die Lösung liegt nahe. Man loggt sich lokal an der Konsole ein, sucht in den Log-Dateien der VM nach der zuvor verwendeten MAC-Adresse und trägt diese Host-seitig beim verwendeten Netzwerk-Interface ein. Ansonsten erzeugen Virtualisierungs-Manager wie Virt Manager oder VMware Player die MAC-Adresse bei einem neuen Netzwerkinterface generisch.

Noch einfacher ist allerdings folgender Tipp: Bei aktuellen Linux-Distributionen erfolgt die Zuordnung der Netzwerkkarte an eine physische Hardwareadresse in der Datei /etc/udev/rules.d/70-persistent-net.rules. Durch einfaches Löschen bringt man Linux dazu, die Konfiguration beim nächsten Systemstart einfach neu zu erzeugen. Debian generiert dann eine neue /etc/udev/rules.d/70-persistent-net.rules auf Basis der neuen MAC-Adresse(n) und verfügt dann automatisch wieder über ein eth0-Device.

PS: Bekanntlich kann ein Univention Corporate Server auch selbst als Xen- oder KVM-Virtualisierungs-Host dienen. Alles was man z.B. über das Einrichten virtueller Netzwerkkarten wissen muss, findet sich in der  Univention-Doku. Das ist aber ein komplett anderes Thema und hat mit o.g. Sachverhalt nichts zu tun. Wollte nur noch mal auf die Vielseitigkeit von UCS hinweisen.

Gebloggt: Google dockt Docker an

Docker hat sich innerhalb nur eines Jahres von einem völlig unbekannten Projekt zur derzeit wichtigsten Technologie im Bereich der Container-Virtualisierung entwickelt. Die gleichnamige Firma Docker konnte binnen eines Jahres rund 15 Millionen US-Dollar Risikokapitel zusammentragen, wobei zahlreiche Player der IT-Branche in Docker investieren oder in der einen oder anderen Form mit Docker kooperieren.

Docker und Red Hat

So hatte zum Beispiel Red Hat auf dem kürzlich in San Francisco über die Bühne gegangenen Red hat Summit unter anderem sein „Project Atomic“ vorgestellt, ein Gemeinschaftsprojekt mit Docker, das die Entwicklung eines Betriebssystems zur Verwendung von Docker-Containern unter der Bezeichnung „Red Hat Enterprise Linux Atomic Host“ zum Ziel hat. Hierbei sollen CentOS, Fedora und RHEL die Technologie und Komponenten für das neue Betriebssystem liefern. Schon seit September letzten Jahres arbeiten Docker und Red Hat zusammen, um Docker unter anderem in Red Hats OpenShift-Platform-as-a-Service einzubinden.

Docker

Seit letztem Anfang diesen Monats liegt die Software zum Verpacken, Ausliefern und umgebungsunabhängigen Ausführen von Applikationen in unter Linux laufende virtuelle Container in einer aktualisierten Version 0.11 vor und befindet sich damit laut Aussage der Entwockler auf der Zielgraden zur ersten stabilen Version 1.0.

Container-optimized Google Compute Engine images

Die Stabilität von Docker hat mittlerweile einen Stand erreicht, dass sich auch anderen IT-Riesen der Unterstützung für Docker als eine der derzeit populärsten Technologien nicht mehr entziehen können. So kommt jetzt auch Google dem allgemein großen Interesse an Docker nach und hat ein offene Preview-Version von Docker-Containern für die virtuellen Maschinen seiner Compute Engine  angekündigt. Diese erweitern die Open-Source-Version von Googles eigenem Container-Stack Let Me Contain That For You (LMCTFY).  Google selbst kennzeichnet die jetzt angekündigte Preview als „Container-optimiertes OS-Image“. Diese enthält eine Version von Debian 7, eine Laufzeitumgebung von Docker, sowie einen Open-Source-Agent zum Verwalten der Container. Ein Container-VM-Image wird im Prinzip genauso spezifiziert, wie jedes andere Google Compute Engine Image und wird über den Parmeter –image angegeben:

gcloud compute instances create instance-name
  –image projects/google-containers/global/images/container-vm-v20140522
  –zone us-central1-a
  –machine-type f1-micro

Die beim Systemstart aufgerufenen Container werden überwacht und bei einen Ausfall automatisch neu gestartet. Der Docker-Support hat derzeit noch experimentellen Charakter. Google weist ausdrücklich darauf hin, dass es durchaus noch zu weitreichenden Änderungen in späteren Versionen kommen kann, die dann mit dem jetzigen Stand nicht kompatibel wären. Daher gibt es auch noch keine Service Level Agreements für die offene Preview.

Buchvorstellung: „Simulation in LTspice IV“

Das Buch „Simulation in LTspice IV – Handbuch, Methoden und Anwendungen“ von Gilles Brocard ist eine Art lebendige Bedienungsanleitung für die Simulationssoftware LTspice IV von Linear Technology. Es werden alle Funktionen, Menüs und Buttons der Software erklärt und Arbeitsbeispiele und Simulationen gezeigt und erklärt.

Dieses Buch richtet sich an alle LTspice-Nutzer: Vom Anfänger bis zum Profi, der mit der Entwicklung umfangreicher Schaltungen befasst ist. Herausgegeben wurde das Benutzerhandbuch von Würth Elektronik.  Das schwergewichtige Werk im Hardcover umfasst 766 Seiten und kostet 49 € inklusive Mehrwertsteuer. Wir verlosen fünf Bücher.

Seit über 20 Jahren ist LTspice IV die Simulationssoftware schlechthin. Unglücklicherweise ist die Hilfe-Datei die einzige Dokumentation zu dieser Software. Sie ist unvollständig und weit hinter dem Entwicklungszustand der Software zurück. Viele Befehle und Funktionen sind nicht oder nur unzureichend erklärt. Deshalb sind oft nur Fachforen im Internet die letzte Rettung bei Fragen und Problemen mit der Software.

 Gilles Brocard: Simulation in LTspice IV
Gilles Brocard: Simulation in LTspice IV

Gilles Brocard schließt  nun diese Lücke. Das Werk erklärt die Funktionen der Software umfassend. Es werden die fünf wichtigsten Editoren in LTspice IV beschrieben und deren Ausführung und der Betrieb der Software erklärt. In den darauf folgenden Kapiteln erläutert der Autor die Definitionen und Befehle – die so genannten Simulationsdirektiven – ausführlich und veranschaulicht diese mit Beispielen.

Kapitel 12 behandelt das Herunterladen von SPICE-Modellen und Teilschaltungen sowie die Generierung von Symbolen für die nachfolgende Verwendung. Quellen, passive, aktive und Spezialbauteile und deren Konfiguration sind Gegenstand der Kapitel 13 bis 16. In Kapitel 17 dreht sich alles um Speicherdrosseln und Transformatoren. Hierfür bietet LTspice IV ein nichtlineares Modell, das auch Sättigung und Hysterese berücksichtigt.

Kapitel 18 legt den Schwerpunkt auf das Control Panel. Hierbei handelt es sich um ein echtes Dashboard, das alle LTspice IV-Einstellungen zugänglich macht. Kapitel 19 ist eine Sammlung von Anwendungsbeispielen aus verschiedenen Feldern der Elektronik. In Kapitel 20 werden häufig auftretende Fragen beantwortet, die dem Autor bei seinen Schulungen häufig gestellt wurden. Kapitel 21 behandelt schließlich das Design von Schaltnetzteilen mit Standard-Transformatoren mit flexibler Ein- und Ausgangsspannung.

Sie wollen ein Buch gewinnen? Dann schreiben Sie eine E-Mail mit dem Betreff „LTspice Buch“. Einsendeschluss ist der 13. Juni 2014.

Der Autor: Der Franzose Gilles Brocard (Jahrgang 1952) spezialisierte sich nach seinem Studium der Mathematik und Elektrotechnik auf den Entwurf von DC/DC-Schaltnetzteilen. In diesem Bereich arbeitete er über 20 Jahre. Heute ist er als freiberuflicher Ingenieur tätig und schreibt Studien und Analysen für Unternehmen und hält Spice-Seminare. Er hat mehrere Bücher verfasst, unter anderem über die elektronische Antriebssteuerung von Flugzeugen, über passive Bauelemente und den LTspice IV Simulator.

Stromversorgung für sensible HF-Bauteile

Die Antwort auf diese Frage lässt sich im Wesentlichen in Abhängigkeit von zwei Rahmenbedingungen finden. Welche Versorgungsspannung steht zur Verfügung und wie empfindlich ist das HF-Bauteil gegenüber Störungen wie etwa Spannungswelligkeit bei unterschiedlichen Frequenzen?

Die Versorgungsspannung hat in allen nicht batteriebetriebenen Anwendungen einen stark störbehafteten Ursprung. Ein AC/DC-Wandler generiert eine Spannungsversorgung, welche üblicherweise noch erhebliche Spannungswelligkeit aufweist. In vielen Anwendungen wird diese Spannung mit einem DC/DC-Wandler in die Nähe der benötigten Betriebsspannung des HF-Bauteils gebracht.

Der Schlüssel für eine saubere Spannung liegt somit in der Filterung. Hierfür gibt es verschiedene Möglichkeiten. Es kann ein Schaltregler mit mehreren RC- oder LC-Filtern als Tiefpassfilter verwendet werden. Mit dieser Lösung erhält man eine sehr hohe Leistungseffizienz. Bild 1 zeigt im oberen Teil eine Schaltung mit einem Schaltregler, zwei zusätzlichen LC-Filterstufen -(Induktivität und Kapazität), um eine Spannung mit einer Spannungswelligkeit von nur wenigen µA Spitze / Spitze zu generieren.

 Bild 1: Oben Schaltregler mit passivem Filter, unten Schaltregler mit Linearregler
Bild 1: Oben Schaltregler mit passivem Filter, unten Schaltregler mit Linearregler

Bild 1 zeigt einen Abgriff der Feedbackspannung vor den zusätzlichen LC-Filterstufen. Hier ist darauf zu achten, dass die DC-Regelgenauigkeit der Ausgangsspannung innerhalb der Spezifikation liegt. Für eine hohe DC-Genauigkeit der Ausgangsspannung kann die Feedbackspannung nach den zusätzlichen Filterstufen abgegriffen werden. Hierbei ist aber bei der Auswahl der Werte des LC-Filters auch auf die Stabilität der Regelschleife zu achten.

Eine solche Schaltreglerlösung erfordert ein optimiertes Platinenlayout, damit sich durch die sehr schnellen Schaltflanken keine Störungen in den RF Teil des Systems einkoppeln.

Unten in Bild 1 ist eine Lösung mit einem Linearregler als Filter gezeigt. Mittlerweile gibt es ganze Linearregler-Produktfamilien, welche in erster Linie nicht für eine simple Spannungsregelung ausgelegt sind, sondern auf ihre Fähigkeit, Spannungswelligkeit und Störungen einer Versorgungsspannung, möglichst gut herauszufiltern. Der neue ADM7150 von Analog Devices beispielsweise bietet einen Versorgungsspannungsdurchgriff (PSRR) von 100 dB. Dies entspricht einer Spannungsdämpfung um den Faktor 100 000. Eine Spannungswelligkeit von 20 mV am Eingang des Linearreglers wäre dann am Ausgang nur noch mit 200 nA vorhanden.

Die Filterfähigkeit eines Linearreglers ist stark abhängig von der jeweiligen Frequenz der Störung. Bild 2 zeigt den PSRR eines ADM7150 bei einer  Eingangsspannung von 5 V und einer eingestellten Ausgangsspannung von 3,3 V über den gesamten Frequenzbereich von 5 Hz bis 10 MHz. Neben der Frequenzabhängigkeit besteht auch eine Lastabhängigkeit. Diese ist besonders bei niedrigen Frequenzen bis ca. 2 kHz relevant. Je geringer der Laststrom, desto besser das PSRR-Verhalten.

 

 Bild 2: Versorgungsspannungsdurchgriff (PSRR) eines Linearreglers (ADM7150) bei Uin = 5 V und Uout = 3,3 V
Bild 2: Versorgungsspannungsdurchgriff (PSRR) eines Linearreglers (ADM7150) bei Uin = 5 V und Uout = 3,3 V

Bei der Auswahl eines passenden Linearreglers für Filteraufgaben ist also nicht nur der Eingangsspannungsbereich und die maximale Stromfähigkeit entscheidend, sondern vor allem die PSRR-Spezifikation sowie weitere relevante Eigenschaften wie das selber generierte Rauschen und die daraus resultierende Rauschdichte (Noise Spectral Density).

Moderne Linearregler für diese Anwendungen sollten also ein umfassendes Datenblatt bieten, in welchem diese wichtigen Parameter in unterschiedlichen Betriebsbedingungen angegeben sind. Besonders die Angabe von Parametern in einem breiten Frequenzspektrum ist essentiell.

Ob nun eine Spannungsversorgung mit einem Schaltregler und nachgeschalteten LC-Filtern oder eine Spannungsversorgung mit Schaltregler und nachgeschaltetem Linearregler die bessere Lösung ist, hängt von der benötigten Leistungseffizienz ab. Ein LC-Filter kann aufwändiger in der Entwicklung sein, hat einen höheren Platzbedarf und gewöhnlich höhere Kosten. Ein Linearregler muss für bestes Verhalten bei Filteraufgaben mit genügend Spannungsabfall zwischen Eingangs- und Ausgangsspannung betrieben werden, welches zu erhöhten Energieverlusten führt.

Bidirektionale High-Side Strommessschaltung

Dieser Analogtipp beschreibt eine bidirektionale, resistive High-Side Strommessschaltung für Industrie-Anwendungen. Ein Shunt-Widerstand mit niedrigem Widerstandswert befindet sich in Reihe mit der Last, deren Strom gemessen werden soll. Am Shunt fällt eine Spannung ab, die sich proportional zum Strom durch den Widerstand verhält.

 Bild 1: Schaltung zur bidirektionalen, resistiven High-Side-Strommessung, die eine massebezogene, gepufferte Ausgangsspannung liefert
Bild 1: Schaltung zur bidirektionalen, resistiven High-Side-Strommessung, die eine massebezogene, gepufferte Ausgangsspannung liefert

Die Schaltung unterdrückt die hohe Gleichtaktspannung des Akkus, verstärkt den kleinen Spannungsabfall und liefert eine massebezogene, gepufferte Ausgangsspannung, die mit einem A/D-Wandler in Power-Management-Anwendungen verwendet werden kann. Die Amplitude der Ausgangsspannung gibt Aufschluss über die Höhe des Laststromes; ihre Polarität gibt die Richtung an.

Diese Technik kann die Lade- und Entladeströme von Akkus beliebigen Typs überwachen und dem Power-Management-System genug Information liefern, um das Ladeprofil zu steuern. Falls der Strom außerhalb der Spezifikation liegt, sinkt die Akkulebensdauer und die Ausfallzeiten von Geräten steigen.

Unabhängig davon, ob der Akku geladen oder entladen wird, wird der Strom des Akkus durch den Ausgang UOUT überwacht. Beim Laden sinkt UOUT unter UREF, die Spannung am REF-Pin, ab. Beim Entladen in die Last steigt UOUT über UREF an. Mit einer 5-V-Stromversorgung liefert der Teiler eine 2,5-V-Referenz, die den Ausgang über Massepotenzial vorspannt. Der Ausgang steigt über 2,5 V, wenn Strom in die Last hinein fließt und sinkt unter 2,5 V, wenn Strom in den Akku fließt. Der Verstärker liefert eine Verstärkung von 20 V/V an die Spannung über dem Shunt-Widerstand. Die Übertragungsfunktion der Schaltung wird somit

Der driftfreie Präzisionsverstärker AD8218 weist eine feste Verstärkung von 20 V/V auf. Dies ermöglicht den Einsatz eines sehr kleinen Messwiderstands in einer Hochvolt-Versorgungsleitung. Zum Beispiel produziert ein 10-mΩ-Shunt mit einer Stromänderung von 2 A in jeder Richtung eine Ausgangsspannung von ±400 mV. Der für den Shunt gewählte Wert hängt vom Laststrombereich der Anwendung ab und ist ein Kompromiss aus Kleinsignalgenauigkeit und maximal zulässigem Spannungsabfall.

Die Spannung am REF-Pin wird aus Gründen der Einfachheit über einen Widerstandsteiler auf eine mittlere Versorgungsspannung (2,5 V) eingestellt. In der Praxis sollte ein Puffer zwischen Teiler und REF-Pin verwendet werden, um sicherzustellen, dass die angelegte Spannung aus einer Quelle mit niedriger Impedanz stammt. Andernfalls erzeugt die Last des internen Widerstands einen Fehler und das Potenzial am REF-Pin wird nicht wie erwartet auf der mittleren Versorgungsspannung liegen.

Die Schaltung eliminiert nicht nur Massestörungen, sondern spürt auch versehentliche Kurzschlüsse zwischen Akku und Systemmasse auf. In diesem Fall beträgt die Ausgangsspannung 0 V.

Autor: Chau Tran, Analog Devices

Drei einfache Topologien für Split-Rail-Stromversorgungen

Eine einfache Methode ist in Bild 1 dargestellt. Hier wurden eine Ladungspumpe und ein Aufwärtswandler integriert. Während der Aufwärtswandler eine geregelte positive Ausgangsspannung bereitstellt, erzeugt die Ladungspumpe die negative Spannung. Wenn der MOSFET Q1 abschaltet, lädt sich der Kondensator C4 über D4 auf eine Spannung auf, die um einen Dioden-Spannungsabfall über der Ausgangsspannung liegt. Sobald Q1 einschaltet, entlädt sich C4 über D3 an den Ausgangskondensator C3. D1 und D2 fügen einen Dioden-Spannungsabfall zur Spannung an C4 hinzu, um die Spannungs-abfälle an D3 und D4 in der Ladungspumpe zu kompensieren.

Lässt man D1 weg, ist die Ausgangsspannung von –12 V vom Betrag her um einen Dioden-Spannungsabfall geringer als die Ausgangsspannung von +12 V. Bei dieser Schaltung muss die Belastung des positiven Ausgangs größer oder gleich der des negativen Ausgangs sein, da sonst am negativen Ausgang eine übermäßige Welligkeit zu beobachten ist.

Wird beispielsweise die Last am positiven Ausgang ganz entfernt, stellt die Stromversorgung das Schalten ein und die Spannung am Ausgangskondensator des negativen Ausgangs fällt bis zum nächsten Schaltzyklus langsam ab.

Auf-/Abwärtswandler-Schaltung mit Buck Controller

 Bild 2: Mithilfe einer gekoppelten Induktivität liefert dieser Abwärts-/Aufwärts-Wandler zwei Ausgangsspannungen (Bild: TI) Bild 2: Mithilfe einer gekoppelten Induktivität liefert dieser Abwärts-/Aufwärts-Wandler zwei Ausgangsspannungen (Bild: TI)

Ein alternativer Ansatz mit einer gekoppelten Induktivität ist in Bild 2 zu sehen. Die Schaltung kann über einen weiten Ein- und Ausgangsspannungsbereich eingesetzt werden. Sie setzt außerdem nicht zwingend voraus, dass die Ausgangsspannung größer als die Eingangsspannung ist.

In einer Auf-/Abwärtswandler-Schaltung kommt hier ein Buck-Controller mit integriertem FET zum Einsatz. Dieser Controller ist auf die negative Ausgangsspannung bezogen, läuft aber über die Ausgangsdiode D2 an. Sobald sich in der Primärwicklung des Leistungsübertragers ein Strom aufbaut, wird die negative Spannung reduziert.

Geregelt wird in dieser Schaltung die Summe aus der positiven und der negativen Ausgangsspannung. Verglichen mit der Regelung nur einer Spannung sorgt dies für verbesserte Regeleigenschaften. Regelt man nur eine Spannung, kann bei dieser eine hohe Regelgenauigkeit erzielt werden. Bei der anderen Spannung dagegen können Schwankungen um ±10 % auftreten. Das hier gewählte Regeln der Summe beider Spannungen bewirkt bei beiden eine Schwankungsbreite von ±5 %.

Die Rückleitung des Reglers über den negativen Ausgang hat sowohl Vor- als auch Nachteile. Einerseits kann hierdurch der Differenzverstärker entfallen, der notwendig wäre, wenn die Rückleitung mit der Masse verbunden wäre. Andererseits macht dies eine Pegelumsetzung an Signalen wie Power Good und Enable sowie den Takten erforderlich.

Entschieden werden muss beim Design dieser Schaltung ebenfalls, ob sie stets mit einem kontinuierlichen (nicht lückenden) Strom in der Induktivität arbeiten soll.

Für den nicht lückenden Betrieb wird D2 sowie möglicherweise auch D1 häufig durch MOSFETs ersetzt, wodurch der Strom während des 1-D-Off-Intervalls in umgekehrter Richtung fließen kann. Wird D1 nicht durch einen FET ersetzt und beträgt das Windungsverhältnis des Übertragers 1:1, ist die positive Ausgangsspannung vom Betrag her um ungefähr einen Dioden-Spannungsabfall geringer als die negative.

Während der höhere Wirkungsgrad und die besseren Kreuzregelungs-Eigenschaften klar für den nicht lückenden Betrieb sprechen, schlagen die höhere Komplexität und die Mehrkosten bei dieser Betriebsart negativ zu Buche.

Design einer isolierten, bipolaren Stromversorgung

 Bild 3: Diese Flybuck-Schaltung mit einer gekoppelten Induktivität stellt einen nicht isolierten Ausgang und zwei isolierte Ausgänge bereit. (Bild: TI) Bild 3: Diese Flybuck-Schaltung mit einer gekoppelten Induktivität stellt einen nicht isolierten Ausgang und zwei isolierte Ausgänge bereit. (Bild: TI)

Das in Bild 3 dargestellte, einfache Design einer isolierten bipolaren Stromversorgung wird als Flybuck-Wandler bezeichnet. Im vorliegenden Fall wird eine primärseitig geregelte Ausgangsspannung von 12 V erzeugt, von der sekundärseitig Ausgangsspannungen von ±15 V abgeleitet werden.

Ein synchroner Betrieb ist die Voraussetzung für das Aufrechterhalten der Regelung, wenn am 12-V-Ausgang keine Last liegt, während die sekundärseitigen Ausgänge belastet sind. Im synchronen Betrieb kann der Strom in der Primärwicklung das Vorzeichen wechseln, um die Ansammlung von Ladung im Ausgangskondensator zu verhindern und ein Peaking zu vermeiden.

Die Regelung auf der Primärseite bleibt ununterbrochen bestehen, während die sekundärseitige Regelung den 1-D-Abschnitt der Schaltperiode nutzt. Während dieser Zeit wird die Spannung an der Primärwicklung auf 12 V geklemmt und die sekundärseitigen Spannungen werden anhand des Windungsverhältnisses bestimmt. Die Schaltung kommt über einen weiten Lastbereich hinweg auf eine sekundärseitige Regelgenauigkeit von ±10 %.

Auswahl der richtigen Topologie

 Tabelle 1: Die Anforderungen in Sachen VIN/VO und Isolation können als Auswahlkriterien bei der Ermittlung der richtigen Topologie dienen (Bild: VBM-Archiv) Tabelle 1: Die Anforderungen in Sachen VIN/VO und Isolation können als Auswahlkriterien bei der Ermittlung der richtigen Topologie dienen (Bild: TI)

Tabelle 1 gibt eine Übersicht über die Kriterien zur Auswahl der richtigen Topologie. In vielen Fällen kommt die Ladungspumpe als kostengünstigste Option in Frage. Werden jedoch über einen großen Lastbereich gute Regeleigen-schaften gewünscht, sollten die beiden anderen Verfahren in Erwägung gezogen werden. Da es sich bei der Flybuck-Schaltung im Prinzip um einen Abwärtswandler mit gekoppelter Induktivität handelt, ist das Verhältnis zwischen der Eingangsspannung und der Haupt-Ausgangsspannung stets größer als 1.

Ergänzt man diese Topologie durch eine zusätzliche Wicklung, sind verschiedene Spannungsverhältnisse realisierbar, und auch eine galvanische Isolation ist möglich. Die größte Flexibilität hinsichtlich des Verhältnisses zwischen Ein- und Ausgangsspannungen bietet insgesamt jedoch der Abwärts-/Aufwärts-Wandler.

Achten Sie bei Aufwärtswandlern auf das Umwandlungsverhältnis

Kostenaufwand und Platzbedarf mögen triftige Gründe liefern, die Schaltfrequenz des Wandlers so hoch wie möglich zu wählen. Dennoch können der Wirkungsgrad und mit dem Controller-Baustein zusammenhängende Aspekte der Frequenz eine gewisse Obergrenze auferlegen.

 Gleichung 1 Gleichung 1

Ebenso wie es bei Abwärtswandlern ein bestimmtes minimal kontrollierbares On-Intervall gibt, sind bei Aufwärtswandlern gewisse minimal kontrollierbare Off-Intervalle zu beachten. Aufwärtswandler mit großen Umwandlungsverhältnissen können Probleme bereiten, wenn diese Grenzen missachtet werden. Der im nicht-lückenden Betrieb arbeitende Aufwärtswandler in Bild 1 soll diese Aussagen verdeutlichen. Sein Tastverhältnis berechnet sich nach Gleichung 1.

 Gleichung 2 Gleichung 2

Wenn man einige Einsetzungen vornimmt und nach der maximalen Schaltfrequenz auflöst (bezogen auf das minimal steuerbare Off-Intervall), erhält man Gleichung 2. Zum Beispiel benötigt ein Aufwärtswandler, der 24 V in 140 V wandeln soll, ein Tastverhältnis von 83 % und muss somit 17 % der Schaltperiode abgeschaltet sein.

Der hier zum Einsatz kommende Boost-Controller LM5122 hat ein minimal steuerbares Off-Intervall von 750 ns, zu dem sicherheitshalber weitere 250 ns hinzugerechnet werden sollten. Hieraus ergibt sich eine Obergrenze für die Schaltfrequenz von 170 kHz.

 Gleichung 3 Gleichung 3

 

 

Bild 2 zeigt den Schaltplan eines Aufwärtswandlers, der gebaut wurde, um aus einer Eingangsspannung von 24 V einen Ausgang mit 140 V und 2 A bereitzustellen. Die Schaltung basiert auf dem Interleaved-Prinzip, besteht also aus zwei um 180° phasenversetzt arbeitenden Leistungsstufen. Für die Aufteilung des Stroms auf die beiden Stufen sorgen Schaltungen im oberen Controller (Master). Diese stellen den Eingangsstrom jeder Stufe mithilfe einer resistiven Abtastung des Drosselstroms ein. Der Master-Controller reguliert außerdem Phase und Frequenz des Takts für beide Stufen und behandelt Softstarts und Fehler.

 Bild 2: Ein Aufwärtswandler nach dem Interleaved-Prinzip kommt auf eine höhere Leistung. Bild 2: Ein Aufwärtswandler nach dem Interleaved-Prinzip kommt auf eine höhere Leistung.

Der um 180° phasenversetzte Betrieb zweier Aufwärtswandler-Stufen bringt gleich mehrere Vorteile mit sich. Zum Beispiel beträgt die Verlustleistung bei einer Ausgangsleistung von 280 W und einem Wirkungsgrad von über 90% nur 18 W. Die Verwendung zweier Phasen bietet außerdem die Gelegenheit, die Ströme präzise zu regeln und damit auch die Verlustleistungen in den Halbleitern und Drosseln genau unter Kontrolle zu behalten.

Die bessere Wärmeverteilung erleichtert die Kühlung, und der gegenphasige Betrieb sorgt dafür, dass sich die eingangs- und ausgangsseitigen Welligkeitsströme gegenseitig ausgleichen, sodass die maximalen und effektiven Welligkeitsströme in den Kondensatoren geringer sind. Wegen der 180° betragenden Phasendifferenz zwischen den Drosselströmen hat der resultierende Welligkeitsstrom die doppelte Frequenz der einzelnen Phasenströme. Im Prinzip verdoppelt man auf diese Weise die effektive Schaltfrequenz des Wandlers, ohne dass sich nachteilige Auswirkungen auf den Wirkungsgrad einstellen.

 Bild 3: Der Aufwärtswandler aus Bild mit 24 V Eingangsspannung und einem Ausgang von 240 V/2 A zeichnet sich durch einen hohen Wirkungsgrad aus. Bild 3: Der Aufwärtswandler aus Bild mit 24-V- Eingangsspannung und einem Ausgang von 240 V/2 A zeichnet sich durch einen hohen Wirkungsgrad aus.

Wie der Wirkungsgrad dieses Wandlers von seinem Laststrom abhängt, zeigt Bild 3. Die Kurve lässt sich in drei Bereiche unterteilen. Im unteren Bereich wird der Wirkungsgrad von den unvermeidlichen Verlusten der Regelung und der Gate-Ansteuerung dominiert. Je mehr der Strom zunimmt, umso mehr treten diese Verluste jedoch in den Hintergrund, während die Schaltverluste deutlicher hervortreten. Bei höheren Ausgangsströmen schließlich fällt der Wirkungsgrad infolge der zunehmenden Leitungsverluste in den FETs und Drosseln wieder ab. Das Wirkungsgradmaximum lässt sich übrigens weiter nach rechts verlagern, indem man Bauelemente mit niedrigeren Widerständen verwendet.

Aufwärtswandler eignen sich nur für ein bestimmtes Verhältnis zwischen Ein- und Ausgangsspannung, da der Controller ein bestimmtes Off-Intervall nicht unterschreiten kann. Diese Untergrenze muss unbedingt beachtet werden, da es sonst zum Überspringen von Impulsen (Pulse Skipping), vermehrter Welligkeit am Ausgang mit niederfrequenten Komponenten und einem fehlerhaften Betrieb des Wandlers kommen kann. Die Verwendung zweier gegenphasig arbeitender Wandlerstufen bietet sich als Möglichkeit an, die effektive Schaltfrequenz anzuheben. Hiermit sind sehr große Spannungsverhältnisse erzielbar. Im Beispiel aus diesem Beitrag betrug das Verhältnis beispielsweise 6:1.

Abschätzen des transienten Temperaturanstiegs in einem Hot-Swap-MOSFET, Teil 1

Eine Hot-Swap-Schaltung dient zum Begrenzen der Stromspitze, zu der es kommt, wenn ein Bauelement mit kapazitivem Eingang an eine anliegende Busspannung angeschlossen wird. Diese Spitzenstrombegrenzung soll ein Einbrechen (Drooping) der Busspannung und Betriebsstörungen anderer angeschlossener Komponenten verhindern.

Zu diesem Zweck verlängert die Hot-Swap-Funktion mit Hilfe eines seriellen Bauelements die Zeit, in der sich eine zusätzlich angeschlossene kapazitive Last auflädt. Dieses serielle Bauelement setzt während des Ladevorgangs folglich eine beträchtliche Verlustleistung um und erwärmt sich dabei.

Die meisten Hersteller von Hot-Swap-Komponenten empfehlen, anhand der Diagramme für den sicheren Betriebsbereich (Safe Operating Area, SOA) die Bauelemente so zu dimensionieren, dass sie nicht überlastet werden. Die SOA-Kurven in Bild 1 geben die akzeptablen Energie- und Verlustleistungsbereiche für ein Bauelement an, bei denen es sich in der Regel um sehr vorsichtige Schätzungen handelt.

Bei einem MOSFET ist vor allem darauf zu achten, dass die Sperrschichttemperatur den maximal zulässigen Wert nicht überschreitet. Die Kurven zeigen in grafischer Form, dass der MOSFET aufgrund seiner thermischen Kapazität kurzzeitig hohen Verlustleistungen standhält. Dieser Umstand kann hilfreich bei der Entwicklung eines exakten thermischen Modells für eine weniger vorsichtigere, dafür aber realistischere Abschätzung des sicheren Betriebsbereichs sein.

Im Power-Tipp 9 wurde ein elektrisches Ersatzschaltbild für die Abschätzung des thermischen Verhaltens eines Systems erläutert. Darin wurde aufgezeigt, dass eine Analogie zwischen Wärme und Strom, zwischen Temperatur und Spannung und zwischen dem thermischen und dem elektrischen Widerstand besteht. In diesem Power-Tipp wollen wir das Ersatzschaltbild um eine Analogie zwischen der thermischen und der elektrischen Kapazität erweitern.

Wird einer Materialmasse Wärme zugeführt, so kann ihr Temperaturanstieg als Funktion der Energie (Q), der Masse (m) und der spezifischen Wärme (c) berechnet werden:

Formel 1_${18071544}

 

Darin ist die Energie einfach das Integral der Leistung über der Zeit:

Formel 2_${18071551}

 

Setzt man die untere Gleichung in die obere ein, so ergibt sich die zur elektrischen Kapazität analoge thermische Größe (m*c):

Formel 3_${18071559}

 

 Tabelle 1: Physikalische Eigenschaften einiger gängiger Werkstoffe Tabelle 1: Physikalische Eigenschaften einiger gängiger Werkstoffe

Tabelle 1 enthält eine Liste der spezifischen Wärmewerte und Dichten einiger gängiger Werkstoffe. Diese Kenngrößen können beim Entwurf eines Modells für die thermischen Kapazitäten innerhalb einer Hot-Swap-Komponente von Nutzen sein.

Die thermische Kapazität lässt sich ermitteln, indem man einfach die physische Größe der verschiedenen Komponenten des Systems abschätzt, das mit dem Modell beschrieben werden soll. Die thermische Kapazität ist dann gleich dem Produkt aus dem Volumen, der Dichte und der spezifischen Wärme der Komponente. Daraus lässt sich das in Bild 2 gezeigte Modell ableiten.

 Bild 2: Das um thermische Kapazitäten erweiterte elektrische DC-Ersatzschaltbild Bild 2: Das um thermische Kapazitäten erweiterte elektrische DC-Ersatzschaltbild

Ausgangspunkt des Models ist eine Stromquelle (links oben), welche die analoge Größe zu der Wärme darstellt, die dem System zugeführt wird. Der Strom fließt sowohl in die thermische Kapazität des Chips als auch in dessen thermischen Widerstand. Vom Chip aus strömt Wärme in den Chipträger sowie in die Gehäuse-Vergussmasse. Die Wärme, die in den Chipträger strömt, gelangt anschließend in die Schnittstelle zwischen dem Gehäuse und der Wärmeableitfläche. Von der Wärmeableitfläche wird sie dann an die Umgebung abgegeben. Die Spannungen im hier dargestellten Schaltungsnetzwerk repräsentieren den Anstieg der Temperatur über das Umgebungsniveau.

Die thermischen Widerstände und Kapazitäten in diesem Netzwerk sind lediglich grobe Schätzwerte. Dennoch eignet sich dieses Modell zum Simulieren sowohl von Transienten als auch von DC-Größen. Es kann sicherlich dazu beitragen, von den vorsichtigen Schätzungen in den SOA-Kurven der Hersteller zu etwas realitätsnäheren Aussagen zu gelangen. Ich hoffe, Sie sind auch nächstes Mal wieder dabei, wenn wir die hier angefangene Diskussion mit einer Betrachtung von Durchgangselementen (Pass-Elementen) für Hot-Swap-Komponenten fortsetzen wollen. Wir werden dann auf einige der thermischen Zeitkonstanten in unserem Ersatzschaltbild eingehen.

Von: Robert Kollmann

Gebloggt: Sicherheit am Arbeitsplatz

Mit dem Tool TurnedOnTimesView (http://www.nirsoft.net/utils/computer_turned_on_times.html) können Sie über einen Doppelklick ohne Installation überprüfen, wann und warum Ihr PC gestartet wurde. Das Tool steht kostenlos zur Verfügung und muss nicht installiert werden. Der Vorteil beim Einsatz des Tools ist der schnelle Überblick zu den Startzeiten und den Zeiten des Herunterfahrens. 

Das heißt, Sie können auch erkennen wie lange der Rechner gestartet war. Es ist durchaus interessant sich anzusehen, wann Ihr Firmenrechner gestartet wurde, vor allem wenn Sie einen unbefugten Zugriff in Verdacht haben.

Aufbau von Parallelstromversorgungen nach dem Droop-Verfahren

Einige der wichtigsten Aspekte, die es beim Parallelschalten von Stromversorgungen zu berücksichtigen gilt, lauten wie folgt:

1) Durch die Droop-Schaltung dürfen keine zusätzlichen einzelnen Ausfallpunkte (Single Points-of-Failures) entstehen.

2) Als logische Folgerung aus Bedingung 1 darf die Schaltung nicht im Master-Slave-Betrieb arbeiten.

3) Die Zahl der Verbindungen zwischen den Teilschaltungen muss auf ein Minimum begrenzt werden.

4) Der Wirkungsgrad darf nicht beeinträchtigt werden.

5) Es muss eine gute Spannungsregelung erzielt werden.

6) Am dynamischen Lastverhalten darf sich nichts ändern.

Viele dieser Anforderungen lassen sich auf einfache Weise nach dem Droop-Verfahren erfüllen. Es basiert auf dem Prinzip, dass man ein Abfallen der Regler-Ausgangsspannung als Funktion des Laststroms innerhalb gewisser Grenzen zulässt.

 Bild 1: Das Absenken der Stromversorgungs-Ausgangsspannung ermöglicht eine Stromverteilung Bild 1: Das Absenken der Stromversorgungs-Ausgangsspannung ermöglicht eine Stromverteilung

Wie Bild 1 zeigt, tendieren parallelgeschaltete Stromversorgungen wegen dieser Lastlinie dazu, ihre Ausgangsströme untereinander auszugleichen. In diesem Diagramm ist die Ausgangsspannung gegenüber den Lastcharakteristiken von drei Stromversorgungen dargestellt. Wegen der Bauelementetoleranzen unterscheiden sich die drei Stromversorgungen in ihren Spannungs-Strom-Charakteristiken geringfügig voneinander.

In der Abbildung gibt eine horizontale Linie für einen gegebenen Lastzustand die Ausgangsspannung an, wenn alle drei Stromversorgungen parallelgeschaltet sind. Die Schnittpunkte der horizontalen Linie mit den Lastlinien geben die Ausgangsströme der einzelnen Stromversorgungen an. Bei diesem Verfahren verschlechtert sich offensichtlich die Systemspannungsregelung.

Man muss in diesem Fall einen Kompromiss zwischen der Balance der Einzelströme und der Qualität der Spannungsregelung schließen. Der erste Schritt besteht darin, die Toleranz des Schaltreglers zu bestimmen, d. h. diejenige Abweichung von den Nenngrößen, die sich im ungünstigsten Fall einstellt. Die hierfür maßgeblichen Einflussgrößen sind die Genauigkeit der Spannungsreferenz über der Temperatur und die Spannungsteilertoleranz (siehe Power-Tipp 18).

Während man durch die Wahl der Widerstände (die die Genauigkeit beeinflussen) die Ausgangsspannung an die gewünschte Nennspannung annähern kann, hat dies jedoch keinen Einfluss auf die Stromverteilung. Als nächstes kann man entweder die Neigung der U-I-Kennlinie oder die zulässige Abweichung vorgeben und die andere Größe berechnen. Wenn man davon ausgeht, dass die Neigung relativ konstant ist, lautet der Zusammenhang zwischen den Variablen wie folgt:

Formel Darin sind: SPA = Sollwertgenauigkeit in Prozent; D = Spannungsabfall (Droop) vom Leerlauf- bis zum Volllastbetrieb in Prozent und LE = Lastextremwert oder Betrag der maximalen Lastabweichung in Prozent.

Bei den Berechnungen wird klar, wo die Unzulänglichkeit dieses Verfahrens liegt: Man muss schon die Ausgangsspannung extrem genau einstellen und einen beträchtlichen Spannungsabfall in Kauf nehmen, wenn man eine akzeptable Stromverteilung erzielen will. Beispielsweise kann in dem in Bild 1 gezeigten Fall, der die Verhältnisse bei Toleranzen von 3,5 und 20 % Spannungsabfall wiedergibt, das Ungleichgewicht zwischen den Strömen 35 % betragen. Dieser hohe Droop-Betrag mag in Systemen mit hohen Betriebsspannungen noch akzeptabel sein, in Low-Voltage-Stromversorgungen aber nicht.

Um einen Spannungsabfall zu implementieren, würde es sich auf den ersten Blick anbieten, einfach einen großen Widerstand in Reihe mit der Ausgangsspannung zu schalten, doch die Toleranzbetrachtungen und die resultierenden Verluste sprechen klar dagegen. So würden im obigen Beispiel über 20 % der Ausgangsleistung in diesem Widerstand verlorengehen.

 Bild 2: Bei stromgesteuertem Betrieb ist ein Spannungsabfall leicht zu implementieren Bild 2: Bei stromgesteuertem Betrieb ist ein Spannungsabfall leicht zu implementieren

Eine Alternative wäre es, den Ausgangsstrom der Stromversorgung zu messen und diese Messgröße nach Verstärkung als Offsetgröße für die Ausgangsspannungs-Einstellschaltung zu verwenden. Dies funktioniert bei spannungsgeregeltem Betrieb, doch im Fall der Stromregelung gibt es ein weitaus einfacheres Verfahren. Begrenzt man nämlich die DC-Verstärkung der Regelschleife, so wirkt dies wie ein künstlicher Widerstand.

Anhang 1 zeigt, wie sich die Ausgangsimpedanz (basierend auf Bild 2) auf einfache Weise berechnen lässt. Das Ergebnis lautet, dass die Ausgangsimpedanz dieses Systems gleich dem negativen Kehrwert des Produkts aus der Kompensatorverstärkung und der Verstärkung der Leistungsstufe ist. Die meisten Stromversorgungen enthalten einen Integrator in der Kompensationsschaltung, was in einer sehr großen DC-Kompensatorverstärkung resultiert. Durch Einstellen der DC-Verstärkung auf einen bestimmten Wert lässt sich ein gewünschter Spannungsabfall realisieren. Dies ist gewöhnlich recht einfach zu implementieren, indem man den Fehlerverstärker einfach mit einem zusätzlichen Widerstand belastet.

Von Robert Kollman, Texas Instruments.

 Anhang 1: Ableitung des Ausgangsspannungsabfalls (Droop) im stromgesteuerten BetriebDie meisten Stromversorgungen enthalten einen Integrator in der Kompensationsschaltung, was in einer sehr großen DC-Kompensatorverstärkung resultiert. Durch Einstellen der DC-Verstärkung auf einen bestimmten Wert lässt sich ein gewünschter Spannungsabfall realisieren. Dies ist gewöhnlich recht einfach zu implementieren, indem man den Fehlerverstärker einfach mit einem zusätzlichen Widerstand belastet. Anhang 1: Ableitung des Ausgangsspannungsabfalls (Droop) im stromgesteuerten BetriebDie meisten Stromversorgungen enthalten einen Integrator in der Kompensationsschaltung, was in einer sehr großen DC-Kompensatorverstärkung resultiert. Durch Einstellen der DC-Verstärkung auf einen bestimmten Wert lässt sich ein gewünschter Spannungsabfall realisieren. Dies ist gewöhnlich recht einfach zu implementieren, indem man den Fehlerverstärker einfach mit einem zusätzlichen Widerstand belastet.