Lade- und Entladeströme in Akkus überwachen

Durch die Überwachung der Lade- und Entladeströme eines Akkus kann man den Zustand des Energiespeichers und der an ihn angeschlossenen Last beobachten. Im folgenden Schaltungstipp geht es um eine resistive High-Side-Strommesstechnik, die in vielen Industrieanwendungen eingesetzt wird, um den Stromfluss in beliebigen Akkus zu überwachen.

 Bild 1: Schaltung zur Überwachung von Lade- und Entladeströmen von Akkus (Bild: ADI)
Bild 1: Schaltung zur Überwachung von Lade- und Entladeströmen von Akkus (Bild: ADI)

Ein kleiner Shunt-Widerstand (RS) ist in Reihe mit der Last, deren Strom gemessen werden soll, geschaltet. Sobald Strom fließt, entsteht über dem Widerstand ein Spannungsabfall VIN. Die Schaltung unterdrückt die hohe Gleichtaktspannung des Akkus und verstärkt die differenzielle Eingangsspannung, damit man einen massebezogenen, gepufferten Ausgang erhält.

Die Schaltung ist für bidirektionale Strommessungen geeignet und hat separate Lade- und Entlade-Überwachungsausgänge. Die Spannung an OUT1 liefert den Wert des Entladestromes, also des Stroms, der aus dem Akku heraus fließt, während die Spannung an OUT2 den Wert des Ladestroms liefert, der in den Akku hinein fließt.

Die Schaltung enthält einen internen LDO (Low-Dropout-Regler), der direkt von der Spannung an +IN versorgt wird. So lange diese Spannung zwischen 4,5 und 80 V liegt, benötigt man keine separate Stromversorgung. Mit einem Ruhestrom von weniger als 2 mA werden Gleichtaktspannungen bis 80 V unterdrückt.

Der hochgenaue, driftarme Verstärker AD8218 ermöglicht den Einsatz eines sehr kleinen Messwiderstands bei hoher Versorgungsspannung. Der Chip hat eine Verstärkung von 20 V/V. Mit einem Shunt von 10 mΩ beträgt die Gesamtverstärkung der Schaltung 200 mV/A. Damit produziert eine Stromänderung von 1 A in jede Richtung eine Spannungsänderung von 200 mV an jedem Ausgang.

Der Wert des Shunts hängt vom Laststrombereich der jeweiligen Anwendung ab und bildet einen Kompromiss aus Kleinsignalgenauigkeit und maximal zulässigem Spannungsabfall. Bei hohen Werten für RS ergibt sich eine höhere Genauigkeit bei niedrigen Strömen, während niedrige Werte für RS die Verluste auf der Versorgungsleitung minimieren.

In dieser Konfiguration ist die interne 80-mV-Referenz aktiviert. Damit nimmt die Spannung an OUT1 und OUT2 einen Wert von 80 mV an, wenn die differenzielle Eingangsspannung VIN 0 V beträgt und kein Strom in den Akku hinein oder aus ihm heraus fließt (offene Schaltung oder defekter Akku). Dies gleicht ausgangsseitige Fehler aus, die sich aus Verstärker-Offset und ausgangsseitigem Sättigungsbereich ergeben. Somit ist beim Entladen des Akkus die differenzielle Eingangsspannung positiv (VIN>0). Die Übertragungsfunktionen an den beiden Ausgängen sind:

OUT1 = (20 × VIN) + 0,08 V

OUT2 = 0 V

Beim Aufladen des Akkus (VIN<0) gelten folgende Übertragungsfunktionen:

OUT1 = 0 V

OUT2 = (20 × VIN) + 0,08 V

Der Autor: Chau Tran, Analog Devices.

Wie schätzen Sie den Bedarf für analoges MPP-Tracking ein?

MPP-Tracking ist für alle Arten von Solaranlagen wichtig. Der Begriff Maximum Power Point Tracking, MPP-Tracking (Aufspüren des maximalen Leistungspunktes), bezeichnet speziell in der Photovoltaik ein Verfahren, mit dem die Belastung einer Solarzelle oder eines Solarmoduls für eine maximale Energieausbeute optimiert wird.

Bekannte Verfahren basieren auf einer digitalen Regelung mittels µC oder DSP (z.B. Suchschwingverfahren, Lastsprünge, steigende Konduktanz).

Digitales MPP-Tracking lässt sich recht einfach mit ein paar Zeilen Code und einem billigen Mikroprozessor realisieren. Meist übernimmt in einer netzgebundenen Anlage der Controller im Wechselrichter die MPP-Aufgabe als Zusatzfunktion.

Die Idee beim analogen MPP-Tracking ist, auf den µC zu verzichten und die Regelung inklusive Leistungsmessung mit analogen Bauelementen durchzuführen. Das ist vor allem interessant für Inselanlagen, die ohne Wechselrichter und Netzeinspeisung auskommen wollen und die Energie über Laderegler und Akkus speichern.

Die Schaltung besteht aus Standard Operationsverstärkern, ist robust und sehr kostengünstig aufzubauen. Erste Simulationen haben gute Ergebnisse erzielt.

Wie schätzen Sie den Bedarf einer solchen Regelung ein, insbesondere unter dem Aspekt, dass sie dezentral und flexibel einsetzbar ist?

Ich freue mich auf viele interessante Denkanstöße!

 

 

Hintergrunginformationen zum Aufbau eines MPP-Trackers.

 

Machen Sie etwas mit nicht genutzten Pins!

Frage: Was soll ich mit den nicht genutzten Pins eines Analog-ICs machen?
Antwort: Gehen Sie freundlich mit ihnen um, beachten Sie sie und ignorieren Sie sie niemals.

 Analog-IC (Spannungsreferenz)
Analog-IC (Spannungsreferenz)

Nach Goethe ist „ein ungenutztes Leben ein früher Tod” [1]. Auf ähnliche Weise kann ein nicht genutzter Pin an einem Analog-IC das Risiko eines frühzeitigen Ausfalls durch elektrostatische Entladung (ESD) erhöhen. Obwohl ungenutzte Ausgänge offen bleiben können und dies im Allgemeinen auch sind, ist es normalerweise besser, nicht benutzte Eingänge (sowohl analoge wie auch digitale) mit einer Stromversorgung zu verbinden.

In einem System mit nur einer Versorgungsspannung erfolgt diese Verbindung normalerweise zur negativen Masse. In einem System mit zwei Versorgungsspannungen zur mittleren Versorgungsspannung. Doch es gibt Ausnahmen. Wie immer ist RTFDS (Read The Friendly Data Sheet) notwendig und es sollte das Angeratene getan werden. Falls das Thema nicht erwähnt wird, ist Erden normalerweise die beste Strategie.

Ungenutzte Verstärkereingänge sind eine der wichtigen Ausnahmen. Das Erden von ungenutzten Eingängen eines Verstärkers kann seine Stromaufnahme erhöhen. Die beste und oft auch die einzig sichere Strategie besteht darin, den Verstärker als Puffer zu schalten und den Eingang auf ein Potenzial irgendwo zwischen den Versorgungsspannungen festzulegen.

CMOS-Schalter und Multiplexer sind symmetrische Bauteile; ihre ein- und ausgangsseitigen Anschlüsse für die Signale sind austauschbar. Ungenutzte Anschlüsse sollten als Eingänge und nicht als Ausgänge betrachtet werden. Somit sollten sie alle auf Masse liegen.

Interne Pull-up- oder Pull-down-Widerstände verbinden einen Eingang mit einer positiven Versorgungsspannung (Pull-up) oder Masse (Pull-down). Falls sich an einem ungenutzten Eingang einer dieser Widerstände befindet, muss man keine Verbindung zu ihm herstellen. Falls der Pin jedoch angeschlossen ist, sollte er an der gleichen Spannung wie sein Widerstand liegen. Bei jeder anderen Verbindung wird Strom in den Widerstand fließen und Energie verschwendet (die verschwendete Energie mag zwar klein sein, doch jede verschwendete Energie sollte, falls möglich, vermieden werden).

Besondere Beachtung sollte man nicht genutzten Logik-Eingängen schenken. Diese sollten, falls unbenutzt, den Logikpegel 1 haben. Manche Logik-Eingänge haben drei Zustände (Tristate), nicht nur zwei. Dabei ist eine offene Verbindung als Logikzustand definiert. Solche Eingänge sollte man eventuell offen lassen.

Zusammenfassend lässt sich sagen, dass man sich auf jeden Fall Gedanken über nicht genutzte Pins machen sollte. Denn dies ist ein wichtiger Teil bei der Entwicklung von Analogschaltungen, der nicht übersehen werden darf.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Literatur

[1] Goethe, J. W. von: aus seinem Stück „Iphigenie auf Tauris” (1779)

 

 

Massebezogene in differenzielle Signale bei Präzisionsverstärkern umsetzen

Dieser Schaltungstipp beschreibt eine hochgenaue Schaltung, die massebezogene in differenzielle Signale umsetzt und die Programmierung der Verstärkung über Widerstände ermöglicht.

 Bild 1: Hochgenauer Single-Ended/Differenz-Wandler mit widerstandsprogrammierbarer Verstärkung
Bild 1: Hochgenauer Single-Ended/Differenz-Wandler mit widerstandsprogrammierbarer Verstärkung

Viele Anwendungen wie zum Beispiel Treiberschaltungen für moderne A/D-Wandler oder die Übertragung von Signalen über verdrillte Zweidrahtleitungen sowie Schaltungen zur Aufbereitung von HiFi-Audiosignalen benötigen differenzielle Signale um bessere Signal/Rausch-Verhältnisse, eine höhere Gleichtaktrauschimmunität und geringere Verzerrungen der zweiten Harmonischen zu erzielen. Aufgrund dieser Anforderungen ist eine Schaltung erforderlich, die massebezogene in differenzielle Signale (Single-Ended/Differential) wandeln kann.

Für viele Anwendungen reicht ein genauer, komplett differenzieller Verstärker mit geringer Leistungsaufnahme und integrierten Präzisionswiderständen wie der AD8476 völlig aus, um massebezogene in differenzielle Signale zu wandeln. Bei Applikationen, die eine höhere Genauigkeit verlangen, kann ein Präzisions-Operationsverstärker des Typs OP1177 mit dem AD8476 kaskadiert werden (Bild 1). Dieser „Single-Ended/Differential“-Wandler verfügt über Eigenschaften wie eine sehr hohe Eingangsimpedanz, ein Biasstrom von max. 2 nA, eine Offsetspannung von max. 60 µV und eine Offsetspannungsdrift von max. 0,7 µV/°C.

In dieser Rückkopplungsanordnung mit zwei Verstärkern bestimmt der Operationsverstärker (OPV) die Genauigkeit sowie das Rauschverhalten der Schaltung, während der differenzielle Verstärker die Wandlung „massebezogen/differenziell“ durchführt. Die Rückkopplung unterdrückt die Fehler des AD8476 – einschließlich Rauschen, Verzerrung, Offset und Offsetdrift – indem sie den differenziellen Verstärker in die Rückkopplungsschleife des Operationsverstärkers einbindet. Die hohe Verstärkung des OPV bei offener Regelschleife übersteigt die des differenziellen Verstärkers. Somit dämpft die Rückkopplung die Fehler des AD8476 um die offene Schleifenverstärkung des Operationsverstärkers bezogen auf den Eingang.

Die Verstärkung (V) des „Single-Ended/Differential“-Wandlers in Bild 1 wird durch die externen Widerstände RF und RG eingestellt. Es gilt Gleichung 1.

 Gleichung 1
Gleichung 1

Eine minimale Verstärkung von zwei kann erzielt werden, indem man RF überbrückt und RG herausnimmt.

Wie bei allen Rückkopplungen muss auf die Stabilität des Systems geachtet werden. Die Kaskade aus OP1177 und AD8476 bilden einen Operationsverstärker mit zusammengesetztem differenziellen Ausgang, dessen Schleifenverstärkung über die Frequenz dem Produkt der offenen Schleifenverstärkung des OP1177 und der geschlossenen Schleifenverstärkung des AD8476 entspricht.

Daher verursacht die Bandbreite des AD8476 bei geschlossener Regelschleife eine Polstelle in der Übertragungsfunktion zur offenen Schleifenverstärkung des OP1177. Um die Stabilität sicherzustellen, sollte die Bandbreite des AD8476 höher als die Frequenz des OP1177 bei Eins-Verstärkung sein.

Diese Anforderung wird erleichtert, wenn die Schaltung eine geschlossene Schleifenverstärkung von mehr als 2 aufweist, da das Widerstands-Rückkopplungsnetzwerk die Eins-Verstärkungsfrequenz des OP1177 um den Faktor RG/(RG+RF) effizient reduziert. Da der AD8476 eine Bandbreite von 5 MHz aufweist und der OP1177 eine Eins-Verstärkungsfrequenz von 1 MHz bietet, zeigt die Schaltung in Bild 1 bei beliebiger Frequenz keine Stabilitätsprobleme.

 Gleichung 2
Gleichung 2

Beim Einsatz eines Operationsverstärkers, der eine wesentlich größere Eins-Verstärkungsfrequenz als die Bandbreite des differenziellen Verstärkers aufweist, kann ein die Bandbreite begrenzender Kondensator CF in die Schaltung integriert werden (Bild 1). Der Kondensator CF bildet mit dem Rückkopplungswiderstand RF einen Integrator. Die Bandbreite (BW) der gesamten Schaltung wird somit nach Gleichung 2 bestimmt.

Falls diese reduzierte Bandbreite niedriger als die Bandbreite der geschlossenen Regelschleife des differenziellen Verstärkers ist, verhält sich die Schaltung stabil. Diese die Bandbreite begrenzende Technik kann auch bei einer Verstärkung von 2 verwendet werden, indem man RG herausnimmt.

Die Autoren: Sandro Herrera und Moshe Gerstenhaber arbeiten bei Analog Devices.

Kostengünstige Hochleistungs-LED-Treiberschaltung

Angesichts sinkender Produktionskosten kommen Hochleistungs-LEDs immer häufiger in Anwendungen zum Einsatz, deren Spektrum von batteriebetriebenen Geräten über Automobilsysteme bis hin zur Architekturbeleuchtung reicht.

Mit ihrer hohen Zuverlässigkeit (die Lebensdauer beträgt typisch mehr als 50.000 Betriebsstunden), ihrem hohen Wirkungsgrad (175 L/W) und ihrem fast verzögerungsfreien Ansprechverhalten sind sie eine sehr attraktive Lichtquelle. Das richtige Ansteuern von LEDs ist jedoch keine ganz triviale Angelegenheit.

Um die Helligkeit zu regeln, muss die LED mit einem Konstantstrom angesteuert werden, d.h. mit einem Strom, der von der Eingangsspannung unabhängig ist. Nicht selten müssen LEDs dimmbar sein. So kann es beispielsweise wünschenswert sein, die Helligkeit eines Displays oder einer Architekturbeleuchtung zu variieren.

Dies lässt sich auf zwei Arten erreichen: Man kann entweder den LED-Strom verändern oder mit einer Pulsweitenmodulation (Pulse Width Modulation, PWM) arbeiten. Am ineffizientesten ist sicherlich das Variieren des Stromes, denn die Intensität des abgegebenen Lichts verändert sich nicht genau linear mit dem Strom, und das LED-Farbspektrum hat die Tendenz, sich bei Strömen unterhalb des Nennstroms zu verschieben.

Dabei muss man berücksichtigen, dass die menschliche Helligkeitswahrnehmung exponentiell erfolgt, so dass für ein vollständiges Dimmen eine große prozentuale Stromänderung erforderlich ist. Dies hat tiefgreifende Auswirkungen auf den Schaltungsentwurf, denn aus 3% Regelabweichung bei vollem Strom können aufgrund von Schaltungstoleranzen leicht 30% oder mehr bei 10% Last werden.

LED-Ansteuerung via PWM mit mehr als 1000 Hz

Das Dimmen von LEDs durch Ansteuern mit einem pulsweitenmodulierten Strom ist präziser, aber bei diesem Verfahren muss die Ansprechgeschwindigkeit der LEDs berücksichtigt werden. In Beleuchtungs- und Display-Anwendungen ist eine Pulsweitenmodulation mit einer Frequenz von mehr als 100 Hz wünschenswert, damit das menschliche Auge kein Flimmern wahrnimmt.

 Bild 1: Kostengünstige LED-Treiberschaltung auf Basis des Schaltreglers MC33063 Bild 1: Kostengünstige LED-Treiberschaltung auf Basis des Schaltreglers MC33063

 

Bild 1 zeigt einen sehr einfachen und kostengünstigen Abwärtsregler zur Ansteuerung einer einzelnen LED, in dem eine sehr schnelle Dimmfunktion implementiert ist. Er basiert auf dem MC33063, der mit einem internen Schalter, einem Strombegrenzungs-Komparator, einem Oszillator und einer internen Referenzspannungsquelle ausgestattet ist. Eine Abschaltfunktion (DISABLE) kann über den Pin aktiviert werden, der normalerweise zur Spannungsregelung dient.

In diesem Szenario schaltet eine Spannung von mehr als 1,25 V die Stromversorgung ab, während sie bei einer niedrigeren Spannung eingeschaltet ist. Ist die Schaltung aktiviert, dann arbeitet der Regler in einem Strombegrenzungs-Modus mit Hysterese, da die Spannungsrückführung eliminiert wurde.

Der Oszillator erzeugt eine Startimpuls, der bewirkt, dass der Leistungsschalter in den Zustand „Ein“ wechselt. Damit liegt die Eingangsspannung am Strommesswiderstand, an der LED und an der Induktivität an. Der Strombegrenzungs-Komparator stellt fest, wann der Strom etwa 350 mA erreicht, und schaltet den Leistungsschalter aus. Die Spannung an der Induktivität kehrt sich um und übersteigt die Eingangsspannung, so dass die Freilaufdiode leitet. Der Strom durch die Induktivität und die LED fließt so lange weiter, bis der Schalter beim nächsten Schaltzyklus in den Ein-Zustand wechselt.

Diese Schaltung ist für zahlreiche Anwendungen sehr flexibel einsetzbar. Die Verwendung eines Schaltreglers mit einer Nennspannung von 40 V und einem Nennstrom von 1,5 A ist in tragbaren Geräten, Haushaltsgeräten und Automobilanwendungen von Nutzen, wo es vor allem auf Einfachheit und geringe Kosten ankommt. Die Grundtopologie ließe sich in einem noch wesentlich größeren Spektrum von Anwendungen einsetzen, wobei sich dort die Hystereseregelung und die Ein- und Ausschaltfunktionen vielleicht nicht ganz so einfach realisieren lassen

 Bild 2: DISABLE-Befehl und der daraus resultierende LED-Stromverlauf der Schaltung aus Bild 1. Bild 2: DISABLE-Befehl und der daraus resultierende LED-Stromverlauf der Schaltung aus Bild 1.

Die Schaltung aus Bild 1 wurde aufgebaut und getestet. Bild 2 zeigt den DISABLE-Befehl und den daraus resultierenden Verlauf des LED-Stromes. Die LED lässt sich durch PWM-Ansteuerung bei 500 Hz leicht dimmen. Die Anstiegs- und Abfallzeit des Stromsignals beträgt weniger als 100 µs. Wenn eine höhere Stromwelligkeit in der LED tolerierbar ist, könnte die Induktivität einen geringeren Wert haben, und auch die Anstiegs- und Abfallzeiten ließen sich verbessern. Eine 500-Hz-PWM dürfte jedoch für die meisten Anwendungen gut geeignet sein.

Als Fazit kann festgehalten werden, dass sich ein Schaltregler wie der MC33063 gut zum Ansteuern von LEDs eignet, auch wenn er nicht speziell für diesen Zweck entwickelt wurde. Sein Fehlerverstärker lässt sich für eine DISABLE-Funktion zum Dimmen der LED per PWM nutzen, sein Strombegrenzungs-Komparator spricht schnell an und sorgt für eine präzise Stromeinstellung, und der eingebaute Leistungsschalter ermöglicht den Aufbau einer kompakten und einfachen Schaltung.

Ich bedanke mich bei Dave Parks von TI für die Unterstützung bei der Zusammenstellung dieses Power-Tipps.

Literatur [1] Betten, J.: „LED Lighting Illuminates Buck Regulator Design“, Power Electronics Technology, Oct. 2007

Von Robert Kollman, Texas Instruments.

Den passenden MOSFET-Treiber finden

Wie gut der MOSFET-Treiber an den MOSFET der jeweiligen Applikation angepasst ist, hängt neben der Verlustleistung maßgeblich vom Treiberspitzenstrom und den damit verbundenen Ein- und Ausschaltzeiten ab. Der Beitrag zeigt unterschiedliche Möglichkeiten auf, wie sich der optimale MOSFET-Treiber auswählen lässt.

Der MOSFET-Treiber wandelt ein Logik-Signal in höhere Spannungen und Ströme um und steuert damit ein MOSFET-Gate mit schnellen Einschwingzeiten an. So können MOSFET-Treiber zum Beispiel eingesetzt werden, um das 5-V-Ausgangssignal eines Mikrocontrollers mit niedrigen Stromstärken in ein Steuersignal von 18 V mit Stromstärken von mehreren Ampère für einen Leistungs-MOSFET-Eingang umzuwandeln.

Da heute unterschiedliche MOSFET-Technologien und Halbleiterprozesse auf Silicium-Basis eingesetzt werden, ist es mitunter schwierig, die passenden MOSFET-Treiber für eine Anwendung zu finden. Für die Auswahl des richtigen MOSFET-Treibers sind grundsätzliche Kenntnisse zur Abhängigkeit der Verlustleistung der Gate-Ladung im MOSFET und der Arbeitsfrequenz wesentlich. So benötigt das Laden und Entladen eines MOSFET-Gates immer die gleiche Energiemenge, unabhängig von den Anstiegs- und Abfallzeiten der Gate-Spannungen.

Verlustleistung von MOSFET-Treibern

Die Verlustleistung eines MOSFET-Treibers wird durch drei Vorgaben bestimmt:

  • Verluste durch Laden- und Entladen der Gate-Kapazität des MOSFETs,
  • Verluste durch den Ruhestrom des MOSFET-Treibers,
  • Verluste durch Kurzschluss durch Überlappen der Einschaltphasen der Transistoren (Cross-Conduction oder Shoot-through) im MOSFET-Treiber.

Von diesen drei Punkten sind die Verluste durch Laden und Entladen der Gate-Kapazität des MOSFETs am wichtigsten, insbesondere bei niedrigen Schaltfrequenzen. Die Verlustleistung ergibt sich gemäß Gleichung 1.

 Gleichung 1
Gleichung 1

Darin sind Cg = Gate-Kapazität des MOSFETs, Udd = Versorgungsspannung des MOSFET-Treibers [V], f = Schaltfrequenz.

Die Bedeutung des Treiberspitzenstroms

Zusätzlich zur Verlustleistung muss der Entwickler den Zusammenhang zwischen dem für den MOSFET-Treiber erforderlichen Treiberspitzenstrom und den damit verbundenen Ein-/Ausschaltzeiten berücksichtigen. Wie gut der MOSFET-Treiber an den MOSFET angepasst ist, hängt davon ab, wie schnell der Leistungs-MOSFET in einer Anwendung ein- und ausgeschaltet wird.

dT = (dU C) / I

Die optimalen Anstiegs- und Abfallzeiten in einer beliebigen Anwendung ergeben sich aus Anforderungen wie elektromagnetische Interferenzen, Schaltverluste, Leitungs- und Schaltungsinduktivitäten und der Schaltfrequenz. Das Verhältnis zwischen Gate-Kapazität, Laufzeiten und Betrag des MOSFET-Treiberstroms ergibt sich aus Gleichung 2.

QG = C V                                (Gleichung 2)

Dann ist I = QG / dT               (Gleichung 3)

Darin sind: dT = Ein-/Ausschaltzeit, dU = Gate-Spannung, C = Gate-Kapazität , I = MOSFET-Treiberspitzenstrom.

Die Gesamtkapazität des MOSFET-Gates lässt sich aus der Gate-Gesamtladung (QG) bestimmen. Die Gate-Ladung QG ergibt sich wiederum aus Gleichung 3. Hierbei wird ein konstanter Strom angenommen. Eine Daumenregel besagt, dass der Durchschnittswert bei der Hälfte des MOSFET-Treiberspitzenstroms liegt. Die elektrischen Werte des MOSFET-Treibers richten sich nach dem möglichen Ausgangsspitzenstrom des Treibers. Der Wert des Spitzenstroms wird üblicherweise für die maximale Vorspannung angegeben. Das heißt, wenn der MOSFET-Treiber bei einer geringeren Vorspannung betrieben wird, dann wird auch der mögliche Spitzenstrom reduziert.

Der erforderliche Treiberspitzenstrom des MOSFETs kann aus den folgenden Parametern aus dem Datenblatt des Herstellers ermittelt werden: MOSFET-Gate-Ladung = 20 nC (Q); MOSFET-Gate-Spannung = 12 V (dV); Ein-/Ausschaltzeit = 40 ns (dT). Werden diese Werte in Gleichung 3 eingesetzt, ergibt sich ein Treiberspitzenstrom von I = 0,5 A.

Annäherung über eine Zeitkonstante

TLadung = (RTreiber + RGate) Cges TC                    (Gleichung 4)

Eine weitere Methode zur Auswahl des passenden MOSFET-Treibers ist die Annäherung über die Zeitkonstante. Darin werden der Widerstand des MOSFET-Treibers, alle externen Gate-Widerstände und die Gesamtkapazität eingesetzt (Gleichung 4). Darin sind: RTreiber = RDS-Ein der Ausgangstreiberstufe, RGate = ein beliebiger externer Gate-Widerstand zwischen Treiber und MOSFET-Gate, Ctotal = Gate-Gesamtkapazität, TC = Anzahl der Zeitkonstanten.

Da diese Gleichung (siehe Beispiel im Bild) eine RC-Zeitkonstante repräsentiert, die für TC einen Wert von 3 annimmt, bedeutet dies, dass die Kapazität nach der Zeit TLadung zu 95% geladen ist. Die meisten MOSFETs sind voll leitend, sobald die Spannung am Gate 6 V erreicht. Auf dieser Grundlage kann ein TC-Wert von 1 (entsprechend 63% der Ladespannung) für die Anwendung bereits sinnvoller sein und erlaubt den Einsatz eines Treiber-ICs für niedrigeren Strom.

Auswahl eines MOSFET-Treibers für Motorregelungen

Als Beispiel soll die Auswahl eines MOSFET-Treibers zur Regelung der Drehzahl und Drehrichtung eines Motors betrachtet werden. In dieser Anwendung wird die Motorspannung entsprechend beeinflusst. Die Schaltung des Gate-Treibers wird hier grundsätzlich durch den Motortyp, die Anordnung der Leistungsschalter und die Schaltelemente bestimmt.

Der erste Schritt besteht darin, den richtigen Leistungsschalter für diese Anwendung auszuwählen, dessen Eigenschaften wiederum durch die technischen Daten des Motors bestimmt werden. Ein wichtiger Parameter ist der Anlaufstrom, der bis zu dreimal höher sein kann als der Strom im Dauerbetrieb.

Zum Steuern von Motoren werden im Wesentlichen zwei unterschiedliche Leistungsschalter eingesetzt – MOSFETs und IGBTs. Bei einem MOSFET lassen sich die Eigenschaften des MOSFET-Treibers für die Gate-Ansteuerung bestimmen.

 Bild 1: Blockdiagramm einer MOSFET-Treiberschaltung (TC4451= Q1, TC4452 = Q2)
Bild 1: Blockdiagramm einer MOSFET-Treiberschaltung (TC4451= Q1, TC4452 = Q2)

Wie in Bild 1 zu sehen ist, wandelt die Eingangsstufe der Schaltung das eingespeiste Kleinsignal in ein Großsignal mit der Amplitude GND- Udd um, das die kaskadierten Treiberstufen ein- und ausschaltet. Die MOSFETs Q1 und Q2 stellen die Pull-up- und Pull-down-Ausgangstreiber für den MOSFET-Treiber dar. Betrachtet man die Ausgangsstufe des MOSFET-Treibers als Push-Pull-Paar von MOSFETs, ist ihre Funktion einfacher zu verstehen.

Nicht invertierender Treiber

Für einen nicht invertierenden Treiber gilt, das gemeinsame Gate-Signal wird von Q1 und Q2 auf „Low“ gesetzt, wenn das Eingangssignal auf „High“liegt. Der Übergang dieses Gate-Knotens von Udd nach GND geschieht typischerweise in weniger als 10 ns. Er begrenzt so die Zeit für die Cross-Conduction zwischen Q1 und Q2 – d.h., die Zeit, in der sich die Einschaltphasen überlappen und einen Kurzschluss bilden – und schaltet Q1 sofort voll durch, um den Spitzenstrom so schnell wie möglich zu erreichen.

Für die Schaltungskonfiguration von MOSFET-Treibern gibt es natürlich auch andere Möglichkeiten. Sind Motor, Leistungsschalter und Gate-Treiberschaltung bekannt, kann der MOSFET-Treiber anhand einer der oben genannten Gleichungen 3 oder 4 ausgewählt werden.

Auswahl des MOSFET-Treibers mithilfe einer Berechnungstabelle

Sobald der MOSFET ausgewählt ist, kann eine Berechnungstabelle des Herstellers zu Rate gezogen werden, um den entsprechenden MOSFET-Treiber auszuwählen. Hierfür ist unter anderem der „Power MOSFET Driver Calculator“ von Microchip geeignet. Mit diesem einfachen Werkzeug lässt sich der für den MOSFET-Treiber erforderliche Spitzenstrom schnell bestimmen.

Als erstes wählt man einen MOSFET aus. Aus dem Datenblatt übernimmt man die Werte für die Eingangskonditionen – die Drain-Source-Spannung (Uds) des MOSFETs, die Gate-Source-Spannung (Ugs), die MOSFET-Treiberspannung (Udd), Schaltfrequenz, Tastverhältnis, ungefähre Anstiegszeit (tr) und die Gesamt-Gate-Ladung (QG) – und trägt sie in die entsprechenden Felder ein.

Nun wird der Spitzenstrom IPK des MOSFET-Treibers bestimmt. Anhand des IPK wird der am besten passende und preisgünstigste MOSFET-Treiber ausgesucht. Nachdem der gewählte MOSFET-Treiber gefunden ist, berechnet das Tool die Verlustleistung und die maximal zulässige Umgebungstemperatur ohne Kühlkörper.

Weitere Gesichtspunkte bei der Auswahl

Zwei weitere wesentliche Gesichtspunkte müssen bei der Auswahl des korrekten MOSFET-Treibers für eine Anwendung beachtet werden. Diese beziehen sich zum Einen auf die Leistungsaufnahme abhängig vom Gehäuse und der Umgebungstemperatur. Zum Zweiten muss der vom MOSFET-Treiber geforderte Spitzenstrom aus der Gate-Gesamtladung des Leistungs-MOSFET berechnet werden. Mithilfe einfacher Berechnungstabellen und Gleichungen, wie oben beschrieben, lässt sich der MOSFET-Treiber, der für die eigene Anwendung geeignet ist, dann schnell bestimmen.

Der SEPIC-Wandler als effiziente Bias-Stromversorgung

Haben Sie schon einmal daran gedacht, einen Wandler in SEPIC-Topologie als Bias-Stromversorgung einzusetzen? Wenn Sie auf eine galvanische Trennung verzichten können, könnte das durchaus sinnvoll sein.

Der SEPIC-Wandler (Single-Ended Primary Inductor Converter) bietet nämlich einige Eigenschaften, mit denen er attraktiver ist als ein Sperrwandler ohne galvanische Trennung. So lässt sich beispielsweise das Nachschwingen des MOSFETs und des Ausgangsgleichrichters kontrollieren, was elektromagnetische Störungen und Überspannungen wirksam verringern kann.

In vielen Fällen hat dies den Vorteil, dass Sie Bauelemente verwenden können, die niedrigere Nennspannungen aufweisen und infolgedessen kostengünstiger sind und effizienter arbeiten. Außerdem verbessert sich bei einem SEPIC-Wandler mit mehreren Ausgängen die Kreuzregelung zwischen den einzelnen Ausgängen, so dass man auf Längsregler gegebenenfalls ganz verzichten kann.

 Bild 1: Ein SEPIC-Wandler mit mehreren Ausgängen
Bild 1: Ein SEPIC-Wandler mit mehreren Ausgängen

Bild 1 zeigt einen SEPIC-Wandler, der ebenso wie ein Sperrwandler mit einer minimalen Anzahl von Bauelementen auskommt. Im Grunde wäre diese Schaltung ohne C1 nichts anderes als ein Sperrwandler. Dieser Kondensator bewirkt das Festklemmen der Spannungen an den Halbleiterbauelementen, die mit ihm beschaltet sind.

Schaltet man den MOSFET ein, wird die Sperrspannung an D1 vom Kondensator über den MOSFET festgeklemmt. Wenn der Leistungsschalter ausgeschaltet wird, steigt die Drain-Spannung, bis D1 leitet. Während der Ausschaltzeit wird die Drain-Spannung des MOSFETS von C1 über D1 und C2 festgeklemmt.

SEPIC-Wandler mit mehreren Ausgängen

Bei einem SEPIC-Wandler mit mehreren Ausgängen müssen die Wicklungsverhältnisse eine Voraussetzung erfüllen: Eine der Sekundärwicklungen muss ein Übersetzungsverhältnis von 1:1 gegenüber der Primärwicklung aufweisen und mit C1 beschaltet sein. In der Beispielschaltung in Bild 1 hat die 12-V-Wicklung ein Übersetzungsverhältnis von 1:1, aber man hätte stattdessen auch die 5-V-Wicklung verwenden können.

 Bild 2: Der SEPIC reduziert Störungen und Überspannungen
Bild 2: Der SEPIC reduziert Störungen und Überspannungen

Die Schaltung in Bild 1 wurde aufgebaut und getestet. Sie wurde sowohl als SEPIC-Wandler (mit C1) und als Sperrwandler (ohne C1) betrieben. Bild 2 zeigt die MOSFET-Überspannungen in beiden Betriebsarten. Im Sperrwandler-Modus stieg die Drain-Spannung des MOSFETs auf fast 40 V, während sie im SEPIC-Modus nur 25 V erreichte. In einer Sperrwandlerschaltung müsste man also einen 40-V- oder 60-V-MOSFET einsetzen, während bei der SEPIC-Lösung ein MOSFET für 30 V ausreichen würde.

Darüber hinaus wäre das hochfrequente Nachschwingen (>5 MHz) problematisch in Bezug auf die Entstörung. Die Kreuzregelung der beiden Schaltungen wurde gemessen, wobei der SEPIC ein wesentlich besseres Verhalten zeigte. In beiden Schaltungen wurden die 5-V-Ausgänge auf 5,05 V gehalten, die Lastströme von Null bis auf Volllast variiert und die Eingangsspannung auf 12 oder 24 V eingestellt.

Die 12 V blieben beim SEPIC innerhalb einer Regelungsbandbreite von 10%, während die 12 V beim Sperrwandler auf 30 V stiegen (hohe Eingangsspannung, 12-V-Ausgang unbelastet, 5-V-Ausgang unter Volllast). Die Wirkungsgrade beider Konfigurationen waren gleich, aber die Wahl wäre auf den SEPIC-Wandler gefallen, wenn die Leistungsbauelemente anhand der niedrigeren Überspannungen gewählt worden wären.

Zusammengefasst lässt sich sagen, dass der SEPIC-Wandler eine nützliche Topologie für Stromversorgungen ist, bei denen es nicht auf eine galvanische Trennung ankommt. Sie begrenzt die MOSFET-Überspannung auf einen Wert, der gleich der Eingangsspannung plus der Ausgangsspannung ist, und eliminiert die elektromagnetischen Störungen, die ein Sperrwandler erzeugt.

Die geringeren Überspannungen gestatten unter Umständen die Verwendung von Bauelementen mit niedrigeren Nennspannungen, so dass der Wirkungsgrad der Stromversorgung steigt und die Bauteilkosten sinken. Zudem vereinfacht das günstigere Störverhalten die EMV-Prüfung des endgültigen Produkts. Bei einer Konfiguration als Spannungsversorgung mit mehreren Ausgängen verbessert sich schließlich auch die Kreuzregelung im Vergleich zu einem Sperrwandler.

Literatur
[1] Betten, J.; Kollmann, R.: “No need to fear: SEPIC outperforms the flyback”, Power Management DesignLine, 25. Januar 2006.
Von

Robert Kollman,
Texas Instruments.

Damit Kernverluste keine heiße Sache werden

Da fällt der erste Verdacht auf zu hohe Ummagnetisierungsverluste und wechselstrombedingte Verluste in der Wicklung. Bei einer Schaltfrequenz von 100 kHz ist das im Allgemeinen kein Problem, weil die Ummagnetisierungsverluste etwa fünf bis zehn Prozent der gesamten Verluste in der Induktivität ausmachen – was den entsprechenden Temperaturanstieg erklärt.

Bei der Auswahl einer Induktivität würde man einfach den maximalen Laststrom ermitteln und unter der Vorgabe, dass ein Stromwelligkeit von 20% zulässig sein soll, eine passende Induktivität wählen. Deren Temperaturanstieg wäre ähnlich hoch wie der Parameter im Datenblatt, da auf die Ummagnetisierungsverluste kein nennenswerter Anteil der Gesamtverluste entfallen würde.

Steigen die Schaltfrequenzen jedoch über 500 kHz, können die Ummagnetisierungsverluste und die AC-Verluste der Wicklung den zulässigen DC-Strom durch eine Induktivität erheblich verringern. Legt man bei der Berechnung der Induktivität einen Welligkeitsstrom von 20% zugrunde, ergibt sich im Kernmaterial unabhängig von der Frequenz dieselbe Flussänderung. Die Gleichung für die Ummagnetisierungsverluste hat folgende allgemeine Form:

EP-010_Power-Tipp_Formel1_${13931366}

 

 Bild 1: Oberhalb von 0,5 MHz setzen die Ummagnetisierungsverluste den nutzbaren Leitungsverlustanteil erheblich herab Bild 1: Oberhalb von 0,5 MHz setzen die Ummagnetisierungsverluste den nutzbaren Leitungsverlustanteil erheblich herab

Erhöht man die Frequenz (F) von 100 auf 500 kHz, steigen die Ummagnetisierungsverluste um den Faktor 8. Dieser Anstieg ist in Bild 1 zu sehen. Bild 1 zeigt außerdem die zulässigen Kupferverluste, die mit steigenden Ummagnetisierungsverlusten kleiner werden. Bei 100 kHz bestehen die Gesamtverluste fast ausschließlich aus Kupferverlusten, so dass man den vollen DC-Nennstrom nutzen kann. Bei höheren Frequenzen nimmt dagegen der Anteil der Ummagnetisierungsverluste deutlich zu.

Da die gesamten zulässigen Verluste durch die Summe der Ummagnetisierungs- und Kupferverluste vorgegeben sind, müssen die Kupferverluste verringert werden, wenn die Ummagnetisierungsverluste zunehmen. Dies setzt sich fort, bis beide Verlustanteile gleich groß werden. Dieser Optimalzustand wird bei einer höheren Frequenz erreicht, bei der die Verluste am besten gleich groß gehalten werden.

In diesem Zustand wird der maximale Ausgangsstrom erreicht, den die magnetische Struktur liefern kann.

 Bild 2: Die Spitzenleistung wird durch die Ummagnetisierungsverluste begrenzt Bild 2: Die Spitzenleistung wird durch die Ummagnetisierungsverluste begrenzt

Die Bilder 1 und 2 gelten für den Fall, dass das Kernvolumen und die Wicklungsfläche fest sind und nur die Zahl der Windungen verändert wird. Bild 2 zeigt die Induktivität und den zulässigen DC-Strom für die in Bild 1 dargestellten Ummagnetisierungsverluste. Unterhalb von 1,3 MHz verhält sich die Induktivität umgekehrt proportional zur Schaltfrequenz. und erreicht bei etwa 1,3 MHz ein Minimum.

Oberhalb dieser Frequenz muss die Induktivität erhöht werden, um den magnetischen Fluss des Kerns zu begrenzen, so dass die Ummagnetisierungsverluste 50% der Gesamtverluste nicht übersteigen.

Der resultierende Nennstrom der Induktivität soll ebenfalls berechnet werden. Bei niedrigen Frequenzen, wo die Ummagnetisierungsverluste keine wesentliche Rolle spielen, wird der Nennstrom durch die Leistungsverluste in den Windungen bestimmt.

 Gleichung 1 Gleichung 1

In Gleichung 1 ist die Anzahl der Windungen proportional zum Kehrwert der Quadratwurzel der Frequenz, so dass eine Verdoppelung der Frequenz (d.h. eine Halbierung der Induktivität) in einer Verringerung der Windungszahl um den Faktor 0,707 resultiert.

Einfluss auf den Wicklungswiderstand

Dies beeinflusst den Wicklungswiderstand auf zweierlei Art. Es sind also 30% weniger Windungen vorhanden, und für jede Windung stehen 41% mehr Fläche zur Verfügung. Da der Wicklungswiderstand proportional zur Anzahl der Windungen ist, dividiert durch die Wicklungsfläche, verringert sich der Widerstand linear mit steigender Frequenz oder – wie in diesem Beispiel – um den Faktor 2.

Bei höheren Frequenzen beginnen die Ummagnetisierungsverluste die zulässigen Kupferverluste zu begrenzen, bis der Punkt erreicht ist, an dem beide Verlustarten gleich groß werden. An diesem Punkt wird die Induktivität erhöht, um den magnetischen Fluss durch Hinzufügen von Windungen zu reduzieren, wodurch der Wicklungswiderstand zunimmt. Entsprechend verringert sich der Nennstrom der Induktivität. Das Ergebnis ist eine – unter dem Gesichtspunkt der Spulengröße betrachtet – optimale Frequenz.

Zusammenfassend lässt sich sagen, dass es durchaus richtig ist, dass eine Erhöhung der Schaltfrequenz zu einer Verkleinerung der magnetischen Bauelemente führt, jedoch nur bis zu dem Punkt, an dem die Ummagnetisierungsverluste und die Verluste der AC-Wicklung ebenso groß wie die Kupferverluste sind. Wird dieser Punkt überschritten, nimmt die Größe der magnetischen Bauelemente sogar wieder zu.

Außerdem sollte der Entwickler berücksichtigen, dass in den Applikationsberichten zu den vielen heute auf dem Markt erhältlichen Produkten, die mit hohen Schaltfrequenzen arbeiten, nicht deutlich genug auf die möglichen Probleme hingewiesen wird, zu denen es aufgrund von allzu hohen Ummagnetisierungsverlusten kommen kann.

Von Robert Kollman, Texas Instruments.

HiFi: Stapel-Endstufe für besseren Wirkungsgrad

Die im HiFi-Sektor immer noch bevorzugten analogen AB-Endstufen erreichen theoretisch einen Wirkungsgrad von 78%. Eine deutlich bessere Energiebilanz ist an gestuften Betriebsspannungen möglich.

Moderne Class-D-Audioverstärker erreichen einen Wirkungsgrad von etwa 90%, haben aber Probleme mit Verzerrungen und der EMV. Die im HiFi-Sektor deswegen immer noch bevorzugten analogen AB-Endstufen erreichen theoretisch einen Wirkungsgrad von 78%; bei 1/3 des Hubes (Pmax/9) sind es nur noch 26%. Die Differenz zwischen Betriebs- und Ausgangsspannung wird in den Transistoren verheizt, im Diagramm a geschwärzt dargestellt.

Eine deutlich bessere Energiebilanz (b) ist an gestuften Betriebsspannungen möglich. In der gezeigten Prinzipschaltung in Bild 1 sind zunächst nur T1, T4 und Ub1 aktiv. Bei einem größeren Signal, z.B. bei einem Momentanwert von ± 5 V, arbeitet T2 (T5) im Linearbetrieb, D1 (D5) ist gesperrt, die Leistung wird von ±Ub2 geliefert.

Sinngemäß dasselbe gilt für noch höhere Pegel und T3, T6, D3, D7 und Ub3. Die dabei jeweils „tieferen“ Transistoren sind voll durchgesteuert. Der theoretische Wirkungsgrad bei Sinus-Maximalhub beträgt 88% und bei Pmax/9 immer noch 78%. Das ist deutlich besser als mit einer klassischen AB-Endstufe erzielt werden kann. Für T1 bis T6 sind Typen mit kleinstmöglicher Kniespannung UCE, rest und sehr hohem Beta notwendig, wie es bei den Transistoren ZTX1051/ZTX790 (Hersteller Zetex) der Fall ist.

Das vorgestellte Konzept ist integrationstauglich. Ub1 bis Ub3 können effizient und störarm mit Ladungspumpenkonvertern erzeugt werden. Die linear arbeitende Endstufe bleibt frei von Schaltvorgängen und Störungen und steht hinsichtlich Wirkungsgrad und minimalem Kühlbedarf dem Class-D-Prinzip nur wenig nach.

Achtkanaliges Datenerfassungssystem mit einem OPV ansteuern

Der folgende Beitrag zeigt, wie sich der A/D-Wandler eines achtkanaligen Datenerfassungssystems mit einem einzigen Operationsverstärker ansteuern lässt.

Der 1 MSample/s schnelle 8-Kanal-A/D-Wandler AD7329 mit einer Auflösung von 12 Bit plus Vorzeichen verfügt über echte bipolare Eingänge mit vier unabhängigen, programmierbaren, softwareselektierbaren Eingangsspannungsbereichen: ±4×UREF, ±2×UREF, ±UREF und 0 bis 4×UREF. Der Wandler lässt sich für viele Anwendungen konfigurieren.

Der Baustein enthält einen 8-Kanal-Multiplexer mit nachgeschaltetem Track-and-Hold- und SAR-A/D-Wandler, einen Kanal-Sequenzierer, eine 2,5-V-Referenz und eine SPI-kompatible Schnittstelle (Bild 1).

Die analogen Eingangskanäle des Wandlers sind über den Multiplexer I/PMUX auf die Anschlüsse MUXOUT+ und MUXOUT– des Bauteils herausgeführt. Die Anschlüsse ADCIN+ und ADCIN– sind mit dem Track-and-Hold-Schalter und einem Speicher-Kondensator verbunden. Die Eingangsquelle liefert den Strom zur Ansteuerung des A/D-Wandler-Eingangs. Das Einschwingen auf die erforderliche Genauigkeit muss innerhalb der Erfassungszeit des A/D-Wandlers von 300 ns erfolgen.

Beim „Umschalten“ des Track-and-Hold-Schalters von „Hold” auf „Track” können vom A/D-Wandler erzeugte Transienten die Eingangsquelle beeinträchtigen. Daher ist bei Anwendungen, die mit der maximalen Abtastrate arbeiten, zum Treiben des A/D-Wandlers ein eingangsseitiger Pufferverstärker erforderlich. Dieser isoliert die Quelle vom Track-and-Hold-Schalter.

 Bild 2: Puffer zwischen MUXOUT und ADCIN beim AD7329 erhöhen die Eingangsimpedanz
Bild 2: Puffer zwischen MUXOUT und ADCIN beim AD7329 erhöhen die Eingangsimpedanz

Die flexible Architektur des AD7329 ermöglicht die Platzierung eines Operationsverstärkers zwischen die MUXOUT+ und ADCIN+-Anschlüsse (Bild 2). Dazu kann der rausch- und verzerrungsarme Operationsverstärker AD797 verwendet werden.

Diese Variante erhöht die Eingangsimpedanz und reduziert den Strom, der zum Ansteuern des A/D-Wandlers benötigt wird. Außerdem erlaubt diese Konfiguration das Ansteuern von acht analogen Eingangskanälen mit einem einzigen Operationsverstärker bei maximaler Abtastfrequenz. Somit werden die Zahl der Bauteile, die Leiterplattenfläche und die Systemkosten reduziert.

Bei einigen Anwendungen muss die Verstärkung geändert werden, um Eingangskanäle für unterschiedliche Signalamplituden zu implementieren. In diesen Fällen kann statt des Operationsverstärkers ein Instrumentenverstärker mit programmierbarer Verstärkung wie z.B. die Bauteile AD8250, AD8251 oder AD8253 verwendet werden.

Der Autor: Jakub Szymczak, Analog Devices.