Archiv der Kategorie: EPAP – Bauelemente

Gleichtaktströme in nicht isolierten Netzteilen

In Hochspannungsnetzteilen, die z. B. in einer LED-Lampe vorkommen, ist dies unter Umständen nicht möglich. Bei näherer Betrachtung unterscheiden sie sich nicht wirklich von einem isolierten Netzteil. Es kommt zu Streukapazitäten von Schaltknotenpunkten zur Masse, die Gleichtaktströme verursachen.


Bild 1: Nur 100 fF Kapazität vom Schaltknotenpunkt können ein Problem mit elektromagnetischen Störungen verursachen.

Bild 1 stellt einen Schaltplan eines LED-Netzteils dar, in dem die parasitäre Kapazität gezeigt wird, die die Hauptursache für Gleichtaktströme in diesem Abwärtsregler darstellt. Es ist die Kapazität vom Schaltknotenpunkt zur Erde. Es überrascht, dass diese Kapazität so gering sein und trotzdem ein Problem darstellen kann.

Der Grenzwert für leitungsgeführte Störaussendung gemäß CISPR Klasse B (für den Wohnbereich) erlaubt ein Signal von 46 dBuV (200 uV) in eine Quellimpedanz von 50 Ohm bei 1 MHz. Dies bedeutet einen zulässigen Strom von nur 4 uA. Wenn der Wandler mit einem Rechtecksignal von 200 V Spitze-zu-Spitze den Drainanschluß von Q2 bei 100 kHz schaltet, liegt die Grundschwingung bei einer Spitzenspannung von 120 Volt.

Da die Oberschwingungen im Verhältnis zur Frequenz abnehmen, beträgt die Effektivspannung bei 1 MHz etwa 9 Vrms. Dies kann zur Berechnung einer zulässigen Kapazität zur Masse von etwa 0,1pF oder 100 fF (oder einem Widerstand von 2 Megaohm bei 1 MHz) verwendet werden. Dabei handelt es sich um eine plausible Kapazität von diesem Knotenpunkt. Es gibt außerdem Kapazitäten vom Rest des Schaltkreises zur Erde, die einen Rückpfad für Gleichtaktströme darstellt. Dies wird als C_Stray2 in Bild 1 dargestellt.


Bild 2: 100 fF können dazu führen, dass Sie die Grenzwerte für elektromagnetische Störungen überschreiten.

Bei einer LED-Lampe gibt es keine Chassisverbindung, es stehen nur der spannungsführende und der neutrale Anschluss zur Verfügung. Daher ist die Gleichtakt-EMV-Filterung problematisch. Dies liegt daran, dass es sich um einen hochohmigen Schaltkreis handelt. Er kann mit einer Spannungsquelle von 9 Vrms in Reihe mit einer kapazitiven Reaktanz von 2 Megaohm, wie in Bild 2 gezeigt, dargestellt werden.

Es gibt keine Möglichkeit, den Widerstand zu erhöhen, um den Strom zu reduzieren. Um die Störaussendungen bei 1 MHz zu reduzieren, müssen Sie die Spannung oder die Streukapazität reduzieren. Zwei Möglichkeiten zur Reduzierung der Spannung sind das Dithering und die Regelung der Anstiegszeit. Durch Dithering wird die Betriebsfrequenz eines Netzteils variiert, um das Spektrum auszuweiten.

Signalintegrität und Wellenwiderstand von Bauelementen

Beim Versuch, Signale bei der Übertragung auf einer Leiterplatte zu stabilisieren, können Signalintegritäts-Probleme eine Reihe interessanter Effekte hervorrufen. Eine einfache Lösung für diese Probleme bringen die IBIS-Modelle, aus denen sich wichtige Variablen für Signalintegritäts-Berechnungen und das Leiterplattendesign extrahieren lassen.

Die Werte, die man aus einem IBIS-Modell entnehmen kann, sind ein integraler Bestandteil der Berechnungen, die beim Design zum Thema Signalintegrität durchgeführt werden. Beim Anpassen von Leitungen in einem System müssen die elektrischen Impedanzen und Eigenschaften der integrierten Schaltungen und Leiterbahnen bekannt sein.

Bild 1: Schema einer massebezogenen Übertragungsleitung mit Sender, Leitung und Empfänger (Bild: TI)

Bild 1 zeigt eine Prinzipdarstellung einer massebezogenen Leitung. Für die Leitung können die Ausgangs-Impedanz des Senders (ZT, Ω) und die Eingangsimpedanz des Empfängers (ZR, Ω) aus dem IBIS-Modell des Schaltkreises entnommen werden. Die Datenblätter der IC-Hersteller enthalten diese Angaben unter Umständen nicht, doch lassen sich die Werte allesamt aus dem IBIS-Modell des betreffenden Bausteins extrahieren.

Wellenwiderstand, Signallaufzeit und Leiterbahnlänge

Übertragungsleitungen werden durch vier Parameter definiert: den Wellenwiderstand (Z0, Ω), die spezifische Signallaufzeit auf der Leiterplatte (D, ps/cm), die Signallaufzeit in der Leitung (tD, s) und die Leiterbahnlänge (LENGTH, cm). Der Z0-Wert einer FR-4-Leiterplatte liegt typischerweise zwischen 50 und 75 Ω, während D zwischen 55 und 71 ps/cm beträgt. Die tatsächlichen Werte von Z0 und D hängen vom Werkstoff der Übertragungsleitung und ihren mechanischen Abmessungen ab [1]. Die Signallaufzeit (tD) auf der jeweiligen Leiterplatte ist das Produkt aus der spezifischen Signallaufzeit D und der Leiterbahnlänge LENGTH. Bei FR-4-Platinen mit einem Wellenwiderstand von 50 Ω liegt die spezifische Signallaufzeit einer Leiterbahn bei 70 ps/cm.

Entscheidend ist die Ausgangsimpedanz

Der entscheidende Wert, der zur Beurteilung der Signalintegrität benötigt wird, ist die Ausgangsimpedanz ZT. Damit man die Ausgangsimpedanz ermitteln kann, enthält der mit [Pin] überschriebene Bereich des IBIS-Modells die ohmschen, induktiven und kapazitiven Widerstandskomponenten zu jedem Pin. Um ein klareres Bild zu erhalten, nimmt man zur Gehäusekapazität noch die Kapazität des jeweiligen Puffers (C_comp) hinzu.

Bild 2: Das Listing des Modells ads1296zxg samt der Werte für C_pin (Bild: TI)

Das Schlüsselwort [Pin] bezieht sich auf ein bestimmtes Gehäuse, das von den Angaben unter [Component], [Manufacturer] und [Package] oberhalb des Schlüsselworts [Pin] beschrieben wird. Man findet die Gehäuse spezifische Kapazität und Induktivität für den jeweiligen Pin in der Tabelle zum Schlüsselwort [Pin]. Zum Beispiel ist im Modell ads129x.ibs [2] (Bild 2) zu sehen, wo man nach den Werten L_pin und C_pin des Signals GPIO4 an Pin 5E (PBGA-64-Gehäuse) suchen muss. Die Werte L_pin (Pin-Induktivität) und C_pin (Pin-Kapazität) für dieses Signal und dieses Gehäuse lauten 1,489 nH bzw. 0,28001 pF. Der zweite interessierende Kapazitätswert ist die Angabe C_comp unter dem Schlüsselwort [Model]. Bild 3 zeigt ein Beispiel für die Auflistung von C_comp im Modell DIO_33 [2].

Bild 3: Beispiel für die Auflistung von C_comp im Modell DIO_33 [2] (Bild: TI) Bild 3: Beispiel für die Auflistung von C_comp im Modell DIO_33 [2] (Bild: TI)In Bild 3 steht das Zeichen ‚|‘ stets für einen Kommentar. Die C_comp-Angaben [3] lauten hier: C_comp_typ (nom PVT): 3,0727220 e–12 C_comp_min (fast PVT): 2,3187130 e–12 C_comp_max (slow PVT): 3,8529520 e–12 Die Liste lässt dem Leiterplattendesigner die Entscheidung zwischen drei Werten. Für das Design der Übertragungsleitung auf der Leiterplatte ist der typische Wert von 3,072722 pF die richtige Wahl.

Literatur

[1] Johnson, G.: High-speed Digital Design: A Handbook of Black Magic, Prentice Hall, ISBN: 0-13-395724-1 [2] ads129x.ibs, IBIS Model, sbam021b,Texas Instruments [3] Baker, B.: “Beyond the Data Sheet with IBIS”, EDN, 25. Mai 2011

Von Bonnie Baker, Texas Instruments.

Schaltende Bits

Antwort: Entwickler, die mit schnellen ADCs nicht so gut vertraut sind, erwarten eventuell, dass der Digitalausgang eines Wandlers bei einem statischen Analogeingang konstant bleibt. Dies ist ähnlich wie man ohne Eingangssignal einen einfachen DC-Offsetfehler am Ausgang eines Operationsverstärkers erwartet. Nimmt man das Eingangssignal von einer Verstärkerschaltung und misst die Ausgangsspannung mit einem Digital-Multimeter (DVM), zeigt dieses den Verstärkeroffset an.

Das DVM mittelt die angezeigten Ergebnisse (mit einem ADC!). Allerdings sagt das DVM nichts über das Rauschen am Verstärkerausgang aus. Zum Messen des Rauschens ist ein Oszilloskop oder ein Spektrumanalysator erforderlich.

Wie alle anderen Bauteile in der Signalkette leisten auch ADCs mit ihrem eigenen thermischen Rauschen einen Beitrag zum Gesamtrauschen. Falls man also verifizieren möchte, dass der ADC sich ohne Eingangssignal wie erwartet verhält, muss man einen Block von Daten erfassen und den Mittelwert bilden. Genauso wie es ein DVM mit der Verstärkerschaltung macht. Schnelle ADCs floaten normalerweise zu Code in der Mitte des Ausgangsbereiches plus oder minus Offset. Somit sollte sich der resultierende Durchschnittsausgangscode innerhalb der Offsetspezifikation des ADCs befinden.

Während man den Block von erfassten Daten analysiert, kann man leicht das Rauschverhalten des ADCs überprüfen. Die Datenblattspezifikation ist „Eingangsbezogenes Rauschen“, angegeben als LSBeff.. Die Messung ist bekannt als „Massebezogener Eingangshistogrammtest“, wobei die Nomenklatur von frühen Wandlern stammt, die einen bipolaren Eingangsbereich um Masse hatten. Den Eingang gegen Masse kurzuschließen war gleich wie kein Eingangssignal zu haben. Moderne schnelle Wandler arbeiten normalerweise mit einer unipolaren Spannung. Somit ist statt der Masse ihre eingangsseitige Gleichtaktspannung der Mittelpunkt der Stromversorgung des Schaltungseingangs. Glücklicherweise wird der Histogrammtest durchgeführt, indem man ohne Eingangssignal einen Block mit Daten erfasst. Dies ist bereits erfolgt. Statt den Mittelwert der erfassten Ausgangsdaten zu bilden, sollte man ein Histogramm anfertigen. Für einen typischen schnellen ADC sind eventuell 1LSBeff. Eingangsrauschen spezifiziert. So kann man eventuell eine Gauß’sche Verteilung mit den Offset ±3 Codes sehen. Das eingangsbezogene Rauschen wird als Standardabweichung der erfassten Daten berechnet.

Auf die eingangs gestellte Frage zurückkommend lässt sich sagen, dass das Breitbandrauschen des ADCs für das Umschalten der Ausgänge sorgt – selbst ohne Eingangssignal. Viel Erfolg mit dem restlichen Debugging ihrer Schaltung.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices

Diskretion ist der bessere Teil

Antwort: Diskret. (Entschuldigung, hier konnte mein Kollege nicht widerstehen.)
In der Praxis, nicht zu sorgfältig. Mein Kollege hat Ingenieure erlebt, die sich tagelang mit der Suche nach dem besten diskreten Transistor für einen langsamen Logik-Inverter gequält haben. Dabei waren sie nahe am Zusammenbruch, weil sie nicht genau den gleichen Transistor finden konnten, der als Emitter-Folger in einer Applikationsschrift verwendet wurde.

Vorausgesetzt, dass einige grundlegende Fragen adressiert wurden, arbeiten viele verschiedene Transistoren in einer Vielzahl von Anwendungen gleich gut.

In vielen Anwendungen spielt es wirklich keine Rolle, ob man einen Bipolar-Junction-Transistor (BJT) oder einen MOSFET einsetzt. Beide benötigen natürlich unterschiedliche Beschaltungen. Der Transistor braucht möglicherweise Basis-Widerstände, während der MOSFET ohne sie auskommt. Auch wird der MOSFET eine größere Eingangskapazität aufweisen. Dies ist im Hinblick auf die Stabilität zu berücksichtigen. Beide Varianten arbeiten jedoch gut als Halbleiter-Trioden in Verstärkern, Oszillatoren und Logik. Der BJT nimmt Basis-Strom auf, hat aber eine größere Kapazität. Der MOSFET hat einen verschwindend geringen Gate-Strom, aber eine recht hohe Gate-Kapazität. Die physikalischen Eigenschaften und die Wahl des Bauteils spielen in einigen Fällen natürlich eine Rolle. Zum Beispiel wenn die thermischen Eigenschaften der Basis/Emitter-Sperrschicht eines BJTs für Temperaturmessungen verwendet werden.

Man muss aufpassen, dass unabhängig vom Bauteil die richtige Polarität gewählt wird (ist es ein NPN/N-Kanal oder ein PNP/P-Kanal?). Sicherzustellen ist, dass die Schaltung, egal welcher Transistor gewählt wurde, sowohl im Ruhezustand, als auch im Betrieb, ihre absoluten Maximalspezifikationen nicht übersteigt.

Für den Rest muss man verstehen, welche Eigenschaften wichtig sind und welche ohne Auswirkung auf die Leistungsfähigkeit der Schaltung variieren können. Bei der Wahl von Transistoren werden diese Eigenschaften im Detail beachtet. Man kommt zu dem Schluss, dass die beste Vorgehensweise bei der Wahl eines Transistors so lautet: „Jedes Bauteil, das Eigenschaften aufweist, die besser als xxxx, yyyy und zzzz sind, arbeitet sehr wahrscheinlich in dieser Schaltung. Die SPICE-Analyse hat gezeigt, dass die 2Naaaa, 2Nbbbb und 2Ncccc in Simulationen alle arbeiten. Mit dem 2Naaaa aufgebaute Prototypen arbeiten definitiv gut. Allerdings sollten viele andere Transistoren mit ähnlichen Eigenschaften gleich akzeptabel sein.”

Ganz gleich, welches Bauteil man wählt, sollte man sicherstellen, dass es diskret ist. Denn man möchte nicht, dass die Kollegen darüber reden, wie wenig Sie sich mit der Wahl von Transistoren befassen. Obwohl es in der Tat gutes Engineering ist, eine Über-Spezifizierung zu vermeiden. Henry Ford sagte einmal: „Ein Ingenieur kann für wenige Cent das tun, wofür jeder andere Mensch einen Dollar braucht.“

Von Uwe Bröckelmann nach Unterlagen von Analog Devices

Machen Sie etwas mit nicht genutzten Pins!

Frage: Was soll ich mit den nicht genutzten Pins eines Analog-ICs machen?
Antwort: Gehen Sie freundlich mit ihnen um, beachten Sie sie und ignorieren Sie sie niemals.

 Analog-IC (Spannungsreferenz)
Analog-IC (Spannungsreferenz)

Nach Goethe ist „ein ungenutztes Leben ein früher Tod” [1]. Auf ähnliche Weise kann ein nicht genutzter Pin an einem Analog-IC das Risiko eines frühzeitigen Ausfalls durch elektrostatische Entladung (ESD) erhöhen. Obwohl ungenutzte Ausgänge offen bleiben können und dies im Allgemeinen auch sind, ist es normalerweise besser, nicht benutzte Eingänge (sowohl analoge wie auch digitale) mit einer Stromversorgung zu verbinden.

In einem System mit nur einer Versorgungsspannung erfolgt diese Verbindung normalerweise zur negativen Masse. In einem System mit zwei Versorgungsspannungen zur mittleren Versorgungsspannung. Doch es gibt Ausnahmen. Wie immer ist RTFDS (Read The Friendly Data Sheet) notwendig und es sollte das Angeratene getan werden. Falls das Thema nicht erwähnt wird, ist Erden normalerweise die beste Strategie.

Ungenutzte Verstärkereingänge sind eine der wichtigen Ausnahmen. Das Erden von ungenutzten Eingängen eines Verstärkers kann seine Stromaufnahme erhöhen. Die beste und oft auch die einzig sichere Strategie besteht darin, den Verstärker als Puffer zu schalten und den Eingang auf ein Potenzial irgendwo zwischen den Versorgungsspannungen festzulegen.

CMOS-Schalter und Multiplexer sind symmetrische Bauteile; ihre ein- und ausgangsseitigen Anschlüsse für die Signale sind austauschbar. Ungenutzte Anschlüsse sollten als Eingänge und nicht als Ausgänge betrachtet werden. Somit sollten sie alle auf Masse liegen.

Interne Pull-up- oder Pull-down-Widerstände verbinden einen Eingang mit einer positiven Versorgungsspannung (Pull-up) oder Masse (Pull-down). Falls sich an einem ungenutzten Eingang einer dieser Widerstände befindet, muss man keine Verbindung zu ihm herstellen. Falls der Pin jedoch angeschlossen ist, sollte er an der gleichen Spannung wie sein Widerstand liegen. Bei jeder anderen Verbindung wird Strom in den Widerstand fließen und Energie verschwendet (die verschwendete Energie mag zwar klein sein, doch jede verschwendete Energie sollte, falls möglich, vermieden werden).

Besondere Beachtung sollte man nicht genutzten Logik-Eingängen schenken. Diese sollten, falls unbenutzt, den Logikpegel 1 haben. Manche Logik-Eingänge haben drei Zustände (Tristate), nicht nur zwei. Dabei ist eine offene Verbindung als Logikzustand definiert. Solche Eingänge sollte man eventuell offen lassen.

Zusammenfassend lässt sich sagen, dass man sich auf jeden Fall Gedanken über nicht genutzte Pins machen sollte. Denn dies ist ein wichtiger Teil bei der Entwicklung von Analogschaltungen, der nicht übersehen werden darf.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Literatur

[1] Goethe, J. W. von: aus seinem Stück „Iphigenie auf Tauris” (1779)

 

 

Was macht man mit einem nicht genutzten Operationsverstärker?

Diese Situation ist kniffliger, als sie aussieht. Falls ein OPV übersteuert wird, gelangt die Ausgangsstufe auf einer der Versorgungsspannungen in die Sättigung und der OPV nimmt übermäßig Leistung auf. Viele der üblichen Konfigurationen eines ungenutzten OPV übersteuern diesen.

Falls alle Anschlüsse offen bleiben, besteht ein echtes Risiko darin, dass elektrostatische Störfelder bewirken, dass sich ein Eingang außerhalb der Versorgungsspannung bewegt. Dies kann ein Latch-up bewirken und den gesamten Chip zerstören. Selbst wenn es zu keinem Latch-up kommt, kann ein DC-Feld Sättigungsvorgänge und Stromverschwendung verursachen. Ferner kann es vorkommen, dass der Verstärker ein AC-Feld verstärkt und, falls er übersteuert wird, seinen eigenen Versorgungsstrom moduliert. Dies kann Übersprechen zu anderen OPVs auf dem Chip verursachen.

Einige Anwender verbinden einen Eingang mit der positiven und den anderen mit der negativen Versorgungsspannung. Dies wiederum sättigt den Ausgang und verschwendet Strom. Auch kann dies dazu führen, dass die differenzielle Eingangsspannung überschritten und das Bauteil beschädigt wird. Selbst wenn es zu keiner Beschädigung kommt, nehmen einige Eingangsstufen unter diesen Bedingungen mehrere zehn Milliampere auf und verbraten so noch mehr Strom.

Beide Eingänge auf Masse zu legen oder sie auf einem anderen Potenzial kurzzuschließen, führt ebenfalls dazu, dass die Ausgangsstufe in die Sättigung gelangt. Dies ist so, weil die Offsetspannung eines OPV niemals genau Null ist. Die Eingänge kurzzuschließen und nicht vorzuspannen hat die gleichen Latch-up Risiken wie bereits erwähnt.

Die Lösung: Ausgang an den invertierenden Eingang

Was man tun sollte ist, das Bauteil als Sapnnungsfolger zu schalten (Ausgang an invertierenden Eingang) und den nicht-invertierenden Eingang mit einem Potenzial zu verbinden, das zwischen den Versorgungsspannungen liegt. Mit einem System mit zwei Versorgungen ist Masse ideal. Der Anschluss an die positive oder negative Versorgung eines Systems mit nur einer Versorgungsspannung führt jedoch zur Sättigung und einer daraus resultierenden Stromverschwendung, falls die Offsetspannung die falsche Polarität hat. Das Potenzial „irgendwo zwischen den Versorgungsleitungen“ kann ein beliebiger Punkt in der Schaltung mit geeignetem Potenzial sein, da die durch den OPV-Eingang verursachte Belastung nur minimal ist.

Oder man kann ihn als Pufferverstärker in einem Teil eines Systems verwenden, der zwar keinen Pufferverstärker braucht, aber mit Pufferverstärker etwas leistungsfähiger ist.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Induktivitäten sind keine symmetrischen Bausteine

Beim Entwurf eines DC/DC-Wandlers kommt man an Induktivitäten kaum vorbei. Es gibt nur zwei Möglichkeiten ohne sie: Linearregler, auch als LDOs bekannt, sowie Ladungspumpen. Linearregler haben in den meisten Anwendungen eine sehr niedrige Effizienz, da sie überschüssige Spannung in Wärme umwandeln.

Ladungspumpen nutzen Kapazitäten und Dioden, um eine Spannung zu verändern, sind aber nur bei niedrigen Lasten praktikabel. Somit sind Induktivitäten als sogenannte Speicherdrosseln in DC/DC-Wandlerschaltungen weit verbreitet. Für die Auswahl der richtigen Induktivität helfen Datenblätter der Schaltregler IC sowie Berechnungstools der Halbleiter- sowie Speicherdrosselhersteller.

Hat man eine Spule ausgewählt, wird sie häufig wahllos auf die Platine gesetzt. Erfahrene Entwicklungsingenieure achten beim Schaltungsentwurf auch darauf, die für Schaltregler wichtigen Regeln für das Platinenlayout einzuhalten. Vielen Anwendern ist aber nicht bekannt, welchen Einfluss die Orientierung der Speicherdrossel auf der Platine hat. Obwohl der Baustein nur zwei Anschlüsse besitzt und dazwischen die gewählte Induktivität liegt, sollte auf die richtige Anschlussrichtung geachtet werden.

 Bild 1: Aufbau einer Speicherdrossel
Bild 1: Aufbau einer Speicherdrossel

Warum? Speicherdrosseln sind häufig so konstruiert wie in Bild 1 dargestellt. Es gibt einen Anschluss, welcher als ‚start of winding‘ an den Drosselkern geführt wird. Dort wird der Spulendraht häufig um den Spulenkern gewickelt. Dies geschieht bei den meisten Induktivitäten in vielen Lagen bis genügend Wicklungen für die gewünschte Induktivität erreicht sind.

Das Ende des Spulendrahts wird dann an den zweiten Anschluss der Speicherdrossel geführt. Diesen Anschluss bezeichnet man als ‚end of winding‘. Er ist direkt mit den äußeren Wicklungen der Induktivität verbunden. Der Anschluss ‚start of winding‘ hingegen ist mit den inneren Wicklungen der Speicherdrossel verbunden.

 Bild 2: Speicherdrossel in einer Abwärtswandlerschaltung
Bild 2: Speicherdrossel in einer Abwärtswandlerschaltung

Bild 2 zeigt eine typische DC/DC-Wandlerschaltung mit dem ADP2441 von Analog Devices. Dabei handelt es sich um einen Abwärtswandler, der aus einem sehr breiten Eingangsspannungsbereich von 4,5 bis 36 V eine Ausgangsspannung generiert, die unterhalb der Eingangsspannung liegt.

Wie in jedem Induktiven Spannungswandler wird in der Speicherdrossel Energie gespeichert und dann wieder abgegeben. Dieser Zyklus kommt dadurch zustande, dass die angelegte Spannung über der Induktivität verändert wird. Es muss sich also mindestens die Spannung an einer Seite der Induktivität ändern, um den Zyklus zu erhalten. Bei einem Abwärtswandler wie in Bild 2 dargestellt wird die Spannung am Schaltknoten zwischen der Eingangsspannung, beispielsweise 24 und 0 V, hin und her geschaltet.

Aus Effizienzgründen erfolgt dieses Umschalten sehr schnell, typischerweise innerhalb von 20 ns. Man sollte den Schaltknoten nicht unnötig groß im Platinenlayout auslegen, da man durch die sich schnell ändernde Spannung an diesem Knoten kapazitiv in andere Schaltungsbereiche koppeln kann. Es entsteht Rauschen welches zu erhöhter Stör-Abstrahlung führen kann.

Man sollte also darauf achten, dass der Anschluss ‚start of winding‘ der Speicherdrossel an den Schaltknoten angeschlossen wird. Dieser ‚unruhige‘ Knoten ist dann mit den inneren Windungen der Speicherdrossel verbunden. Die äußeren Wicklungen werden folglich mit der ruhigen Ausgangsspannung verbunden sein und schirmen so die kapazitiven Kopplungen der inneren Windungen weitestgehend ab. Viele Speicherdrosseln haben eine Markierung auf dem Gehäuse mit der die Anschlüsse gekennzeichnet sind.

Früher war es nicht so entscheidend, welche Orientierung die Speicherdrossel aufwies. Viele Spulen hatten noch nicht einmal eine Markierung, anhand derer man festzustellen konnte, welcher Anschluss der Anfang und welcher Anschluss das Ende der Wicklung ist. Einflüsse eines falschen Anschlusses wirkten sich auf die Schaltung nur wenig aus, da die Schalttransienten wesentlich langsamer waren.

Vor 15 Jahren besaßen die Schaltregler zumeist Bipolartransitoren als Schaltelemente, welche bei 50 oder 100 kHz Schaltübergänge im Bereich von 80 oder sogar 100 ns hatten. Die Schaltfrequenzen waren hauptsächlich durch diese langsamen Schaltübergänge begrenzt.

Durch langsame Spannungsänderungen am Schaltknoten wirkt sich die kapazitive Kopplung der äußeren Windungen bei falscher Bestückungsrichtung der Spule nur sehr wenig aus. Somit war die Polarisierung der Spule nicht entscheidend und wurde nicht beachtet. Die heutigen schnellen Schaltübergänge haben also nicht nur das Layout der Platine erschwert, sondern auch eine Richtungsangabe der Speicherdrosseln notwendig gemacht.

Keine Angst vor halben Bits

Bruchteile von Bits gibt es wirklich, nur nicht in der Informatik, sondern in der von Claude Shannon begründeten Informationstheorie. Dort ist das Bit eine Einheit für eine Größe, wie das Kilogramm oder die Sekunde in der Physik. Es ist die Einheit für den Informationsgehalt einer Nachricht – und die Maßzahl des Informationsgehalts kann alle möglichen positiven, realen Werte inklusive der Null annehmen. Die internationale Organisation für Standards (ISO) hat versucht, das „Bit nach der Definition von Claude Shannon“ in Shannon (Sh) umzubenennen, hatte damit aber keinen Erfolg.

Doch was ist ein Bit nach Shannon? Wenn man annimmt, dass aus einer Menge von 256 Lottokugeln alle mit gleicher Wahrscheinlichkeit (1/256) gezogen werden, so hat eine durchgeführte erste Ziehung den Informationsgehalt von

I = –log2 (1/256) = 8 Bit.

Genauso viele Bits braucht man in der Informatik, um anzuzeigen, welche Kugel gezogen wurde. Bei einer Menge von 49 Kugeln hätte eine erste Ziehung einen Informationsgehalt von ca. 5,615 Bit. Bei so viel Theorie fragt man sich zu Recht, ob es für Bruchteile von Bits reale Anwendungen gibt oder ob das nur eine Haarspalterei (bzw. Bitspalterei) ist. Solche Anwendungen gibt es sehr wohl, wie die hier vorgestellte Schaltung zeigt.

A/D-Wandler in einem FPGA

Schon seit einigen Jahren ist die Methode bekannt, in einem rein digitalen FPGA einen A/D-Wandler unterzubringen. Man macht sich dabei die Erkenntnisse der A/D-Wandlertechnik zunutze und implementiert einen Sigma/Delta-Wandler mit ein paar Logikzellen eines FPGAs und einem einfachen, externen RC-Glied. Alle drei großen Anbieter von FPGAs (Xilinx, Altera und Lattice) haben für diese Methode Referenzdesigns oder Applikationsberichte veröffentlicht und auch unabhängige Stellen haben sich dem Thema zugewendet. Zielanwendung ist dabei meist die digitale Signalverarbeitung von Audiosignalen.

Doch es gibt auch andere sinnvolle Anwendungen solcher Wandler. Ein FPGA kommuniziert ja im Allgemeinen über eine Vielzahl von digitalen Signalen mit seiner Umgebung, wobei jeder Pin immer nur eine binäre Information übertragen kann. Wenn in einem FPGA aber nicht nur eine einfache 0/1-Information gebraucht wird sondern ein mehr oder weniger analoger Wert, so sind dafür schnell viele Pins nötig.

Dabei werden analoge Signale extern digitalisiert und parallel über mehrere Pins in das FPGA gegeben. Seit der Veröffentlichung der Referenzdesigns ist es ein Leichtes, analoge Werte ohne Verwendung externer A/D-Wandler in ein FPGA hineinzugeben. Pro analoges Signal benötigt man dabei drei Pins des FPGAs, von denen zwei zu einem LVDS-Empfänger gehören müssen.

8-Bit-A/D-Wandler mit 3,3 V Referenzspannung

Mit diesen Kenntnissen lässt sich ein einfaches Voltmeter mit einem FPGA bauen. Lattice bietet ein Entwicklungsboard an, auf dem sich ein FPGA der MachXO2-Familie befindet. An das FPGA ist ein einfaches, numerisches LCD mit vier Stellen angeschlossen. Diese beiden Komponenten sowie ein RC-Glied für den analogen Teil des Sigma/Delta-Wandlers reichen bereits für ein Voltmeter aus. Der Spannungsregler für die Core-Spannung des FPGAs, der Flash-Speicher für die Konfigurationsdaten und ein Oszillator sind alle im FPGA integriert, was den Aufbau stark vereinfacht.

 Bild 1: Blockschaltbild des Delta-Sigma-Wandlers in einem FPGA Bild 1: Blockschaltbild des Delta-Sigma-Wandlers in einem FPGA

Wenn man nun einen 8-Bit-A/D-Wandler mit einer Referenzspannung von 3,3 V im FPGA implementiert, dann führt das dazu, dass der Zahlenwert 0 der Spannung 0 V entspricht und der Zahlenwert FF der Spannung 3,3 V. Für die Anzeige einer Spannung auf einem Display ist ein „FF“ aber ein ungeeignetes Format; eine dezimale Anzeige ist hier absolut notwendig. Den dafür nötigen Umsetzer kann man entweder in einer Gatterlogik oder als kleinen Mikrocontroller im FPGA realisieren, der die Wandlung in Software macht.

Dann führt die Spannung 0 V zur Anzeige 00.00 und die Spannung 3,3 V zur Anzeige 02.55, was allerdings auch noch nicht das gewünschte Ergebnis ist. Um zur korrekten Anzeige von 03.30 zu kommen, muss man den vom A/D-Wandler ausgegeben Wert umrechnen in den Wert, der auf dem Display ausgegeben werden soll. Das ist zwar mit ein wenig Rechenaufwand in Software möglich, aber es gibt auch einen einfacheren Weg: Einen mit einer rationalen Anzahl von Bits.

Einfacher Aufbau mit Referenzdesign

Integrierte A/D-Wandler haben im Allgemeinen eine feste Auflösung von n Bits und 2n Quantisierungsstufen, die gleichmäßig über den gesamten Messbereich verteilt sind. Um zu glatten dezimalen Stufen zu kommen gibt es z.B. A/D Wandler mit einer Referenzspannung von 2,048 V, dem 211-fachen von 10 mV. Doch wenn, wie in dem Fall des Entwicklungsboards von Lattice, die Referenzspannung auf 3,3 V festgelegt ist und man eine Auflösung vom 10 mV haben möchte, dann braucht man eben einen A/D-Wandler mit 330 Stufen, also einer Auflösung von 8,366 Bit.

 Bild 2: Blockschaltbild zur Dezimierung des LVDS-Komparatorausgangs Bild 2: Blockschaltbild zur Dezimierung des LVDS-Komparatorausgangs

Ein solcher Wandler ist einfacher aufzubauen als man vielleicht denkt. Bei einem Sigma/Delta-Wandler einfacher Bauart, wie er in den Referenzdesigns der FPGA-Hersteller beschrieben ist, wird das abzutastende analoge Signal an den Plus-Eingang eines LVDS-Eingangspaars angeschlossen und das mittels RC-Glied gefilterte Sigma/Delta-Signal an den Minus-Eingang des LVDS-Eingangspaars. Im Digitalteil des Wandlers wird der Ausgang des LVDS-Komparators „dezimiert“. Dabei wird innerhalb einer vorgegebenen Anzahl von Takten diejenige Anzahl gezählt, in denen der Komparator eine 1 ausgegeben hat.

Um zu einem Wandler mit 8,336 Bit Auflösung zu kommen, muss man eben nicht nur 256 Takte lang die Einsen zählen, sondern 330 Takte lang. Der vom A/D-Wandler ausgegebene Wert benötigt dann 9 binäre Signale, bleibt aber stets im Wertebereich {0 ≤ x ≤ 330}.

Eine Vergleichsmessung des selbstgebauten Voltmeters mit einem handelsüblichen Multimeter hat ergeben, dass das selbstgebaute Voltmeter zwar sehr linear arbeitet, aber einen kleinen Fehler aufweist. Dieser beträgt im Bereich der unteren Messwertgrenze (0 V) 20 mV und in Bereich der oberen Messwertgrenze (3,3 V) 50 mV. Hierfür gibt es zwei Fehlerquellen.

Zum einen sind die LVDS-Eingänge des FPGAs für diese Anwendung eigentlich nicht gedacht. Für diese Eingänge schreiben die Datenblätter üblicherweise eine Differenzspannung von mindestens ±100 mV vor. Kleinere Differenzspannungen, die sich bei dieser Anwendung zwangsläufig ergeben, sind eigentlich „verbotene Zone“. So gesehen ist ein Offset von 20 mV ein überraschend geringer Wert.

 Bild 3: MachXO2-FPGA und Pico-Board von Lattice (Bild: Arrow) Bild 3: MachXO2-FPGA und Pico-Board von Lattice (Bild: Arrow)

Zum andern ist die I/O-Spannung auf dem Entwicklungsboard zwar mit einem hochwertigen linearen Spannungsregler geregelt, weist aber dennoch eine gewisse Toleranz auf. Solange man nur digitale Signale an die I/O-Pins anlegt, ist eine Toleranz von ±5% kein Problem. Doch wenn man mit einem I/O-Pin und dem RC-Glied eine analoge Spannung erzeugt, wirkt sich ein Fehler der I/O-Spannung proportional auf die erzeuge Analogspannung aus. Der Regler auf dem für die Messung verwendeten Board hatte eine gemessene Ausgangsspannung von 3,266 V, also eine Abweichung von etwa 1%. Damit ist zu erwarten, dass die vom A/D-Wandler ausgegeben Werte zur oberen Messwertgrenze hin tendenziell um ca. 1% zu groß sind, was durch die Messung bestätigt wurde.

Wie die vorgestellte Schaltung und die Referenzdesigns der FPGA-Hersteller zeigen, sind A/D-Wandler im FPGA für einfache Anforderungen ohne großen Bauteil- und Ressourcenaufwand leicht zu realisieren. Und außergewöhnliche Auflösungen stellen kein Problem dar.

Maximalwerte einhalten oder wie sich Schadensszenarien vermeiden lassen

Wieviel Sicherheit enthalten eigentlich „absolute Maximalwerte“? Keine! Und ICs sind keine wahrsagenden Kristallkugeln.

Der absolute Maximalwert (Absolute Maximum Rating) eines ICs ist der Grenzwert, bei dem das betreffende Bauteil sicher betrieben werden kann, ohne Schaden zu nehmen oder zerstört zu werden.

Wie weit diese Grenzen überschritten werden dürfen, wird in den Datenblättern nie angegeben. Manche Bauteile sind sehr robust, manche nicht. Doch kein Hersteller bietet Unterstützung bei Überschreiten dieser Grenzwerte an. Die einzig sichere Regel lautet daher „nie“ als nie zu behandeln. Erst wenn man versteht, warum eine Überschreitung maximaler Grenzwerte Beschädigungen verursachen kann, lassen sich bessere Systeme entwickeln.

Eine Zenerdiode ist so ausgelegt, dass sie mit einer Rückwärtsspannung leiten kann, die höher als ihre Durchbruchspannung ist. Sie kann große Rückwärtsströme sicher leiten. Doch andere IC-Dioden, speziell Basis/Emitter-Sperrschicht-Dioden, werden durch sehr kleine Rückwärtsströme beschädigt. Und das manchmal in wenigen Mikrosekunden. Auf ähnliche Weise wird das Gate-Oxid eines MOS-Bausteins durch eine Überspannung irreparabel beschädigt. Dies bedeutet, dass durch Überschreiten absoluter Maximalspannungen ICs beschädigt werden können, indem eine Sperrschicht oder das Gate-Oxid durchbrochen werden.

Einige absolute Maximalspannungen werden mit anderen Spannungen ausgedrückt. In anderen Worten, die Eingangsspannung (UIN) eines Verstärkers kann auf USS–0,3 V ≤ UIN ≤ UDD+0,3 V begrenzt sein. Oder die maximal zulässige negative Versorgungsspannung kann bezüglich der positiven Versorgungsspannung –USS ≤ UDD definiert werden. Ersteres bedeutet, dass die Eingangsspannung nicht über 300 mV über der Versorgung liegen darf. Die zweite Aussage heißt, dass der Maximalwert der negativen Versorgungsspannung nie die positive Versorgungsspannung übersteigen darf. Dies bedeutet nicht, dass, falls man mit einer UDD von z.B. +10 V arbeitet, die am Eingang +8 V angelegt werden kann; oder an USS –8 V, bevor UDD eingeschaltet wird.

Obwohl Siliziumbausteine eine kristalline Struktur haben, sind sie keine Kristallkugeln und können die Zukunft nicht vorhersagen. Absolute Maximalspezifikationen dieses Typs bedeuten, dass die Reihenfolge beim Einschalten der Versorgungsspannung und Anlegen der Signale wichtig ist. Ein Überschreiten solcher Grenzwerte verursacht vielleicht keinen Ausfall des Bausteins, kann aber wahrscheinlich parasitäre Elemente im IC-Substrat aktivieren. Diese wiederum können zu einem Latchup führen, die Stromversorgung kurzschließen und das Bauteil durch Überstrom oder Übertemperatur zerstören.

Zusätzlich zu Spannungsgrenzwerten kann die absolute Maximalspezifikation folgendes begrenzen: die Verlustleistung auf dem Baustein, die Ströme an bestimmten Anschlüssen und die Chip- sowie die Gehäusetemperatur. Manchmal können Transienten und Stromgrenzwerte höher als die entsprechenden Werte im Betrieb sein, doch ist es sehr wichtig, die vorgegebenen Grenzwerte zu verstehen und einzuhalten.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.