Die Unterschiede zwischen Analog- und Digitalentwicklung – Teil 1

 Unterschied zwischen Analog- und Digitalentwicklung
Unterschied zwischen Analog- und Digitalentwicklung

Es ist nun mehr als ein Jahrzehnt her, dass mich auf der Embedded Systems Conference (ESC) 2001 in San Francisco ein Hochschulabsolvent ansprach, der gerade sein Ingenieurstudium abgeschlossen hatte. Als er erfuhr, dass ich eine leitende Position in seinem Fachgebiet bekleide, erklärte er, dass er auf Stellensuche sei. Er sagte, er kenne meine Firma, wolle – falls möglich – gern für sie arbeiten und präsentierte mir auch gleich seinen Lebenslauf. Ich wiederum ging daraufhin etwas näher auf meine Aufgaben im Unternehmen ein.

Damals war ich noch Leiterin der Gruppe Mixed Signal / Linear Applications. Zum Tätigkeitsfeld meiner Abteilung gehörten die Produktdefinition, die technische Dokumentation, Kundenschulungen und -besuche. Im Zuge dieser Aktivitäten reisten wir weltweit umher. Am Ende meines „Verkaufsgesprächs“ bemerkte er voller Bewunderung, das Ganze klinge nach einem tollen Job.

Ich wies nochmals darauf hin, dass ich der Analogsparte meines Unternehmens angehöre. Offenbar glaubte er, sich hier gut auszukennen, denn er prophezeite mir, die „Analogtechnik werde aussterben“ und letztlich von der Digitaltechnik verdrängt. Dem würde doch jeder zustimmen, der etwas von Elektrotechnik verstehe. Oder etwa nicht?

Im Laufe meines beruflichen Werdegangs habe ich mit einem breiten Spektrum von Entwicklern in der Analog- und Digitaltechnik zusammengearbeitet. Jeder hat seine Eigenarten und vertritt gute Gründe, warum er nicht beide Techniken beherrscht. In diesem Artikel wird der Digitalentwickler einige hilfreiche Tipps finden, wenn er in die vermeintlich „dunklere“ (d.h. die analoge) Seite der Schaltungsentwicklung eintaucht. Was aus meiner Sicht natürlich eher die längst fällige Reise ins Licht ist.

Der grundlegende Unterschied zwischen der analogen und der digitalen Denkart liegt in den Definitionen für Präzision, den Abhängigkeiten zwischen Hardware und Software und der Zeit. Was die Präzision betrifft, hätte man sich mit der Frage zu beschäftigen, wie gut die eingesetzten Analogbausteine auf die anstehende Aufgabe abgestimmt sind oder wie effizient die verwendete Software den digitalen Code ausführt.

Analogentwicklern ist schnell klar, dass Hardwareänderungen schwierig sind, während Digitalentwickler mit ein paar Anschlägen auf der Computertastatur Änderungen an der Software vornehmen können. Dann gibt es die Frage der Zeit: In der Analogentwicklung werden die Entscheidungen des Entwicklers von Frequenzbetrachtungen dominiert. In der Digitalentwicklung spielt dagegen die Ausführungszeit eine wichtige Rolle.

Präzision

Wie definiert man, wie präzise eine Analogschaltung sein muss? Diese Frage lässt sich auf drei unterschiedliche Arten beantworten. Eine davon lautet: „So präzise wie nötig.“ So genügt es bei einigen Schaltungen, wenn sie auf ein oder zwei Millivolt genau arbeiten, während bei anderen eine Genauigkeit bis in den Sub-Mikrovoltbereich hinein erforderlich ist. Dieser Unterschied in den Systemanforderungen animiert den Entwickler dazu, sich bei einigen Systemen mit dem Kriterium „genau genug“ zufriedenzugeben und sich bei anderen die Frage zu stellen: „Wie viel kann ich noch aus dieser Schaltung herausholen?“

Ein zweites Verfahren zur Erzielung von Genauigkeit setzt voraus, dass der Entwickler die Wirkungsweise der Bauelemente und Komponenten, mit denen er arbeitet, wirklich verstanden hat. Was Bauelemente angeht, so haben ein 1-kW-Widerstand oder ein 20-pF-Kondensator – und das gilt in diesem Zusammenhang für jeden Widerstand oder Kondensator – nicht immer die aufgedruckten Absolutwerte. So können sich beispielsweise Temperaturänderungen dramatisch auf die tatsächlichen Werte dieser beiden Bauelemente auswirken. Daneben weisen die Nennwerte aller im Labor verwendeten Bauelemente fertigungsbedingte Streuungen von einem Exemplar zum anderen auf. Zusammen können diese beiden wichtigen Einflussfaktoren das Verhalten einer Schaltung dramatisch verändern, wenn sie nicht gebührend berücksichtigt werden.

Maximalwerte, Minimalwerte und typische Werte

Was elektronische Bausteine angeht, so werden in den Produktdatenblättern meist maximal und minimal garantierte Werte sowie typische Werte angegeben. Die garantierten Werte sind selbsterklärend: Die verwendeten Bausteine werden diese spezifizierten Werte nicht überschreiten, solange die spezifizierten Bedingungen eingehalten werden und solange die Bausteine nicht durch höhere Temperaturen oder Spannungen überlastet werden.

Typische Werte in einem Produktdatenblatt sind eine andere Sache. Um diese Werte festzulegen gibt es verschiedene Möglichkeiten, und jeder Hersteller hat seine eigenen Verfahren und Rechtfertigungen für die Berechnung dieser Werte. So bestimmen einige Hersteller vor der ersten Produktfreigabe als typischen Wert den Mittelwert einer größeren Zahl von Mustern eines Bausteins. Dabei können Umfang und Eigenschaften der Stichproben beträchtlich variieren.

So versuchen beispielsweise einige Hersteller besonders gründlich zu sein, indem sie Hunderte von Mustern aus drei oder mehr Wafer-Produktionschargen auswählen, während andere nur eine kleine Zahl von Mustern (15 bis 30) aus ein und demselben Wafer verwenden, um daraus typische Werte zu bestimmen. Das letztere Verfahren dürfte dabei sicher keine so verlässlichen Aussagen für das Langzeitverhalten des betreffenden Bausteins liefern.

Neben der Anzahl der Muster können auch die Verfahren zum Berechnen der typischen Werte variieren. Einige Hersteller definieren ihre typischen Werte als Werte, die gleich einer Standardabweichung plus Mittelwert sind. Andere benutzen lediglich den Mittelwert als eine typische Größe für ihre Spezifikationen. Wieder andere ziehen ihre SPICE-Simulation zur Bestimmung der endgültigen Richtwerte für die typischen Spezifikationsgrößen heran.

Eine kurze Warnung an dieser Stelle: Unabhängig davon, wie ein Hersteller den in seiner Spezifikation oder seinem Datenblatt veröffentlichten typischen Wert bestimmt – entwickeln Sie Ihre Schaltung NICHT auf der Grundlage typischer Spezifikationen. Arbeiten Sie stattdessen stets mit den minimalen und maximalen Spezifikationen.

Der dritte für die Genauigkeit relevante Aspekt ist das Rauschen, und hierfür benötigen Sie einige Kenntnisse über statistische Berechnungen unter Verwendung großer Musterzahlen.

Einiges zum Rauschen

Rauschen in der Elektronik kann zufallsbedingt sein. Wenn es sich zufällig über das Frequenzspektrum verteilt, enthält es keine kohärenten Frequenzen. Rauschen entsteht in allen analogen Bauelementen, gleichgültig, ob es sich um passive oder aktive Bauelemente handelt. Wenn Sie die Rauschereignisse in Ihrer Schaltung abtasten, werden diese über der Zeit eine Normalverteilung aufweisen.

Fallen die Rauschabtastwerte in eine Normalverteilung schwanken wiederholte Abtastungen um einen zentralen Wert. Die Verteilung ist ungefähr symmetrisch um diesen zentralen Wert herum angeordnet. Sie führt zu einer Kurve, die am Mittelpunkt ein Maximum erreicht und zu beiden Seiten bis auf Null abfällt. Da diese Verteilung mit dem zentralen Grenzwertsatz im Einklang steht, können Sie Standardberechnungen wie etwa die der mittleren Abweichung und der Standardabweichung anwenden, um den allgemeinen Betrag künftiger Rauschereignisse bezüglich der Normalverteilungskurve zu berechnen.

Hardware vs. Software

Es gibt einige pragmatische Denkansätze, wenn Sie sich dazu entschließen, ein analoges Konzept zu verfolgen: Machen Sie sich beim Entwurf einer Hardware mit den grundlegenden Eigenschaften Ihrer Bauelemente vertraut, verschaffen Sie sich die nötigen Kenntnisse über das Verhalten der wichtigsten Schaltungsbausteine, und unterziehen Sie Ihre Schaltungen immer zuerst einer eingehenden Simulationsanalyse. Denken Sie daran, dass auch Fragen des Leiterplattenlayouts, die hier nicht weiter behandelt werden, der nötigen Beachtung bedürfen.

In der digitalen Welt gibt der Begriff „Präzision“ an, wie exakt der Code erstellt wurde, was Wechselwirkungen innerhalb des Codes selbst und mit äußeren Ereignissen wie Interrupts angeht.

Der
zweite Teil
dieses Artikels beschäftigt sich mit den wichtigsten Eigenschaften der Funktionsbausteine, parasitären Effekten und gibt praktische Tipps.

Die Autorin: Bonnie C. Baker arbeitet als Senior Applications Engineer bei Texas Instruments.

 

 

Induktivitäten sind keine symmetrischen Bausteine

Beim Entwurf eines DC/DC-Wandlers kommt man an Induktivitäten kaum vorbei. Es gibt nur zwei Möglichkeiten ohne sie: Linearregler, auch als LDOs bekannt, sowie Ladungspumpen. Linearregler haben in den meisten Anwendungen eine sehr niedrige Effizienz, da sie überschüssige Spannung in Wärme umwandeln.

Ladungspumpen nutzen Kapazitäten und Dioden, um eine Spannung zu verändern, sind aber nur bei niedrigen Lasten praktikabel. Somit sind Induktivitäten als sogenannte Speicherdrosseln in DC/DC-Wandlerschaltungen weit verbreitet. Für die Auswahl der richtigen Induktivität helfen Datenblätter der Schaltregler IC sowie Berechnungstools der Halbleiter- sowie Speicherdrosselhersteller.

Hat man eine Spule ausgewählt, wird sie häufig wahllos auf die Platine gesetzt. Erfahrene Entwicklungsingenieure achten beim Schaltungsentwurf auch darauf, die für Schaltregler wichtigen Regeln für das Platinenlayout einzuhalten. Vielen Anwendern ist aber nicht bekannt, welchen Einfluss die Orientierung der Speicherdrossel auf der Platine hat. Obwohl der Baustein nur zwei Anschlüsse besitzt und dazwischen die gewählte Induktivität liegt, sollte auf die richtige Anschlussrichtung geachtet werden.

 Bild 1: Aufbau einer Speicherdrossel
Bild 1: Aufbau einer Speicherdrossel

Warum? Speicherdrosseln sind häufig so konstruiert wie in Bild 1 dargestellt. Es gibt einen Anschluss, welcher als ‚start of winding‘ an den Drosselkern geführt wird. Dort wird der Spulendraht häufig um den Spulenkern gewickelt. Dies geschieht bei den meisten Induktivitäten in vielen Lagen bis genügend Wicklungen für die gewünschte Induktivität erreicht sind.

Das Ende des Spulendrahts wird dann an den zweiten Anschluss der Speicherdrossel geführt. Diesen Anschluss bezeichnet man als ‚end of winding‘. Er ist direkt mit den äußeren Wicklungen der Induktivität verbunden. Der Anschluss ‚start of winding‘ hingegen ist mit den inneren Wicklungen der Speicherdrossel verbunden.

 Bild 2: Speicherdrossel in einer Abwärtswandlerschaltung
Bild 2: Speicherdrossel in einer Abwärtswandlerschaltung

Bild 2 zeigt eine typische DC/DC-Wandlerschaltung mit dem ADP2441 von Analog Devices. Dabei handelt es sich um einen Abwärtswandler, der aus einem sehr breiten Eingangsspannungsbereich von 4,5 bis 36 V eine Ausgangsspannung generiert, die unterhalb der Eingangsspannung liegt.

Wie in jedem Induktiven Spannungswandler wird in der Speicherdrossel Energie gespeichert und dann wieder abgegeben. Dieser Zyklus kommt dadurch zustande, dass die angelegte Spannung über der Induktivität verändert wird. Es muss sich also mindestens die Spannung an einer Seite der Induktivität ändern, um den Zyklus zu erhalten. Bei einem Abwärtswandler wie in Bild 2 dargestellt wird die Spannung am Schaltknoten zwischen der Eingangsspannung, beispielsweise 24 und 0 V, hin und her geschaltet.

Aus Effizienzgründen erfolgt dieses Umschalten sehr schnell, typischerweise innerhalb von 20 ns. Man sollte den Schaltknoten nicht unnötig groß im Platinenlayout auslegen, da man durch die sich schnell ändernde Spannung an diesem Knoten kapazitiv in andere Schaltungsbereiche koppeln kann. Es entsteht Rauschen welches zu erhöhter Stör-Abstrahlung führen kann.

Man sollte also darauf achten, dass der Anschluss ‚start of winding‘ der Speicherdrossel an den Schaltknoten angeschlossen wird. Dieser ‚unruhige‘ Knoten ist dann mit den inneren Windungen der Speicherdrossel verbunden. Die äußeren Wicklungen werden folglich mit der ruhigen Ausgangsspannung verbunden sein und schirmen so die kapazitiven Kopplungen der inneren Windungen weitestgehend ab. Viele Speicherdrosseln haben eine Markierung auf dem Gehäuse mit der die Anschlüsse gekennzeichnet sind.

Früher war es nicht so entscheidend, welche Orientierung die Speicherdrossel aufwies. Viele Spulen hatten noch nicht einmal eine Markierung, anhand derer man festzustellen konnte, welcher Anschluss der Anfang und welcher Anschluss das Ende der Wicklung ist. Einflüsse eines falschen Anschlusses wirkten sich auf die Schaltung nur wenig aus, da die Schalttransienten wesentlich langsamer waren.

Vor 15 Jahren besaßen die Schaltregler zumeist Bipolartransitoren als Schaltelemente, welche bei 50 oder 100 kHz Schaltübergänge im Bereich von 80 oder sogar 100 ns hatten. Die Schaltfrequenzen waren hauptsächlich durch diese langsamen Schaltübergänge begrenzt.

Durch langsame Spannungsänderungen am Schaltknoten wirkt sich die kapazitive Kopplung der äußeren Windungen bei falscher Bestückungsrichtung der Spule nur sehr wenig aus. Somit war die Polarisierung der Spule nicht entscheidend und wurde nicht beachtet. Die heutigen schnellen Schaltübergänge haben also nicht nur das Layout der Platine erschwert, sondern auch eine Richtungsangabe der Speicherdrosseln notwendig gemacht.