Archiv der Kategorie: EPAP – Grundlagen

Die Unterschiede zwischen Analog- und Digitalentwicklung – Teil 2

Zwischen der analogen und der digitalen Denkweise gibt es grundlegende Unterschiede. Ich habe schon oft die Meinung gehört: einmal Analogentwickler, immer Analogentwickler (und umgekehrt). Ich glaube aber, dass sich die Zeiten ändern.

Ich habe den Eindruck, dass alle Ingenieure und Entwickler heute an das Zeichenbrett zurückkehren und beide Betrachtungsarten in Hinblick auf die Präzision, die Abhängigkeiten zwischen Hardware und Software sowie die Zeit kennen sollten.


1.) 
Machen Sie sich mit den wichtigsten Eigenschaften Ihrer Bauelemente vertraut

Das Mindeste, was Sie über Bauelemente wissen müssen, sind die Eigenschaften von Widerständen, Kondensatoren und Induktivitäten. Damit kommt einiges an Arbeit auf Sie zu, wenn Sie zu Beginn Ihrer beruflichen Laufbahn nur am Rande mit diesen Komponenten zu tun hatten. An dieser Stelle müssen Sie sich selbst die Frage beantworten: „Was muss ich als Entwickler von Analogschaltungen wirklich wissen?“

Widerstände sind recht einfache Bauelemente. Gleichwohl gibt es einige Aspekte, die Sie beim Einsatz von Bauelementen dieser Art in Ihrer Schaltung berücksichtigen müssen. Zunächst einmal müssen Sie sich klar machen, dass ein Widerstand Spannungen und Ströme in Ihrer Schaltung beeinflusst. Es gilt das Ohm’sche Gesetz: R = U / I

Darin sind: U die Spannung in Volt, R der Widerstand in Ohm und I der Strom in Ampère.

Diese Formel ist die elementarste Beschreibung für das Verhalten der Widerstände in einer Schaltung. In der Praxis ist allerdings Folgendes zu bedenken: Die Formel beschreibt das Gleichspannungsverhalten eines Widerstands, nicht sein Wechselspannungsverhalten.

 Bild 1: Ein typisches Widerstands-Ersatzschaltbild. Die parasitären Elemente eines Standardwiderstands sind die Parallelkapazität (CP) und die Serieninduktivität (LS)
Bild 1: Ein typisches Widerstands-Ersatzschaltbild. Die parasitären Elemente eines Standardwiderstands sind die Parallelkapazität (CP) und die Serieninduktivität (LS)

Um Letzteres zu analysieren, reicht diese Grundformel nicht aus, weil dann auch parasitäre Größen um den Widerstand herum zu berücksichtigen sind. Parallel zum resistiven Element liegt nämlich ein parasitärer Kondensator, während eine parasitäre Induktivität zu ihm in Reihe geschaltet ist. Diese beiden Elemente charakterisieren das reale Verhalten des Widerstands. Bild 1 zeigt das Ersatzschaltbild des Widerstands mit diesen parasitären Größen.

Zugegeben: Ich habe mir über die parasitäre Kapazität von Widerständen keine Gedanken gemacht, bis ich begonnen habe, mich mit der Entwicklung von Transimpedanz-Verstärkerschaltungen für Fotodioden-Sensoren zu befassen.

 Bild 2: Wird die parasitäre Kapazität des Gegenkopplungswiderstands außer Acht gelassen, kann ein Fotosensor-Transimpedanzverstärker instabil werden
Bild 2: Wird die parasitäre Kapazität des Gegenkopplungswiderstands außer Acht gelassen, kann ein Fotosensor-Transimpedanzverstärker instabil werden

Bild 2 zeigt ein Beispiel für diesen Schaltungstyp. Wenn Sie diese Fotosensorschaltung blindlings (ohne Berücksichtigung von CP) aufbauen, kann ihr Ausgang auf mysteriöse Weise leicht ins Schwingen geraten. Dieses Schwingen wird gewöhnlich durch eine unsachgemäße Dimensionierung von CF verursacht, kann aber auch eine Folge des Phantomkondensators CP sein. Diese Kondensatoren, kombiniert mit der parasitären Kapazität der Fotodiode und der Eingangskapazität des Verstärkers, sorgen durch ihre Wechselwirkung für Stabilität – oder auch nicht.

Diese Schaltung ist ein Beispiel dafür, wie Ihnen die parasitäre Kapazität eines Widerstands einen Strich durch die Rechnung machen kann. Dies können Sie auf andere Schaltungen übertragen, wenn Sie diskrete Kondensatoren kleiner Kapazität parallel oder in Reihe zu diskreten Widerständen schalten.

 Bild 3: Die Impedanz eines Widerstands ändert sich vom definierten DC-Widerstandswert mit steigender Frequenz zu anderen Werten. Beeinflusst werden diese Änderungen durch die parasitäre Kapazität und Impedanz.
Bild 3: Die Impedanz eines Widerstands ändert sich vom definierten DC-Widerstandswert mit steigender Frequenz zu anderen Werten. Beeinflusst werden diese Änderungen durch die parasitäre Kapazität und Impedanz.

Die parasitäre Induktivität des Widerstands kann die Funktion von Systemen beeinträchtigen, die sehr schnelle Signale verarbeiten und in denen geringere Widerstandswerte die Norm sind. Generell kann man sagen, dass die Impedanz größerer Widerstände stärker durch die parasitäre Kapazität beeinflusst wird. Die Impedanz kleiner Widerstände wird dagegen durch die parasitäre Induktivität beeinflusst. Bild 3 veranschaulicht dies.

In einer DC-Umgebung sind Kondensatoren für Spannungen und Ströme „inexistent“. Für Ihre Schaltung müssen Sie aber die Wirkungsweise und den Einfluss von Kondensatoren im Zeit- und Frequenzbereich berücksichtigen. Beim Entwurf meiner Schaltungen verwende ich häufig die folgende Formel, die das Verhalten eines Kondensators beschreibt:

 

Darin sind C die Kapazität in Farad, U die Spannungsänderung in Volt und t die Zeitänderung in Sekunden.

Wegen ihres frequenzabhängigen Verhaltens werden Kondensatoren und Widerstände bekanntlich zum Aufbau von Tiefpass- und Hochpassfiltern verwendet.

 Bild 4: Ein typisches Ersatzschaltbild für einen Keramikkondensator. Die parasitären Elemente eines Standardkondensators sind der serielle Widerstand RS, der auch als effektiver Serienwiderstand (Effective Series Resistance, ESR) bezeichnet wird, und die Serieninduktivität LS, auch bekannt als effektive Serienimpedanz.
Bild 4: Ein typisches Ersatzschaltbild für einen Keramikkondensator. Die parasitären Elemente eines Standardkondensators sind der serielle Widerstand RS, der auch als effektiver Serienwiderstand (Effective Series Resistance, ESR) bezeichnet wird, und die Serieninduktivität LS, auch bekannt als effektive Serienimpedanz.

Beim Kondensator liegt eine Reihenschaltung aus dem parasitären Widerstand RESR und der parasitären Induktivität LESL vor. Das Ersatzschaltbild dieser parasitären Komponenten sehen Sie in Bild 4.

Auf den ersten Blick scheint ein Kondensator ein rein kapazitives Bauelement zu sein, das in der Schaltung mit idealen Widerständen und idealen Induktivitäten in Wechselwirkung tritt. Ein solches idealisiertes Verhalten liegt aber in der Praxis selten vor. Die parasitären Widerstände und Induktivitäten von Kondensatoren bewirken vielmehr, dass sich ihre Nennimpedanzen über der Frequenz ändern. Dieses Verhalten spiegelt sich in Bild 5 wider.

In Bild 5 bewirkt der Reihenwiderstand (RESR) des Kondensators, dass die Kondensatorimpedanz mit der Frequenz sinkt. Die Reiheninduktivität (LESL) bewirkt, dass die Kondensatorimpedanz zu höheren Frequenzen hin zunimmt.

 Bild 5: Der Frequenzgang eines Kondensators wird bei niedrigeren Frequenzen durch den Serienwiderstand und bei höheren Frequenzen durch die Serieninduktivität beeinflusst.
Bild 5: Der Frequenzgang eines Kondensators wird bei niedrigeren Frequenzen durch den Serienwiderstand und bei höheren Frequenzen durch die Serieninduktivität beeinflusst.

Kondensatoren sind sehr nützlich beim Entkoppeln von Stromversorgungen und beim Stabilisieren von elektronischen Schaltungen sowie zum Belasten von Low-Dropout-Spannungsreglern und Spannungsreferenzen. In allen Fällen jedoch beeinflussen Kondensatoren lediglich das AC-Verhalten von Schaltungen oder Bauelementen, nicht aber deren DC-Verhalten.

 

 

 

 

 2.)  Befassen Sie sich eingehend mit dem allgemeinen Verhalten der wichtigsten Funktionsbausteine

Betrachten Sie diese Grundschaltungen wie die Befehlscodes für Ihren Mikrocontroller. Beginnen Sie damit, diese Grundschaltungen in den gängigsten Konfigurationen oder nach dem klassischen Ansatz anzuwenden. Ihre Grundbausteine in der analogen Welt sind

  • Widerstände
  • Kondensatoren
  • Induktivitäten
  • A/D-Wandler und
  • Operationsverstärker

 3.)  Auf höherer Ebene denken

Mathematik liegt Ihnen nicht? Dann belasten Sie sich auch erst einmal nicht damit. Konzentrieren Sie sich einfach auf die praktische Seite analoger Anwendungen und eignen Sie sich ein paar Faustregeln an. So mancher macht sich daran, ein Problem zu lösen, noch bevor er sich klar gemacht hat, dass eigentlich erst einige übergeordnete Fragen zu beantworten wären.

Das ist so, als würde man für ein Programm zuerst den Code schreiben und sich anschließend Gedanken über den Programmablaufplan machen. Wenn man einen Schritt zurückgeht und sich die Vorgehensweise noch einmal überlegt, gelangt man möglicherweise zu der Erkenntnis, dass man mit seiner detaillierten Analyse weit daneben gelegen hat. Stimmt die Analyse dagegen, dann beschreibt sie die Situation wahrscheinlich nur unvollständig. Das folgende Beispiel dürfte sehr anschaulich zeigen, was ich damit meine:

Frage:

 Bild 6: Schaltungsbeispiel für ein einpoliges RC-Tiefpassfilter
Bild 6: Schaltungsbeispiel für ein einpoliges RC-Tiefpassfilter

Welche Grenzfrequenz hat das einpolige RC-Tiefpassfilter in Bild 6?

Antwort:
„Überschlagslösung“: Moment mal – Das ist doch gar kein Tiefpass-, sondern ein Hochpassfilter! Wahrscheinlich haben Sie das auf den ersten Blick erkannt, aber es ist wirklich erstaunlich, wie viele Fachleute diesen simplen Umstand übersehen! Wenn Sie einmal annehmen, dass der Autor irrtümlich die Positionen des Widerstands und des Kondensators verwechselt hat, dann würde die Grenzfrequenz bei 1 / (2π R1 C1), also etwa 167 Hz liegen. Wie ich zu diesem Ergebnis gelangt bin? Nun, 2π sind rund 6. In erster Näherung ist diese Ungenauigkeit sicherlich akzeptabel, wenn man bedenkt, dass die Bauteiltoleranzen von Kondensatoren typisch ±10% oder ±20% betragen. Mit den exakten Werten gerechnet, befindet sich die Polstelle bei 159,1549 Hz.

Berechnete Lösung


Diese Berechnung ergibt eine Nullstelle bei DC und eine Polstelle bei 159,1549 Hz.

Diese beiden Lösungen stimmen nicht überein. Und eine SPICE-Simulation würde sicherlich der berechneten Lösung entsprechen.

Und die Moral von der Geschichte? Erst überlegen, wie man das Problem angehen will, und danach die Analyse mit SPICE überprüfen. Bei dieser Art der Analyse sollten Sie aber nicht die Genauigkeit (oder besser gesagt: Ungenauigkeit) der einzelnen Bauelemente und Funktionsbausteine in Ihrem System vergessen. Nachdem Sie wissen, wie Ihre Schaltung grundsätzlich funktioniert und wie das System reagiert (aber auch erst dann), können Sie Ihre Mathematik- und SPICE-Kenntnisse zum Einsatz bringen.

Zeit- oder Frequenzbereich?

Strategien zur Entwicklung von Digitalschaltungen bewegen sich im Zeitbereich. Es mag zwar so aussehen, als würden Mikrocontroller oder Digitale Signalprozessoren gleichzeitige Ereignisse auslösen, doch bei genauerer Betrachtung zeigt sich, dass dieses Verhalten mit einer Technik erzielt wird, die man als Code-Multitasking bezeichnet.

Alternativ dazu betrachtet man bei der Entwicklung reiner Analogsysteme das Verhalten der Schaltungen im Frequenzbereich. A/D-Wandler (ADC) und D/A-Wandler (DAC) sind nur zwei der wichtigsten Bausteine, die sowohl im Zeit- als auch Frequenzbereich betrachtet werden müssen.

Die Autorin:
Bonnie Baker ist Senior Applications Engineer bei Texas Instruments.

Die Unterschiede zwischen Analog- und Digitalentwicklung – Teil 1

 Unterschied zwischen Analog- und Digitalentwicklung
Unterschied zwischen Analog- und Digitalentwicklung

Es ist nun mehr als ein Jahrzehnt her, dass mich auf der Embedded Systems Conference (ESC) 2001 in San Francisco ein Hochschulabsolvent ansprach, der gerade sein Ingenieurstudium abgeschlossen hatte. Als er erfuhr, dass ich eine leitende Position in seinem Fachgebiet bekleide, erklärte er, dass er auf Stellensuche sei. Er sagte, er kenne meine Firma, wolle – falls möglich – gern für sie arbeiten und präsentierte mir auch gleich seinen Lebenslauf. Ich wiederum ging daraufhin etwas näher auf meine Aufgaben im Unternehmen ein.

Damals war ich noch Leiterin der Gruppe Mixed Signal / Linear Applications. Zum Tätigkeitsfeld meiner Abteilung gehörten die Produktdefinition, die technische Dokumentation, Kundenschulungen und -besuche. Im Zuge dieser Aktivitäten reisten wir weltweit umher. Am Ende meines „Verkaufsgesprächs“ bemerkte er voller Bewunderung, das Ganze klinge nach einem tollen Job.

Ich wies nochmals darauf hin, dass ich der Analogsparte meines Unternehmens angehöre. Offenbar glaubte er, sich hier gut auszukennen, denn er prophezeite mir, die „Analogtechnik werde aussterben“ und letztlich von der Digitaltechnik verdrängt. Dem würde doch jeder zustimmen, der etwas von Elektrotechnik verstehe. Oder etwa nicht?

Im Laufe meines beruflichen Werdegangs habe ich mit einem breiten Spektrum von Entwicklern in der Analog- und Digitaltechnik zusammengearbeitet. Jeder hat seine Eigenarten und vertritt gute Gründe, warum er nicht beide Techniken beherrscht. In diesem Artikel wird der Digitalentwickler einige hilfreiche Tipps finden, wenn er in die vermeintlich „dunklere“ (d.h. die analoge) Seite der Schaltungsentwicklung eintaucht. Was aus meiner Sicht natürlich eher die längst fällige Reise ins Licht ist.

Der grundlegende Unterschied zwischen der analogen und der digitalen Denkart liegt in den Definitionen für Präzision, den Abhängigkeiten zwischen Hardware und Software und der Zeit. Was die Präzision betrifft, hätte man sich mit der Frage zu beschäftigen, wie gut die eingesetzten Analogbausteine auf die anstehende Aufgabe abgestimmt sind oder wie effizient die verwendete Software den digitalen Code ausführt.

Analogentwicklern ist schnell klar, dass Hardwareänderungen schwierig sind, während Digitalentwickler mit ein paar Anschlägen auf der Computertastatur Änderungen an der Software vornehmen können. Dann gibt es die Frage der Zeit: In der Analogentwicklung werden die Entscheidungen des Entwicklers von Frequenzbetrachtungen dominiert. In der Digitalentwicklung spielt dagegen die Ausführungszeit eine wichtige Rolle.

Präzision

Wie definiert man, wie präzise eine Analogschaltung sein muss? Diese Frage lässt sich auf drei unterschiedliche Arten beantworten. Eine davon lautet: „So präzise wie nötig.“ So genügt es bei einigen Schaltungen, wenn sie auf ein oder zwei Millivolt genau arbeiten, während bei anderen eine Genauigkeit bis in den Sub-Mikrovoltbereich hinein erforderlich ist. Dieser Unterschied in den Systemanforderungen animiert den Entwickler dazu, sich bei einigen Systemen mit dem Kriterium „genau genug“ zufriedenzugeben und sich bei anderen die Frage zu stellen: „Wie viel kann ich noch aus dieser Schaltung herausholen?“

Ein zweites Verfahren zur Erzielung von Genauigkeit setzt voraus, dass der Entwickler die Wirkungsweise der Bauelemente und Komponenten, mit denen er arbeitet, wirklich verstanden hat. Was Bauelemente angeht, so haben ein 1-kW-Widerstand oder ein 20-pF-Kondensator – und das gilt in diesem Zusammenhang für jeden Widerstand oder Kondensator – nicht immer die aufgedruckten Absolutwerte. So können sich beispielsweise Temperaturänderungen dramatisch auf die tatsächlichen Werte dieser beiden Bauelemente auswirken. Daneben weisen die Nennwerte aller im Labor verwendeten Bauelemente fertigungsbedingte Streuungen von einem Exemplar zum anderen auf. Zusammen können diese beiden wichtigen Einflussfaktoren das Verhalten einer Schaltung dramatisch verändern, wenn sie nicht gebührend berücksichtigt werden.

Maximalwerte, Minimalwerte und typische Werte

Was elektronische Bausteine angeht, so werden in den Produktdatenblättern meist maximal und minimal garantierte Werte sowie typische Werte angegeben. Die garantierten Werte sind selbsterklärend: Die verwendeten Bausteine werden diese spezifizierten Werte nicht überschreiten, solange die spezifizierten Bedingungen eingehalten werden und solange die Bausteine nicht durch höhere Temperaturen oder Spannungen überlastet werden.

Typische Werte in einem Produktdatenblatt sind eine andere Sache. Um diese Werte festzulegen gibt es verschiedene Möglichkeiten, und jeder Hersteller hat seine eigenen Verfahren und Rechtfertigungen für die Berechnung dieser Werte. So bestimmen einige Hersteller vor der ersten Produktfreigabe als typischen Wert den Mittelwert einer größeren Zahl von Mustern eines Bausteins. Dabei können Umfang und Eigenschaften der Stichproben beträchtlich variieren.

So versuchen beispielsweise einige Hersteller besonders gründlich zu sein, indem sie Hunderte von Mustern aus drei oder mehr Wafer-Produktionschargen auswählen, während andere nur eine kleine Zahl von Mustern (15 bis 30) aus ein und demselben Wafer verwenden, um daraus typische Werte zu bestimmen. Das letztere Verfahren dürfte dabei sicher keine so verlässlichen Aussagen für das Langzeitverhalten des betreffenden Bausteins liefern.

Neben der Anzahl der Muster können auch die Verfahren zum Berechnen der typischen Werte variieren. Einige Hersteller definieren ihre typischen Werte als Werte, die gleich einer Standardabweichung plus Mittelwert sind. Andere benutzen lediglich den Mittelwert als eine typische Größe für ihre Spezifikationen. Wieder andere ziehen ihre SPICE-Simulation zur Bestimmung der endgültigen Richtwerte für die typischen Spezifikationsgrößen heran.

Eine kurze Warnung an dieser Stelle: Unabhängig davon, wie ein Hersteller den in seiner Spezifikation oder seinem Datenblatt veröffentlichten typischen Wert bestimmt – entwickeln Sie Ihre Schaltung NICHT auf der Grundlage typischer Spezifikationen. Arbeiten Sie stattdessen stets mit den minimalen und maximalen Spezifikationen.

Der dritte für die Genauigkeit relevante Aspekt ist das Rauschen, und hierfür benötigen Sie einige Kenntnisse über statistische Berechnungen unter Verwendung großer Musterzahlen.

Einiges zum Rauschen

Rauschen in der Elektronik kann zufallsbedingt sein. Wenn es sich zufällig über das Frequenzspektrum verteilt, enthält es keine kohärenten Frequenzen. Rauschen entsteht in allen analogen Bauelementen, gleichgültig, ob es sich um passive oder aktive Bauelemente handelt. Wenn Sie die Rauschereignisse in Ihrer Schaltung abtasten, werden diese über der Zeit eine Normalverteilung aufweisen.

Fallen die Rauschabtastwerte in eine Normalverteilung schwanken wiederholte Abtastungen um einen zentralen Wert. Die Verteilung ist ungefähr symmetrisch um diesen zentralen Wert herum angeordnet. Sie führt zu einer Kurve, die am Mittelpunkt ein Maximum erreicht und zu beiden Seiten bis auf Null abfällt. Da diese Verteilung mit dem zentralen Grenzwertsatz im Einklang steht, können Sie Standardberechnungen wie etwa die der mittleren Abweichung und der Standardabweichung anwenden, um den allgemeinen Betrag künftiger Rauschereignisse bezüglich der Normalverteilungskurve zu berechnen.

Hardware vs. Software

Es gibt einige pragmatische Denkansätze, wenn Sie sich dazu entschließen, ein analoges Konzept zu verfolgen: Machen Sie sich beim Entwurf einer Hardware mit den grundlegenden Eigenschaften Ihrer Bauelemente vertraut, verschaffen Sie sich die nötigen Kenntnisse über das Verhalten der wichtigsten Schaltungsbausteine, und unterziehen Sie Ihre Schaltungen immer zuerst einer eingehenden Simulationsanalyse. Denken Sie daran, dass auch Fragen des Leiterplattenlayouts, die hier nicht weiter behandelt werden, der nötigen Beachtung bedürfen.

In der digitalen Welt gibt der Begriff „Präzision“ an, wie exakt der Code erstellt wurde, was Wechselwirkungen innerhalb des Codes selbst und mit äußeren Ereignissen wie Interrupts angeht.

Der
zweite Teil
dieses Artikels beschäftigt sich mit den wichtigsten Eigenschaften der Funktionsbausteine, parasitären Effekten und gibt praktische Tipps.

Die Autorin: Bonnie C. Baker arbeitet als Senior Applications Engineer bei Texas Instruments.

 

 

European Analog Design Contest von TI geht in die nächste Runde

Nachdem Texas Instruments die Gewinner des Analog Design Contest (ADC) 2012 auf der electronica bekannt gegeben hat, lädt das Unternehmen auch in diesem Jahr Studenten der Elektrotechnik, Elektronik, Elektro- und Informationstechnik, Mechanik oder vergleichbarer Studienrichtungen wieder zur Teilnahme am Innovations-Wettbewerb ein. Entwicklerteams haben hier die Möglichkeit, Analog-Systeme zu entwickeln und einer Fachjury vorzulegen. Den Gewinnern winken attraktive Geldpreise. Der Anmeldeschluss für den Analog Design Contest ist der 28. Februar 2013. Dieses Jahr wird der Wettbewerb auch von Mouser Electronics unterstützt.

Einreichen kann man seine Vorschläge über ein Word-Formular auf der Webseite von TI.

Texas Instruments unterstützt die Teilnehmer unter anderem mit Bausteinen aus seinem IC und Entwicklungstoolprogramm, die den Studenten kostenlos zur Verfügung gestellt werden.

Die Mannschaften konzipieren, entwickeln und bauen Analog-Systeme, die in einem zweistufigen Verfahren von einer Fachjury, die aus Fachleuten der Branche, Universitätsprofessoren (nicht von den teilnehmenden Hochschulen) und Analogexperten von TI besteht, bewertet werden. Kriterien sind die Originalität der Design-Idee, deren Umsetzung, das eigentliche Analog-Design, der Effekt der verwendeten Tools und Bausteine, der Praxisnutzen und die Projektbeschreibung (max. 10 Seiten).

In der ersten Runde werden 20 Mannschaften prämiert, die jeweils 1000 US-$ erhalten. Aus diesen Teilnehmern setzen sich dann die vier Sieger zusammen. Dem Gewinner-Team des ADC winkt ein Preisgeld von 10.000 US-$. Die Zweitplatzierten dürfen sich über 5000 US-$ freuen. Für die Plätze drei und vier stellt TI jeweils 2500 US-$ zur Verfügung.

An alle Analog-Praxis Newbies

Das macht Analog-Praxis zu einem derzeit einzigartigen Informationsangebot für jeden Entwickler, der sich mit dieser anspruchsvollen Materie auseinandersetzt.

Wir bieten sowohl Grundlagenwissen für Ein- und Umsteiger als auch Fachwissen für den erfahrenen Analogtechniker. Darüber hinaus unterstützen eine kommentierte Toolsammlung (Simulationwerkzeuge, Eval-Kits etc.), Schaltungstipps und Referenzdesigns die praktische Arbeit. Zu finden sind Informationen zu Bauelementen sowie Applikationen aus der Antriebstechnik, Kommunikation, Messtechnik, Sensorik und den Bereichen Automotive und Lighting.

Wollen Sie über die aktuellen Blogbeiträge informiert werden? Dann tragen Sie sich in unseren Newsletter auf der rechten Seite ein.

Ihre Kristin Rinortner (alias krinortner)

Eigenrauschen in Operationsverstärkern Teil 3: Messen des niederfrequenten Rauschens

Dieser Artikel beschäftigt sich mit dem Messen niederfrequenten Rauschens mit extrem niedrigen Grenzfrequenzen von z.B. 10 µHz und veranschaulicht die Auswirkungen von Temperaturschwankungen auf die Ergebnisse der Rauschmessung.

In den meisten Datenblättern ist niederfrequentes Rauschen in einem Bereich von 0,1 Hz bis 10 Hz angegeben. Im Teil 6 dieser Artikelreihe wurde eine aktive Filterschaltung zum Messen dieses Rauschens behandelt. Messungen extrem niedriger Frequenzen machen die AC-Kopplung des Signals unmöglich, da die Werte der Komponenten außerhalb nutzbarer Bereiche liegen. Bild 3.1 zeigt eine Schaltung mit DC-Kopplung, die zur Messung des niederfrequenten Rauschens verwendet werden kann. Je nach Rauschpegel des zu testenden Verstärkers muss die Verstärkung angepasst werden.

 Bild 3.1: Schaltung zur Rauschmessung (Gleichstrom bis 10 Hz)
Bild 3.1: Schaltung zur Rauschmessung (Gleichstrom bis 10 Hz)

Das Rauschen wird auf einen Pegel verstärkt, der ohne Weiteres auf einem Oszilloskop abgelesen werden kann. Die Verstärkung der ersten Stufe sollte mindestens 10 betragen. Dadurch dominiert das Rauschen der ersten Stufe. Ein Problem dieser Schaltung besteht darin, dass auch der Offset des Verstärkers verstärkt wird. In diesem Beispiel wird der Offset auf 2 V DC verstärkt. Dadurch wird die Messung des Rauschens im betreffenden Bereich unmöglich. Mit der in Bild 3.3 dargestellten Schaltung kann dieser Offset korrigiert werden.

 Bild 3.3:Schaltung zum Ausgleichen des Ausgangs-Offsets
Bild 3.3:Schaltung zum Ausgleichen des Ausgangs-Offsets

Ein wichtiger Gesichtspunkt bei der Messung des niederfrequenten Rauschens besteht darin, dass die temperaturabhängige Drift des Offsets sehr stark dem 1/f Rauschen ähnelt und daher die Messergebnisse beeinträchtigen kann. Bild 3.4 zeigt das Rauschen und die Offsetdrift des OPA336 in einem Zeitraum von 10.000 s. Während dieser Messung änderte sich die Umgebungstemperatur im Labor um 2 °C. Diese geringe Schwankung der Raumtemperatur hatte einen erheblichen Einfluss auf das Ausgangssignal. Um dem entgegenzuwirken muß die gleiche Messung mit einer Präzisen Temperaturregelung, wie durch Verwendung einer Wärmekammer, durchgeführt werden.

 Bild 3.4:Rauschen des OPA336 plus Temperaturdrift
Bild 3.4:Rauschen des OPA336 plus Temperaturdrift

Bei Zero-Drift-Verstärkern tritt temperaturabhängige Offset-Drift in erheblich geringerem Umfang auf. Bild 3.5 zeigt Rauschmessungen, die ohne Temperaturregelung durchgeführt wurden, die Umgebungstemperatur im Labor änderte sich wieder um 2 °C, dies ist im Messergebnis nicht zu erkennen. Die äußerst geringe Temperaturdrift des Zero-Drift-Verstärkers ist einer der Hauptvorteile dieser Technologie.

 

 

Ein weiterer wichtiger Gesichtspunkt bei der Rauschmessung ist, dass der Effektivwert des Rauschens und nicht der Spitze-Spitze-Wert des Rauschens gemessen wird. Dieser ist zwar eine gute Näherung, reicht aber für exakte Ergebnisse nicht aus. Das Problem ist, dass die Anzahl der Abtastwerte einen großen Einfluss auf den Spitze-Spitze-Messwert haben kann. Es sei daran erinnert, dass sich der Spitze-Spitze-Wert abschätzen lässt, indem die Standardabweichung mit 6 multipliziert wird. Mathematisch bedeutet dies, dass 99,7 Prozent der Werte innerhalb des Spitze-Spitze-Wertes liegen und nur 0,3 Prozent des Rauschens außerhalb dieses Bereiches. Bei Erhöhung der Anzahl von Abtastungen erhöht sich auch die Anzahl von Fällen, in denen der Wert außerhalb der Sechs-Sigma-Abschätzung liegt. In Bild 3.6 ist dasselbe Signal dargestellt, das bei 25.000 und 2.500 Abtastungen mit einem Digitaloszilloskop aufgenommen wurde. Im Teil 1 dieser Artikelserie wurde dieses Thema näher erläutert.

 Billd 3.5:Rauschen des OPA33, gemessen bei Raumtemperatur des Labors
Billd 3.5:Rauschen des OPA33, gemessen bei Raumtemperatur des Labors

 

Abschließend soll im Zusammenhang mit der Messung des Rausch-Effektivwertes darauf hingewiesen werden, dass der Gleichstromanteil (d. h. Mittelwert = 0) nicht in die Rauschmessung einbezogen wird. Der einfachste Weg zur Beseitigung des Mittelwertes besteht darin, die Standardabweichung des Signals anstelle des Effektivwerts zu ermitteln. Die Standardabweichung ist mathematisch definiert als Effektivwert mit dem Mittelwert null. Die meisten Digitaloszilloskope können die Messergebnisse als Kalkulationstabelle speichern. Dort können  dann Formeln zur Berechnung der Standardabweichung verwendet werden. Manche Digitaloszilloskope enthalten einen mathematischen Operator zur Ermittlung des Effektivwertes.

Eigenrauschen in Operationsverstärkerschaltungen – Teil 2: Niederfrequentes Rauschen

Dieser Artikel beschäftigt sich mit den Unterschieden bei der Berechnung des Gesamtrauschens von Standard Operationsverstärkern mit 1/f -Rauschen und Auto-Zero bzw. Chopper Verstärkern ohne 1/f-Rauschen.

Die Spektraldichtekurve des 1/f-Rauschens steigt mit abnehmender Frequenz an. Tatsächlich geht das Rauschen bei der Annäherung an die Frequenz null auf unendlich zu. Diese Tatsache verleitet zu der Annahme, dass das Rauschen bei Gleichstrom unendlich sein müsste. Der beste Weg, um zu verstehen, warum bei Schaltungen in der Praxis das 1/f-Rauschen nicht in unendliche großes Rauschen umgewandelt werden kann, ist die Umrechnung der Frequenz in die Zeit (d. h. Zeit = 1/Frequenz).

Bild 2.1 zeigt Berechnungen des 1/f-Rauschen für den OPA336 bei verschiedenen unteren Grenzfrequenzen. Die untere Grenzfrequenz wird durch den Zeitraum festgelegt, innerhalb dessen das Signal beobachtet wird. In der Regel wird bei Rauschberechnungen eine untere Grenzfrequenz von 0,1 Hz verwendet. Dies entspricht einer Beobachtungsdauer von 10 Sekunden. Eine Frequenz von 0 Hz würde einer unendlichen Zeit entsprechen und ist daher praktisch nicht realisierbar. Extrem niedrige Frequenzen entsprechen einem Zeitraum von Jahren.

Die bei diesen Berechnungen verwendete obere Grenzfrequenz beträgt 10 kHz. Dies ist ein typisch verwendeter Wert (d. h. 0,1 Hz < f < 10 Hz). Außerdem wird ein Brickwall-Filter bei fL und fH angenommen. Der Begriff „Brickwall-Filter“ bedeutet, dass das Rauschen außerhalb der angegebenen Bandbreite abrupt auf null abfällt. Bei einem realen Filter ist das nicht der Fall. Dieses Thema wurde im Teil 2 dieser Artikelserie näher erläutert.

Abbildung 2.1: Berechnungen des Flickerrauschens beim OPA336
Bild 2.1: Berechnungen des Flickerrauschens beim OPA336

Das Gesamtrauschen aus 1/f-Rauschen ist innerhalb einer Frequenzdekade immer gleich groß. Beispiel: Das Gesamtrauschen im Frequenzintervall von 0,1 Hz bis 10 Hz ist identisch mit dem Rauschen im Intervall von 0,01 Hz bis 0,1 Hz. Dies ist in Bild 2.2 mithilfe der im Teil 1 entwickelten Formel mathematisch dargestellt. Diese Tatsache führt oft zu Verwirrung, weil der Bereich unter der Kurve bei höherem 1/f Rauschen erheblich größer erscheint. Dies liegt an der logarithmischen Darstellung.

 

Abbildung 2.2: Das Gesamtrauschen in einem Intervall von einer Dekade ist gleich
Bild 2.2: Das Gesamtrauschen in einem Intervall von einer Dekade ist gle

 

Bei Verstärkern mit 1/f-Rauschen nimmt das Gesamtrauschen bei längerer Beobachtungsdauer zu. Die in Bild 2.3 dargestellte Wellenform zeigt das Rauschen am OPA336 in einem Intervall von 100.000 Sekunden (10 µHz). Die obere Grenzfrequenz für dieses Signal beträgt 10 kHz. Der Effektivwert des Gesamtrauschens im gesamten Intervall beträgt 0,74 µV. Bei Auswahl eines beliebigen Teilintervalls ist der Effektivwert des Gesamtrauschens geringer. In diesem Beispiel ist ein Teilintervall von 10 Sekunden dargestellt, in dem der Effektivwert des Gesamtrauschens 0,43 µV beträgt. Ein kleinerer Zeitraum entspricht einer höheren unteren Grenzfrequenz.

Abbildung 2.3: Rauschen am OPA336 über einen längeren Zeitraum
Bild 2.3: Rauschen am OPA336 über einen längeren Zeitraum

 

Zero-Drift-Verstärkern haben kein 1/f-Rauschen sondern nur Breitbandrauschen. Wegen des flachen Verlaufs der Rauschspektraldichte lässt sich das Rauschen bis zu einem Wert von 0 Hz integrieren. Beim 1/f-Rauschen ist das Gesamtrauschen in jeder Dekade gleich. Beim Breitbandrauschen verringert sich das Gesamtrauschen bei kleineren Teilintervallen erheblich.

 

 

Bild 2.4 zeigt Rauschberechnungen für den OPA333 bei verschiedenen unteren Grenzfrequenzen. Die untere Grenzfrequenz wird durch den Beobachtungszeitraum festgelegt. Es treten nur sehr geringe Änderungen beim Gesamtrauschen auf. Wegen des flachen Verlaufs der Spektraldichte ist die Fläche bei den Teilintervallen der unteren Frequenz sehr klein (Gesamtrauschen). Im Vergleich zu Bausteinen mit 1/f-Rauschen ist dies ein Vorteil der Zero-Drift-Topologie. Das Rauschen eines Zero-Drift-Verstärkers ändert sich bis zu extrem großen Zeiträumen nicht.

Abbildung 2.4: Rauschen am OPA333 über einen langen Zeitraum
Bild 2.4: Rauschen am OPA333 über einen langen Zeitraum

Das Gesamtrauschen bei Zero-Drift-Verstärkern bleibt in unterschiedlichen Beobachtungszeiträumen konstant. Die in Bild 2.5 dargestellte Wellenform zeigt das Rauschen des OPA333 in einem Intervall von 100.000 Sekunden (10 µHz). Die obere Grenzfrequenz für dieses Signal beträgt 10 kHz. Der Effektivwert des Gesamtrauschens im gesamten Intervall beträgt 0,173 µV. Bei Auswahl eines beliebigen Teilintervalls ist der Effektivwert des Gesamtrauschens identisch. In diesem Beispiel ist ein Teilintervall von 10 Sekunden dargestellt, in dem der Effektivwert des Gesamtrauschens 0,173 µV beträgt. Das Gesamtrauschen ähnelt sich in den beiden Fällen sehr, da die Fläche unter der Leistungsspektraldichtekurve nahezu identisch ist.

Abbildung 2.5: Rauschen am OPA333 über einen langen Zeitraum
Bild  2.5: Rauschen am OPA333 über einen langen Zeitraum

 

Danksagung

 

Mein besonderer Dank gilt den folgenden Mitarbeitern von Texas Instruments für ihre technische Unterstützung:

Rod Burt, Senior Analog IC Design Manager,

Joy Zhang, Analog IC Design Engineer,

Bruce Trump, Manager Linear Products und

Tim Green, Applications Engineering Manager.

 

 

Literatur:

[1] Thomas Kugelstadt, „Auto-zero amplifiers ease the design of high-precision circuits”, Texas-Instruments-Dokumentennummer SLYT204, ©2005: http://focus.ti.com/lit/an/slyt204/slyt204.pdf.

[2] Thomas Kugelstadt, „New zero-drift amplifier has an IQ of 17 μA”, Texas-Instruments-Dokumentennummer SLYT272, ©2007: http://focus.ti.com/lit/an/slyt272/slyt272.pdf.

 

Was man aus einem Scope herausholen kann, Teil 3: Automatisch Signale überwachen und Messergebnisse dokumentieren

Im zweiten Teil zeigten wir, wie mit Parametern, Cursor, Mathematik und Dekodern das erfasste Signal analysiert werden kann. Ein nächster Schritt in der Signalanalyse ist es nun, die erfassten Signale automatisch zu überwachen. Das Oszilloskop soll bestimmte Ereignisse oder Parameter- und Mathematik-Werte selbständig erkennen und sie im Datenstrom lokalisieren und verschiedene Aktionen auslösen. In einem typischen Messbeispiel wird Drehzahlverlauf, Pulsweitenmessung oder Flankensteilheit überwacht. Der Anwender möchte im einfachsten Fall eine Benachrichtigung bekommen, wenn eine definierte Grenze überschritten wurde.

Ober- und Untergrenzen richtig einsetzen

Definierte Grenzen: Mit dem Pass-/Fail-Test lassen sich vordefinierte Werte automatisch überprüfen (Archiv: Vogel Business Media)
Definierte Grenzen: Mit dem Pass-/Fail-Test lassen sich vordefinierte Werte automatisch überprüfen

Die einfachste Möglichkeit ist es, den so genannten Pass-/Fail-Test einzusetzen. Mit dem Testverfahren können Parameter gegeneinander oder gegen einen festen Wert bzw. Wertebereich automatisch überprüft werden. Wenn beispielsweise die Flankensteilheit eines Signals zwischen 200 und 300 ns liegt, wird dieser Wertebereich vorgegeben. Der Pass-/Fail-Test überprüft jedes Mal beim Erfassen des Parameters, ob dieser innerhalb oder außerhalb des gesetzten Bereichs liegt. Wird der definierte Bereich über- oder unterschritten, gibt es eine Fehlermeldung.

Eine kleine Statistik gibt an, wie viele Werte den gesetzten Bereich nicht erfüllt haben. Mehrere solcher Tests können gleichzeitig, entweder für den gleichen Parameter oder für verschiedene, angewendet werden. Darüber hinaus gibt es auch die Möglichkeit, bestimmte Aktionen festzulegen, die vom Oszilloskop ausgeführt werden sollen, wenn einzelne oder eine Kombination von Bedingungen nicht erfüllt worden sind. Das Oszilloskop kann Screenshots anfertigen, die Daten in unterschiedliche Formate abspeichern oder einfach nur Signaltöne erzeugen.

Den großen Scope-Speicher effizient nach Ereignissen untersuchen

WaveScan zur Suche nach dem größten Flankenanstieg (Archiv: Vogel Business Media)
WaveScan zur Suche nach dem größten Flankenanstieg

Viele Oszilloskope haben große Speicher, um Daten über eine lange Zeit aufzuzeichnen. Mit WaveScan lässt sich der Speicher schnell und automatisiert nach bestimmten Ereignissen absuchen. Die Software überwacht Parameter, sucht nach Runts, nicht-monotonen Mustern und seriellen/Bus-Pattern. Alle gefundenen Ereignisse werden in einer Tabelle aufgelistet und mit einem Zeitstempel versehen. Gleichzeitig werden die Ereignisse direkt im Trace farblich markiert. Die Tabelle und der automatische Zoom-Modus sind synchronisiert. Spezielle Filter grenzen das Ergebnis ein.

Im Beispiel eines Pass-/Fail-Tests kann jede steigende Flanke bestimmt und im Trace markiert werden. Mit einem Filter auf die Rarest Events werden nur noch die größten und kleinsten Anstiegszeiten angezeigt und direkt im Trace markiert. WaveScan lässt sich sowohl auf eine gestoppte Erfassung als auch im normalen Erfassungsmodus anwenden.

Unterschiedliche Signale eines Oszilloskops überwachen

Unterschiedliche Signale eines Oszilloskops überwachen
Unterschiedliche Signale eines Oszilloskops überwachen

Bei vielen Scopes lässt sich über eine Schnittstelle das Gerät fernsteuern und die gewonnenen Daten auslesen. Mit spezieller Software wie Matlab, Labview, VBScript oder Excel lassen sich unterschiedliche Signale automatisiert überwachen. Bei allen Oszilloskopen lassen sich die Messreihen abspeichern und Screenshots erstellen. Selbst die Einstellungen am Oszilloskop sind speicherbar. Bei den Geräten von LeCroy gibt es die Möglichkeit, alles in einer Datenbank komplett abzulegen und daraus automatisch eine Dokumentation inklusive eigenem Firmenlogo und Firmenstyle zu kreieren.

Mit LabNotebook werden alle momentan erfassten Rohdaten abgespeichert, inklusive der Oszilloskop-Einstellungen und einem Screenshot. Für jeden Datenbank-Eintrag kann eine automatische Dokumentation in verschiedensten File-Formaten erstellt werden. Die Datenbank verfügt auch über eine Flash-Back-Funktion, mit der die Daten wieder direkt in den Erfassungsspeicher eingelesen werden können. So kann der Messtechniker viele Jahre nach der Erfassung wieder mit den Originaldaten arbeiten.

Der Autor:

Stephan Herzog ist Applikationsingenieur bei LeCroy in Heidelberg.

 

Eigenrauschen in Operationsverstärkerschaltungen – Teil 1: 1/f-Rauschen und Zero-Drift-Verstärker

Dieser Artikel beschäftigt sich mit Fehlern bei Niederfrequenzanwendungen. Im Einzelnen werden die Drift der Eingangs-Offsetspannung und das 1/f-Rauschen untersucht. Darüber hinaus werden Standard-Topologien mit der Topologie von Zero-Drift-Verstärkern verglichen, bei denen nur eine geringe Offsetdrift und kein 1/f-Rauschen auftreten.
Zero-Drift-Verstärker

Zero-Drift-Verstärker sind Operationsverstärker, die in regelmäßigen Abständen den Offset, die Offsetdrift und damit auch das niederfrequente 1/f Rauschen kalibrieren. Die Kalibrierungsfrequenz reicht bei unterschiedlichen Zero-Drift-Verstärkern von 10 kHz bis 100 kHz. Eine Digitalschaltung im Zero-Drift-Verstärker steuert die Kalibrierung. Von der Systemebene aus betrachtet fungiert dieser Verstärker als normaler linearer Operationsverstärker. Es gibt zwei unterschiedliche Arten von Zero-Drift-Verstärkern: Auto-Zero-Verstärker und Chopper-Verstärker.

Der Auto-Zero-Verstärker besteht aus einem kontinuierlich arbeitenden Verstärker (Signalverstärker) und einem Verstärker für die Kalibrierung (Korrekturverstärker). In einer ersten Phase tastet der Korrekturverstärker die Offsetspannung Vos1  ab und speichert sie in einem Kondensator(C2). Der Offset des Signalverstärkers wird nun mithilfe dieser gespeicherten Spannung ausgeglichen. In der zweiten Phase misst der Kalibrierverstärker seinen eigenen Offset und speichert den Wert in C1 ab, mit dessen Hilfe er dann seinen eigenen Offset korrigieren kann. Da die Kalibrierung mit einer relativ hohen Geschwindigkeit (z. B. 50 kHz) stattfindet, werden auch die Offsetdrift und das niederfrequente Rauschen ausgeglichen. Bild 1.1 zeigt ein vereinfachtes Blockschaltbild einer Schaltung mit Auto-Zero-Verfahren. Obwohl es sich hierbei um eine sehr starke Vereinfachung des Prinzips handelt, zeigt die Blockschaltung die grundsätzliche Funktionsweise. Eine detailiertere Beschreibung dieses Verfahrens finden Sie in [1].


Bild 1.1: Auto-Zero Verstärker

Bei einer Chopper-stabilisierten Schaltung werden Eingang und Ausgang synchron invertiert. Dadurch wird der Offset in jeder zweiten Phase invertiert. Auf diese Weise wird der Offset von einer Gleichspannung in eine Wechselspannung mit einem Mittelwert von 0V umgewandelt. Eine Filterstufe reduziert die Amplitude des Wechselspannungssignals (Bild 1.2). Bei modernen Chopper-Verstärkern von Texas Instruments ist ein patentierter Sperrfilter integriert um genau diese Chopper-Frequenz zu filtern. Eine ausführlichere Beschreibung des Chopper-Verfahrens findet sich in  [2].


Bild 1.2: Chopper-stabilisierter Verstärker

Auto-Zero-Verstärker und Chopper-stabilisierte Verstärker weisen einige Gemeinsamkeiten auf und werden als „Zero-Drift-Verstärker“ bezeichnet. Die Haupteigenschaften sind eine geringe Offsetspannung und eine geringe Drift der Offsetspannung. Obwohl der Eingangsstrom und dessen Drift nicht kalibriert werden, sind die Werte normalerweise gering, da es sich bei den Verstärkern um MOSFET-Verstärker handelt. In der folgenden Aufstellung sind der Offset und die Offsetdrift einiger verbreiteter Zero-Drift-Verstärker aufgeführt.

Operationsverstärker

Offset

(uV)

Offsetdrift

(uV/C)

Spannungsrauschen

(nV/rt-Hz)

OPA333

10

0,05

55

OPA335

5

0,05

55

OPA378

50

0,25

20

Eine weitere wichtige Eigenschaft von Zero-Drift-Verstärkern besteht darin, dass bei diesen Verstärkern praktisch kein 1/f-Rauschen auftritt. Niederfrequentes Rauschen kann als langsame Schwankung der Offsetspannung aufgefasst werden. Die Selbstkalibrierung beseitigt daher das 1/f  Rauschen auf dieselbe Weise wie die Offsetdrift.

Spektraldichtekurve von Zero-Drift-Verstärkern

Die Spektraldichtekurve von Zero-Drift-Verstärkern enthält keinen 1/f-Bereich. Manchmal zeigt sich die Kalibrierungsfrequenz und ihre Oberwellen als Störung in der Spektraldichtekurve.

In den meisten Anwendungsfällen ist es sinnvoll, den Bereich der Kalibrierungsfrequenz zu vermeiden. Dies lässt sich mithilfe eines externen Filters erreichen. In vielen Fällen wird das Kalibrierungssignal durch die Verstärkungsbandbreite des Operationsverstärkers automatisch gedämpft.

Bild 1.3 zeigt das Rauschen bei einer Verstärkung von 101. In diesem Fall wird die 3-dB-Bandbreite durch die Verstärkungsbandbreite des Verstärkers auf 19,8 kHz begrenzt, d. h., Verstärkungsbandbreite/Verstärkung = 2 MHz/101 = 19,8 kHz. Das bei 10 kHz auftretende Kalibriersignal wird nicht gedämpft. Zu beachten ist außerdem, dass die Berechnung des Gesamtrauschens kompliziert ist, weil die Spektraldichtekurve bei 10 kHz von 55 nV/rtHz auf 25 nV/rtHz abfällt. Die Kalibrierungssignale lassen sich in der Berechnung aber angemessen berücksichtigen. Die Berechnung des Gesamtrauschens ist in Bild 1.4 dargestellt.


Bild 1.3: Am OPA335 gemessenes Ausgangsrauschen bei einer Verstärkung von 101

Bild 1.4: Berechnung des Gesamtrauschens am OPA335 bei einer Verstärkung von 101

 

 

Bild 1.5 zeigt die Spektraldichtekurve des OPA333 mit Chopper-Stabilisierung. Bei diesem Verstärker beträgt die Chopperfrequenz ca. 125 kHz. Die Verstärkungsbandbreite des OPA333 beträgt 350 kHz. Bei den meisten Verstärkungseinstellungen wird die Chopperfrequenz außerhalb der Bandbreite liegen. Ein Beispiel: Die Bandbreite wird bei einer Verstärkung von 10 auf 35 kHz begrenzt und damit das Chopper-Signal zum größten Teil gedämpft.

 




Zusammenfassung und Vorschau

 

In diesem Artikel haben wir Zero-Drift-Verstärker und deren Rauschberechnung behandelt. Zero-Drift-Verstärker sind durch einen geringen Offset und eine geringe Offsetdrift gekennzeichnet. Außerdem tritt bei diesen Verstärkern kein 1/f Rauschen auf. In Teil 2 werden wir uns detaillierter mit den Eigenschaften und Vorteilen des niederfrequenten Rauschens bei Auto-Zero Verstärkern beschäftigen.

Danksagung

Mein besonderer Dank gilt den folgenden Mitarbeitern von Texas Instruments für ihre technische Unterstützung:

Rod Burt, Senior Analog IC Design Manager,

Joy Zhang, Analog IC Design Engineer,

Bruce Trump, Manager Linear Products und

Tim Green, Applications Engineering Manager.

Literatur

[1] Thomas Kugelstadt, „Auto-zero amplifiers ease the design of high-precision circuits”, Texas-Instruments-Dokumentennummer SLYT204, ©2005: http://focus.ti.com/lit/an/slyt204/slyt204.pdf.

[2] Thomas Kugelstadt, „New zero-drift amplifier has an IQ of 17 μA”, Texas-Instruments-Dokumentennummer SLYT272, ©2007: http://focus.ti.com/lit/an/slyt272/slyt272.pdf.

Der Autor:


Art Kay ist als Senior Applications Engineer bei Texas Instruments tätig.

Was man aus einem Scope herausholen kann, Teil 2: Wie Trigger die Informationen aus dem Signal extrahieren

Eine der schwierigsten Aufgaben für den Anwender eines Oszilloskops ist es, das gewünschte Ereignis aus der Vielzahl der Daten exakt zu erfassen. Gesucht wird hier nach einmaligen oder sich wiederholenden Ereignissen im Datenstrom. Hier helfen verschiedene Trigger, die auf analoge und digitale Kanäle anwendbar sind.

Es gibt drei verschiedene Modi einen Trigger auszulösen: Beim „Normal-Trigger“ wird auf Ereignisse kontinuierlich getriggert, während beim „Single-Trigger“ nur ein einmaliges auslösen des Triggers erfolgt. Der „Auto-Trigger“ triggert entweder wenn das geforderte Ereignis im Datenstrom auftritt, spätestens aber nach 100 ms automatisch.

Hardware- und Software-Trigger im Vergleich

Flanken-Trigger: Um Signalereignisse aufzuspüren, können sowohl Hardware- als auch Softwaretrigger eingesetzt werden

 

Moderne Oszilloskope verfügen über eine Vielzahl verschiedener Trigger-Möglichkeiten. Hierbei muss zwischen Hardware- und Software-Trigger unterschieden werden. Dem Hardware-Trigger werden direkt die vom Vorverstärker bearbeiteten, analog erfassten Daten zugeführt. In diesem Fall wird das zu überprüfende Ereignis direkt in der Hardware, meist einem FPGA, ausgewertet. Das hat den Vorteil, dass Triggerergebnisse schnell und ohne große Erfassungslücken zwischen den Triggerzeitpunkten vorliegen.

 

Beim Software-Trigger hingegen werden kontinuierlich Daten erfasst und der Inhalt der Daten nach dem gewünschten Triggerereignis durchsucht. Dieses Verfahren kann größere Erfassungslücken aufweisen und bietet die Möglichkeit, komplexere Triggerereignisse zu erfassen oder später mit neuen Triggermöglichkeiten nachzurüsten. Die schnellere und effektivere Methode ist immer die Hardware-Triggerung.

Der Anwender muss sich entscheiden, welche Art der zur Verfügung stehenden Trigger er verwenden möchte. Einfache Flanken- und Pulsweiten-Trigger bis hin zu komplexen „Smart-“ oder „Measurement-Trigger“ sind je nach Oszilloskop verfügbar. Sogar auf serielle Busse (bestimmte Nachrichten, Fehler oder Bitkombinationen) lässt sich einfach und schnell triggern. Auch Kaskadierungen von Triggerereignissen und Vergleiche der Triggerlevel über mehrere Kanäle hinweg sind möglich.

Verschiedene Ereignisse auswerten und erfassen

Parameterdarstellung: Unterschieden werden kann zwischen vertikalen und horizontalen Parametern (Archiv: Vogel Business Media) Parameterdarstellung: Unterschieden werden kann zwischen vertikalen und horizontalen Parametern

Nach dem richtigen Triggern und dem Erfassen des gewünschten Ereignisses ist es wichtig, die Daten direkt im Gerät auszuwerten. Ein einfaches Hilfsmittel dazu ist der Einsatz von „Cursor“. Mit „Cursor“ können schnell alle auf dem Bildschirm sichtbaren Messpunkte analysiert werden. Ein horizontaler oder vertikaler „Cursor“ sowie eine Kombination der beiden Typen können Signale auf dem Bildschirm ausmessen und überprüfen.

Eine elegantere und vielfältigere Anwendung, um verschiedene Ereignisse auszuwerten und zu erfassen – auch über viele Messzyklen hinweg – ist die automatische Parameter-Messmethode. Für viele Messaufgaben stehen bereits Parameter zur Verfügung. Das Vermessen einer Frequenz oder der Pulsbreite geht so nahezu automatisch und kann zudem noch statistisch ausgewertet und grafisch sichtbar gemacht werden.

Das Ganze geschieht nicht nur über einen Messzyklus hinweg, sondern wird für einen sehr großen Zeitraum durchgeführt. Unterschieden wird hier zwischen vertikalen und horizontalen Parametern. Typische vertikale Parameter sind: Amplitude, Minimum oder Maximum, Fläche zwischen Kurve und Zeitachse, Peak-to-Peak-Werte. Vertreter der horizontalen Parameter sind: Frequenz, zeitlicher Versatz, Abstand zwischen zwei Flanken oder Pulsbreiten.

Gerade bei seriellen Bussen erwartet der Anwender heute nicht nur im Triggerbereich Unterstützung durch sein Oszilloskop. Auch verschiedene Parameter für serielle Busse werden angeboten. Zur optimalen Auswertung des physikalischen Layers eines seriellen Busses gehört auch die Möglichkeit des Dekodierens von Echtzeitdaten direkt im Oszilloskop. Von einfachen Bussen wie Lin, SPI oder I²C bis zu komplexen wie FlexRay, USB und SATA muss möglichst jedes Protokoll verfügbar sein.

Eigenschaften und Fehler eines Busses erfassen

Die Dekodierung kann in verschiedenen Formen erfolgen. Idealerweise wird die Dekodierung der Nachrichten direkt über dem gemessenen Signal sowohl farblich kodiert als auch in Textform auf dem Bildschirm ausgegeben. Ebenfalls möglich ist es, die Dekodierung der Datenpakete in einer Tabelle darzustellen. Diese Tabellen können leicht exportiert und in anderen Programmen ausgewertet werden. Durch eine Verlinkung der Tabelle mit den erfassten Daten kann so schnell und einfach auch das gewünschte Datenpaket herangezoomt werden.

Die Kombination von Triggern, Parametern und Dekodierung macht es so möglich, Fehler und Eigenschaften eines Busses zu erfassen. Bei einigen Bussen wie USB 2.0 ist es möglich, eine vollständige Protokollanalyser-Übersicht auf dem Oszilloskop darzustellen. Das ermöglicht es dem Anwender einfach zu überprüfen, ob der Fehler in der physikalischen oder der Protokollebene liegt.

Der Autor:

Stephan Herzog ist Applikationsingenieur bei LeCroy in Heidelberg.

Dynamische Leistungsfähigkeit von A/D-Wandlern, Teil 2





SINAD, SNR, ENOB, THD, THD + N und SFDR beschreiben die dynamische Leistungsfähigkeit von A/D-Wandlern. Um die Werte in den Datenblättern richtig zu interpretieren, ist nicht nur das qualitative Verstehen der Parameter wichtig. Wir erläutern im zweiten Teil unserer Serie die mathematischen Zusammenhänge zwischen SINAD, SNR und THD.

 

Im ersten Teil dieses Beitrags wurden die Spezifikationen THD, THD + N und SFDR zur Quantifizierung der dynamischen Leistungsfähigkeit von A/D-Wandlern erläutert. Der zweite Teil geht auf die Spezifikationen SINAD, SNR und ENOB ein.

 

Das Signal/Rausch- und Verzerrungsverhältnis (SINAD) sowie das Signal/Rausch-Verhältnis (SNR) und die effektive Bitanzahl (ENOB) sind bei der Spezifikation von A/D-Wandlern sehr wichtig. Allerdings verwenden nicht alle Hersteller konsequent diese Definitionen in den Datenblättern.

Das Signal/Rausch- und Verzerrungsverhältnis (SINAD) oder S/(N + D) ist das Verhältnis aus Effektivwert der Signalamplitude und Mittelwert der Quadratsumme aller anderen spektralen Komponenten einschließlich Harmonischer, aber ohne Gleichspannungsanteil. SINAD ist ein gutes Maß für die gesamte dynamische Leistungsfähigkeit eines A/D-Wandlers, weil es alle Komponenten beinhaltet, aus denen sich Rauschen und Verzerrung zusammensetzen. Häufig wird SINAD für verschiedene Eingangsamplituden und Frequenzen dargestellt.

Bild 6: SINAD und ENOB für den A/D-Wandler AD9226 mit 12 Bit Auflösung und einer Abtastrate von 65 MSample/s für unterschiedliche Eingangsmessbereiche
Bild 6: SINAD und ENOB für den A/D-Wandler AD9226 mit 12 Bit Auflösung und einer Abtastrate von 65 MSample/s für unterschiedliche Eingangsmessbereiche

Für eine bestimmte Eingangsfrequenz und Amplitude entspricht SINAD der gesamten harmonischen Verzerrung plus Rauschen THD + N. Dies gilt unter der Voraussetzung, dass die Bandbreite für die Rauschmessung identisch ist (Nyquist-Bandbreite). Eine grafische Darstellung des SINAD für den A/D-Wandler AD9226 mit 12 Bit Auflösung und einer Abtastrate von 65 MSample/s zeigt Bild 6.

Aus der SINAD-Kurve ist ersichtlich, dass die AC-Leistungsfähigkeit des A/D-Wandlers aufgrund der hochfrequenten Verzerrung sinkt und normalerweise für Frequenzen weit über der Nyquist-Frequenz dargestellt wird, damit die Leistungsfähigkeit in Anwendungen mit „Undersampling“ evaluiert werden kann. SINAD-Kurven wie diese sind sehr nützlich, um die dynamische Leistungsfähigkeit von A/D-Wandlern zu evaluieren. SINAD wird oft in die effektive Bitanzahl (ENOB) konvertiert. Dabei wird die Beziehung für das theoretische SNR eines idealen A/D-Wandlers mit n Bit genutzt: SNR = 6,02 N + 1,76 dB. Die Gleichung wird aufgelöst nach N und der SINAD-Wert ersetzt SNR (Gleichung 1):



Gleichung 1 basiert auf der Annahme, dass das Eingangssignal voll ausgesteuert ist (Vollausschlag). Falls der Signalpegel reduziert wird, sinken der Wert für SINAD und ENOB. Deswegen muss zur Berechnung der effektiven Bitanzahl bei reduzierten Signalamplituden ein Korrekturfaktor eingeführt werden (Gleichung 2):



 

 

Der Korrekturfaktor „normiert” im Wesentlichen den ENOB-Wert auf den Vollauschlag und zwar unabhängig von der tatsächlichen Signalamplitude.

  • Das Signal/Rausch-Verhältnis (Signal-to-Noise Ratio, SNR oder SNR ohne Harmonische) wird aus den FFT-Daten genauso berechnet wie SINAD. Allerdings sind die Harmonischen von der Berechnung ausgenommen und es verbleiben lediglich die Rauschanteile. In der Praxis muss man nur die ersten fünf Harmonischen ausschließen. Im SNR-Diagramm ist zu sehen, wie Kurven bei hohen Eingangsfrequenzen abfallen. Dies geschieht jedoch langsamer als beim SINAD-Plot, da die harmonischen Anteile ausgeschlossen sind.

In einigen Datenblättern von A/D-Wandler wird SINAD lapidar als SNR bezeichnet. Deshalb muss man bei der Interpretation dieser Spezifikationen aufpassen und genau eroieren, was der Hersteller eigentlich meint.

Die mathematischen Beziehungen zwischen SINAD, SNR und THD

SINAD, SNR und THD (vorausgesetzt alle drei Parameter werden bei der gleichen Eingangsamplitude und Frequenz ermittelt) sind mathematisch miteinander verknüpft. In den folgenden Gleichungen werden SNR, THD und SINAD [in dB] von den tatsächlichen numerischen Verhältnissen S/N, S/D und S/(N+D) abgeleitet (S – Signal, N – Noise; Rauschen, D – Distorsion; Verzerrung).



 

 

 

 

Gleichung 3, 4 und 5 können nach den numerischen Verhältnissen N/S, D/S und (N+D)/S wie folgt aufgelöst werden:



 

 

 

 

Weil die Nenner auf der linken Seite von Gleichung 6, 7 und 8 alle gleich S sind, ergibt sich die Quadratsumme von N/S und D/S als (N+D)/S laut Gleichung 9:



 

 

 

Daher muss für S/(N+D) Gleichung 11 gelten:



 

 

und somit



 

Gleichung 12 liefert SINAD als eine Funktion von SNR und THD.

Auf ähnliche Weise, sofern SINAD und THD bekannt sind, lässt sich SNR berechnen:



 

THD berechnet sich gemäß Gleichung 14, wenn SINAD und SNR bekannt sind:

 

Die Gleichungen 12, 13 und 14 sind in ein einfach handhabbares Entwicklungswerkzeug auf der Internetseite von Analog Devices implementiert. Allerdings gelten diese Beziehungen nur, wenn Eingangsfrequenz und Amplitude für alle drei Messungen gleich sind.

Literatur:

1. Kester, W.: Analog-Digital Conversion, Analog Devices, 2004, ISBN 0-916550-27-3, Kapitel 6. Ebenfalls verfügbar als The Data Conversion Handbook, Elsevier/Newnes, 2005, ISBN 0-7506-7841-0, Kapitel 2.

2. Zumbahlen, H.: Basic Linear Design, Analog Devices, 2006, ISBN: 0-915550-28-1. Ebenfalls verfügbar als Linear Circuit Design Handbook, Elsevier-Newnes, 2008, ISBN-10: 0750687037, ISBN-13: 978-0750687034, Kapitel 6.

Der Autor:

Walt Kester ist als Senior-Applikationsingenieur bei Analog Devices in Greensboro, USA, tätig.