Was sich mit dem Release 2012b für Matlab/Simulink alles ändert

Im Herbst des vergangenen Jahres hat Mathworks mit dem Release 2012b die aktuelle Version von Matlab/Simulink auf den Markt gebracht. Eine wesentliche Neuerung ist das sogenannte Look & Feel. Der Desktop ist jetzt mehr denn je auf Workflows ausgerichtet.

Funktionalität in Form von Buttons wird dann angezeigt, wenn man sie tatsächlich braucht. Möglich machen das die neuen Toolstrips, ein Konzept ähnlich den dynamischen Buttonleisten, die man von Microsoft-Anwendungen her gewohnt ist. Neue Funktionen lassen sich besser auffinden, da viele Tools mit grafischen Oberflächen, die in Matlab und den Toolboxen mitkommen, jetzt in Form von Apps im neuen Toolstrip zur Verfügung stehen. Die Benutzeroberfläche ist insgesamt aufgeräumter. Alles ist an einem Ort und dann sichtbar, wenn es gebraucht wird. Die moderne Oberfläche erinnert an ein Smartphone oder Tablet-Geräte, mit denen viele Anwender sehr vertraut sind.

Über viele Jahre hinweg wurden alle sechs Monate neue Funktionen hinzugefügt, aber nicht immer haben die Anwender diese auch schnell gefunden. Der Umstand, dass der Desktop überarbeitet wurde, heißt nicht, dass nicht in anderen Bereichen ebenso investiert wird. Viele Teams sind ständig damit beschäftigt, laufend verschiedene Aspekte zu verbessern. Dazu gehört auch der Desktop.

Um nur drei Beispiele zu nennen: Im Bereich Test & Measurement ist in den letzten Jahren wieder viel zusätzliche Unterstützung zum direkte Anbinden von Matlab an Messhardware dazugekommen. Als wichtiger Schritt im Bereich der Objektorientierten Programmierung lassen sich jetzt abstrakte Klassen verwenden, was vor allem Informatiker freuen wird. Sie brauchen nicht nur die mathematischen Fähigkeiten, sondern auch die Eigenschaften als vollwertige Programmiersprache. Ein besonderes Highlight ist das Import-Tool, um beispielsweise vermischte Excel-Daten einzulesen und in die richtigen Datentypen abzulegen. Das war früher wesentlich aufwändiger, jetzt ist das dank neuer Oberfläche und mehr Programmintelligenz eine flotte Sache.

Smartes Signal-Routing sorgt für aufgeräumte Modelle

Release 2012b bringt den neuen Simulink- und Stateflow-Editor, der Navigation, Ansicht und Bearbeitung von Modellen erleichtert. Mit diesen Werkzeugen soll Simulink R2012b das Modellieren vereinfachen. Von den Anwendern ist bekannt, dass sie Simulink-Modelle oft ändern, nur damit sie besser aussehen. Oder sie wünschen sich, sie könnten Blöcke einfacher mit Signallinien verbinden. Der überarbeitete Simulink-Editor denkt mit. „Smart Signal Routing“ führt Signale so, dass sie nicht zu viel kreuzen und trotzdem keine extra Schlenker machen. Nicht wenige haben sich schon einmal in komplexen Programmen „verirrt“ oder über zu viele offene Fenster geärgert. Um immer direkt in der Struktur des Modells navigieren zu können, ist der neue Simulink Editor mit Tabbed Windows, also Reitern für Modellfenster, und dem „Explorer Bar“ ausgestattet.

Sich auf Entwurf und Analyse konzentrieren

Der Editor sorgt für eine einheitliche Infrastruktur bei gleichzeitiger Anwendung von Simulink und Stateflow und somit weniger Einarbeitungsaufwand. So bleibt der Fokus des Users auf dem System, und er kann sich auf seinen Entwurf bzw. die Analyse konzentrieren. Wer bislang nur Simulink, nicht aber Stateflow genutzt hat, weil er mit der Bedienung nicht zurechtkam, kann nun ruhig einen neuen Anlauf starten. Nicht nur wegen der verbesserten Oberfläche, sondern auch, weil die Action Language für Bedingungen und Transitionen jetzt die ganz normale Matlab-Sprache ist.

Simulink-Modelle lassen sich einfacher debuggen. Bedingte Unterbrechungspunkte, die „conditional breakpoints“, werden direkt auf Signale gelegt, ohne dass die dazugehörigen Daten aus den Augen verloren werden. Wer bisher Berührungsängste mit dem Simulink-Debugger hatte, sollte diesen im Release 2012b nutzen. Es gibt eine neue Funktion, um beim Modellieren in Simulink schnell zu variieren, ohne dass man sich gleich mit den Varianten beschäftigen muss. Blöcke und Subsysteme lassen sich auskommentieren, also von der Simulation ausnehmen, ohne dass das Modell strukturell verändert wird.

Mit dem Simulationsmodell zurück in der Zeit

Von Seiten der Anwender kam der Wunsch, eine Zeitmaschine für Simulink zu implementieren, damit man in der Simulationszeit rückwärtsgehen kann. Dieser Wunsch wurde erfüllt: Der User kann die Simulation anhalten – interaktiv, geskriptet oder eben mit Hilfe der neuen Unterbrechungspunkte – und dann in der Simulationszeit zurückgehen, um dort Parameter, Entscheidungen zu ändern oder auch einfach nur weitere detailliertere Nachforschungen anzustellen. Die Simulationszeit ist nicht länger streng monoton, sondern variabel.

Viele Anwender kennen die Problematik, wenn bei einem Modell hin und wieder der Regler anfängt auszureißen oder die Logik nicht passt. Bislang musste man rechtzeitig vorher wissen, dass es gleich schief gehen wird, dort unterbrechen, den Debugger starten und dann schrittweise fortfahren. Jetzt können Anwender die Simulation pausieren, sobald sie das unerwünschte Verhalten erkennen, und einige Schritte zurückgehen.

Die Simulation lässt sich an die aktuelle Simulation einfach ein Stück zurückspulen. Nutzer können die Funktion kombinieren, indem der komplette Simulationszustand abgespeichert wird. Häufig kam die Frage auf, wie sich ein Simulationslauf variieren lässt, kurz bevor die Simulation einen bestimmten Zustand eingenommen hat, ohne genau zu wissen, wann dies der Fall ist. Man setzt einen Unterbrechungspunkt auf ein Signal, an dem sich erkennen lässt, dass der gewünschte Zustand erreicht ist. Dann geht man einige Schritte in der Zeit zurück, bis der Punkt erreich ist, an dem die Ursache dafür auftritt.

Trial und Error waren gestern

Der gesamte Simulationszustand ist mit der „SimState“-Funktionalität problemlos speicherbar. Ab diesem Punkt können User nach Belieben variieren, und das auch über die Matlab-Kommandozeile steuern und lokal oder massiv parallelisieren.

Wir sprechen hier nicht von dem Mini-Modell, das ohnehin in wenigen Sekunden durchläuft, sondern von großen Systemmodellen, die vielleicht bis zum Verzweigungspunkt schon einige Stunden simulieren und von da ab nochmal einige Zeit brauchen. „Intelligentes“ Simulieren spart richtig Zeit. Die Ersparnis, die Ihnen die Möglichkeiten bietet, geht in Größenordnungen von Wochen an reiner Simulationszeit. Und wer schneller Antworten aus seiner Simulation hat, kann schneller Entscheidungen treffen und alternative Designs in Betracht ziehen.

Mit den Apps lassen sich vorhandene Funktionalitäten in Matlab und den Toolboxen leichter finden, weil alle Apps in der Apps Gallery zusammengefasst sind. Diese ersetzt das bisherige Startmenü. Eine App ist eine abgeschlossene Anwendung innerhalb von Matlab, typischerweise mit Benutzeroberfläche. Solche Apps lassen sich selbst schreiben bzw. bestehende Anwendungen und Oberflächen als App verpacken.

Der Autor: Dr. Joachim Schlosser ist Manager Application Engineering bei MathWorks in Ismaning, Deutschland.

 

European Analog Design Contest von TI geht in die nächste Runde

Nachdem Texas Instruments die Gewinner des Analog Design Contest (ADC) 2012 auf der electronica bekannt gegeben hat, lädt das Unternehmen auch in diesem Jahr Studenten der Elektrotechnik, Elektronik, Elektro- und Informationstechnik, Mechanik oder vergleichbarer Studienrichtungen wieder zur Teilnahme am Innovations-Wettbewerb ein. Entwicklerteams haben hier die Möglichkeit, Analog-Systeme zu entwickeln und einer Fachjury vorzulegen. Den Gewinnern winken attraktive Geldpreise. Der Anmeldeschluss für den Analog Design Contest ist der 28. Februar 2013. Dieses Jahr wird der Wettbewerb auch von Mouser Electronics unterstützt.

Einreichen kann man seine Vorschläge über ein Word-Formular auf der Webseite von TI.

Texas Instruments unterstützt die Teilnehmer unter anderem mit Bausteinen aus seinem IC und Entwicklungstoolprogramm, die den Studenten kostenlos zur Verfügung gestellt werden.

Die Mannschaften konzipieren, entwickeln und bauen Analog-Systeme, die in einem zweistufigen Verfahren von einer Fachjury, die aus Fachleuten der Branche, Universitätsprofessoren (nicht von den teilnehmenden Hochschulen) und Analogexperten von TI besteht, bewertet werden. Kriterien sind die Originalität der Design-Idee, deren Umsetzung, das eigentliche Analog-Design, der Effekt der verwendeten Tools und Bausteine, der Praxisnutzen und die Projektbeschreibung (max. 10 Seiten).

In der ersten Runde werden 20 Mannschaften prämiert, die jeweils 1000 US-$ erhalten. Aus diesen Teilnehmern setzen sich dann die vier Sieger zusammen. Dem Gewinner-Team des ADC winkt ein Preisgeld von 10.000 US-$. Die Zweitplatzierten dürfen sich über 5000 US-$ freuen. Für die Plätze drei und vier stellt TI jeweils 2500 US-$ zur Verfügung.

Aufgeschnappt: Energy-Harvesting-Bausteine

Als Antwort auf die Frage, wie weit sich die Leistungsaufnahme eines Gerätes absenken lässt, präsentiert Texas Instruments mit dem TPS62736 den eigenen Angaben zufolge sparsamsten Abwärts-Gleichspannungswandler der Industrie. Gegenüber alternativen Bausteinen erhöht der Baustein die per Energy Harvesting gewonnene Energiemenge, die einer Endanwendung zur Verfügung gestellt werden kann, um 70 Prozent [sic!]. Der Wandler ermöglicht damit den batterielosen Betrieb verschiedener Applikationen, darunter beispielsweise drahtlose Sensornetzwerke, Überwachungssysteme, Rauchmelder, am Körper zu tragende medizinische Geräte und Mobiltelefon-Zubehör.

DC-DC-Wandler mit geringer Leistungsaufnahme

Der DC-DC-Wandler TPS62736 erzielt bei Ausgangsströmen zwischen 10 µA und 50 mA einen Wirkungsgrad größer 90 Prozent. Im aktiven Zustand nimmt er 350 nA auf, im Standby-Status 20 nA. Bei Ausgangsströmen über 15 µA arbeitet er durchgehend mit einem Wirkungsgrad über 90 Prozent. Er setzt die von der jeweiligen Energiequelle, d.h. einer Batterie in Dünnschicht- oder Normalausführung bzw. einem Superkondensator gelieferte Eingangsspannung auf eine Ausgangsspannung herab, deren Höhe sich programmieren lässt.

Der Chip wird zurzeit von TI bemustert. Er besitzt ein 3,5 x 3,5 mm großes QFN-Gehäuse und kostet 2,‑ US-Dollar (ab 1.000 Stück). Die Massenfertigung dürfte zum Ende des ersten Quartals beginnen. Für ausgewählte Kunden sind Evaluierungs-Module verfügbar.

WEBENCH mit CAD-Export

Phil Gibson hatte es für den Sommer avisiert. Zur electronica war es so weit: Texas Instruments hat die WEBENCH-Tools mit einer einfachen Exportfunktion für Schaltpläne an CAD-Plattformen von Cadence, Mentor Graphics, RS und Altium erweitert.

Gemeinsam mit Accelerated Designs und in Zusammenarbeit mit den Herstellern der CAD-Plattformen hat Texas Instruments die WEBENCH-Plattform um „WEBENCH Schematic Export“ ergänzt. Ingenieure können damit ihre dynamisch erzeugten Schaltungen zu Stromversorgungen und LED-Beleuchtungen an CAD-Plattformen wie OrCAD Capture CIS (Cadence), DxDesigner (Mentor Graphics), Altium Designer, Altium P-CAD sowie DesignSpark (RS) exportieren. Vor dem Export lässt sich die Leistungsfähigkeit der Schaltung in WEBENCH Designer und Architect simulieren. Unterstützt werden mehr als 30.000 Bausteine. Bis dato sind etwa 7000 Schaltungen implementiert.

An alle Analog-Praxis Newbies

Das macht Analog-Praxis zu einem derzeit einzigartigen Informationsangebot für jeden Entwickler, der sich mit dieser anspruchsvollen Materie auseinandersetzt.

Wir bieten sowohl Grundlagenwissen für Ein- und Umsteiger als auch Fachwissen für den erfahrenen Analogtechniker. Darüber hinaus unterstützen eine kommentierte Toolsammlung (Simulationwerkzeuge, Eval-Kits etc.), Schaltungstipps und Referenzdesigns die praktische Arbeit. Zu finden sind Informationen zu Bauelementen sowie Applikationen aus der Antriebstechnik, Kommunikation, Messtechnik, Sensorik und den Bereichen Automotive und Lighting.

Wollen Sie über die aktuellen Blogbeiträge informiert werden? Dann tragen Sie sich in unseren Newsletter auf der rechten Seite ein.

Ihre Kristin Rinortner (alias krinortner)

Wie genau ist ein A/D-Wandler?


title=“wilhelm_tell_interlaken“ src=“https://autor.vogel.de/wp-content/uploads/2012/11/wilhelm_tell_interlaken.jpg“

Mit welcher Genauigkeit musste der Schweizer Wilhelm Tell zielen, um seinen Sohn Walter nicht zu verletzen? Und was hat das mit der Genauigkeit von A/D-Wandlern zu tun?

Moderne A/D-Wandler sind äußerst genau. Allerdings sind absolute Genauigkeit und Präzision nicht immer identisch. Wenn der junge Walter Tell seinerzeit in der Schweiz einen Apfel mit einem Durchmesser von 10 cm auf seinem Kopf gehabt hätte, hätte sich Wilhelm Tell einen Fehler von etwas weniger als 5 cm leisten können. Bei einer Entfernung von 50 m (und es war wahrscheinlich nicht weiter) entspricht dies einem Fehler von einem Tausendstel, also einer Genauigkeit von etwa 10 Bit. Ein 16-Bit-A/D-Wandler hat eine Auflösung von 1/216 (=1/65.536 oder 15 ppm [Parts per Million]) und es ist nicht ungewöhnlich, dass solche ADC eine Linearität von etwa 1 LSB (Least Significant Bit) haben. Dies bedeutet, dass die Übertragungscharakteristik von einer Geraden um weniger als 1/65.536stel des Skalenendwertes abweicht.

Für die meisten Applikationen ist diese Linearität weitaus wichtiger als die absolute Genauigkeit. Allerdings gibt es auch Fälle (fragen Sie Wilhelm), bei denen es auf die absolute Genauigkeit ankommt.

Kein derzeit verfügbarer 16-Bit-A/D-Wandler hat eine absolute Genauigkeit von 15 ppm bezogen auf den Vollausschlag.

Die besten 16-Bit-ADC haben Verstärkungsfehler von mehreren LSB. Selbst mit einer perfekten Referenz beträgt ihre absolute Anfangsgenauigkeit bestenfalls etwa 14 Bit. Natürlich können wir sie auf mehr als 16 Bit kalibrieren und auch eine Temperaturkompensation vorsehen. Doch standardmäßig liegt die Genauigkeit eher in der Nähe von 14 Bit.

Dabei ist eine Spannungsreferenz nicht berücksichtigt. Da die meisten Applikationen Linearität und nicht absolute Genauigkeit verlangen, ist die integrierte Spannungsreferenz auf dem Chip vieler A/D-Wandler etwa 10 Bit genau; bei einigen auch weniger. Dies ist so, weil eine hochgenaue Referenz recht groß wird, den Wandler verteuern würde und von den meisten Anwendern nicht gebraucht wird.

Externe Referenzen sind besser, liegen aber nicht einmal in der Nähe von 16 Bit. Sehr gute Referenzen haben eine Anfangsgenauigkeit von 1 mV bei 10 V Vollaussschlag, das entspricht etwa 13 Bit. Die meisten Hochleistungsreferenzen offerieren eine Genauigkeit von 11 bis 12 Bit. Selbst mit Kalibrierung sind 16 Bit schwer erreichbar. Auch ist es sehr schwer, diese Genauigkeit über die Temperatur beizubehalten.

In den meisten ADC-Applikationen sind relative Genauigkeit und Linearität wichtig. Die absolute Präzision ist es nicht. In Fällen, in denen eine höhere absolute Genauigkeit erforderlich ist, sollten Sie ein System entwickeln, das auf den notwendigen Level kalibriert und temperaturkompensiert werden kann. Außerdem sollte man die grundlegenden Einschränkungen von Wandlern und Referenzen der Hersteller verstehen. Denken Sie immer daran, dass, was auch immer die Auflösung eines A/D-Wandlers sein mag, seine absolute Genauigkeit mit einer internen Referenzspannung vor der Kalibrierung selten über 10 Bit liegt – das ist etwa so viel, wie der gute alte Wilhelm Tell erreichte.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Eigenrauschen in Operationsverstärkern Teil 3: Messen des niederfrequenten Rauschens

Dieser Artikel beschäftigt sich mit dem Messen niederfrequenten Rauschens mit extrem niedrigen Grenzfrequenzen von z.B. 10 µHz und veranschaulicht die Auswirkungen von Temperaturschwankungen auf die Ergebnisse der Rauschmessung.

In den meisten Datenblättern ist niederfrequentes Rauschen in einem Bereich von 0,1 Hz bis 10 Hz angegeben. Im Teil 6 dieser Artikelreihe wurde eine aktive Filterschaltung zum Messen dieses Rauschens behandelt. Messungen extrem niedriger Frequenzen machen die AC-Kopplung des Signals unmöglich, da die Werte der Komponenten außerhalb nutzbarer Bereiche liegen. Bild 3.1 zeigt eine Schaltung mit DC-Kopplung, die zur Messung des niederfrequenten Rauschens verwendet werden kann. Je nach Rauschpegel des zu testenden Verstärkers muss die Verstärkung angepasst werden.

 Bild 3.1: Schaltung zur Rauschmessung (Gleichstrom bis 10 Hz)
Bild 3.1: Schaltung zur Rauschmessung (Gleichstrom bis 10 Hz)

Das Rauschen wird auf einen Pegel verstärkt, der ohne Weiteres auf einem Oszilloskop abgelesen werden kann. Die Verstärkung der ersten Stufe sollte mindestens 10 betragen. Dadurch dominiert das Rauschen der ersten Stufe. Ein Problem dieser Schaltung besteht darin, dass auch der Offset des Verstärkers verstärkt wird. In diesem Beispiel wird der Offset auf 2 V DC verstärkt. Dadurch wird die Messung des Rauschens im betreffenden Bereich unmöglich. Mit der in Bild 3.3 dargestellten Schaltung kann dieser Offset korrigiert werden.

 Bild 3.3:Schaltung zum Ausgleichen des Ausgangs-Offsets
Bild 3.3:Schaltung zum Ausgleichen des Ausgangs-Offsets

Ein wichtiger Gesichtspunkt bei der Messung des niederfrequenten Rauschens besteht darin, dass die temperaturabhängige Drift des Offsets sehr stark dem 1/f Rauschen ähnelt und daher die Messergebnisse beeinträchtigen kann. Bild 3.4 zeigt das Rauschen und die Offsetdrift des OPA336 in einem Zeitraum von 10.000 s. Während dieser Messung änderte sich die Umgebungstemperatur im Labor um 2 °C. Diese geringe Schwankung der Raumtemperatur hatte einen erheblichen Einfluss auf das Ausgangssignal. Um dem entgegenzuwirken muß die gleiche Messung mit einer Präzisen Temperaturregelung, wie durch Verwendung einer Wärmekammer, durchgeführt werden.

 Bild 3.4:Rauschen des OPA336 plus Temperaturdrift
Bild 3.4:Rauschen des OPA336 plus Temperaturdrift

Bei Zero-Drift-Verstärkern tritt temperaturabhängige Offset-Drift in erheblich geringerem Umfang auf. Bild 3.5 zeigt Rauschmessungen, die ohne Temperaturregelung durchgeführt wurden, die Umgebungstemperatur im Labor änderte sich wieder um 2 °C, dies ist im Messergebnis nicht zu erkennen. Die äußerst geringe Temperaturdrift des Zero-Drift-Verstärkers ist einer der Hauptvorteile dieser Technologie.

 

 

Ein weiterer wichtiger Gesichtspunkt bei der Rauschmessung ist, dass der Effektivwert des Rauschens und nicht der Spitze-Spitze-Wert des Rauschens gemessen wird. Dieser ist zwar eine gute Näherung, reicht aber für exakte Ergebnisse nicht aus. Das Problem ist, dass die Anzahl der Abtastwerte einen großen Einfluss auf den Spitze-Spitze-Messwert haben kann. Es sei daran erinnert, dass sich der Spitze-Spitze-Wert abschätzen lässt, indem die Standardabweichung mit 6 multipliziert wird. Mathematisch bedeutet dies, dass 99,7 Prozent der Werte innerhalb des Spitze-Spitze-Wertes liegen und nur 0,3 Prozent des Rauschens außerhalb dieses Bereiches. Bei Erhöhung der Anzahl von Abtastungen erhöht sich auch die Anzahl von Fällen, in denen der Wert außerhalb der Sechs-Sigma-Abschätzung liegt. In Bild 3.6 ist dasselbe Signal dargestellt, das bei 25.000 und 2.500 Abtastungen mit einem Digitaloszilloskop aufgenommen wurde. Im Teil 1 dieser Artikelserie wurde dieses Thema näher erläutert.

 Billd 3.5:Rauschen des OPA33, gemessen bei Raumtemperatur des Labors
Billd 3.5:Rauschen des OPA33, gemessen bei Raumtemperatur des Labors

 

Abschließend soll im Zusammenhang mit der Messung des Rausch-Effektivwertes darauf hingewiesen werden, dass der Gleichstromanteil (d. h. Mittelwert = 0) nicht in die Rauschmessung einbezogen wird. Der einfachste Weg zur Beseitigung des Mittelwertes besteht darin, die Standardabweichung des Signals anstelle des Effektivwerts zu ermitteln. Die Standardabweichung ist mathematisch definiert als Effektivwert mit dem Mittelwert null. Die meisten Digitaloszilloskope können die Messergebnisse als Kalkulationstabelle speichern. Dort können  dann Formeln zur Berechnung der Standardabweichung verwendet werden. Manche Digitaloszilloskope enthalten einen mathematischen Operator zur Ermittlung des Effektivwertes.

Einstellbares Rauschnormal von 0,1 bis 200 MHz


Bild 1: Kalibrierfreies, einstellbares Rauschnormal auf Basis einer beleuchteten Photodiode

Mit einer beleuchteten Photodiode als Quelle weißen Rauschens lässt sich für den Frequenzbereich von 0,1 bis 200 MHz ein Rauschnormal herstellen, das ohne Kalibrierung auskommt.

Das Eigenrauschen und die Grenzempfindlichkeit elektronischer Verstärker werden oft unter Zuhilfenahme eines Rauschgenerators ermittelt. Im Hz-und kHz-Bereich kann man definiertes weißes Rauschen bequem aus ohmschen Widerständen oder aus Schieberegistern (Pseudo Random Generator) gewinnen.

Oberhalb von etwa 100 MHz dominieren spezielle Halbleiter-Rauschdioden, die aufgrund von Fertigungstoleranzen jedoch zuvor selbst vermessen und kalibriert werden müssen.

Für den mittleren Frequenzbereich lässt sich alternativ auch das Schrotrauschen einer beleuchteten Photodiode nutzen. Ihr Sperrstrom Iph wird von einem gaußverteilten weißen Rauschen gemäß Gleichung 1 begleitet.

 


(Gl. 1)
(Gl. 1)

 

Dessen Intensität ist unabhängig von spektralen Eigenschaften des Lichtes oder der Diode und wird ausschließlich durch den leicht kontrollierbaren Strom Iph und die Elementarladung e bestimmt. Prinzipiell lässt sich damit ein Rauschnormal herstellen, das keiner Kalibrierung bedarf.

Bild 1 zeigt die Schaltung des aufgebauten Mustergeräts. Die Wahl der für die Photodiode (PD) eingesetzten HAMAMATSU S5972 ist ein Kompromiss zwischen geringer Kapazität und hoher Grenzfrequenz einerseits und nicht allzu kleiner Chipfläche andererseits. Zu deren Beleuchtung dient eine rote LED aus der OSRAM Reihe Golden Dragon, deren flache Lichtaustrittsfläche direkt vor PD platziert ist.

Damit der Frequenzgang der erzeugten Rauschdichte nicht von der Intensität abhängt, muss die an der Photodiode abfallende Sperrspannung konstant gehalten werden. Hierzu wird Usp. rückwirkungsarm über R1 und den Puffer A1 abgetastet. Der Regler mit A2 stellt die Biasspannung U,bias stets automatisch so nach, dass Usp. = Uref. = +8 V wird. Die Festlegung des gewünschten Rauschpegels erfolgt durch Variation des Ripple- und Spike-freien Stromes I,led. Die Anzeige VM ist proportional zu Iph und somit ein direktes Maß für die erzeugte Rauschstromdichte.

 


Bild 2a: Ansicht der sich in Betrieb befindlichen Rauschquelle (gestrichelter Rahmen in Bild 1), zu sehen ist das rote Licht der LED, die die Photodiode bestrahlt
Bild 2a: Ansicht der sich in Betrieb befindlichen Rauschquelle (gestrichelter Rahmen in Bild 1), zu sehen ist das rote Licht der LED, die die Photodiode bestrahlt

Der in Bild 1 eingerahmte Teil ist als kleiner Tastkopf (Bild 2) aufgebaut, um den Rauschstrom auf kürzestem Wege in die zu testende Baugruppe oder Versuchsschaltung einzuspeisen. Wird eine 50-Ohm-Last angeschlossen, sind darin Rauschzahlen zwischen 0 und 32 kT-Einheiten stufenlos einstellbar, proportional zum Strom Iph.

Für die Messung der in den Bildern 3 bis 7 dargestellten Frequenzspektren fand ein Breitbandverstärker Verwendung, an dessen Eingangsbuchse der Tastkopf geklemmt wurde. Der Photostrom Iph war auf 6 mA eingestellt.

Die ersten beiden Spektren im Niederfrequenzbereich bis 2,5 MHz (Bilder 3 und 4) wurden mit einem Digitaloszilloskop OWON PDS6062 in der Betriebsart FFT gemessen. Eingestellt waren: vertikal 10 dB/div. sowie „Display Persist Infinite“. Steilflankige Tiefpassfilter vor dem Scope sorgten dafür, dass das Abtasttheorem eingehalten wurde.

 


Bild 3: Der deutliche Anstieg des Rauschens unterhalb von etwa 10 kHz wird vom Funkelrauschen der LED-Lichtintensität verursacht (0 bis 50 KHz, 10 dB je div. , FFT)
Bild 3: Der deutliche Anstieg des Rauschens unterhalb von etwa 10 kHz wird vom Funkelrauschen der LED-Lichtintensität verursacht (0 bis 50 KHz, 10 dB je div. , FFT)

 

Der deutliche Anstieg der Rauschdichte unterhalb etwa 10 kHz in Bild 3 wird vom Funkelrauschen der LED-Lichtintensität verursacht. Vorversuche zeigten, dass beim Einsatz einer kleinen Glühlampe ein weißes Rauschen bis unter 1 kHz erreicht werden könnte, jedoch wären die erzielbaren Beleuchtungsstärken auf der Photodiode wesentlich niedriger.

 


Bild 4: Oberhalb der Region des 1/f-Rauschens liegt eine konstante Spektraldichte vor (0 bis 2,5 MHz,10 dB je div., FFT)
Bild 4: Oberhalb der Region des 1/f-Rauschens liegt eine konstante Spektraldichte vor (0 bis 2,5 MHz,10 dB je div., FFT)

Oberhalb der Region des 1/f-Rauschens liegt eine konstante Spektraldichte vor (Bild 4).

Für die Messung der folgenden drei Spektren wurde ein HAMEG-Analyzer des Typs HM8028 benutzt, als Sichtgerät fungierte wieder das OWON-Oszilloskop, jetzt in der Betriebsart YT. Aus der eingestellten Vertikalempfindlichkeit von 200 mV/div. resultiert in Verbindung mit dem HM8028 die Skalierung 4 dB/div.

 


Bild 5: Hier liegt weißes Rauschen mit nahezu ebenem Frequenzgang vor (0 bis 20 MHz, 4 dB je div., Analyzer)
Bild 5: Hier liegt weißes Rauschen mit nahezu ebenem Frequenzgang vor (0 bis 20 MHz, 4 dB je div., Analyzer)

In Bild 5 liegt weißes Rauschen mit nahezu ebenem Frequenzgang vor.

 


Bild 6: Auch bis ca. 200 MHz liegen die Abweichungen unterhalb von +/-1 dB. Die Peaks bei 28 MHz, 170 MHz und 185 MHz kommen durch externe Einstreuungen in den Messaufbau zustande (0 bis 200 MHz, 4 dB je div., Analyzer)
Bild 6: Auch bis ca. 200 MHz liegen die Abweichungen unterhalb von +/-1 dB. Die Peaks bei 28 MHz, 170 MHz und 185 MHz kommen durch externe Einstreuungen in den Messaufbau zustande (0 bis 200 MHz, 4 dB je div., Analyzer)

Auch bis ca. 200 MHz liegen die Abweichungen unterhalb von ±1 dB (Bild 6). Die Peaks bei 28 MHz, 170 MHz und 185 MHz kommen durch externe Einstreuungen in den Messaufbau zustande.

 


Bild 7: Oberhalb von 200 MHz geht die Rauschdichte zurück (0 bis 500 MHz, 4 dB je div., Analyzer)
Bild 7: Oberhalb von 200 MHz geht die Rauschdichte zurück (0 bis 500 MHz, 4 dB je div., Analyzer)

Oberhalb von 200 MHz (Bild 7) geht die Rauschdichte zurück. Die Cutoff-Frequenz der eingesetzten Photodiode S5972 bei einer Vorspannung von 8 V wird von HAMAMATSU mit ca. 350 MHz angegeben. Der Abfall der Rauschdichte entspricht ungefähr diesem Wert.

Die Messungen zeigen, dass eine intensiv beleuchtete Photodiode als Quelle weißen Rauschens im Bereich 0,1 bis 200 MHz einsetzbar ist. Die Rauschintensität wird direkt von einem Naturgesetz bestimmt und ist damit gut reproduzierbar und stufenlos einstellbar.

Der Autor:

Michael Franke ist Inhaber der Elektronikmanufaktur Mahlsdorf in Berlin.

 

Entsorgen Sie Ihre Schaltung oder Ihre Testgeräte? Stellen Sie alles in Frage!

Sie haben die Ursachen von „Ringing” und „Overshoot” identifiziert: Entkopplung, Masseführung, Parasitäten und Leitungsabschlüsse. Bei einem sorgfältigen Design funktioniert ihre Schaltung einwandfrei (wirklich!). Das Problem kann jedoch beim Testen der Schaltung auftreten. Und der Schuldige kann der Tastkopf Ihres Oszilloskops sein.

Viele schnelle Verstärker haben Schwierigkeiten beim Treiben kapazitiver Lasten (die eine Polstelle im Rückkopplungsverlauf verursachen und so die Phasenreserve senken und Instabilitäten bewirken – doch das ist ein Thema für ein anderes Mal).

Tastköpfe können den Messpunkt mit etwa 10 pF (für einen typischen 10 x passiven Tastkopf) beaufschlagen. Durch diese zusätzliche Kapazität können Oszillationen und Überschwingungen entstehen. Prüfen Sie einfach, ob ein Tastkopf mit geringerer Kapazität Abhilfe schafft. Aktive Tastköpfe haben normalerweise geringere Kapazitäten als passive. Probieren Sie es einfach aus. Alternativ könnte man einen passiven Tastkopf mit höherem Dämpfungsfaktor (100 x) verwenden. Auch diese Tastkopftypen weisen niedrigere Kapazitäten auf.

Wahrscheinlicher ist aber, dass die Induktivität der Leitung zum Masseclip des Tastkopfes für die Probleme verantwortlich ist. Die parasitäre Induktivität der Leitung und die Kapazität des Tastkopfes bilden einen Schwingkreis. Schwingkreise sind üblicherweise in Oszillatoren zu finden. Schnelle Signalflanken können genügend Energie enthalten, um den Schwingkreis anzuregen und ihn zum Oszillieren zu bringen.

Seien Sie daher brutal und kappen Sie die Leitung. Um dies zu tun, müssen Sie den Tastkopf auseinander nehmen. Entfernen Sie (durch Aufschrauben) die Plastikhülse, welche die Tastkopfspitze umgibt. Dadurch wird die äußere Metallhülle der Spitze freigelegt – dies ist die Masseverbindung. Anschließend wird der Masseclip-Anschluss entfernt. Es entsteht eine abisolierte Spitze mit freiliegender Masse. Ein solcher Tastkopf eignet sich bestens für die Messung schneller Signale.

Um diesen modifizierten Tastkopf zu verwenden, berühren Sie einfach den entsprechenden Testpunkt der Schaltung mit der Tastkopfspitze, während Sie gleichzeitig das äußere Metall mit Masse verbinden. Falls Sie eine direkte Masseverbindung nicht auf einfache Weise realisieren können, wickeln Sie einfach ein kurzes Stück blanken Draht mehrmals um die äußere Metallhülle der Spitze. Das freie Ende des Drahtes, der so kurz wie möglich sein sollte, berührt den nächst gelegenen Massepunkt.

Sie werden beeindruckt sein, welche Verbesserungen Sie mit diesem modifizierten Tastkopf bei Ihren Messungen erzielen können. Es mag vielleicht nicht so gut aussehen, funktioniert aber einwandfrei.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Eigenrauschen in Operationsverstärkerschaltungen – Teil 2: Niederfrequentes Rauschen

Dieser Artikel beschäftigt sich mit den Unterschieden bei der Berechnung des Gesamtrauschens von Standard Operationsverstärkern mit 1/f -Rauschen und Auto-Zero bzw. Chopper Verstärkern ohne 1/f-Rauschen.

Die Spektraldichtekurve des 1/f-Rauschens steigt mit abnehmender Frequenz an. Tatsächlich geht das Rauschen bei der Annäherung an die Frequenz null auf unendlich zu. Diese Tatsache verleitet zu der Annahme, dass das Rauschen bei Gleichstrom unendlich sein müsste. Der beste Weg, um zu verstehen, warum bei Schaltungen in der Praxis das 1/f-Rauschen nicht in unendliche großes Rauschen umgewandelt werden kann, ist die Umrechnung der Frequenz in die Zeit (d. h. Zeit = 1/Frequenz).

Bild 2.1 zeigt Berechnungen des 1/f-Rauschen für den OPA336 bei verschiedenen unteren Grenzfrequenzen. Die untere Grenzfrequenz wird durch den Zeitraum festgelegt, innerhalb dessen das Signal beobachtet wird. In der Regel wird bei Rauschberechnungen eine untere Grenzfrequenz von 0,1 Hz verwendet. Dies entspricht einer Beobachtungsdauer von 10 Sekunden. Eine Frequenz von 0 Hz würde einer unendlichen Zeit entsprechen und ist daher praktisch nicht realisierbar. Extrem niedrige Frequenzen entsprechen einem Zeitraum von Jahren.

Die bei diesen Berechnungen verwendete obere Grenzfrequenz beträgt 10 kHz. Dies ist ein typisch verwendeter Wert (d. h. 0,1 Hz < f < 10 Hz). Außerdem wird ein Brickwall-Filter bei fL und fH angenommen. Der Begriff „Brickwall-Filter“ bedeutet, dass das Rauschen außerhalb der angegebenen Bandbreite abrupt auf null abfällt. Bei einem realen Filter ist das nicht der Fall. Dieses Thema wurde im Teil 2 dieser Artikelserie näher erläutert.

Abbildung 2.1: Berechnungen des Flickerrauschens beim OPA336
Bild 2.1: Berechnungen des Flickerrauschens beim OPA336

Das Gesamtrauschen aus 1/f-Rauschen ist innerhalb einer Frequenzdekade immer gleich groß. Beispiel: Das Gesamtrauschen im Frequenzintervall von 0,1 Hz bis 10 Hz ist identisch mit dem Rauschen im Intervall von 0,01 Hz bis 0,1 Hz. Dies ist in Bild 2.2 mithilfe der im Teil 1 entwickelten Formel mathematisch dargestellt. Diese Tatsache führt oft zu Verwirrung, weil der Bereich unter der Kurve bei höherem 1/f Rauschen erheblich größer erscheint. Dies liegt an der logarithmischen Darstellung.

 

Abbildung 2.2: Das Gesamtrauschen in einem Intervall von einer Dekade ist gleich
Bild 2.2: Das Gesamtrauschen in einem Intervall von einer Dekade ist gle

 

Bei Verstärkern mit 1/f-Rauschen nimmt das Gesamtrauschen bei längerer Beobachtungsdauer zu. Die in Bild 2.3 dargestellte Wellenform zeigt das Rauschen am OPA336 in einem Intervall von 100.000 Sekunden (10 µHz). Die obere Grenzfrequenz für dieses Signal beträgt 10 kHz. Der Effektivwert des Gesamtrauschens im gesamten Intervall beträgt 0,74 µV. Bei Auswahl eines beliebigen Teilintervalls ist der Effektivwert des Gesamtrauschens geringer. In diesem Beispiel ist ein Teilintervall von 10 Sekunden dargestellt, in dem der Effektivwert des Gesamtrauschens 0,43 µV beträgt. Ein kleinerer Zeitraum entspricht einer höheren unteren Grenzfrequenz.

Abbildung 2.3: Rauschen am OPA336 über einen längeren Zeitraum
Bild 2.3: Rauschen am OPA336 über einen längeren Zeitraum

 

Zero-Drift-Verstärkern haben kein 1/f-Rauschen sondern nur Breitbandrauschen. Wegen des flachen Verlaufs der Rauschspektraldichte lässt sich das Rauschen bis zu einem Wert von 0 Hz integrieren. Beim 1/f-Rauschen ist das Gesamtrauschen in jeder Dekade gleich. Beim Breitbandrauschen verringert sich das Gesamtrauschen bei kleineren Teilintervallen erheblich.

 

 

Bild 2.4 zeigt Rauschberechnungen für den OPA333 bei verschiedenen unteren Grenzfrequenzen. Die untere Grenzfrequenz wird durch den Beobachtungszeitraum festgelegt. Es treten nur sehr geringe Änderungen beim Gesamtrauschen auf. Wegen des flachen Verlaufs der Spektraldichte ist die Fläche bei den Teilintervallen der unteren Frequenz sehr klein (Gesamtrauschen). Im Vergleich zu Bausteinen mit 1/f-Rauschen ist dies ein Vorteil der Zero-Drift-Topologie. Das Rauschen eines Zero-Drift-Verstärkers ändert sich bis zu extrem großen Zeiträumen nicht.

Abbildung 2.4: Rauschen am OPA333 über einen langen Zeitraum
Bild 2.4: Rauschen am OPA333 über einen langen Zeitraum

Das Gesamtrauschen bei Zero-Drift-Verstärkern bleibt in unterschiedlichen Beobachtungszeiträumen konstant. Die in Bild 2.5 dargestellte Wellenform zeigt das Rauschen des OPA333 in einem Intervall von 100.000 Sekunden (10 µHz). Die obere Grenzfrequenz für dieses Signal beträgt 10 kHz. Der Effektivwert des Gesamtrauschens im gesamten Intervall beträgt 0,173 µV. Bei Auswahl eines beliebigen Teilintervalls ist der Effektivwert des Gesamtrauschens identisch. In diesem Beispiel ist ein Teilintervall von 10 Sekunden dargestellt, in dem der Effektivwert des Gesamtrauschens 0,173 µV beträgt. Das Gesamtrauschen ähnelt sich in den beiden Fällen sehr, da die Fläche unter der Leistungsspektraldichtekurve nahezu identisch ist.

Abbildung 2.5: Rauschen am OPA333 über einen langen Zeitraum
Bild  2.5: Rauschen am OPA333 über einen langen Zeitraum

 

Danksagung

 

Mein besonderer Dank gilt den folgenden Mitarbeitern von Texas Instruments für ihre technische Unterstützung:

Rod Burt, Senior Analog IC Design Manager,

Joy Zhang, Analog IC Design Engineer,

Bruce Trump, Manager Linear Products und

Tim Green, Applications Engineering Manager.

 

 

Literatur:

[1] Thomas Kugelstadt, „Auto-zero amplifiers ease the design of high-precision circuits”, Texas-Instruments-Dokumentennummer SLYT204, ©2005: http://focus.ti.com/lit/an/slyt204/slyt204.pdf.

[2] Thomas Kugelstadt, „New zero-drift amplifier has an IQ of 17 μA”, Texas-Instruments-Dokumentennummer SLYT272, ©2007: http://focus.ti.com/lit/an/slyt272/slyt272.pdf.

 

BAM – CMS Blog