Archiv der Kategorie: EPAP – Messtechnik

Rein und raus – oder: Warum ein Kondensator?

Antwort: Um HF drinnen und auch draußen zu halten.

 Defekte Kondensatoren. Foto: Rainer Knäpper, Lizenz Freie Kunst (http://artlibre.org/licence/lal/de)
Defekte Kondensatoren. Foto: Rainer Knäpper, Lizenz Freie Kunst (http://artlibre.org/licence/lal/de)

Es gibt zwei wichtige Gründe, warum jedes IC einen Kondensator braucht, der jeden Spannungsanschluss direkt am Bauteil mit Masse verbindet. Um es vor Rauschen zu schützen, das seine Leistungsfähigkeit beeinträchtigen kann, und um zu verhindern, dass Rauschen ausgesendet wird, was sich auf die Eigenschaften anderer Schaltkreise auswirken könnte.

Versorgungsleitungen verhalten sich wie Antennen und können HF-Rauschen aufnehmen. Dieses HF-Rauschen kann durch elektrische, magnetische oder elektromagnetische Felder und die direkte Leitung von anderen Teilen des Systems entstehen. Die Leistungsfähigkeit vieler Schaltkreise wird durch die Anwesenheit von HF-Rauschen auf den Versorgungleitungen beeinträchtigt. Daher muss jedes HF-Rauschen, das auf der Versorgung eines ICs vorhanden sein kann, nach Masse abgeleitet werden. Einen Leiter kann man für diese Aufgabe nicht verwenden, da er einen Kurzschluss verursachen und eventuelle Sicherungen zerstören würde. Ein Kondensator jedoch (normalerweise im Bereich 1 bis 100 nF) blockiert Gleichspannung und verhält sich zugleich wie ein Kurzschluss für HF.

Ein Draht oder eine Leiterbahn auf der Leiterplatte mit einer Länge von 1 cm hat eine Induktivität von ungefähr 8 nH (5 Ω bei 100 MHz). Dies ist als Kurzschluss nicht ausreichend. Ein Kondensator, der sich als HF-Kurzschluss verhält, muss niedrige Anschluss- und Leiterbahn-Induktivitäten aufweisen. Daher muss sich jeder Versorgungs-Kondensator in unmittelbarer Nähe der beiden Anschlüsse des zu entkoppelnden ICs befinden. Auch ist es wichtig, Kondensatoren mit geringer interner Induktivität zu wählen – normalerweise Keramikkondensatoren.

Viele ICs enthalten Schaltkreise, die HF-Rauschen an ihren Versorgungen erzeugen. Dieses Rauschen muss ebenfalls mit einem Kondensator über der Versorgung kurzgeschlossen werden, bevor es andere Systemteile beeinträchtigen oder beschädigen kann. Und noch einmal – die Länge der Anschlüsse und Leiterbahnen ist entscheidend.

Lange Anschlussleitungen verhalten sich nicht nur wie Induktivitäten und machen den Kurzschluss weniger perfekt, sondern wirken als Antennen, die HF-Rauschen, das durch elektrische und magnetische Felder und elektromagnetische Strahlung in andere Systemteile verursacht wird, übertragen.

Es ist daher sehr wichtig, dass jeder Versorgungsanschluss jedes ICs (oder Anschlüsse, die alle über breite Leiterbahnen mit niedriger Induktivität verbunden werden müssen, damit kein Widerstand und keine Induktivität entsteht, und so verhindert wird, dass sie sich als Sternpunkt mit geringer Impedanz und nur einem Potenzial verhalten) über einen Kondensator mit sehr kleinem Wert mit seinem Masseanschluss verbunden sein sollte.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Die DC-Parameter von Operationsverstärkern messen

Antwort: Mein englischer Kollege  hat berichtet, das er im Restaurant „La Cognette” in Issoudun in Zentralfrankreich und nicht viel später, in einem Lokal, das vermutlich das beste Restaurant in Afrika ist – Le Quartier Français” in Franschhoek im südafrikanischen Weinanbaugebiet gegessen hat. In beiden Restaurants hatte er die Gelegenheit, den Küchenchef zu fragen, wie ein bestimmtes Gericht zubereitet wird. Und in beiden Lokalen gab man ihm alle Details, die er sich nur wünschen konnte. Der Durchschnittliche versucht, alles zu verbergen, während der wahrhaft Große sein Wissen preisgibt.

Analog Devices ist ein weltweit führender Anbieter von Analogtechnologie. Wir glauben an den Ausspruch „Wenn man es nicht messen kann, ist es keine Wissenschaft” [1]. Außerdem sind wir froh, Einzelheiten darüber, wie wir die Parameter unserer Produkte messen, weiterzugeben. Viele Lehrbücher zeigen das Diagramm eines Operationsverstärkers mit Eingängen auf Masse und einer Closed-Loop-Verstärkung von 1 bis 10.000, der einen Spannungsmesser treibt, welcher den von 1 bis 10.000 verstärkten Offset anzeigt. Diese Technik funktioniert unter der Voraussetzung, dass man die thermoelektrischen Spannungen und die Einflüsse von Biasströmen sorgfältig minimiert. Allerdings wird so nur der Offset gemessen.

Eine leicht komplexerer Aufbau, bei dem ein zweiter Operationsverstärker verwendet wird, erlaubt die Messung von Offsetspannung, Biasstrom, Open-Loop-Verstärkung, Gleichtaktunterdrückung (CMR) und Unterdrückung von Störungen auf der Spannungsversorgung (Power Supply Rejection) mit minimalen Änderungen der Schaltung und ohne Low-Level Signal-Switching (welches Rauschen und Fehler bewirken kann).

Mit zwei zusätzlichen Widerständen und zwei weiteren Kondensatoren sind auch AC-Messungen möglich. Darüber hinaus muss es sich bei dem zweiten Operationsverstärker nicht um einen Hochleistungs-OPV handeln, um hochgenaue Messungen (z.B. die Messung sehr kleiner Offsets und sehr hoher Verstärkungen) durchzuführen.

Das Grundprinzip der Schaltung ist, dass der Hilfs-Operationsverstärker eine Rückmeldung zum DUT (Device Under Test) liefert. Dies bringt seinen Ausgang auf ein Potenzial, welches die differenzielle Spannung an den Eingängen des Hilfs-Operationsverstärkers auf (fast) Null bringt.

[1] In „The Door into Summer” von Robert A. Heinlein (Kapitel 9), sagt Dr. Twitchell: „Falls man es nicht messen kann, ist es keine Wissenschaft.” Dies ist eine Umkehrung der Aussage „Falls es Wissenschaft ist, kann man es messen.“ Populär Lord Kelvin zugeschrieben, ist dies eine ungenügende Synopsis von dem was er eigentlich sagte, was näher an Dr. Twitchells Beobachtung ist. „In der Physik als Wissenschaft besteht der erste wichtige Schritt bei der Erarbeitung eines neuen Themengebiets, mathematisch fassbare Grundsätze und Möglichkeiten zu finden, diese mit Messungen nachzuweisen. Ich sage oft, dass, wenn man das, worüber man spricht, messen und es in Zahlen ausdrücken kann, man etwas über es weiß; wenn man es jedoch nicht messen kann und es nicht in Zahlen fassen kann, ist das Wissen mager und nicht befriedigend. Es mag der Beginn von Wissen sein, doch man hat sich dann in seinem Denken kaum in Richtung hin zur Wissenschaft weiterentwickelt, ganz gleich, um welches Thema es geht.“ [Popular Lectures & Addresses, Vol. 1 „Electrical Units of Measurement” 1883-05-03]

Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Glätten gewandelter Daten durch Moving-Average-Filter

Nutzer von A/D-Wandlern legen mit ihrem Controller oder Prozessor oft Mittelwegalgorithmen an den Ausgang mehrerer Wandler-Samples. Ein gewandeltes Signal lässt sich somit glätten (Bild 1) und die effektive Auflösung steigt, da sich das Systemrauschen verringert.

Gewandelte Daten lassen sich glätten, indem man mehrere Signale bei konstanter Abtastrate erfasst. Bei einer vorbestimmten Gruppe oder Anzahl von Samples bildet man den Mittelwert und wiederholt diesen Prozess mit verschiedenen Gruppen über einen bestimmten Zeitrahmen. Die Gesamtsumme der Mittelwerte ergibt ein geglättetes Signal.

Diese Mittelwertbildung stellt einen Tiefpassfilter für die Wandler-Ausgangsdaten dar. Die Filtereffizienz lässt sich über die Wahl der Sample-Anzahl für die Mittelwertgruppen selektieren. Eine höhere Zahl Samples pro Gruppe ergeben eine bessere Glättung. Der Mittelwertprozess eliminiert Ausschläge bei den Rohdaten und verringert die Bandbreite des Endsignals.

Ein Nebeneffekt dieser Mittelwertbildung ist die höhere Wandlerauflösung. Idealerweise erhöht ein Durchschnitt von 4 Samples (41) eines DC-Signals die effektive Auflösung des Wandlers um den Wert 1. Der Signal-Rauschabstand (SNR) erhöht sich damit um 6 dB. 16 gemittelte Samples (42) erhöhen die Auflösung um den Faktor 2 und den SNR um 12 dB. Theoretisch steigert eine Gruppengröße von 4n die Anzahl der effektiven Bits seitens der Wandlung um n – in der realen Welt treten allerdings Einschränkungen auf.

Man kann die Zahl der effektiven Bits mit einem A/D-Wandler erhöhen, solange man das Ganze innerhalb realistischer Grenzen betreibt und sich der nicht idealen Bedingungen bewusst ist. So erfordert z.B. das Konvertieren eines 12-Bit-Ergebnisses auf 16 Bit 44 gemittelte Samples, d.h. 256 Samples. Hier stellt sich die Frage nach der Rentabilität. Wenn die Endauflösung höher als 16 Bit ist, steigt die Sampleanzahl rapide. Im Übrigen sollte der 12-Bit-Wandler in diesem Beispiel ein paar Bit Ausgangsrauschen behalten, um sicher zu stellen, dass die Mittelung effektiv ist. Dieses Ausgangsrauschen sollte die Form einer Gauß-Verteilung haben.

Nicht ideale Bedingungen können die Gruppengröße beeinflussen. Dazu zählen Driftvorgänge, Stromschwankungen, Spannungsreferenzänderungen und Temperaturänderungen. Die Sample-Anzahl eines nicht idealen Systems kann von 2000 (mit einem idealen driftfreien System) bis zu mehreren hundert Samples variieren. Je höher die Zahl ist, desto größer ist das Ausgangsrauschen. Um die Mittelwertbildung zu optimieren, verwendet man Methoden der Allan-Varianz. Letztendlich sollte anhand des Eingangssignal immer überprüft werden, dass die Wandlung nicht an einem Signal mit Einschwingfehler oder Interferenzen durchgeführt wurde.

Um Zeit zu sparen, können FIFOs implementiert werden. Dazu fügt man einen neuen Datenwert zu und subtrahiert diesen Wert dann von der Gesamtsumme.

Leistungsfähiger Addierer nutzt Instrumentenverstärker

 Bild 1: Der Referenzpin eines Instrumentenverstärkers kann verwendet werden, um mehrere Signale in einer Addierer-Konfiguration zu kaskadieren.
Bild 1: Der Referenzpin eines Instrumentenverstärkers kann verwendet werden, um mehrere Signale in einer Addierer-Konfiguration zu kaskadieren.

Addierer auf Basis von Operationsverstärkern haben einige Nachteile: Sie weisen eine geringe bis mittlere Eingangsimpedanz auf, die durch die Eingangswiderstände vorgegeben ist. Dies verursacht Verstärkungsfehler. Sie bieten keine Gleichtaktunterdrückung; daher müssen Eingänge massebezogen sein. Die System-Leistungsfähigkeit wird durch den Kanal mit der größten Verstärkung begrenzt. Eine höhere Verstärkung auf einem Kanal resultiert in einer niedrigeren Bandbreite, einer höheren Verzerrung und erhöhtem Rauschen auf allen Kanälen.

Die aktuellen leistungsfähigen und preiswerten Instrumentenverstärker bieten eine Alternative, die viele Probleme löst. Die Ausgangsspannung eines Instrumentenverstärkers, erzeugt zwischen Referenzpin und Ausgangspin, ist proportional zur Spannungsdifferenz zwischen den Eingängen In+ und In–. Der Referenzpin kann verwendet werden, um mehrere Signale in einer Addierer-Konfiguration zu kaskadieren (Bild 1). Bei jedem Instrumentenverstärker kann eine andere Verstärkung eingestellt werden.

Dieses System hat gegenüber dem einfachen Operationsverstärker-Addierer mehrere Vorteile:

  • Jeder Eingang hat eine sehr hohe Eingangsimpedanz.
  • Jedes Signal hat eine unabhängige Gleichtaktunterdrückung, festgelegt durch den Instrumentenverstärker. Je höher die Verstärkung ist, desto höher ist die Gleichtaktunterdrückung und umso kleiner ist der Fehler.
  • Signale können leicht addiert oder subtrahiert werden; dies geschieht, indem man die invertierenden oder nicht-invertierenden Anschlüsse des Instrumentenverstärkers verwendet.
  • Der Instrumentenverstärker ermöglicht die Nutzung verschiedener Eingangssignale, falls gewünscht.
  • Verzerrung, Rauschverstärkung und Bandbreite jedes Signals sind unabhängig von den anderen Signalen. Dies führt zu kleineren Werten für Offsetspannung, Verstärkungsfehler, Rauschen und Verzerrung.

Die Autoren: Moshe Gerstenhaber und Michael O’Sullivan, Analog Devices.

Flüssigkeitspegel mithilfe eines Thermistors erfassen

Für einen Thermistor mit positivem Temperaturkoeffizienten bedeutet eine Temperaturerhöhung einen Anstieg des Widerstands. Dies lässt sich mit dem preiswerten Halb-Duplex-Transceiver ADM4850 mit Differenzausgang einfach erfassen.

Beim Eintauchen in eine Flüssigkeit bleibt der Widerstand eines Thermistors, der an einer Spannungsquelle anliegt, so lange konstant bis sich die Temperatur ändert. Sobald der Flüssigkeitspegel unterhalb des Thermistors absinkt, erhöht sich die Temperatur des Thermistors.

Um festzustellen, ob sich die Flüssigkeit in einem Behälter ober- oder unterhalb eines bestimmten Pegels befindet, wird ein Thermistor wie in Bild 1 gezeigt positioniert. Befindet sich der Thermistor unter der Oberfläche der Flüssigkeit, weist er einen relativ niedrigen Widerstand auf. Das Verhältnis Rt/RA wird so gewählt, dass die Spannung am Treibereingang als logische „0” interpretiert wird.

Sobald der Flüssigkeitspegel sinkt und der Thermistor an die Oberfläche gelangt, steigt die Eingangsspannung schnell an, durchläuft eine Eingangsschaltschwelle und wird als logische “1” interpretiert. Der Empfängerausgang kann über den Widerstand RB mit dem Treiberausgang verbunden werden, falls eine Hysterese gewünscht wird.

Die zuverlässige Funktion dieser Schaltung hängt von der Stabilität der Eingangsschaltschwelle und der durch Rt und RA produzierten Spannungsabweichung ab, die beim Überschreiten des kritischen Flüssigkeitsspiegels entsteht.

Der ADM4850 erkennt eine Eingangsspannung von ≤1,15 V als logische „0“ und eine Eingangsspannung von ≥1,42 V als logische „1“. Der Widerstand des Keramik-Kaltleiters (PTC) D1010 (Epcos) folgt genau der thermischen Leitfähigkeit des Umgebungsmediums. Seine R/T-Kurve steigt extrem steil an, sobald die Schwellwerttemperatur erreicht ist. Der Thermistor wird in einem Gehäuse aus rostfreiem Stahl angeboten und ist damit vor Korrosion in Treibstoffen, Lösungsmitteln und anderen Flüssigkeiten, die in rauen Umgebungen vorkommen, geschützt.

Der Wert von RA hängt von der Temperatur der Flüssigkeit und der Umgebungsluft ab. Das Worst-Case-Szenario tritt ein, wenn die Flüssigkeit heiß und die Umgebungsluft kalt ist. Im Datenblatt des D1010 wird für RA ein Standardwert von 909 Ω angegeben, der sich für Flüssigkeiten mit bis zu 50°C und für Umgebungstemperaturen bis zu –25°C eignet. Muster des D1010 messen etwa 149 Ω bei Raumtemperatur und ohne Ansteuerung.

High-Speed-Messungen im Zeitbereich durchführen

Bei High-Speed-Messungen im Zeitbereich sollte man sich zunächst vergewissern, dass Oszilloskop und Tastkopf kompatibel sind. Es ist deshalb am besten, eine Oszilloskop/Tastkopf-Kombination zu verwenden, die vom gleichen Hersteller stammt. Anschließend sollte eine Auto- oder manuelle Kalibrierung des Tastkopfes durchgeführt werden.

Unter- oder überkompensierte Tastköpfe können ernsthafte Amplitudenfehler hervorrufen und den auf dem Oszilloskop dargestellten Signalverlauf verzerren.

Bitte stets den richtigen Tastkopf verwenden. Normalerweise sind 10:1 Tastköpfe für allgemeine Messungen ausreichend. Zum Messen sehr kleiner Signale sind 1:1 Tastköpfe zu empfehlen. Für Stromimpulse ist ein Strom-Tastkopf erforderlich. Hohe Spannungen lassen sich mit einem Hochvolt-Tastkopf messen. Zum Messen sehr schneller Signale (einige Nanosekunden) eignet sich ein FET-Tastkopf am besten.

Vor dem Messvorgang sollte man sicherstellen, dass Oszilloskop und Tastkopf über die für die Messung erforderliche Bandbreite verfügen. Als Richtwert verwendet man eine Oszilloskop/Tastkopf-Kombination, die über eine drei- bis fünffach höhere Bandbreite als das zu messende Signal verfügt. Eine Änderung der Bandbreite um 3 dB kann einen Amplitudenfehler von etwa 30% bewirken.

Um Zeitdifferenzen oder Laufzeitverzögerungen zu messen sollten zwei Tastköpfe mit gleicher Länge verwendet werden. Werden Tastköpfe unterschiedlicher Längen eingesetzt, wird das Messergebnis positiv oder negativ beeinträchtigt. Die Laufzeitverzögerung eines Signals durch ein Kabel beträgt typischerweise 4,5 ns/m. Falls zum Beispiel zur Messung von Laufzeitverzögerungen ein Kabel mit einer Länge von 1 m und ein Kabel mit einer Länge von 2 m verwendet werden, entsteht durch die unterschiedlichen Kabellängen ein Fehler von etwa 4,5 ns. Bei Messungen im Nanosekunden-Bereich wirkt sich dies sehr ungünstig aus.

Beim Messen extrem schneller Signale darf der Masse-Clip, der zum Lieferumfang des Tastkopfes gehört, nicht mit Masse verbunden werden. Durch den Einsatz eines langen Masse-Clips entsteht ein zusätzlicher Reihenwiderstand im Massepfad, der Ringing und Überschwingen produziert. Die Masseverbindung stellt man am besten her, indem man den Plastikschutz von der Spitze des Tastkopfes entfernt, statt die Masseverbindung direkt an der Tastkopfspitze herzustellen. Dabei wird der Metallschutz des Tastkopfes verwendet.

Für High-Speed-Messungen an schnell steigenden Signalflanken oder an Bauteilen, die empfindlich auf kapazitive Belastungen reagieren, sollte man keinen Tastkopf mit hoher Kapazität verwenden. Übermäßig hohe Kapazitäten „bremsen“ schnell steigende Flanken und bewirken, dass Bauteile wie schnelle Operationsverstärker bei Messungen an den Ein- oder Ausgängen oszillieren. In diesem Fall ist ein aktiver FET-Tastkopf mit niedriger Berührungskapazität (normalerweise nur wenige pF) und sehr hoher Impedanz die bessere Wahl. Ein solcher Tastkopf schwächt den Einfluss der Lastimpedanz am Messpunkt ab.

Der Autor: John Ardizzoni arbeitet bei Analog Devices

Die Stabilität in Sensorapplikationen verbessern

In Anwendungen wie z.B. in Barcode-Scannern und Durchfluss-Messeinrichtungen oder zur Messung der ausgesendeten Laserpulsleistung werden meist Fotodioden als Detektoren verwendet. Sie wandeln das optische Signal in eine elektrische Messgröße um. Der durch die Diode fließende Strom repräsentiert den auf die Diode treffenden Lichtstrahl, der im Fall eines Barcode-Scanners von einer Laserdiode ausgesendet wird und über den Barcode reflektiert oder absorbiert wird.

 Gleichung 1
Gleichung 1

In einer derartigen Anwendung werden so genannte Transimpedanz-Verstärker oder TIA-Verstärker (Transimpedance Amplifier) als Messwandler und Messverstärker eingesetzt, die den Diodenstrom nach Gleichung 1 in eine Messspannung umwandeln.

 

 Bild 1: Ersatzschaltbild der Fotodiode und des Transimpedanz-Verstärkers
Bild 1: Ersatzschaltbild der Fotodiode und des Transimpedanz-Verstärkers

Das Ersatzschaltbild der Fotodiode und des TIAs ist in Bild 1 dargestellt. Es zeigt den Fotodiodenstrom ID, die Diodenkapazität und Diodenimpedanz CD und RD (RD liegt je nach Diodentyp im Bereich von 100 MΩ) und die Kapazität CIN. Diese ist eine Kombination aus der Gleichtakt-Eingangskapazität des Operationsverstärkers und den parasitären Effekten, die durch Bauteilgehäuse und Leiterplatte verursacht werden.

Diese Kapazitäten, welche im Bereich von einigen bis 200 pF liegen können, bilden mit dem Widerstand RF eine Polstelle im Rückkoppelzweig, die ein Anstieg des Rauschens ab einer Frequenz von Fp = 1/2π RF(CD+CIN) verursacht und zu Oszillationen und Instabilität führt.

 Gleichung 2
Gleichung 2

Eine einfache Kompensation kann mittels der Kapazität CF erzielt werden, die eine Nullstelle in der Übertragungsfunktion erzeugt. Diese addiert eine zusätzliche Phasenreserve von rund 45° hinzu. Die Berechung von CF erfolgt nach Gleichung 2.

 

 Bild 2: Eine Current-Feed-back-Topologie bringt entscheidende Vorteile bezüglich Stabilität und Glättung von Schaltspannungsspitzen
Bild 2: Eine Current-Feed-back-Topologie bringt entscheidende Vorteile bezüglich Stabilität und Glättung von Schaltspannungsspitzen

Oft werden für diese Anwendungen Spannungsrückkopplungs-Verstärker (Voltage Feed-back Amplifier, VFB) eingesetzt, da diese einen niedrigen Rauschstrom am invertierenden Eingang aufweisen und die Transimpedanzverstärkung (I/V) nicht durch die Wahl des Rückkoppelwiderstands RF eingeschränkt wird. Jedoch kann eine Stromrückkopplung (Current-Feed-back, CFB, Bild 2) entscheidende Vorteile bezüglich Stabilität und Glättung von Schaltspannungsspitzen bringen.

Vorteile hinsichtlich Stabilität und Glättung durch CFB

Aufgrund der niedrigen Eingangsimpedanz Ro am invertierenden Eingang eines CFBs wird der erzeugten Polstelle mit einem Faktor aus Ro und RF positiv entgegengewirkt. Damit verschiebt man die kritische Polstelle in Richtung höhere Frequenzen, was die zu nutzende Signalbandbreite signifikant erhöht und die Verwendung von kleineren Kompensationskapazitäten ermöglicht.

 Gleichung 3
Gleichung 3

Ein VFB-Verstärker mit einer Bandbreite von 250 MHz (LMH6654) würde bei einer Gesamtkapazität von 20 pF und einem Rückkoppelwiderstand von 600 Ω eine maximal nutzbare Signalbandbreite von 57,5 MHz erzielen (bei Fp = 13,3 MHz steigt das Rauschen an). Ein vergleichbarer CFB-Verstärker (LMH6714) mit einer Eingangsimpedanz von 180 Ω bringt eine Verbesserung der nutzbaren Signalfrequenz auf 120 MHz (Fp liegt bei 57,5 MHz, siehe Gleichung 3).

 Gleichung 4
Gleichung 4

Darüber hinaus können sehr viel kleinere Kompensationskapazitätswerte für CF verwendet werden (2,5 pF anstelle von 4,6 pF, siehe Gleichung 4). Des Weiteren kann der Eingangswiderstand in anderen Anwendungen auch dazu genutzt werden, etwaige Schaltspitzen am Eingang eines CFB-Verstärkers zu absorbieren und die Einschwingzeit zu verbessern.

Der Autor: Albert Fischer arbeitet bei Texas Instruments.

Keine Angst vor halben Bits

Bruchteile von Bits gibt es wirklich, nur nicht in der Informatik, sondern in der von Claude Shannon begründeten Informationstheorie. Dort ist das Bit eine Einheit für eine Größe, wie das Kilogramm oder die Sekunde in der Physik. Es ist die Einheit für den Informationsgehalt einer Nachricht – und die Maßzahl des Informationsgehalts kann alle möglichen positiven, realen Werte inklusive der Null annehmen. Die internationale Organisation für Standards (ISO) hat versucht, das „Bit nach der Definition von Claude Shannon“ in Shannon (Sh) umzubenennen, hatte damit aber keinen Erfolg.

Doch was ist ein Bit nach Shannon? Wenn man annimmt, dass aus einer Menge von 256 Lottokugeln alle mit gleicher Wahrscheinlichkeit (1/256) gezogen werden, so hat eine durchgeführte erste Ziehung den Informationsgehalt von

I = –log2 (1/256) = 8 Bit.

Genauso viele Bits braucht man in der Informatik, um anzuzeigen, welche Kugel gezogen wurde. Bei einer Menge von 49 Kugeln hätte eine erste Ziehung einen Informationsgehalt von ca. 5,615 Bit. Bei so viel Theorie fragt man sich zu Recht, ob es für Bruchteile von Bits reale Anwendungen gibt oder ob das nur eine Haarspalterei (bzw. Bitspalterei) ist. Solche Anwendungen gibt es sehr wohl, wie die hier vorgestellte Schaltung zeigt.

A/D-Wandler in einem FPGA

Schon seit einigen Jahren ist die Methode bekannt, in einem rein digitalen FPGA einen A/D-Wandler unterzubringen. Man macht sich dabei die Erkenntnisse der A/D-Wandlertechnik zunutze und implementiert einen Sigma/Delta-Wandler mit ein paar Logikzellen eines FPGAs und einem einfachen, externen RC-Glied. Alle drei großen Anbieter von FPGAs (Xilinx, Altera und Lattice) haben für diese Methode Referenzdesigns oder Applikationsberichte veröffentlicht und auch unabhängige Stellen haben sich dem Thema zugewendet. Zielanwendung ist dabei meist die digitale Signalverarbeitung von Audiosignalen.

Doch es gibt auch andere sinnvolle Anwendungen solcher Wandler. Ein FPGA kommuniziert ja im Allgemeinen über eine Vielzahl von digitalen Signalen mit seiner Umgebung, wobei jeder Pin immer nur eine binäre Information übertragen kann. Wenn in einem FPGA aber nicht nur eine einfache 0/1-Information gebraucht wird sondern ein mehr oder weniger analoger Wert, so sind dafür schnell viele Pins nötig.

Dabei werden analoge Signale extern digitalisiert und parallel über mehrere Pins in das FPGA gegeben. Seit der Veröffentlichung der Referenzdesigns ist es ein Leichtes, analoge Werte ohne Verwendung externer A/D-Wandler in ein FPGA hineinzugeben. Pro analoges Signal benötigt man dabei drei Pins des FPGAs, von denen zwei zu einem LVDS-Empfänger gehören müssen.

8-Bit-A/D-Wandler mit 3,3 V Referenzspannung

Mit diesen Kenntnissen lässt sich ein einfaches Voltmeter mit einem FPGA bauen. Lattice bietet ein Entwicklungsboard an, auf dem sich ein FPGA der MachXO2-Familie befindet. An das FPGA ist ein einfaches, numerisches LCD mit vier Stellen angeschlossen. Diese beiden Komponenten sowie ein RC-Glied für den analogen Teil des Sigma/Delta-Wandlers reichen bereits für ein Voltmeter aus. Der Spannungsregler für die Core-Spannung des FPGAs, der Flash-Speicher für die Konfigurationsdaten und ein Oszillator sind alle im FPGA integriert, was den Aufbau stark vereinfacht.

 Bild 1: Blockschaltbild des Delta-Sigma-Wandlers in einem FPGA Bild 1: Blockschaltbild des Delta-Sigma-Wandlers in einem FPGA

Wenn man nun einen 8-Bit-A/D-Wandler mit einer Referenzspannung von 3,3 V im FPGA implementiert, dann führt das dazu, dass der Zahlenwert 0 der Spannung 0 V entspricht und der Zahlenwert FF der Spannung 3,3 V. Für die Anzeige einer Spannung auf einem Display ist ein „FF“ aber ein ungeeignetes Format; eine dezimale Anzeige ist hier absolut notwendig. Den dafür nötigen Umsetzer kann man entweder in einer Gatterlogik oder als kleinen Mikrocontroller im FPGA realisieren, der die Wandlung in Software macht.

Dann führt die Spannung 0 V zur Anzeige 00.00 und die Spannung 3,3 V zur Anzeige 02.55, was allerdings auch noch nicht das gewünschte Ergebnis ist. Um zur korrekten Anzeige von 03.30 zu kommen, muss man den vom A/D-Wandler ausgegeben Wert umrechnen in den Wert, der auf dem Display ausgegeben werden soll. Das ist zwar mit ein wenig Rechenaufwand in Software möglich, aber es gibt auch einen einfacheren Weg: Einen mit einer rationalen Anzahl von Bits.

Einfacher Aufbau mit Referenzdesign

Integrierte A/D-Wandler haben im Allgemeinen eine feste Auflösung von n Bits und 2n Quantisierungsstufen, die gleichmäßig über den gesamten Messbereich verteilt sind. Um zu glatten dezimalen Stufen zu kommen gibt es z.B. A/D Wandler mit einer Referenzspannung von 2,048 V, dem 211-fachen von 10 mV. Doch wenn, wie in dem Fall des Entwicklungsboards von Lattice, die Referenzspannung auf 3,3 V festgelegt ist und man eine Auflösung vom 10 mV haben möchte, dann braucht man eben einen A/D-Wandler mit 330 Stufen, also einer Auflösung von 8,366 Bit.

 Bild 2: Blockschaltbild zur Dezimierung des LVDS-Komparatorausgangs Bild 2: Blockschaltbild zur Dezimierung des LVDS-Komparatorausgangs

Ein solcher Wandler ist einfacher aufzubauen als man vielleicht denkt. Bei einem Sigma/Delta-Wandler einfacher Bauart, wie er in den Referenzdesigns der FPGA-Hersteller beschrieben ist, wird das abzutastende analoge Signal an den Plus-Eingang eines LVDS-Eingangspaars angeschlossen und das mittels RC-Glied gefilterte Sigma/Delta-Signal an den Minus-Eingang des LVDS-Eingangspaars. Im Digitalteil des Wandlers wird der Ausgang des LVDS-Komparators „dezimiert“. Dabei wird innerhalb einer vorgegebenen Anzahl von Takten diejenige Anzahl gezählt, in denen der Komparator eine 1 ausgegeben hat.

Um zu einem Wandler mit 8,336 Bit Auflösung zu kommen, muss man eben nicht nur 256 Takte lang die Einsen zählen, sondern 330 Takte lang. Der vom A/D-Wandler ausgegebene Wert benötigt dann 9 binäre Signale, bleibt aber stets im Wertebereich {0 ≤ x ≤ 330}.

Eine Vergleichsmessung des selbstgebauten Voltmeters mit einem handelsüblichen Multimeter hat ergeben, dass das selbstgebaute Voltmeter zwar sehr linear arbeitet, aber einen kleinen Fehler aufweist. Dieser beträgt im Bereich der unteren Messwertgrenze (0 V) 20 mV und in Bereich der oberen Messwertgrenze (3,3 V) 50 mV. Hierfür gibt es zwei Fehlerquellen.

Zum einen sind die LVDS-Eingänge des FPGAs für diese Anwendung eigentlich nicht gedacht. Für diese Eingänge schreiben die Datenblätter üblicherweise eine Differenzspannung von mindestens ±100 mV vor. Kleinere Differenzspannungen, die sich bei dieser Anwendung zwangsläufig ergeben, sind eigentlich „verbotene Zone“. So gesehen ist ein Offset von 20 mV ein überraschend geringer Wert.

 Bild 3: MachXO2-FPGA und Pico-Board von Lattice (Bild: Arrow) Bild 3: MachXO2-FPGA und Pico-Board von Lattice (Bild: Arrow)

Zum andern ist die I/O-Spannung auf dem Entwicklungsboard zwar mit einem hochwertigen linearen Spannungsregler geregelt, weist aber dennoch eine gewisse Toleranz auf. Solange man nur digitale Signale an die I/O-Pins anlegt, ist eine Toleranz von ±5% kein Problem. Doch wenn man mit einem I/O-Pin und dem RC-Glied eine analoge Spannung erzeugt, wirkt sich ein Fehler der I/O-Spannung proportional auf die erzeuge Analogspannung aus. Der Regler auf dem für die Messung verwendeten Board hatte eine gemessene Ausgangsspannung von 3,266 V, also eine Abweichung von etwa 1%. Damit ist zu erwarten, dass die vom A/D-Wandler ausgegeben Werte zur oberen Messwertgrenze hin tendenziell um ca. 1% zu groß sind, was durch die Messung bestätigt wurde.

Wie die vorgestellte Schaltung und die Referenzdesigns der FPGA-Hersteller zeigen, sind A/D-Wandler im FPGA für einfache Anforderungen ohne großen Bauteil- und Ressourcenaufwand leicht zu realisieren. Und außergewöhnliche Auflösungen stellen kein Problem dar.

Was sich mit dem Release 2012b für Matlab/Simulink alles ändert

Im Herbst des vergangenen Jahres hat Mathworks mit dem Release 2012b die aktuelle Version von Matlab/Simulink auf den Markt gebracht. Eine wesentliche Neuerung ist das sogenannte Look & Feel. Der Desktop ist jetzt mehr denn je auf Workflows ausgerichtet.

Funktionalität in Form von Buttons wird dann angezeigt, wenn man sie tatsächlich braucht. Möglich machen das die neuen Toolstrips, ein Konzept ähnlich den dynamischen Buttonleisten, die man von Microsoft-Anwendungen her gewohnt ist. Neue Funktionen lassen sich besser auffinden, da viele Tools mit grafischen Oberflächen, die in Matlab und den Toolboxen mitkommen, jetzt in Form von Apps im neuen Toolstrip zur Verfügung stehen. Die Benutzeroberfläche ist insgesamt aufgeräumter. Alles ist an einem Ort und dann sichtbar, wenn es gebraucht wird. Die moderne Oberfläche erinnert an ein Smartphone oder Tablet-Geräte, mit denen viele Anwender sehr vertraut sind.

Über viele Jahre hinweg wurden alle sechs Monate neue Funktionen hinzugefügt, aber nicht immer haben die Anwender diese auch schnell gefunden. Der Umstand, dass der Desktop überarbeitet wurde, heißt nicht, dass nicht in anderen Bereichen ebenso investiert wird. Viele Teams sind ständig damit beschäftigt, laufend verschiedene Aspekte zu verbessern. Dazu gehört auch der Desktop.

Um nur drei Beispiele zu nennen: Im Bereich Test & Measurement ist in den letzten Jahren wieder viel zusätzliche Unterstützung zum direkte Anbinden von Matlab an Messhardware dazugekommen. Als wichtiger Schritt im Bereich der Objektorientierten Programmierung lassen sich jetzt abstrakte Klassen verwenden, was vor allem Informatiker freuen wird. Sie brauchen nicht nur die mathematischen Fähigkeiten, sondern auch die Eigenschaften als vollwertige Programmiersprache. Ein besonderes Highlight ist das Import-Tool, um beispielsweise vermischte Excel-Daten einzulesen und in die richtigen Datentypen abzulegen. Das war früher wesentlich aufwändiger, jetzt ist das dank neuer Oberfläche und mehr Programmintelligenz eine flotte Sache.

Smartes Signal-Routing sorgt für aufgeräumte Modelle

Release 2012b bringt den neuen Simulink- und Stateflow-Editor, der Navigation, Ansicht und Bearbeitung von Modellen erleichtert. Mit diesen Werkzeugen soll Simulink R2012b das Modellieren vereinfachen. Von den Anwendern ist bekannt, dass sie Simulink-Modelle oft ändern, nur damit sie besser aussehen. Oder sie wünschen sich, sie könnten Blöcke einfacher mit Signallinien verbinden. Der überarbeitete Simulink-Editor denkt mit. „Smart Signal Routing“ führt Signale so, dass sie nicht zu viel kreuzen und trotzdem keine extra Schlenker machen. Nicht wenige haben sich schon einmal in komplexen Programmen „verirrt“ oder über zu viele offene Fenster geärgert. Um immer direkt in der Struktur des Modells navigieren zu können, ist der neue Simulink Editor mit Tabbed Windows, also Reitern für Modellfenster, und dem „Explorer Bar“ ausgestattet.

Sich auf Entwurf und Analyse konzentrieren

Der Editor sorgt für eine einheitliche Infrastruktur bei gleichzeitiger Anwendung von Simulink und Stateflow und somit weniger Einarbeitungsaufwand. So bleibt der Fokus des Users auf dem System, und er kann sich auf seinen Entwurf bzw. die Analyse konzentrieren. Wer bislang nur Simulink, nicht aber Stateflow genutzt hat, weil er mit der Bedienung nicht zurechtkam, kann nun ruhig einen neuen Anlauf starten. Nicht nur wegen der verbesserten Oberfläche, sondern auch, weil die Action Language für Bedingungen und Transitionen jetzt die ganz normale Matlab-Sprache ist.

Simulink-Modelle lassen sich einfacher debuggen. Bedingte Unterbrechungspunkte, die „conditional breakpoints“, werden direkt auf Signale gelegt, ohne dass die dazugehörigen Daten aus den Augen verloren werden. Wer bisher Berührungsängste mit dem Simulink-Debugger hatte, sollte diesen im Release 2012b nutzen. Es gibt eine neue Funktion, um beim Modellieren in Simulink schnell zu variieren, ohne dass man sich gleich mit den Varianten beschäftigen muss. Blöcke und Subsysteme lassen sich auskommentieren, also von der Simulation ausnehmen, ohne dass das Modell strukturell verändert wird.

Mit dem Simulationsmodell zurück in der Zeit

Von Seiten der Anwender kam der Wunsch, eine Zeitmaschine für Simulink zu implementieren, damit man in der Simulationszeit rückwärtsgehen kann. Dieser Wunsch wurde erfüllt: Der User kann die Simulation anhalten – interaktiv, geskriptet oder eben mit Hilfe der neuen Unterbrechungspunkte – und dann in der Simulationszeit zurückgehen, um dort Parameter, Entscheidungen zu ändern oder auch einfach nur weitere detailliertere Nachforschungen anzustellen. Die Simulationszeit ist nicht länger streng monoton, sondern variabel.

Viele Anwender kennen die Problematik, wenn bei einem Modell hin und wieder der Regler anfängt auszureißen oder die Logik nicht passt. Bislang musste man rechtzeitig vorher wissen, dass es gleich schief gehen wird, dort unterbrechen, den Debugger starten und dann schrittweise fortfahren. Jetzt können Anwender die Simulation pausieren, sobald sie das unerwünschte Verhalten erkennen, und einige Schritte zurückgehen.

Die Simulation lässt sich an die aktuelle Simulation einfach ein Stück zurückspulen. Nutzer können die Funktion kombinieren, indem der komplette Simulationszustand abgespeichert wird. Häufig kam die Frage auf, wie sich ein Simulationslauf variieren lässt, kurz bevor die Simulation einen bestimmten Zustand eingenommen hat, ohne genau zu wissen, wann dies der Fall ist. Man setzt einen Unterbrechungspunkt auf ein Signal, an dem sich erkennen lässt, dass der gewünschte Zustand erreicht ist. Dann geht man einige Schritte in der Zeit zurück, bis der Punkt erreich ist, an dem die Ursache dafür auftritt.

Trial und Error waren gestern

Der gesamte Simulationszustand ist mit der „SimState“-Funktionalität problemlos speicherbar. Ab diesem Punkt können User nach Belieben variieren, und das auch über die Matlab-Kommandozeile steuern und lokal oder massiv parallelisieren.

Wir sprechen hier nicht von dem Mini-Modell, das ohnehin in wenigen Sekunden durchläuft, sondern von großen Systemmodellen, die vielleicht bis zum Verzweigungspunkt schon einige Stunden simulieren und von da ab nochmal einige Zeit brauchen. „Intelligentes“ Simulieren spart richtig Zeit. Die Ersparnis, die Ihnen die Möglichkeiten bietet, geht in Größenordnungen von Wochen an reiner Simulationszeit. Und wer schneller Antworten aus seiner Simulation hat, kann schneller Entscheidungen treffen und alternative Designs in Betracht ziehen.

Mit den Apps lassen sich vorhandene Funktionalitäten in Matlab und den Toolboxen leichter finden, weil alle Apps in der Apps Gallery zusammengefasst sind. Diese ersetzt das bisherige Startmenü. Eine App ist eine abgeschlossene Anwendung innerhalb von Matlab, typischerweise mit Benutzeroberfläche. Solche Apps lassen sich selbst schreiben bzw. bestehende Anwendungen und Oberflächen als App verpacken.

Der Autor: Dr. Joachim Schlosser ist Manager Application Engineering bei MathWorks in Ismaning, Deutschland.

 

Einstellbares Rauschnormal von 0,1 bis 200 MHz


Bild 1: Kalibrierfreies, einstellbares Rauschnormal auf Basis einer beleuchteten Photodiode

Mit einer beleuchteten Photodiode als Quelle weißen Rauschens lässt sich für den Frequenzbereich von 0,1 bis 200 MHz ein Rauschnormal herstellen, das ohne Kalibrierung auskommt.

Das Eigenrauschen und die Grenzempfindlichkeit elektronischer Verstärker werden oft unter Zuhilfenahme eines Rauschgenerators ermittelt. Im Hz-und kHz-Bereich kann man definiertes weißes Rauschen bequem aus ohmschen Widerständen oder aus Schieberegistern (Pseudo Random Generator) gewinnen.

Oberhalb von etwa 100 MHz dominieren spezielle Halbleiter-Rauschdioden, die aufgrund von Fertigungstoleranzen jedoch zuvor selbst vermessen und kalibriert werden müssen.

Für den mittleren Frequenzbereich lässt sich alternativ auch das Schrotrauschen einer beleuchteten Photodiode nutzen. Ihr Sperrstrom Iph wird von einem gaußverteilten weißen Rauschen gemäß Gleichung 1 begleitet.

 


(Gl. 1)
(Gl. 1)

 

Dessen Intensität ist unabhängig von spektralen Eigenschaften des Lichtes oder der Diode und wird ausschließlich durch den leicht kontrollierbaren Strom Iph und die Elementarladung e bestimmt. Prinzipiell lässt sich damit ein Rauschnormal herstellen, das keiner Kalibrierung bedarf.

Bild 1 zeigt die Schaltung des aufgebauten Mustergeräts. Die Wahl der für die Photodiode (PD) eingesetzten HAMAMATSU S5972 ist ein Kompromiss zwischen geringer Kapazität und hoher Grenzfrequenz einerseits und nicht allzu kleiner Chipfläche andererseits. Zu deren Beleuchtung dient eine rote LED aus der OSRAM Reihe Golden Dragon, deren flache Lichtaustrittsfläche direkt vor PD platziert ist.

Damit der Frequenzgang der erzeugten Rauschdichte nicht von der Intensität abhängt, muss die an der Photodiode abfallende Sperrspannung konstant gehalten werden. Hierzu wird Usp. rückwirkungsarm über R1 und den Puffer A1 abgetastet. Der Regler mit A2 stellt die Biasspannung U,bias stets automatisch so nach, dass Usp. = Uref. = +8 V wird. Die Festlegung des gewünschten Rauschpegels erfolgt durch Variation des Ripple- und Spike-freien Stromes I,led. Die Anzeige VM ist proportional zu Iph und somit ein direktes Maß für die erzeugte Rauschstromdichte.

 


Bild 2a: Ansicht der sich in Betrieb befindlichen Rauschquelle (gestrichelter Rahmen in Bild 1), zu sehen ist das rote Licht der LED, die die Photodiode bestrahlt
Bild 2a: Ansicht der sich in Betrieb befindlichen Rauschquelle (gestrichelter Rahmen in Bild 1), zu sehen ist das rote Licht der LED, die die Photodiode bestrahlt

Der in Bild 1 eingerahmte Teil ist als kleiner Tastkopf (Bild 2) aufgebaut, um den Rauschstrom auf kürzestem Wege in die zu testende Baugruppe oder Versuchsschaltung einzuspeisen. Wird eine 50-Ohm-Last angeschlossen, sind darin Rauschzahlen zwischen 0 und 32 kT-Einheiten stufenlos einstellbar, proportional zum Strom Iph.

Für die Messung der in den Bildern 3 bis 7 dargestellten Frequenzspektren fand ein Breitbandverstärker Verwendung, an dessen Eingangsbuchse der Tastkopf geklemmt wurde. Der Photostrom Iph war auf 6 mA eingestellt.

Die ersten beiden Spektren im Niederfrequenzbereich bis 2,5 MHz (Bilder 3 und 4) wurden mit einem Digitaloszilloskop OWON PDS6062 in der Betriebsart FFT gemessen. Eingestellt waren: vertikal 10 dB/div. sowie „Display Persist Infinite“. Steilflankige Tiefpassfilter vor dem Scope sorgten dafür, dass das Abtasttheorem eingehalten wurde.

 


Bild 3: Der deutliche Anstieg des Rauschens unterhalb von etwa 10 kHz wird vom Funkelrauschen der LED-Lichtintensität verursacht (0 bis 50 KHz, 10 dB je div. , FFT)
Bild 3: Der deutliche Anstieg des Rauschens unterhalb von etwa 10 kHz wird vom Funkelrauschen der LED-Lichtintensität verursacht (0 bis 50 KHz, 10 dB je div. , FFT)

 

Der deutliche Anstieg der Rauschdichte unterhalb etwa 10 kHz in Bild 3 wird vom Funkelrauschen der LED-Lichtintensität verursacht. Vorversuche zeigten, dass beim Einsatz einer kleinen Glühlampe ein weißes Rauschen bis unter 1 kHz erreicht werden könnte, jedoch wären die erzielbaren Beleuchtungsstärken auf der Photodiode wesentlich niedriger.

 


Bild 4: Oberhalb der Region des 1/f-Rauschens liegt eine konstante Spektraldichte vor (0 bis 2,5 MHz,10 dB je div., FFT)
Bild 4: Oberhalb der Region des 1/f-Rauschens liegt eine konstante Spektraldichte vor (0 bis 2,5 MHz,10 dB je div., FFT)

Oberhalb der Region des 1/f-Rauschens liegt eine konstante Spektraldichte vor (Bild 4).

Für die Messung der folgenden drei Spektren wurde ein HAMEG-Analyzer des Typs HM8028 benutzt, als Sichtgerät fungierte wieder das OWON-Oszilloskop, jetzt in der Betriebsart YT. Aus der eingestellten Vertikalempfindlichkeit von 200 mV/div. resultiert in Verbindung mit dem HM8028 die Skalierung 4 dB/div.

 


Bild 5: Hier liegt weißes Rauschen mit nahezu ebenem Frequenzgang vor (0 bis 20 MHz, 4 dB je div., Analyzer)
Bild 5: Hier liegt weißes Rauschen mit nahezu ebenem Frequenzgang vor (0 bis 20 MHz, 4 dB je div., Analyzer)

In Bild 5 liegt weißes Rauschen mit nahezu ebenem Frequenzgang vor.

 


Bild 6: Auch bis ca. 200 MHz liegen die Abweichungen unterhalb von +/-1 dB. Die Peaks bei 28 MHz, 170 MHz und 185 MHz kommen durch externe Einstreuungen in den Messaufbau zustande (0 bis 200 MHz, 4 dB je div., Analyzer)
Bild 6: Auch bis ca. 200 MHz liegen die Abweichungen unterhalb von +/-1 dB. Die Peaks bei 28 MHz, 170 MHz und 185 MHz kommen durch externe Einstreuungen in den Messaufbau zustande (0 bis 200 MHz, 4 dB je div., Analyzer)

Auch bis ca. 200 MHz liegen die Abweichungen unterhalb von ±1 dB (Bild 6). Die Peaks bei 28 MHz, 170 MHz und 185 MHz kommen durch externe Einstreuungen in den Messaufbau zustande.

 


Bild 7: Oberhalb von 200 MHz geht die Rauschdichte zurück (0 bis 500 MHz, 4 dB je div., Analyzer)
Bild 7: Oberhalb von 200 MHz geht die Rauschdichte zurück (0 bis 500 MHz, 4 dB je div., Analyzer)

Oberhalb von 200 MHz (Bild 7) geht die Rauschdichte zurück. Die Cutoff-Frequenz der eingesetzten Photodiode S5972 bei einer Vorspannung von 8 V wird von HAMAMATSU mit ca. 350 MHz angegeben. Der Abfall der Rauschdichte entspricht ungefähr diesem Wert.

Die Messungen zeigen, dass eine intensiv beleuchtete Photodiode als Quelle weißen Rauschens im Bereich 0,1 bis 200 MHz einsetzbar ist. Die Rauschintensität wird direkt von einem Naturgesetz bestimmt und ist damit gut reproduzierbar und stufenlos einstellbar.

Der Autor:

Michael Franke ist Inhaber der Elektronikmanufaktur Mahlsdorf in Berlin.