Verlustarmer, automatischer Polwender mit minimalem Aufwand

Beim „Energy harvesting“, dem Anzapfen kostenloser Umgebungsenergie zum autarken Betrieb von Sensoren und Ähnlichem, stehen häufig nur sehr kleine Spannungen von größenordnungsmäßig 1 V zur Verfügung, die von einem Aufwärtswandler noch auf gebräuchliche Werte von 3 oder 5 V konvertiert werden müssen. Wenn zur Energiegewinnung eine mechanische Bewegung oder Temperaturdifferenz ausgenutzt wird, tritt oftmals erschwerend ein häufiger Richtungs- und damit Polaritätswechsel hinzu, wie es in Bild 1 beispielhaft für einen Thermoelektrischen Generator (TEG) dargestellt ist…

Lesen: Den kompletten Artikel Verlustarmer, automatischer Polwender mit minimalem Aufwand als PDF (380kB)

Beleuchtungen bei Dämmerung automatisch einschalten

Straßenlampen sowie Not- und Sicherheitsbeleuchtungen müssen bei einsetzender Dämmerung automatisch einschalten. Der Widerstandswert eines Fotowiderstands oder anderer lichtempfindlicher Widerstände (LDR) ändert sich mit der Helligkeit. So reduziert sich der Widerstand eines LDR von mehreren MOhm bei Dunkelheit auf einige Hundert Ohm bei hellem Tageslicht. Damit kann zwischen einer oder zwei Glühlampen, direktem Sonnenlicht und kompletter Dunkelheit sowie allen anderen Lichtsituationen dazwischen unterschieden werden…

Lesen: Den kompletten Artikel Beleuchtungen bei Dämmerung automatisch einschalten als PDF (237 kB)

 

Boost-Regler weit über die spezifizierte Spannung nutzen

Für höhere Spannungen sind solche Regler allerdings nicht einsetzbar. Dann nutzen Entwickler normalerweise die Variante aus einem Controller mit externem FET oder einen Hochspannungs-Boost-Regler. Beide Lösungen sind im Vergleich zum einfachen Aufwärtsregler teurer…

Lesen: Den kompletten Artikel Boost-Regler weit über die spezifizierte Spannung nutzen als PDF (188 kB)

Leitfaden: Verstärkungsfehler bei Operationsverstärkern

Die High-Speed-Experten warnen dabei häufig davor, Analogbausteine einzusetzen, die für die vorgesehene Anwendung zuschnell sind. Dementsprechend versucht man es zuerst einmal mit einem Verstärker, dessen Grenzfrequenz knapp über der Maximalfrequenz des zu verarbeitenden Signals liegt…

Lesen: Den kompletten Artikel Leitfaden: Verstärkungsfehler bei Operationsverstärkern   als  PDF (192 kB)

Differenzieller Verstärker mit präziser Pegelanpassung

Bei der Verarbeitung von Signalen mit Spannungen von ±10 V oder mehr werden A/D-Wandlern oft Verstärker vorgeschaltet. Dies dämpft die Signale und verhindert eine Sättigung der Wandlereingänge. Bei Signalen mit hoher Gleichtaktspannung wird häufig ein differenzieller Verstärker verwendet.

Wie gut ein differenzieller Verstärker eine Gleichtaktspannung unterdrückt, richtet sich nach der Anpassung der Widerstandsverhältnisse R1/R2 und R3/R4. Je besser die Anpassung ist, desto höher ist die Gleichtaktunterdrückung  (CMR)…

Lesen: Den kompletten Artikel Differenzieller Verstärker mit präziser Pegelanpassung   als  PDF (190 kB)

 

Einpoliges Mikrofon an differenziellen Eingang anschließen

können Störungen in das Signal eingekoppelt werden. Umgehen lässt sich dies mit „symmetrischen“ Leiterbahnen. Entwickler von Audiosystemen mit Mikrofonen stehen oft vor der Herausforderung, die Signale sauber und unverfalscht verarbeiten zu müssen. Die meisten Mikrofonsignale sind relativ schwach und haben meist nur Pegel im Bereich von wenigen Millivolt…

Lesen: Den kompletten Artikel Einpoliges Mikrofon an differenziellen Eingang anschließen  als  PDF (26o kB)

Serie: Eigenrauschen in Operationsverstärkern

Teil 1: Einführung und Überblick über statistische Methoden

Rauschen ist die Ursache für Qualitätsverluste bei Audiosignalen und für Fehler bei Präzisionsmessungen. Für Entwickler von Leiterplatten und elektrischen Systemen ist es hilfreich zu wissen, mit welcher Art Rauschen sie im ungünstigsten Fall bei ihren Schaltungsentwürfen rechnen müssen und welche Verfahren zur Rauschreduzierung oder welche Messmethoden existieren. Eigenrauschen in Operationsverstärkerschaltungen – Teil 1

Teil 2: Einführung in das Operationsverstärkerrauschen

Ziel der Rauschuntersuchung bei Operationsverstärkern ist, anhand von Informationen aus dem Datenblatt den Spitze-Spitze-Wert des Ausgangsrauschens eines OPV zu berechnen. Dazu werden Formeln verwendet, die für die einfachsten OPV-Schaltungen gelten. Bei komplizierteren Schaltungen verschaffen sie eine grobe Vorstellung von dem zu erwartenden Ausgangsrauschen. Eigenrauschen in Operationsverstärkerschaltungen – Teil 2

Teil 3: Widerstandsrauschen und Berechnungsbeispiele

Im vorangegangenen Teil der Artikelreihe haben wir ein Verfahren entwickelt, um die Spektrale Dichte des Rauschens, die wir aus einem Produktdatenblatt entnommen haben, in Rauschquellen in einem Operationsverstärkermodell umzurechnen. Der vorliegende Artikel erklärt, wie man mit diesem Modell das Gesamtrauschen am Ausgang einer einfachen Operationsverstärkerschaltung berechnen kann. Eigenrauschen in Operationsverstärkerschaltungen – Teil 3

Teil 4: Einführung in die SPICE-Rauschanalyse

Nachdem im dritten Teil dieser Artikelreihe eine einfache OPV-Schaltung mit manuellen Verfahren untersucht wurde, folgt nun die SPICE-Analyse. In Teil 4 zeigen wir, wie das Makromodell des Operationsverstärkers das Rauschen exakt simuliert. Eigenrauschen in Operationsverstärkerschaltungen – Teil 4

Teil 5: Einführung in die Rauschmessung

In den Teilen 3 und 4 wurde das Rauschen in Operationsverstärkerschaltungen erst manuell und dann mit Hilfe von TINA SPICE untersucht. Die Ergebnisse lagen dicht beieinander. Im Teil 5 werden Geräte zur Rauschmessung vorgestellt. Eigenrauschen in Operationsverstärkerschaltungen – Teil 5

Teil 6: Beispiele für die Rauschmessung

Im fünften Teil dieser Artikelserie wurden unterschiedliche Geräte zur Rauschmessung (Oszilloskope und Spektrumanalysatoren) vorgestellt. Teil 6 beschreibt anhand von Beispielen, wie die Geräte zur Messung an den in Teil 3 und Teil 4 beschriebenen Schaltungen verwendet werden. Eigenrauschen in Operationsverstärkerschaltungen – Teil 6

Teil 7: Rauschen im Verstärker

In diesem Kapitel werden die grundlegenden physikalischen Beziehungen erörtert, die das Eigenrauschen eines Operationsverstärkers bestimmen. Es wird erläutert, welche Kompromisse der IC-Entwickler zwischen Rauschen und anderen Parametern des Operationsverstärkers eingehen muss. Außerdem wird erklärt, wie anhand typischer Datenblattangaben Maximalwerte (bei Raumtemperatur und höherer Temperatur) abgeschätzt werden können. Eigenrauschen in Operationsverstärkerschaltungen – Teil 7

Display- und Tastatur-Hinterleuchtung mit LEDs einfach steuern

Display- Hinterleuchtungen, die bei Tageslicht zu schwach oder nachts zu stark sind, werden von Benutzern oft als störend empfunden. Ähnlich unerfreulich ist es, wenn sich die LED-Helligkeit bei einem Ortswechsel sehr schnell ändert. Um Strom zu sparen und den Anwenderkomfort zu verbessern, sollte man Funktionen zum Ermitteln der Helligkeit des Umgebungslichts (ALS, Ambient Light Sensing) implementieren. Dies ist jedoch nicht trivial…

Lesen: Den kompletten Artikel  Display- und Tastatur-Hinterleuchtung mit LEDs einfach steuern als PDF (247 kb)

Wird die binäre Kommunikation überleben?

In meinem Blogbeitrag mit dem Titel „Keine Bits, nichts als Rauschen“ ging ich auf die Probleme ein, die sich bei der schnellen Übertragung von Bits, die durch zwei Zustände dargestellt werden, einstellen. Es geht dabei um die Verluste im Übertragungsmedium, Inter-Symbol-Interferenzen (ISI) und viele weitere Phänomene, die das Signal verfälschen. Durch sorgfältiges Design des Übertragungskanals und durch den Einsatz aktiver Maßnahmen gelingt es den Ingenieuren, Bits mit immer höheren Raten auf Kupferkabeln und Backplanes zu senden und zu regenerieren. National Semiconductor und Molex demonstrierten beispielsweise auf der DesignCon 2011 die Kommunikation mit 25 GBit/s und mehr auf einer Backplane. Wie lange aber kann die Industrie noch so weitermachen, ohne dass die Art und Weise, wie ein Bit auf der Backplane definiert ist, geändert werden muss?

Das Problem an sich ist durchaus nicht neu, sondern existiert bereits seit den Anfangstagen, als man noch Modems einsetzte. In der Zeit der leitungsvermittelten, eigentlich für die Sprachkommunikation konzipierten Telefonnetze, setzte man Filter ein, um die Signalbandbreite auf rund 3 kHz zu begrenzen. Diese Bandbreite war ausreichend, um eine weibliche Stimme ohne Verzerrungen zu rekonstruieren. Mit dieser Maßnahme wollte man in erster Linie die Voraussetzungen für das Frequenz-Multiplexing mehrerer Telefonleitungen auf eine Richtfunkstrecke schaffen (als es noch keine Lichtwellenleiter gab). Beim Versuch, Bits zu übermitteln, sah man sich ebenfalls mit dieser auf 3 kHz begrenzten Bandbreite konfrontiert.

Hier kommt das Abtasttheorem von Shannon ins Spiel:

Es besagt nichts weiter, als dass die Fähigkeit eines Kanals zur Übertragung von Informationen eine Funktion der Bandbreite B mit der Einheit Hz und des dimensionslosen Signal-Rauschabstands (Signal to Noise Ratio – SNR) ist.

Je stärker das Rauschen, desto weniger Information

Im Klartext: je stärker das Rauschen, umso weniger Informationen können übertragen werden. Mit dieser Tatsache hatten die Ingenieure in der Anfangszeit sehr zu kämpfen, denn die Informationsmenge, die pro Zeiteinheit in einem Netzwerk übertragen werden konnte, wurde hierdurch eingeschränkt.

Frühe Modems arbeiteten nach dem Frequenzumtastverfahren (Frequency Shift Keying – FSK). Die logischen Zustände 0 und 1 wurden durch zwei verschiedene Frequenzen codiert. Beide Frequenzen wurden so gewählt, dass sie die 3-kHz-Grenze des Kanals einhielten und aus dem Rauschen ausgefiltert werden konnten. Problematisch war, dass die Wechsel zwischen beiden Frequenzen höchstens mit der Bandbreite des Kanals erfolgen konnten, sodass die 3-kHz-Grenze nach wie vor bestand. Was war zu tun?

Abhilfe schaffte die Symbol-Codierung, die Bit-Gruppen zu Symbolen zusammenfasst. Diese Symbole können durch eine Trägerfrequenz und eine Kombination aus Amplitude und Phase dargestellt werden. Aus dieser Technik gingen das QPSK-Verfahren (Quadrature Phase Shift Keying – dt.: Quadraturphasenumtastung) bzw. die Quadraturamplitudenmodulation (QAM) hervor, die man heute in modernen Kabelmodems einsetzt. Anstatt alle Bits nacheinander zu senden, wird hier jeweils eine Bitgruppe auf einmal übertragen.

Eigentlich eine clevere Sache, aber selbstverständlich gibt es auch diese Vorteile nicht umsonst: sie müssen mit Mehrkosten und zusätzlicher Komplexität, die in den Bereich der digitalen Signalverarbeitung ausgelagert wird, erkauft werden.

Wie ist es aber mit den schnellen digitalen Signalpfaden, mit denen die Systeme unserer modernen Internet-Infrastruktur untereinander verbunden sind? Man setzt heute die Scrambled Non-Return-to-Zero (NRZ) Codierung ein, die ein Wandern des DC-Potenzials ebenso vermeidet wie EMV-Probleme. Es handelt sich jedoch nach wie vor um 0- und 1-Zustände, also um zwei Pegel, die den logischen Zustand des jeweiligen Bits signalisieren.

Mehrere Pegel und Symbolcodierung, aber der Strombedarf …

Wird dieses Medium jemals auf andere Codierungsverfahren umgestellt werden, damit mehr Daten über den Kanal übertragen werden können, wie es beim frühen Telefonsystem war? Vielleicht kommt es so. Intel und Broadcom treiben einen Standard voran, der für 25 GBit/s und darüber hinaus auf mehrere Pegel und Symbolcodierung setzt. Dies bietet den zusätzlichen Vorteil, dass mit der Übertragung eines Symbols mehr Bits transferiert werden können. Man nutzt dies schon heute bei Ethernet und 10/100/1.000 MBit/s auf CAT-5/6/7 mit UTP-Kabeln, bei denen die Bandbreite eines Kanals auf ca. 350 MHz begrenzt ist. Wird man dies auch bei 25 GBit/s und darüber so machen? Vielleicht…

Problematisch an dieser Methode ist der Strombedarf. Die DSP-Technik, die nötig ist, um an beiden Enden des Kanals die Signale zu codieren bzw. zu decodieren, erhöht zwangsläufig die Leistungsaufnahme, was sich erheblich aufsummieren kann, denn schließlich enthält ein modernes Datencenter mehrere tausend Kanäle. NRZ-Verfahren sind verglichen damit sehr sparsam. National Semiconductor hat beispielsweise Bauelemente produziert, die auf Kupferkabeln und Backplanes bei sehr niedriger Stromaufnahme Datenraten von 28 GBit/s erreichen können. Mit mehreren Pegeln arbeitende (Multi-Level-)Systeme werden hiermit nur schwer konkurrieren können. Dies sieht auch die Industrie ein und rudert in Sachen Multi-Level-Technik bereits zurück.

Jenseits von 28 GBit/s können wir irgendwann an einen Punkt kommen, an dem kein Weg mehr an symbolcodierten Multi-Level-Systemen vorbeiführt. Bis dahin, so denke ich, wird es aber noch eine ganze Weile dauern, und die 100-GBit/s-Technik wird bis dahin schon deutlich an Verbreitung gewonnen haben – vielleicht sogar in unseren Handys. Bis zum nächsten Mal…

Keine Bits, nichts als Rauschen!

Das Design von High-Speed-Systemen ist knifflig. Wissen Sie, was mit einem 25G-Signal passiert, wenn es über eine Backplane übertragen wird? Schlimme Dinge. Ohne Signalaufbereitung, sorgfältiges Layout und gute Impedanzkontrolle gibt es keine Bits, sondern nichts als Rauschen.

Ein Auto, mit dem man 250 km/h fahren kann, ist nicht zum Schnäppchenpreis zu haben. Denn schließlich ist mehr Technik nötig, um auch bei diesem hohen Tempo für die erforderliche Bodenhaftung zu sorgen und den Luftwiderstand zu überwinden. Ganz abgesehen davon lassen sich die Hersteller das Gefühl „Hey, dieses Auto steht mir richtig gut!“ natürlich gut bezahlen.

Bei der schnellen Datenübertragungen und Signalintegrität gelten die gleichen Gesetze. Dr. Howard Johnson hat bereits mehrere Bücher zu diesem Thema veröffentlicht. Der Untertitel „Advanced Black Magic“ deutet schon auf die Schwierigkeiten beim Design von High-Speed-Systemen hin.

Es wird nichts einfacher, sondern im Gegenteil alles sogar immer schwieriger. Das Interessante an unserer heutigen Welt ist der tiefgreifende Wissensdurst. Je inhaltsreicher die Informationen sind, umso schneller können die Menschen die Informationen verinnerlichen und weitergeben. Groß ist auch der Wunsch nach Kommunikation, und das gerade Gesagte gilt hier ebenfalls: je reichhaltiger der Inhalt (Fotos, Videos, Musik usw.) ist, umso reizvoller sind die Medien.

Die größte Bandbreitenexplosion aller Zeiten

Mit der Verabschiedung des Digital Millennium Copyright Act (DMCA), Title 2, das Dienstanbieter vor Urheberrechtsverletzungen beim Anfertigen lokaler Kopien zum Streamen (oder vor den Piraten, die sie stehlen) schützt, sowie mit der Installation von DOCSIS-Modems (mittlerweile in der Version 3.0 mit über 100 MBit/s in Up- und Downstream-Richtung, sofern der Internet-Anbieter mitzieht) ist der Weg frei für eine der größten Bandbreitenexplosionen, die wir je erlebt haben.

Dieser Bandbreitenzuwachs treibt den Ausbau des Datencenter-Equipments auf immer größere Kapazitäten voran. Es ist nicht lange her, da galt 1 GBit/s noch als viel. Inzwischen ist 10 GBit/s-Ethernet in Datencentern der Standard (per 802.3ae, optisch), und der Trend geht rasch zu 100G-Ethernet. Letzteres wurde bisher mit zehn Lanes à 10 GBit/s erreicht, doch geht man bereits auf vier Lanes à 25 GBit/s über, was der Zahl der Laser und Empfänger in den meisten 100G-Modulen entspricht.

Wissen Sie aber, was mit einem 25G-Signal passiert, wenn es über eine Backplane übertragen wird? Schlimme Dinge auf jeden Fall. Tatsache ist, dass es schon bei 10G Probleme gab und man sich eigentlich wundern muss, dass diese Technik überhaupt funktioniert.

Bild 1: PCI Express-Signale (Generation 1 bis 3) Bild 1: PCI Express-Signale (Generation 1 bis 3)

Schauen Sie sich dazu bitte einmal Bild 1 an. Es vergleicht PCI Express-Signale (Generation 1 bis 3) nach der Übertragung auf einer rund 66 cm langen differenziellen Leiterbahn auf einer Leiterplatte aus FR-4. Je höher die Übertragungsrate wird, umso mehr schließt sich das Auge.

Was einst problemlos lief, erfordert jetzt die Verwendung eines anderen Leiterplattenmaterials oder aktive Schaltungen zur Signalaufbereitung. Dabei sind diese Signale noch bedeutend langsamer als ein Stream mit 25 bis 28 GBit/s, wie er für das elektrische Interface optischer Module ins Auge gefasst wird. Ohne Signalaufbereitung, sorgfältiges Layout (schönen Dank, Dr. Johnson) und gute Impedanzkontrolle gibt es also keine Bits, sondern nichts als Rauschen.

BAM – CMS Blog