Alle Beiträge von Stefan Liebing

Apple legt Fundament für Geschäftsfelder Smart Home und Gesundheit

Sollte Apple-Chef Tim Cook in diesen Tagen wegen der riesengroßen Erwartungen von Kunden, Investoren und der Öffentlichkeit unter Druck stehen, lässt sich der 53-Jährige das nicht anmerken. Am Ende einer zweistündigen Präsentation zur Eröffnung der Entwicklerkonferenz WWDC in San Francisco plauderte Cook entspannt mit Kollegen und Freunden, während in den sozialen Medien wie Twitter lautstark geklagt wurde, dass der Apple-Boss und seine Leute nicht ein einziges neues Gerät angekündigt hatten.

Die Stimmung unter den Entwicklern im Moscone Center wurde durch das Ausbleiben spektakulärer Hardware-Vorstellungen kaum getrübt. Schließlich hatte Apple-Softwarechef Craig Federighi zuvor mit einer Reihe von größeren und kleineren Verbesserungen für das Betriebssystem iOS für iPhone und iPad sowie die Mac-Software OS X punkten können.

Die beiden Systeme wachsen nicht nur optisch immer stärker zusammen, sondern werden in der Bedienung immer weiter verschränkt. Anrufe auf dem iPhone werden zugleich auf dem Mac-Bildschirm angezeigt und können dort entgegen genommen werden. Ein Mausklick auf eine Telefonnummer auf dem Mac-Bildschirm kann einen Anruf auslösen. Eine E-Mail, die unterwegs auf dem iPhone begonnen wurde, kann auf dem Mac fertiggeschrieben werden. Fotos tauchen auf allen Geräten auf. So verschmelzen iPhone, iPad und Mac zu einer Einheit. Dieser Ansatz ist nicht völlig neu, aber vermutlich nirgendwo so elegant umgesetzt wie beim neuen Mac-System OS X «Yosemite» und dem neuen iOS 8, das im Herbst auf die neueren iPhones und iPads kommen soll.

Deutlich attraktiver erscheint nun auch die Internet-Wolke von Apple, die im Wettbewerb mit Angeboten von Google, Microsoft, Amazon und anderen steht. Der Dienst iCloud wurde nun nicht nur deutlich preiswerter, wenn man über die kostenlosen fünf Gigabyte hinaus Speicherplatz mieten will. In iCloud tauchen nun auch die besten Ideen auf, die man beispielsweise vom Speicherdienst Dropbox oder dem Chatdienst WhatsApp her kennt – alles aber einen Tick schöner und sicherer.

Bei zwei Themen – Gesundheit und vernetztes Zuhause – leistet Apple mühsame Grundsatzarbeit. In den vergangenen Jahren sind unzählige Fitness-Gadgets und Medizin-Sensoren – etwa für die Kontrolle des Blutdrucks – auf den Markt gekommen. Doch untereinander sind die Angebote kaum kompatibel. Der Pulssensor von Hersteller A spricht nicht direkt mit der über WLAN angeschlossenen Personenwaage von Hersteller B. Das Apple-System iOS 8 bietet nun eine Sammelstelle für Medizin- und Fitness-Werte, die in der App Health konsolidiert angezeigt werden können. In dieses Szenario würde sich natürlich eine Smartwatch von Apple mit Pulssensor hervorragend einfügen.

Vermutlich viel komplizierter ist derzeit die Marktsituation im Bereich Smart Home. Zu Steuerung von Licht, Temperatur oder Schließsystemen gibt es nicht nur etliche nicht-kompatible Protokolle der verschiedenen Hersteller. Zum Teil funken die «schlauen» Gegenstände im Heim auch auf so unterschiedlichen Wellen, dass sie nicht zueinander finden können. Apples Plattform HomeKit könnte zumindest die Protokoll-Frage lösen.

Über den Apple-Sprachassistenten Siri könnte der Nutzer dann dem System zum Beispiel einfach sagen, dass er ins Bett gehen will, erläuterte Apple-Softwarechef Federighi. HomeKit könnte dann die Systeme im Haus anweisen, die Lichter zu dimmen, die Haustür abzuschließen und das Garagentor herunterzufahren. Und vielleicht steigt Apple ja auch wie Google mit dem Kauf von Nest hier ins Geräte-Business ein, um ein weiteres Geschäftsfeld aufzubauen.

Diese Aussichten verhinderten am Montag auch einen Absturz der Apple-Aktie. Das Papier, das seit Jahresbeginn um zwölf Prozent zugelegt hat, gab bis zum Börsenschluss in New York nur um 0,7 Prozent nach – obwohl auch etliche Investoren ungeduldig auf das nächste bahnbrechende Produkt von Apple warten. Horace Dediu vom Marktforschungsunternehmen Asymco sagte auf der WWDC, mit den gezeigten Technologien habe Apple ein Fundament gelegt, auf dem neue Gebäude errichtet werden können.

Die Entwickler freuten sich in San Francisco aber nicht nur über die Aussichten auf neue Geschäfte. Sie bejubelten vor allem konkrete Schritte von Apple, die ihnen die Arbeit beim Programmieren erleichtern. So dürfen Apps auf den bislang streng gehüteten Fingerabdruck-Sensor «TouchID» zugreifen, der zuvor nur für das Freischalten des Sperrbildschirms und beim Bezahlen in Apples Online-Store iTunes verwendet wurde. Überrascht wurden Entwickler auch von der neuen Programmiersprache Swift, die laut Apple besonders leicht zu erlernen und gleichzeitig sehr leistungsstark ist.

AFE mit hoher Gleichtaktunterdrückung für die Prozesssteuerung

Signalpegel in Systemen zur industriellen Prozesssteuerung lassen sich weitgehend in eine der folgenden Kategorien einteilen: Ströme (4 bis 20 mA), Spannungen (0 bis 5 V, 0 bis 10 V, ±5 V und ±10 V) oder kleine Signale von Sensoren wie  Thermoelementen oder Wägezellen. Große Gleichtaktspannungshübe sind ebenfalls typisch, speziell für differentielle kleine Signale. Daher ist ein gutes Verhältnis der Gleichtaktunterdrückungen (CMRR) eine wichtige Spezifikation im analogen Signalverarbeitungssystem.

Bild 1: Leistungsfähiges analoges Frontend für die Prozesssteuerung (vereinfachte Blockschaltung; nicht alle Verbindungen sind dargestellt)

Die analoge Eingangsstufe (AFE) in Bild 1 ist bei der Verarbeitung dieser Industriesignalpegel auf hohe Genauigkeit und hohe

Gleichtaktunterdrückung optimiert. Die Schaltung verschiebt und dämpft die Signale, damit sie zu den Eingangsbereichen der meisten modernen SAR-A/D-Wandler mit unipolarer Versorgungsspannung, wie z.B. der 250 kSample/s schnelle 16 Bit A/D-Wandler AD7685, kompatibel sind.

Bei einem Eingangssignal von 18 Vss erzielt die Schaltung eine Gleichtaktunterdrückung (CMR) von rund 105 dB bei 100 Hz und 80 dB bei 5 kHz. Hohe Genauigkeit, hohe Eingangsimpedanz und eine hohe Gleichtaktunterdrückung werden vom Instrumentenverstärker AD8226 bereitgestellt. Für Anwendungen mit hoher Genauigkeit ist eine hohe Eingangsimpedanz erforderlich, um Systemverstärkungsfehler zu minimieren und zugleich eine gute Gleichtaktunterdrückung zu erreichen. Die Verstärkung des AD8226 ist über Widerstände von 1 bis 1000 programmierbar.

Den gesamten Artikel „AFE mit hoher Gleichtaktunterdrückung für die Prozesssteuerung“ finden Sie auf der Internetseite der Elektronikpraxis.

24 Bit Vierkanal-Datenerfassungssystem mit 156 kSample/s

In diesem Schaltungstipp stellen wir ein vierkanaliges, simultan abtastendes Datenerfassungssystem mit großem Dynamikbereich und hoher Übersprechdämpfung zwischen den Kanälen vor. Das System kann mit flexiblen Abtastraten arbeiten, verfügt über einfache Schnittstellen für die Anbindung an DSP oder FPGA und benötigt ein Minimum an externen Bauteilen.

Bei der Schaltung in Bild 1 handelt es sich um ein vierkanaliges, simultan abtastendes System mit hohem Dynamikbereich, wenig Übersprechen und flexiblen Abtastraten. Das System lässt sich mit minimalem Aufwand an Bauteilen realisieren und verfügt über einfache Schnittstellen für den Anschluss von DSP oder FPGA.

Zum Einsatz kommen vier 24 Bit Sigma-Delta-A/D-Wandler des Typs AD7765 in einer Daisy-Chain-Konfiguration, um die Verbindungen zum digitalen Host zu minimieren. Der komplett integrierte, differenzielle Ein/Ausgangsverstärker der AD7765-Modelle sowie die Referenzpuffer reduzieren die Anzahl externer Bauteile beachtlich.

Die Verwendung des Sigma-Delta-Wandlers in einer simultan abtastenden Konfiguration bietet folgende Vorteile: Bessere Kanal/

Kanal-Übersprechdämpfung als bei Lösungen mit mehreren 24 Bit A/D-Wandlern auf einem Chip. Der Dynamikbereich beträgt

112 dB bei Abtastraten von 156 kSample/s.

Den gesamten Artikel „24 Bit Vierkanal-Datenerfassungssystem mit 156 kSample/s“ können Sie hier als PDF herunterladen.

Temperaturüberwachung mit Kaltstellen-Kompensation via USB

Im analogen Mikrocontroller sind zwei 24-Bit-Sigma-Delta-A/D-Wandler, zwei programmierbare Stromquellen, ein 14-Bit-DAC und eine 1,2-V-Referenz integriert. Ebenfalls  vorhanden  sind ein ARM7-Core mit 32 KByte Flash-Speicher, 4 KByte SRAM sowie verschiedene Peripheriefunktionen wie z.B. UART, Timer, SPI und I2C-Schnittstellen.

Die in Bild 1 dargestellte Anwendung kombiniert den ADuC7060/ADuC7061 mit einem Thermoelement und einem PT100-Messfühler, der für die Kaltstellen-Kompensation verwendet wird. Als Abtastrate wird 100 Hz gewählt. Stellt man den eingangsseitigen PGA auf eine Verstärkung von 32 ein, erreicht der analoge Mikrocontroller eine rauschfreie Auflösung von mehr als 18 Bit.

Den Gesamten Artikel „Temperaturüberwachung mit Kaltstellen-Kompensation via USB“ als PDF herunterladen.

Wird die binäre Kommunikation überleben?

In meinem Blogbeitrag mit dem Titel „Keine Bits, nichts als Rauschen“ ging ich auf die Probleme ein, die sich bei der schnellen Übertragung von Bits, die durch zwei Zustände dargestellt werden, einstellen. Es geht dabei um die Verluste im Übertragungsmedium, Inter-Symbol-Interferenzen (ISI) und viele weitere Phänomene, die das Signal verfälschen. Durch sorgfältiges Design des Übertragungskanals und durch den Einsatz aktiver Maßnahmen gelingt es den Ingenieuren, Bits mit immer höheren Raten auf Kupferkabeln und Backplanes zu senden und zu regenerieren. National Semiconductor und Molex demonstrierten beispielsweise auf der DesignCon 2011 die Kommunikation mit 25 GBit/s und mehr auf einer Backplane. Wie lange aber kann die Industrie noch so weitermachen, ohne dass die Art und Weise, wie ein Bit auf der Backplane definiert ist, geändert werden muss?

Das Problem an sich ist durchaus nicht neu, sondern existiert bereits seit den Anfangstagen, als man noch Modems einsetzte. In der Zeit der leitungsvermittelten, eigentlich für die Sprachkommunikation konzipierten Telefonnetze, setzte man Filter ein, um die Signalbandbreite auf rund 3 kHz zu begrenzen. Diese Bandbreite war ausreichend, um eine weibliche Stimme ohne Verzerrungen zu rekonstruieren. Mit dieser Maßnahme wollte man in erster Linie die Voraussetzungen für das Frequenz-Multiplexing mehrerer Telefonleitungen auf eine Richtfunkstrecke schaffen (als es noch keine Lichtwellenleiter gab). Beim Versuch, Bits zu übermitteln, sah man sich ebenfalls mit dieser auf 3 kHz begrenzten Bandbreite konfrontiert.

Hier kommt das Abtasttheorem von Shannon ins Spiel:

Es besagt nichts weiter, als dass die Fähigkeit eines Kanals zur Übertragung von Informationen eine Funktion der Bandbreite B mit der Einheit Hz und des dimensionslosen Signal-Rauschabstands (Signal to Noise Ratio – SNR) ist.

Je stärker das Rauschen, desto weniger Information

Im Klartext: je stärker das Rauschen, umso weniger Informationen können übertragen werden. Mit dieser Tatsache hatten die Ingenieure in der Anfangszeit sehr zu kämpfen, denn die Informationsmenge, die pro Zeiteinheit in einem Netzwerk übertragen werden konnte, wurde hierdurch eingeschränkt.

Frühe Modems arbeiteten nach dem Frequenzumtastverfahren (Frequency Shift Keying – FSK). Die logischen Zustände 0 und 1 wurden durch zwei verschiedene Frequenzen codiert. Beide Frequenzen wurden so gewählt, dass sie die 3-kHz-Grenze des Kanals einhielten und aus dem Rauschen ausgefiltert werden konnten. Problematisch war, dass die Wechsel zwischen beiden Frequenzen höchstens mit der Bandbreite des Kanals erfolgen konnten, sodass die 3-kHz-Grenze nach wie vor bestand. Was war zu tun?

Abhilfe schaffte die Symbol-Codierung, die Bit-Gruppen zu Symbolen zusammenfasst. Diese Symbole können durch eine Trägerfrequenz und eine Kombination aus Amplitude und Phase dargestellt werden. Aus dieser Technik gingen das QPSK-Verfahren (Quadrature Phase Shift Keying – dt.: Quadraturphasenumtastung) bzw. die Quadraturamplitudenmodulation (QAM) hervor, die man heute in modernen Kabelmodems einsetzt. Anstatt alle Bits nacheinander zu senden, wird hier jeweils eine Bitgruppe auf einmal übertragen.

Eigentlich eine clevere Sache, aber selbstverständlich gibt es auch diese Vorteile nicht umsonst: sie müssen mit Mehrkosten und zusätzlicher Komplexität, die in den Bereich der digitalen Signalverarbeitung ausgelagert wird, erkauft werden.

Wie ist es aber mit den schnellen digitalen Signalpfaden, mit denen die Systeme unserer modernen Internet-Infrastruktur untereinander verbunden sind? Man setzt heute die Scrambled Non-Return-to-Zero (NRZ) Codierung ein, die ein Wandern des DC-Potenzials ebenso vermeidet wie EMV-Probleme. Es handelt sich jedoch nach wie vor um 0- und 1-Zustände, also um zwei Pegel, die den logischen Zustand des jeweiligen Bits signalisieren.

Mehrere Pegel und Symbolcodierung, aber der Strombedarf …

Wird dieses Medium jemals auf andere Codierungsverfahren umgestellt werden, damit mehr Daten über den Kanal übertragen werden können, wie es beim frühen Telefonsystem war? Vielleicht kommt es so. Intel und Broadcom treiben einen Standard voran, der für 25 GBit/s und darüber hinaus auf mehrere Pegel und Symbolcodierung setzt. Dies bietet den zusätzlichen Vorteil, dass mit der Übertragung eines Symbols mehr Bits transferiert werden können. Man nutzt dies schon heute bei Ethernet und 10/100/1.000 MBit/s auf CAT-5/6/7 mit UTP-Kabeln, bei denen die Bandbreite eines Kanals auf ca. 350 MHz begrenzt ist. Wird man dies auch bei 25 GBit/s und darüber so machen? Vielleicht…

Problematisch an dieser Methode ist der Strombedarf. Die DSP-Technik, die nötig ist, um an beiden Enden des Kanals die Signale zu codieren bzw. zu decodieren, erhöht zwangsläufig die Leistungsaufnahme, was sich erheblich aufsummieren kann, denn schließlich enthält ein modernes Datencenter mehrere tausend Kanäle. NRZ-Verfahren sind verglichen damit sehr sparsam. National Semiconductor hat beispielsweise Bauelemente produziert, die auf Kupferkabeln und Backplanes bei sehr niedriger Stromaufnahme Datenraten von 28 GBit/s erreichen können. Mit mehreren Pegeln arbeitende (Multi-Level-)Systeme werden hiermit nur schwer konkurrieren können. Dies sieht auch die Industrie ein und rudert in Sachen Multi-Level-Technik bereits zurück.

Jenseits von 28 GBit/s können wir irgendwann an einen Punkt kommen, an dem kein Weg mehr an symbolcodierten Multi-Level-Systemen vorbeiführt. Bis dahin, so denke ich, wird es aber noch eine ganze Weile dauern, und die 100-GBit/s-Technik wird bis dahin schon deutlich an Verbreitung gewonnen haben – vielleicht sogar in unseren Handys. Bis zum nächsten Mal…

Keine Bits, nichts als Rauschen!

Das Design von High-Speed-Systemen ist knifflig. Wissen Sie, was mit einem 25G-Signal passiert, wenn es über eine Backplane übertragen wird? Schlimme Dinge. Ohne Signalaufbereitung, sorgfältiges Layout und gute Impedanzkontrolle gibt es keine Bits, sondern nichts als Rauschen.

Ein Auto, mit dem man 250 km/h fahren kann, ist nicht zum Schnäppchenpreis zu haben. Denn schließlich ist mehr Technik nötig, um auch bei diesem hohen Tempo für die erforderliche Bodenhaftung zu sorgen und den Luftwiderstand zu überwinden. Ganz abgesehen davon lassen sich die Hersteller das Gefühl „Hey, dieses Auto steht mir richtig gut!“ natürlich gut bezahlen.

Bei der schnellen Datenübertragungen und Signalintegrität gelten die gleichen Gesetze. Dr. Howard Johnson hat bereits mehrere Bücher zu diesem Thema veröffentlicht. Der Untertitel „Advanced Black Magic“ deutet schon auf die Schwierigkeiten beim Design von High-Speed-Systemen hin.

Es wird nichts einfacher, sondern im Gegenteil alles sogar immer schwieriger. Das Interessante an unserer heutigen Welt ist der tiefgreifende Wissensdurst. Je inhaltsreicher die Informationen sind, umso schneller können die Menschen die Informationen verinnerlichen und weitergeben. Groß ist auch der Wunsch nach Kommunikation, und das gerade Gesagte gilt hier ebenfalls: je reichhaltiger der Inhalt (Fotos, Videos, Musik usw.) ist, umso reizvoller sind die Medien.

Die größte Bandbreitenexplosion aller Zeiten

Mit der Verabschiedung des Digital Millennium Copyright Act (DMCA), Title 2, das Dienstanbieter vor Urheberrechtsverletzungen beim Anfertigen lokaler Kopien zum Streamen (oder vor den Piraten, die sie stehlen) schützt, sowie mit der Installation von DOCSIS-Modems (mittlerweile in der Version 3.0 mit über 100 MBit/s in Up- und Downstream-Richtung, sofern der Internet-Anbieter mitzieht) ist der Weg frei für eine der größten Bandbreitenexplosionen, die wir je erlebt haben.

Dieser Bandbreitenzuwachs treibt den Ausbau des Datencenter-Equipments auf immer größere Kapazitäten voran. Es ist nicht lange her, da galt 1 GBit/s noch als viel. Inzwischen ist 10 GBit/s-Ethernet in Datencentern der Standard (per 802.3ae, optisch), und der Trend geht rasch zu 100G-Ethernet. Letzteres wurde bisher mit zehn Lanes à 10 GBit/s erreicht, doch geht man bereits auf vier Lanes à 25 GBit/s über, was der Zahl der Laser und Empfänger in den meisten 100G-Modulen entspricht.

Wissen Sie aber, was mit einem 25G-Signal passiert, wenn es über eine Backplane übertragen wird? Schlimme Dinge auf jeden Fall. Tatsache ist, dass es schon bei 10G Probleme gab und man sich eigentlich wundern muss, dass diese Technik überhaupt funktioniert.

Bild 1: PCI Express-Signale (Generation 1 bis 3) Bild 1: PCI Express-Signale (Generation 1 bis 3)

Schauen Sie sich dazu bitte einmal Bild 1 an. Es vergleicht PCI Express-Signale (Generation 1 bis 3) nach der Übertragung auf einer rund 66 cm langen differenziellen Leiterbahn auf einer Leiterplatte aus FR-4. Je höher die Übertragungsrate wird, umso mehr schließt sich das Auge.

Was einst problemlos lief, erfordert jetzt die Verwendung eines anderen Leiterplattenmaterials oder aktive Schaltungen zur Signalaufbereitung. Dabei sind diese Signale noch bedeutend langsamer als ein Stream mit 25 bis 28 GBit/s, wie er für das elektrische Interface optischer Module ins Auge gefasst wird. Ohne Signalaufbereitung, sorgfältiges Layout (schönen Dank, Dr. Johnson) und gute Impedanzkontrolle gibt es also keine Bits, sondern nichts als Rauschen.