Bild 1: PCI Express-Signale (Generation 1 bis 3)

Wird die binäre Kommunikation überleben?

In meinem Blogbeitrag mit dem Titel „Keine Bits, nichts als Rauschen“ ging ich auf die Probleme ein, die sich bei der schnellen Übertragung von Bits, die durch zwei Zustände dargestellt werden, einstellen. Es geht dabei um die Verluste im Übertragungsmedium, Inter-Symbol-Interferenzen (ISI) und viele weitere Phänomene, die das Signal verfälschen. Durch sorgfältiges Design des Übertragungskanals und durch den Einsatz aktiver Maßnahmen gelingt es den Ingenieuren, Bits mit immer höheren Raten auf Kupferkabeln und Backplanes zu senden und zu regenerieren. National Semiconductor und Molex demonstrierten beispielsweise auf der DesignCon 2011 die Kommunikation mit 25 GBit/s und mehr auf einer Backplane. Wie lange aber kann die Industrie noch so weitermachen, ohne dass die Art und Weise, wie ein Bit auf der Backplane definiert ist, geändert werden muss?

Das Problem an sich ist durchaus nicht neu, sondern existiert bereits seit den Anfangstagen, als man noch Modems einsetzte. In der Zeit der leitungsvermittelten, eigentlich für die Sprachkommunikation konzipierten Telefonnetze, setzte man Filter ein, um die Signalbandbreite auf rund 3 kHz zu begrenzen. Diese Bandbreite war ausreichend, um eine weibliche Stimme ohne Verzerrungen zu rekonstruieren. Mit dieser Maßnahme wollte man in erster Linie die Voraussetzungen für das Frequenz-Multiplexing mehrerer Telefonleitungen auf eine Richtfunkstrecke schaffen (als es noch keine Lichtwellenleiter gab). Beim Versuch, Bits zu übermitteln, sah man sich ebenfalls mit dieser auf 3 kHz begrenzten Bandbreite konfrontiert.

Hier kommt das Abtasttheorem von Shannon ins Spiel:

Es besagt nichts weiter, als dass die Fähigkeit eines Kanals zur Übertragung von Informationen eine Funktion der Bandbreite B mit der Einheit Hz und des dimensionslosen Signal-Rauschabstands (Signal to Noise Ratio – SNR) ist.

Je stärker das Rauschen, desto weniger Information

Im Klartext: je stärker das Rauschen, umso weniger Informationen können übertragen werden. Mit dieser Tatsache hatten die Ingenieure in der Anfangszeit sehr zu kämpfen, denn die Informationsmenge, die pro Zeiteinheit in einem Netzwerk übertragen werden konnte, wurde hierdurch eingeschränkt.

Frühe Modems arbeiteten nach dem Frequenzumtastverfahren (Frequency Shift Keying – FSK). Die logischen Zustände 0 und 1 wurden durch zwei verschiedene Frequenzen codiert. Beide Frequenzen wurden so gewählt, dass sie die 3-kHz-Grenze des Kanals einhielten und aus dem Rauschen ausgefiltert werden konnten. Problematisch war, dass die Wechsel zwischen beiden Frequenzen höchstens mit der Bandbreite des Kanals erfolgen konnten, sodass die 3-kHz-Grenze nach wie vor bestand. Was war zu tun?

Abhilfe schaffte die Symbol-Codierung, die Bit-Gruppen zu Symbolen zusammenfasst. Diese Symbole können durch eine Trägerfrequenz und eine Kombination aus Amplitude und Phase dargestellt werden. Aus dieser Technik gingen das QPSK-Verfahren (Quadrature Phase Shift Keying – dt.: Quadraturphasenumtastung) bzw. die Quadraturamplitudenmodulation (QAM) hervor, die man heute in modernen Kabelmodems einsetzt. Anstatt alle Bits nacheinander zu senden, wird hier jeweils eine Bitgruppe auf einmal übertragen.

Eigentlich eine clevere Sache, aber selbstverständlich gibt es auch diese Vorteile nicht umsonst: sie müssen mit Mehrkosten und zusätzlicher Komplexität, die in den Bereich der digitalen Signalverarbeitung ausgelagert wird, erkauft werden.

Wie ist es aber mit den schnellen digitalen Signalpfaden, mit denen die Systeme unserer modernen Internet-Infrastruktur untereinander verbunden sind? Man setzt heute die Scrambled Non-Return-to-Zero (NRZ) Codierung ein, die ein Wandern des DC-Potenzials ebenso vermeidet wie EMV-Probleme. Es handelt sich jedoch nach wie vor um 0- und 1-Zustände, also um zwei Pegel, die den logischen Zustand des jeweiligen Bits signalisieren.

Mehrere Pegel und Symbolcodierung, aber der Strombedarf …

Wird dieses Medium jemals auf andere Codierungsverfahren umgestellt werden, damit mehr Daten über den Kanal übertragen werden können, wie es beim frühen Telefonsystem war? Vielleicht kommt es so. Intel und Broadcom treiben einen Standard voran, der für 25 GBit/s und darüber hinaus auf mehrere Pegel und Symbolcodierung setzt. Dies bietet den zusätzlichen Vorteil, dass mit der Übertragung eines Symbols mehr Bits transferiert werden können. Man nutzt dies schon heute bei Ethernet und 10/100/1.000 MBit/s auf CAT-5/6/7 mit UTP-Kabeln, bei denen die Bandbreite eines Kanals auf ca. 350 MHz begrenzt ist. Wird man dies auch bei 25 GBit/s und darüber so machen? Vielleicht…

Problematisch an dieser Methode ist der Strombedarf. Die DSP-Technik, die nötig ist, um an beiden Enden des Kanals die Signale zu codieren bzw. zu decodieren, erhöht zwangsläufig die Leistungsaufnahme, was sich erheblich aufsummieren kann, denn schließlich enthält ein modernes Datencenter mehrere tausend Kanäle. NRZ-Verfahren sind verglichen damit sehr sparsam. National Semiconductor hat beispielsweise Bauelemente produziert, die auf Kupferkabeln und Backplanes bei sehr niedriger Stromaufnahme Datenraten von 28 GBit/s erreichen können. Mit mehreren Pegeln arbeitende (Multi-Level-)Systeme werden hiermit nur schwer konkurrieren können. Dies sieht auch die Industrie ein und rudert in Sachen Multi-Level-Technik bereits zurück.

Jenseits von 28 GBit/s können wir irgendwann an einen Punkt kommen, an dem kein Weg mehr an symbolcodierten Multi-Level-Systemen vorbeiführt. Bis dahin, so denke ich, wird es aber noch eine ganze Weile dauern, und die 100-GBit/s-Technik wird bis dahin schon deutlich an Verbreitung gewonnen haben – vielleicht sogar in unseren Handys. Bis zum nächsten Mal…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.