Stromverteilung in Leitungen bei hohen Frequnenzen

In diesem Tipp wollen wir den Wirkwiderstand von Leitern im freien Raum und in Strukturen mit Leiterwicklungen näher betrachten. Bild 1 zeigt das erste Beispiel. Es handelt sich um den Querschnitt eines im freien Raum angeordneten Einzelleiters, der von einem hochfrequenten Wechselstrom durchflossen wird.

 Bild 1: Der Strom fließt bei höheren Frequenzen überwiegend an der Leiteroberfläche
Bild 1: Der Strom fließt bei höheren Frequenzen überwiegend an der Leiteroberfläche

Würde der Leiter von einem Gleichstrom durchflossen, wäre die Stromdichte, die hier durch unterschiedliche Farben dargestellt ist, über den gesamten Querschnitt dieselbe. Steigt jedoch die Frequenz, dann verlagert sich der Strom immer weiter zur Leiteraußenseite, die hier rot und orange eingefärbt ist.

Diese „Anhäufung“ von Ladungsträgern auf der Oberfläche bezeichnet man als Skin-Effekt. Die Eindringtiefe ist definiert als diejenige Strecke von der Oberfläche bis zu dem Punkt, an dem die Stromdichte auf 1/e der Stromdichte an der Oberfläche abgesunken ist. Für Kupfer beträgt diese Tiefe:

 


Formel
Darin ist f die Frequenz in Megahertz; die Einheit für die Tiefe ist cm.

 

 Bild 2: Der Strom konzentriert sich in der Nähe der Leiterenden bis zur Eindringtiefe
Bild 2: Der Strom konzentriert sich in der Nähe der Leiterenden bis zur Eindringtiefe

Bild 2 zeigt die Stromverteilung in einem flachen Leiter, der durch den freien Raum verläuft. Der Strom verteilt sich aber nicht etwa gleichmäßig über die Leiteroberfläche, sondern fließt hauptsächlich in den Eckbereichen. Dennoch weist er dieselbe Eindringtiefe wie der runde Leiter auf. Hierdurch steigt der Widerstand enorm, da im größten Teil des Leiters eine sehr niedrige Stromdichte herrscht.

 

 Bild 3: Entgegengesetzt gerichtete Ströme konzentrieren sich auf angrenzenden Leiteroberflächen
Bild 3: Entgegengesetzt gerichtete Ströme konzentrieren sich auf angrenzenden Leiteroberflächen

Um das Problem der Stromverteilung in einem flachen Leiter zu umgehen, wird dieser gewöhnlich direkt über einem zweiten Leiter oder einer Massefläche angeordnet, in denen ein betragsmäßig gleicher Strom in entgegengesetzter Richtung fließt. Bild 3 zeigt ein Beispiel für eine solche Konfiguration: Hier konzentrieren sich die in entgegengesetzten Richtungen fließenden Ströme an den angrenzenden Oberflächen der beiden Leiter.

Die Eindringtiefe bleibt dabei unverändert. Der Strom ist überwiegend in einem Bereich anzutreffen, der durch die Eindringtiefe und die Breite des Leiters begrenzt wird und nicht durch die Eindringtiefe und die Leiterdicke wie in Bild 2. Daher liegt der Wechselstromwiderstand dieser Leiteranordnungen wesentlich niedriger als bei Leitern, die durch den freien Raum führen.

 Bild 4: Entgegengesetzt gerichtete Ströme auf benachbarten Wicklungen lassen die Verluste stark steigen
Bild 4: Entgegengesetzt gerichtete Ströme auf benachbarten Wicklungen lassen die Verluste stark steigen

Bild 4 zeigt den Querschnitt einer Struktur aus mehreren Wicklungslagen. Hier führen die beiden obersten Leiter (3 und 4) denselben Strom in derselben Richtung, während die untersten beiden Leiter (1 und 2) gleiche Ströme führen, die entgegengesetzt zur Stromflussrichtung in den obersten beiden Leitern fließen. Diese Struktur soll die Wicklungslagen in einem Transformator mit einem Wicklungsverhältnis von 2:2 repräsentieren.

Wie im vorangegangenen Beispiel fließen die Ströme hauptsächlich auf Oberflächen, die sich direkt gegenüberliegen. Dabei zeigt sich jedoch ein interessantes Phänomen: In den Wicklungen 1 und 4 konzentriert sich der Strom auf der inneren Oberfläche und induziert auf den Oberflächen der Wicklungen 2 und 3 einen Strom, der in entgegengesetzter Richtung fließt. Der Gesamtstrom in den Wicklungen 2 und 3 fließt in entgegengesetzter Richtung, so dass die Stromdichte auf der inneren Oberfläche wesentlich größer ist.

Dieses Phänomen wird als „Proximity-Effekt“ bezeichnet und führt zu Problemen in geschichteten Strukturen, die bei hohen Frequenzen betrieben werden. Eine Möglichkeit diese Problematik zu umgehen, besteht in der Änderung der Reihenfolge der einzelnen Leiterschichten. Man verwendet also nicht zwei benachbarte Wicklungslagen, die in derselben Richtung vom Strom durchflossen werden, sondern verschachtelt die Wicklungen so ineinander, dass der Strom auf beiden Seiten jeweils in der richtigen Richtung fließt.

 Bild 5: Das Dowell-Modell zeigt, wie verlustbehaftet Strukturen mit geschichteten Wicklungen sind
Bild 5: Das Dowell-Modell zeigt, wie verlustbehaftet Strukturen mit geschichteten Wicklungen sind

Von Dowell wurde ein analytisches Modell entwickelt, mit dem sich die Zunahme des Wechselstromwiderstands von Leitern mit unterschiedlichen Dicken und Schichtanordnungen berechnen lässt (siehe Quellenhinweise, Punkt 1). In Bild 5 sind die damit erzielten Ergebnisse dargestellt. Auf der x-Achse des Diagramms ist die Dicke der Wicklungslagen in normalisierter Form – d. h. bezogen auf die Eindringtiefe – aufgetragen, während die y-Achse den auf den DC-Widerstand normalisierten AC-Widerstand angibt.

Das Diagramm zeigt eine Kurvenschar in Abhängigkeit von der Zahl der Wicklungslagen. Je weiter sich die Leiterdicke der Eindringtiefe nähert, desto kleiner wird die Zahl der Lagen, mit denen sich ein vertretbares AC/DC-Verhältnis erzielen lässt. Zu beachten ist auch die untere Kurve für eine halbe Wicklungslage. In diesem Fall sind die Wicklungen ineinander verschachtelt, und die Widerstandszunahme ist bedeutend geringer als im Fall der einzelnen Lage.

Zusammenfassend lässt sich sagen, dass sich mit steigender Frequenz die Stromverteilung in einem Leiter drastisch ändert. Im freien Raum hat ein Leiter mit kreisförmigem Querschnitt bei hohen Frequenzen einen geringeren Widerstand als ein flacher Leiter. Dafür ist ein flacher Leiter weitaus besser geeignet, wenn er zusammen mit einer Massefläche verwendet oder in der Nähe eines Leiters angeordnet wird, durch den der Rückstrom fließt.


Von

Robert Kollman,
Texas Instruments.

Linux Tag 2014: Open Source und Wissenschaft

Die Schirmherrschaft hatte diesmal der Bundesminister der Justiz und für Verbraucherschutz Heiko Maas inne. Der Linux Tag 2014 stand unter dem Motto Free code, free mind, free speech.  Damit wollten die Organisatoren zum Ausdruck bringen, dass jeder Computer-Nutzer die Hoheit über ihre Daten habe und behalten müsse. Die Linux-Tag-Macher betonen zudem, dass nur verifizierbare Informations- und Kommunikationssysteme (IKT) im Internet die Vertraulichkeit von Informationen garantierten, wozu Open Source die Grundlage liefere. Justizminister Heiko Maas betonte in seinem Grußwort, dass Datenschutz Datensicherheit weiter an Bedeutung gewönnen. Dabei seien allerdings nicht nur die Politik, sondern auch die Anwender gefordert. Die Open-Source-Bewegung könne laut Maas helfen, den Schutz und die Sicherheit von Daten und Systemen zu stärken und damit Vertrauen in die IuK-Technik zurückzugewinnen.

Zu den bekanntesten Key-Sprechern gehörte auch der Kernel-Entwicker Greg Kroah-Hartman, der am Freitag die Keynote zum Thema  The Linux kernel, how it is developed, and how we stay sane doing it hielt. Der LinuxTag 2014 bot mit rund 160 Vorträgen und Workshops weniger Quantität als im Vorjahr, bei deutlich angehobenen Preisen und gegenüber dem bisherigen Austragungsort Messe Berlin in der neuen Lokation Station Berlin persönlicherer Atmosphäre. Am Samstag gab es zudem einen Community-Tag. Im Ausstellerbereich präsentierten sich in diesem Jahr rund achtzig Unternehmen und Projekte, ebenfalls ein leichter Rückgang gegenüber 2013. Mit dabei waren diesmal die Deutsche Telekom, Microsoft, Gnome, Netways, Strato , sowie FreeBSD und NetBSD.

Highlight der Veranstaltung war wie in jedem Jahr die Verleihung des Absolventenpreises der Bremer Univention GmbH, einer der wichtigsten Anbieter im Open-Source-Business-Umfeld und seit nunmehr 7 Jahren Stifter eines Preises, mit dem das Unternehmen Abschlussarbeiten (Bachelor, Master) aus unterschiedlichen universitären Fachrichtungen prämiert, die thematisch im OpenSource-Umfeld angesiedelt sind. Zur unabhängigem Jury gehörten neben Univention Geschäftsführer Peter Ganten, weitere namhafte Open-Source-Experten, unter anderem der Chefredakteur des Linux Magazins Jan Kleinert.

Laut Univention zeichneten sich die Einreichungen für den  Absolventenpreis in diesem Jahr durch eine besonders große Interdisziplinarität und Internationalität aus und gingen aus unterschiedlichsten Fakultäten von Universitäten und Fachhochschulen aus Deutschland, Österreich, Bulgarien und den USA ein. Entscheidend bei der Platzvergabe waren der Qualität der wissenschaftlichen Arbeiten und dem Innovations-Aspekt auch die Praxistauglichkeit.  Im Ergebnis entschied sich die Jury 2014, den mit 2000 Euro dotierten ersten Platz an die Arbeit „Nutzung von X.509-Zertifikaten für Smartcard-basierte SSH-Benutzer-Authentifizierung“ von Sebastian Roland zu verleihen. Seine Bachelor-Arbeit im Fach Informatik an der Hochschule Bonn-Rhein-Sieg widmet sich einem Verfahren, mit dem Unternehmen die Sicherheit der Authentisierung ihrer Mitarbeiter mittels Smartcards erhöhen und dabei gleichzeitig Kosten einsparen. Der mit 1000 Euro dotierte zweite Platz ging an Dennis Jansen von der University of California Berkeley mit seiner Masterarbeit „Contribution Agreements‘ Flexibility in Outbound Licensing“. Raphael Hiesgen von der Hochschule für Angewandte Wissenschaften in Hamburg bekamt die 500 Euro für den dritten Platz mit seiner Bachelor-Arbeit „libcppa on SIMD machines – GPGPU computing using transparent C++11 actors and OpenCL“. Hierin beschäftigte sich Hiesgen mit der Entwicklung von fehlertoleranten Systemen auf Basis des offenen Standards OpenCL.

Weitere Informationen zu der lobenswerten Initiative von Univention und Details zu den bestplatzierten Arbeiten finden sich auf der Webseite von Univention.

 

Strom- und Gaszähler per Datenbrille ablesen

 

 

Wissenschaftler der Fakultät Elektrotechnik der Westsächsischen Hochschule Zwickau (WHZ) arbeiten gemeinsam mit der pixolus GmbH aus Köln an der Entwicklung einer Datenbrille, die Mitarbeiter von Energieversorgern dabei unterstützt, schnell und effizient die Zählerstände von analogen Zählern abzulesen.  Auf der Sächsischen Industrie- und Technologiemesse (SIT) in Chemnitz stellen WHZ-Mitarbeiter die Entwicklung ab 14. Mai erstmals öffentlich vor.

Welche Vorteile das Verfahren bringen kann, erklärt Prof. Rigo Herold von der Fakultät Elektrotechnik der WHZ: „Einmal jährlich wird bei jedem Haus- oder Wohnungsbesitzer der Strom-, gegebenenfalls auch der Wasser- und Gaszähler abgelesen. Neben modernen elektronischen Zählern, die aus der Ferne ausgelesen werden, sind in den meisten Haushalten noch Zähler mit analogen Zählwerken vorhanden. Die Umstellung dieser auf moderne elektronische Zähler wird aber noch Jahre dauern. Mitarbeiter von Versorgungsunternehmen werden also weiterhin mit der Erfassung analoger Zählerstände beschäftigt sein. Dazu müssen Zählerstand und die zugehörige Zählernummer auf einen Notizzettel übertragen und anschließend für die spätere Verrechnung in einer Datenbank zusammen mit der Kundennummer gespeichert werden. Diese Arbeitsschritte sind zeitaufwendig und fehleranfällig. Mit der Datenbrille blickt der Ableser auf den Zähler und gleichzeitig erfasst die in der Brille integrierte Kamera mithilfe von pixolus Erkennungsalgorithmen die Zählernummer und den Zählerstand. Diese Angaben bekommt der Ableser dann in die Datenbrille eingeblendet.

Ein virtuelles Zielfenster, welches dem Ableser zum realen Zähler eingeblendet wird, dient dazu, den richtigen Zähler auszuwählen. Dieses Zielfenster kann man mit der Vorschau oder dem Viewfinder von Digitalkameras vergleichen. Wurden die Daten richtig erfasst, werden diese dem Ableser virtuell angezeigt. Zeitgleich kann eine automatische Übertragung z.B. durch UMTS in die Datenbank des Versorgers stattfinden. Nach einer erfolgreichen Erfassung kann der Ableser mit dem virtuellen Zielfenster den nächsten Zähler anvisieren und den automatischen Ablesevorgang starten.“ 

Der Professor schätzt, dass durch den Einsatz dieser Technik ein Zeitvorteil von bis zu 70 Prozent zur klassischen „Notizblock-Lösung“ erreicht werden kann, da viele Einzelschritte, wie zum Beispiel der manuelle Datenbankeintrag, entfallen. Zusätzlich werde die Fehleranfälligkeit im Vergleich zum manuellen Verfahren erheblich reduziert. Besonders effektiv sei das Verfahren, wenn sich wie in einem Wohnblock mehrere Zähler nebeneinander befänden.

Ein weiterer entscheidender Vorteil besteht laut Prof. Rigo Herold darin, dass die Datenbrille den Mitarbeitern quasi freie Hand lasse: „Sicher wäre es möglich, die analogen Zähler auch mit herkömmlichen Scannern abzulesen. Allerdings hätten die Mitarbeiter dann immer nur maximal eine Hand frei. Gerade dort, wo Türen geöffnet und Schrauben gelockert werden müssen, hat die Datenbrille entscheidende Vorteile, da mit ihr beide Hände frei bleiben.“ 

Universelles analoges Eingangsboard für SPS/DCS

In diesem Schaltungstipp stellen wir ein universelles analoges Eingangsboard mit vier- oder sechspoligen Anschlussblöcken vor, das für den Anschluss an SPSen und DCS-Module geeignet ist. Die Evaluierungssoftware wurde mit LabView entwickelt und arbeitet unter Windows XP, Vista und XP.

Die Schaltung in Bild 1 verfügt über zwei isolierte, universell verwendbare 16-Bit-Analogeingänge, die geeignet für den Anschluss an speicherprogrammierbare Steuerungen (SPS) und DCS-Module (Distributed Control System) sind. Beide Kanäle lassen sich per Software programmieren und unterstützen mehrere Spannungs- (0 bis 5 V; 0 bis 10 V; ±5 V; ±10 V) und Strombereiche (0 bis 20 mA; 4 bis 20 mA; ±20 mA) sowie verschiedene Thermoelemente (Typ K, J, T, S) und Widerstandsthermometer (RTD; PT100, PT1000).

Das Demonstrationsboard enthält zwei differenzielle, komplett isolierte und universell einsetzbare Eingangskanäle. Einer davon ist mit einem vierpoligen Anschlussblock (CH2), der andere mit einem sechspoligen Anschlussblock (CH1) ausgestattet. Beim vierpoligen Anschlussblock (CH2) teilen sich Spannungs-, Strom-, Thermoelement- und Widerstandsthermometer-Eingänge die gleichen vier Anschlüsse. Dadurch lässt sich die Anzahl der erforderlichen Anschlusspins minimieren. Beim sechspoligen Anschlussblock (CH1) nutzen die Spannungs- und Stromeingänge einen Satz mit drei Anschlüssen. Thermoelement- und RTD-Eingänge teilen sich ein weiteres Set mit drei Anschlüssen. Damit sind zwar mehr Anschlüsse erforderlich, doch reduzieren sich die Anzahl der Bauteile sowie die Bauteilkosten.

A/D-Wandler mit integriertem Instrumentenverstärker  

Der rauscharme 16 Bit A/D-Wandler AD7795 mit auf dem Chip integriertem Instrumentenverstärker und Referenz wird für die Datenwandlung verwendet. Durch die Ausstattung mit Instrumentenverstärker und Stromquellen repräsentiert der Sigma/Delta-Wandler eine Komplettlösung für Widerstandsthermometer- und Thermoelementmessungen.

Für die Spannungs- und Stromeingänge wird der Instrumentenverstärker AD8226 mit einer Gleichtaktunterdrückung >90 dB verwendet, um eine hohe Eingangsimpedanz zu erzielen und Gleichtaktinterferenzen zu unterdrücken. Die Spannungs- und Stromsignale werden mit einem Präzisionswiderstandsteiler auf den Bereich des A/D-Wandlers skaliert.

Der ADR441 ist eine extrem rauscharme Low-Dropout XFET-Spannungsreferenz mit 2,5 V und dient als Referenz für den A/D-Wandler. Für den vierpoligen Anschlussblock (CH2) wird der Latchup-feste Schalter ADG442 mit geringem Durchlasswiderstand (R ON ) verwendet, um zwischen Spannungs-, Strom-, Thermoelement- und RTD-Eingangsmodus umzuschalten.

Digital- und Versorgungsspannungs-Isolation  

Die Digital- und Versorgungsspannungs-Isolation wird mit dem ADuM3471 erreicht. Der ADuM3471 ist ein PWM-Controller und Transformatortreiber mit vierkanaligem Isolator, der zur Erzeugung einer isolierten Versorgungsspannung von ±15 V- mit einem externen Transformator dient. Auch der dreikanalige Digitalisolator ADuM1311 kommt bei der Schaltung mit vierpoligem Anschlussblock zum Einsatz. Er isoliert die Steuerleitungen für die Schalter ADG442.

Der 36 V Abwärts-DC/DC-Regler ADP2441 besitzt eine große Eingangsspannungstoleranz. Er eignet sich damit für in der Industrie übliche Versorgungsspannungen von 24 V. Das Bauteil akzeptiert bis zu 36 V und ermöglicht so einen zuverlässigen Transientenschutz am Versorgungseingang. Der ADP2441 erzeugt aus der Eingangsspannung jene 5 V, die den ADuM3471 sowie alle anderen Schaltungen auf der Controller-Seite versorgen. Die 24-V-Versorgung ist durch diskreten standardmäßigen Überspannungsschutz zusätzlich gesichert.

Zusatzfunktionen für Sicherheit und Zuverlässigkeit  

Der ADP2441 bietet eine Reihe von Zusatzfunktionen für Sicherheit und Zuverlässigkeit. Dazu gehören UVLO (Undervoltage Lockout), Precision Enable, Power-Good-Anschluss und interne Strombegrenzung. Der Baustein erreicht in der Konfiguration für 24 V am Eingang und 5 V am Ausgang einen Wirkungsgrad bis zu 90%.

Den ausführlichen Tipp finden Sie im Internet.

Der Autor: Songtao Mu arbeitet als Segment System Application Engineer bei Analog Devices in Wilmington, USA.

Umwandeln von Parallel- in Serienimpedanzen

Das hier beschriebene Verfahren ist nützlich, wenn Transformator-Ersatzschaltbilder oder Filternetzwerke zu Bausteinen mit nur zwei Anschlüssen vereinfacht werden sollen. Bild 1 zeigt die Vorgehensweise für die Umwandlung eines Parallelkreises in einen Serienkreis (Herleitung siehe Anhang 1).

Interessanterweise erzeugen diese Ersatzschaltbilder Kreise in der Rs/Xs-Serienschaltungsebene, wenn eine der parallelen Komponenten auf einem festen Wert gehalten und die andere von einem Leerlauf zu einem Kurzschluss variiert wird.

Die Variation kann entweder durch Ändern des Komponentenwertes oder durch Ändern der Impedanz von Komponenten über der Frequenz bewerkstelligt werden. Bild 2 zeigt zwei Beispiel für diese Variationen. Auf der Abszisse ist der Serienwiderstand aufgetragen, auf der Ordinate die Serienreaktanz.

 Bild 2: Bei konstantem Parallelwiderstand entsteht ein Kreis
Bild 2: Bei konstantem Parallelwiderstand entsteht ein Kreis

Einer der beiden Kreise entsteht bei konstantem Parallelwiderstand, der andere bei konstanter Reaktanz. Die Kurve für den konstanten Widerstand verläuft symmetrisch zur Abszisse. Wenn die Reaktanz nahezu einem Leerlauf entspricht, ist die Impedanz gleich dem Parallelwiderstand. Mit Verringerung der Reaktanz verläuft die Kurve auf einem Kreis in Richtung Ursprung.

Bei einer induktiven Komponente verläuft sie ins Positive und bei einer kapazitiven Komponente ins Negative. Bei Verringerung der reaktiven Impedanz nähert sich die Kurve dem Wert Null. Der Kreis hat seinen Mittelpunkt auf der Abszisse in einem Abstand, der gleich dem halben Parallelwiderstand ist, und besitzt einen ebensolchen Radius.

Beachtenswert ist ferner, dass die Neigung einer Linie, die man vom Ursprung aus zu einem beliebigen Punkt auf dem Kreis zieht, gleich der Güte Q der Schaltung ist. Die niedrigste Güte stellt sich also bei den größeren Werten der parallelen reaktiven Impedanz ein, während sich die höchste Güte bei einer niedrigen Parallelreaktanz ergibt.

Ebenfalls interessant an diesem Kreis ist, dass er die Impedanz eines LCR-Parallelresonanzkreises abbildet. Wie die blaue Kurve (konstanter Parallelwiderstand R) zeigt, ist die induktive Impedanz bei niedrigen Frequenzen klein, so dass die Kurve im Ursprung beginnt.

Mit steigender Frequenz verläuft die Impedanz im Positiven (d. h. im oberen Quadranten), bis die kapazitive und die induktive Reaktanz am Resonanzpunkt (1 auf der Abszisse) gleich groß sind. Anschließend wechselt der Kurvenverlauf in den unteren Quadranten und setzt sich auf der Kreislinie fort.

Die zweite Kurve zeigt den kreisförmigen Impedanzverlauf bei einer festen Reaktanz und einem variablen Parallelwiderstand. Sie hat dieselbe Form wie die Kurve für den konstanten und festen Widerstand R, nur mit dem Unterschied, dass ihr Mittelpunkt auf der Ordinate liegt.

 Bild 3: Die Serien-Parallel-Umwandlung vereinfacht die Schaltungsanalyse
Bild 3: Die Serien-Parallel-Umwandlung vereinfacht die Schaltungsanalyse

Wie lässt sich dies nun in der Praxis anwenden? Nützlich kann dieser Zusammenhang sein, wenn man zu bestimmen hat, wie der DC-Widerstand (DCR) einer Induktivität und der äquivalente Serienwiderstand (ESR) eines Kondensators die Ausgangsimpedanz eines Stromversorgungstiefpassfilters beeinflussen.

Dies ist in Bild 3 veranschaulicht. Die Ausgangsimpedanz ist bei Resonanz am höchsten, so dass zunächst die Resonanzfrequenz des Filters zu berechnen ist. Anschließend wendet man eine Serien-Parallel-Umwandlung auf die Induktivitäts-DCR-Kombination und die Kondensator-ESR-Kombination an.

Schließlich braucht man nur noch die drei nunmehr parallel geschalteten Widerstände miteinander zu kombinieren. Als Beispiel seien ein 47-µF-Keramikkondensator mit einem als 0 Ω angenommenen Serienwiderstand und eine 10-μH-Ausgangsinduktivität mit einem DC-Widerstand von 50 mΩ betrachtet. Die Resonanzfrequenz beträgt 7 kHz. Bei dieser Frequenz hat die Induktivität eine Reaktanz von 0,4 Ω, woraus sich ein Q von 8 und ein Parallelwiderstand von 3 Ω ergeben.

 Anhang 1: Umwandlung des Parallelkreises in einen Serienkreis
Anhang 1: Umwandlung des Parallelkreises in einen Serienkreis

Noch schneller gelangt man zum Ergebnis, wenn man die charakteristische Impedanz ((L/C)0,5) für die Reaktanz der Induktivität bei Resonanz heranzieht.


Von

Robert Kollman,
Texas Instruments.

Ceph 0.8 ist da

Der Ceph-Hersteller Inktank war erst vor wenigen Tagen von Red Hat übernommen worden. Ceph ist in der Lage, sämtliche Speicherressourcen eines Rechner-Clusters wahlweise als Object-Storage, Block-Storage oder gewöhnlichen File-Storage (Dateisystem) verfügbar zu machen.

Die neue von den Entwicklern als stabil klassifizierte Version 0.8 mit dem Codenamen Firefly soll unter anderem Basis für ein künftiges Long-Time-Relase sein. Aktuell wollen die Entwickler Ceph 0.8 für mindestens ein Jahr mit Updates versorgen.

Aus einen breiten Palette neuer Funktionen sind neben zahlreichen Fehlerkorrekturen vor allem die Unterstützung für erasure coding und cache tiering erwähnenswert. Letzteres meint einen über mehrere Ebenen gestaffelten Caching-Mechanismus. So können Cache-Pools beispielsweise die zuletzt genutzten Daten auf schnellen SSDs vorhalten, während ältere Daten auf Festplatten wandern. Ferner haben die Entwickler weitere Fehlerkorrekturverfahren implementiert, die Datenredundanz sicher stellen und damit die Datenintegrität bei einem Ausfall einzelner Datenspeicher gewährleisten. Noch als experimentell ist ein neues Key/Value-OSD-Backend eingestuft. Das neue Storage-Backend legt Daten in einer Key-Value-Datenbank wie zum Beispiel leveldb ab, was bei von Key/Value-Operationen dominierten Workloads wie radosgw bucket indices für eine bessere Performance sorgt. Ebenfalls noch experimentell eingestuft ist, dass das REST-Gateway des RADOS-Object-Stores jetzt keinen Webserver mehr benötigt.

Die kommende  Ceph-Version mit dem Codename Giant verspricht unter anderem Verbesserungen am CephFS und soll weitere alternative Storage-Backends, sowie RDMA-Support mitbringen.

Parallel Computing Center entwickelt Software für Supercomputer

Ziel dieses IPCC ist es, die Softwareentwicklung hochparalleler Programmcodes für zukünftige Supercomputer voranzutreiben, die aus einer sehr großen Zahl von Prozessoren mit Koprozessoren bestehen werden. Das Supercomputing entwickelte sich in den letzten Jahren immer mehr in Richtung von Rechnern mit einer sehr hohen Zahl von Rechenkernen, die in einzelnen Rechenknoten zusammengefasst sind, einer Verringerung des Speichers pro Rechenkern und insbesondere auf Vektoreinheiten in den Prozessorkernen.

Darüber hinaus werden in zunehmendem Maße Rechenoperationen auf Koprozessoren wie Intels Xeon Phi verlagert, die aufgrund ihrer spezialisierten Funktionalität bestimmte Aufgaben sehr viel schneller und energieeffizienter rechnen können. Software für diese hochparallelen Rechner mit Koprozessoren zu entwickeln, ist eine große Herausforderung. Das von LRZ, TUM und Intel gegründete Parallel Computing Center soll einen Beitrag dazu leisten.

Dafür werden vier Anwendungen, die bereits mit hervorragender Rechenleistung auf dem Supercomputer am LRZ, dem SuperMUC, laufen für die nächste Rechnergeneration optimiert. SuperMUC wird im Laufe der nächsten Monate planmäßig erweitert und dabei u. a. mit Intel Xeon Phi Koprozessoren ausgestattet. Die Kombination von Prozessoren und Koprozessoren zieht großen Nutzen aus der Parallelisierung der Software und berücksichtig die Entwicklung der nächsten Jahre auf dem Weg zu noch schnelleren Systemen.

Die vier zu optimierenden Programme simulieren Erdbeben und seismische Wellenausbreitung (SeisSol), die Entwicklung des Kosmos (GADGET), wenden Methoden der Molekulardynamik auf industrielle Anwendungen an (ls1 mardyn) oder behandeln hochdimensionale Probleme (SG++), wie sie im Data Mining oder in der Finanzmathematik häufig auftreten. Alle diese Programme laufen bereits jetzt auf Supercomputern, insbesondere dem SuperMUC, mit hervorragender Performance im Bereich von Petaflops. Jetzt sollen sie für die nachfolgenden Rechnersysteme im Bereich von hundert Petaflops und mehr weiterentwickelt werden.

Das entscheidende Ziel des Intel Parallel Computing Center ist es, über die Weiterentwicklung dieser Simulationsprogramme hinaus vor allem den Prozess der Entwicklung wissenschaftlicher Software für zukünftige Rechnersysteme sowohl im Hinblick auf die Rechenleistung als auch auf deren Energieeffizienz besser zu verstehen und ein Modell dafür zu entwickeln. Die erzielten Ergebnisse und Erkenntnisse werden in die Weiterentwicklung der vier Simulationsprogramme einfließen und der wissenschaftlichen Öffentlichkeit zur Verfügung gestellt.

Elektronik-Maschinenbau 2014 auf Wachstumskurs

Der Umsatzzuwachs für das laufende Jahr wird der Umfrage zufolge auf 3,2 Prozent geschätzt, wobei Sondereffekte bei Photovoltaik-Produktionsmitteln das Ergebnis im Vergleich zur Oktober-Umfrage geschwächt haben. Ohne diese lägen die Umsatzerwartungen sogar über neun Prozent Zuwachs. Eine erste Einschätzung der Umfrage-Teilnehmer für 2015 liegt ähnlich positiv bei zehn Prozent Plus.

In den klassischen Segmenten des Elektronik-Maschinenbaus, wie z.B. bei Automobil-, Industrie- und Leistungselektronik stehen die Zeichen demnach voll auf Wachstum. Aber auch bei der Photovoltaik wird es im Jahresverlauf aufwärts gehen.

„Die neue Welle der Fertigungs-Automatisierung, die als ‚Industrie 4.0‘ bekannt geworden ist, ist ein Wachstumstreiber für den Elektronik-Maschinenbau und das gleich in mehrfacher Hinsicht“, freut sich Rainer Kurtz, CEO der kurtz-ersa-Gruppe und Vorsitzender des VDMA Fachverbandes Productronic. „Zum einen profitiert die Elektronikproduktion grundsätzlich durch eine weiterentwickelte Automatisierung. Zudem werden für Industrie 4.0 massenhaft neue Elektronik-Produkte wie beispielsweise vernetzte Mikrosensoren und Steuerungen eingesetzt. Ganz wesentlich profitieren wir im Ausland durch das Vorreiter-Image, das uns Industrie 4.0 gibt“, erklärt Kurtz. „Wir adressieren verstärkt neue Märkte, z.B. in Süd- und Mittelamerika oder der MENA-Region. Gerade dabei dürfen wir aber das mittlere Marktsegment nicht vergessen: ‚Good-enough‘-Maschinen hoher Qualität, wie sie die VDMA Impuls-Studie kürzlich vorgestellt hat, sind auch für den Elektronik-Maschinenbau wichtig“, bekräftigt Kurtz.

 

Die Auftragssituation hat sich in der aktuellen Umfrage im Vergleich zur Oktober-Umfrage deutlich gebessert. Inzwischen melden knapp 70 Prozent der Firmen eine bessere Auftragssituation im Vorjahres­vergleich. Der Auftragsbestand hat sich deutlich auf 3,9 Produktions­monate verbessert und liegt nun über dem langjährigen Durchschnitt von 3,2 Produktionsmonaten für die Elektronik-Maschinenbauer.

So sehr das Photovoltaik-Geschäft heute noch belastet: Es ist auch hier mit deutlichen Besserungen zu rechnen. Zahlen von VDMA Photovoltaik-Produktionsmittel zeigen einen Abbau der Überkapazitäten, ansteigende Fabrikauslastung und erste neue Aufträge. Beschäftigung auf Wachstum, Reduktion von Beschaffungskosten 70 Prozent der Unternehmen melden Überstunden, 62 Prozent planen diese. 38 Prozent der befragten Elektronik-Maschinenbauer planen Personalaufbau. Zur mittelfristigen Stützung der Erträge rücken für firmeninterne Maßnahmen der Melder nun die Reduktion von Beschaffungskosten wie Rohmaterialien und Energie stärker in den Fokus. Effizienzsteigerungen spielen traditionell eine große Rolle.

Patent für Multicore-Algorithmus

Bei Multicore-Prozessoren erfordert die parallele Ausführung von Software Maßnahmen, die sicherstellen, dass auf gemeinsam genutzte Daten nicht gleichzeitig zugegriffen wird und dass die Ausführungsgeschwindigkeit bei der Nutzung mehrerer Prozessorbusse durch mehrere Prozessorkerne nicht beeinträchtigt wird.

Bei der Portierung eines komplexen, aus zahlreichen Komponenten bestehenden Softwaresystems ist eine automatisierte Parallelisierung daher nicht mehr auf Applikationsebene möglich: Hier müssen Ingenieure über die notwendigen grundlegenden Änderungen in der Softwarearchitektur entscheiden. Dies birgt allerdings die Gefahr, dass in einem frühen Stadium weitreichende Fehlentscheidungen getroffen werden, deren Behebung nur mit großem Aufwand und hohen Kosten möglich ist.

Daher hat das Fraunhofer-Institut für Experimentelles Software Engineering IESE einen Ansatz entwickelt, der die notwendigen Architekturentscheidungen systematisch ableitet. Um die richtigen Entscheidungen im Portierungsprozess zu treffen, werden im Prognostics Center des Fraunhofer IESE virtuelle Systemprototypen entwickelt, die in Tests verschiedene Optionen simulieren.

In vier Phasen wird eine so genannte Prognostics-Evaluation durchgeführt: Zuerst wird ein Analysemodell des Systems erstellt. Damit werden im Folgenden die Auswirkungen von Entwurfsentscheidungen mithilfe von Simulations- und Analysewerkzeugen untersucht. In der Evaluationsphase werden die Resultate ausgewertet und es wird eine Diagnose erstellt, um einen optimierten Parallelisierungsprozess zu erhalten.

Für den Algorithmus, der festlegt, wann und auf welchem Rechenkern eine Funktion ausgeführt wird, erhält das Fraunhofer IESE nun ein europäisches Patent und kann somit zukünftig Unternehmen dabei helfen, ihre eingebetteten Systeme sicher und ohne kostspielige Fehlentscheidungen auf Multicore-Prozessoren zu portieren. Da nur mit einem funktionierenden System Geschäftsziele erfolgreich umgesetzt werden können, bietet die Optimierung des Systemdesigns eine wichtige strategische Unterstützung für Unternehmen. Das Fraunhofer IESE macht eingebettete Systeme damit fit für die Multicore-Plattformen der Zukunft.

Red Hat kauft Inktank

Red Hat  bezahlt 175 Millionen US-Dollar für Inktank. In denr Vergangenheit hatten auch bereits andere potente IT-Firmen in Ceph investiert, so zum Beispiel Mark Shuttleworth mit Canonical im Jahr 2012. Die Akquisition soll noch in diesem Monat abgeschlossen werden.

Mit der Übernahme von Inktank weitet Red Hat nun seinen Einfluss auch auf die weitere Entwicklung des auf Linux basierenden Cluster-Dateisystem Ceph aus. Red Hat will laut einer FAQ zu der strategischen Übernahme sein Storage-Portofolio weiter ausbauen. Im November 2011 hatte Red Hat bekanntlich auch Gluster, die Firma hinter dem Cluster-Dateisystem Glusterfs übernommen, auf dem das kurz danach erstmals veröffentlichte Produkt Red Hat Storage Server bisher beruht. Laut Red Hat ergänzt Inktanks Technologie Gluster perfekt und erlaubt es Red Hat, seine Position im Markt für Software-defined Storage (SDS) weiter zu stärken. Zwischen den Zeilen der FAQ lässt sich unschwer heraus lesen, dass Red Hat bis auf weiteres beide Cluster-Dateisysteme weiterentwickeln will, um sie in seinen Produkten einzusetzen.

In seinem http://ceph.com/community/red-hat-to-acquire-inktank/ Blog begrüßt auch der Ceph-Erfinder, Gründer und derzeitige CTO von Inktank Sage Weil die Akquisition. Diese biete Inktank die Möglichkeit, die eigenen Produkte weiter zu verbessern. Zudem verspricht sich Weil von der Zusammenarbeit mit Red Hat, dass sich Probleme im Linux-Kernel und in anderen Bereichen des Storage-Stacks besser lösen lassen.

Glusterfs und Ceph sind beide relativ junge Cluster-Dateisysteme für Linux. Beide erlauben es, Standard-Server-Hardware zu Storage-Clustern zusammenzuführen, welche Daten redundant bereithalten und sich bei Bedarf sehr einfach erweitern lassen. Glusterfs und Ceph kommen beispielsweise im Zusammenhang mit OpenStack und im Bereich der professionellen Virtualisierung auf Linux-Basis häufig zum Einsatz.