Alle Beiträge von Peter Koller

Infineon will International Rectifier für 3 Milliarden US-$ kaufen

Infineon und die International Rectifier Corporation haben heute einen Vertrag über den Kauf von International Rectifier unterzeichnet. Infineon beabsichtigt, International Rectifier für 40 US-Dollar in bar pro Aktie zu erwerben, was einem Wert von ca. 3 Milliarden US-Dollar entspricht. Durch die Akquisition schließen sich zwei Halbleiter-Unternehmen mit führenden Positionen im Bereich Power Management zusammen. 

Infineon-Chef Dr. Reinhard Ploss  sagte: „Die Akquisition von International Rectifier ist eine einmalige Gelegenheit. International Rectifier wird mit seinem Verständnis von Kundenbedürfnissen und Anwendungen zur strategischen Entwicklung vom Produktdenken zum Systemverständnis bei Infineon beitragen. Die Kombination sich hervorragend ergänzender Produkte, technologischer und innovativer Exzellenz sowie der Vertriebsstärke wird großes Potenzial erschließen.“

 Das Board of Directors von International Rectifier und der Aufsichtsrat von Infineon haben der Transaktion zugestimmt. Die Akquisition bedarf noch der Zustimmung der zuständigen Aufsichtsbehörden und der Aktionäre von International Rectifier.

Der Abschluss der Übernahme  wird gegen Ende des Kalenderjahrs 2014 oder zu Beginn des Kalenderjahrs 2015 erwartet, abhängig von der Zustimmung der Aufsichtsbehörden.

Die Produktportfolios der beiden Unternehmen ergänzen sich nach Meinung von Infineon ideal. International Rectifiers Stärke bei energieeffizienten IGBTs und IPMs (Intelligent Power Modules) sowie bei Power-MOSFETs und Digitalen Power-Management-ICs könne  sehr gut mit Infineons Angebot bei Diskreten IGBTs und Modulen integriert werden.

Infineon erwirbt mit International Rectifier außerdem einen Technologieführer im Bereich Galliumnitrid (GaN)-basierter Leistungshalbleiter. Dadurch kann Infineon seine GaN-Roadmap bei GaN-Diskreten und GaN-Systemlösungen beschleunigen und festigen und so seine Position bei dieser strategisch wichtigen Technologie-Plattform mit deutlichem Wachstumspotenzial weiter ausbauen.  

International Rectifier  war 1947 von Eric Lidow gegründet worden. Der aus dem Baltikum stammende Jude hatte 1937 an der Universität Berlin im Fach Fotovoltaik sein Diplom gemacht, war aber dann Angesichts des Nationalsozialismus in Deutschland in die USA emigriert. Seine hochspannende Lebensgeschichte lesen Sie hier

Abhörskandal führte zu mehr Transparenz bei IT-Firmen 

Rund ein Jahr nach den ersten Veröffentlichungen des Whistleblowers Edward Snowden berichteten große Technologie- und Telekom-Firmen in den USA ihren Kunden gegenüber sehr viel detaillierter darüber, welche Daten von der Regierung eingefordert und gesammelt werden, ergab eine Studie der EFF.

Danach haben viele IT-Unternehmen im vergangenen Jahr in die Praxis der Datenabfrage von Seiten der US-Regierung mehr Licht gebracht. Apple, Facebook, Google, Twitter, Yahoo und Microsoft sowie Dropbox schneiden dabei besonders gut ab. Sie erhielten von der EFF in allen Kategorien eine Auszeichnung. So verlangten diese Firmen inzwischen allesamt eine richterliche Anordnung für die Herausgabe von Daten. Außerdem berichteten die Unternehmen ihren Kunden von Behördenanfragen, veröffentlichen Transparenzberichte und setzen sich für die Datenschutzrechte ihrer Nutzer vor Gericht und im US-Kongress ein.

IBM-Preis für Würzburger Software-Forscher

Kooperationen mit deutschen Universitäten pflegen, um relevante technologische Zukunftsthemen gemeinsam voranzutreiben: Das ist eines der Ziele, die der IT-Konzern IBM mit der Vergabe des IBM PhD Fellowship Award verfolgt. In diesem Jahr zählt der Informatiker Nikolas Herbst zu den Preisträgern. Ausgezeichnet wurde er für seine Arbeit zu dem Thema: „Self-Adaptive Load Intensity Forecasting at Run Time“ – ein „anspruchsvolles und für die Zukunft extrem wichtiges Thema“, wie Erich Amrehn, Distinguished Engineer IBM Research and Development, bei der Preisverleihung sagte.

Herbst sei ein „hervorragender junger Wissenschaftler und ein würdiger Empfänger dieses begehrten Preises“, seine Forschung verspreche „neue und spannende Erkenntnisse für die Industrie und die Wissenschaft“, so Amrehn in seiner Laudatio.

Im Rahmen seiner Promotion arbeitet Nikolas Herbst an intelligenten Mechanismen für die Vorhersage von Lastveränderungen zur Laufzeit eines Computersystems. Insbesondere im Kontext von Cloud-basierten Systemen können physikalische Rechenressourcen dynamisch an einen aktuellen Bedarf angepasst werden. In der Praxis werden derartige Anpassungen jedoch erst vorgenommen, wenn für den Benutzer bereits Geschwindigkeitseinbußen feststellbar sind oder die zugeordneten Ressourcen über einen gewissen Zeitraum ineffizient verwendet werden.

Dieses reaktive Verhalten von elastischen Cloud-Systemen kann durch automatische Vorhersagen deutlich verbessert werden. Dazu werden Zeitpunkte für Re-Konfigurationen zusammen mit den geschätzten Ressourcenverbräuchen bereits vor Eintreten des Engpasses ermittelt. In der Zusammenarbeit mit IBM will Herbst zeigen, wie durch Einsatz der erarbeiteten proaktiven Mechanismen in realen Szenarien die Antwortzeit für Systembenutzer trotz variierender Lastprofile konstant und die Auslastung der Rechenressourcen in einem effizienten Bereich gehalten werden können.

 

Strom- und Gaszähler per Datenbrille ablesen

 

 

Wissenschaftler der Fakultät Elektrotechnik der Westsächsischen Hochschule Zwickau (WHZ) arbeiten gemeinsam mit der pixolus GmbH aus Köln an der Entwicklung einer Datenbrille, die Mitarbeiter von Energieversorgern dabei unterstützt, schnell und effizient die Zählerstände von analogen Zählern abzulesen.  Auf der Sächsischen Industrie- und Technologiemesse (SIT) in Chemnitz stellen WHZ-Mitarbeiter die Entwicklung ab 14. Mai erstmals öffentlich vor.

Welche Vorteile das Verfahren bringen kann, erklärt Prof. Rigo Herold von der Fakultät Elektrotechnik der WHZ: „Einmal jährlich wird bei jedem Haus- oder Wohnungsbesitzer der Strom-, gegebenenfalls auch der Wasser- und Gaszähler abgelesen. Neben modernen elektronischen Zählern, die aus der Ferne ausgelesen werden, sind in den meisten Haushalten noch Zähler mit analogen Zählwerken vorhanden. Die Umstellung dieser auf moderne elektronische Zähler wird aber noch Jahre dauern. Mitarbeiter von Versorgungsunternehmen werden also weiterhin mit der Erfassung analoger Zählerstände beschäftigt sein. Dazu müssen Zählerstand und die zugehörige Zählernummer auf einen Notizzettel übertragen und anschließend für die spätere Verrechnung in einer Datenbank zusammen mit der Kundennummer gespeichert werden. Diese Arbeitsschritte sind zeitaufwendig und fehleranfällig. Mit der Datenbrille blickt der Ableser auf den Zähler und gleichzeitig erfasst die in der Brille integrierte Kamera mithilfe von pixolus Erkennungsalgorithmen die Zählernummer und den Zählerstand. Diese Angaben bekommt der Ableser dann in die Datenbrille eingeblendet.

Ein virtuelles Zielfenster, welches dem Ableser zum realen Zähler eingeblendet wird, dient dazu, den richtigen Zähler auszuwählen. Dieses Zielfenster kann man mit der Vorschau oder dem Viewfinder von Digitalkameras vergleichen. Wurden die Daten richtig erfasst, werden diese dem Ableser virtuell angezeigt. Zeitgleich kann eine automatische Übertragung z.B. durch UMTS in die Datenbank des Versorgers stattfinden. Nach einer erfolgreichen Erfassung kann der Ableser mit dem virtuellen Zielfenster den nächsten Zähler anvisieren und den automatischen Ablesevorgang starten.“ 

Der Professor schätzt, dass durch den Einsatz dieser Technik ein Zeitvorteil von bis zu 70 Prozent zur klassischen „Notizblock-Lösung“ erreicht werden kann, da viele Einzelschritte, wie zum Beispiel der manuelle Datenbankeintrag, entfallen. Zusätzlich werde die Fehleranfälligkeit im Vergleich zum manuellen Verfahren erheblich reduziert. Besonders effektiv sei das Verfahren, wenn sich wie in einem Wohnblock mehrere Zähler nebeneinander befänden.

Ein weiterer entscheidender Vorteil besteht laut Prof. Rigo Herold darin, dass die Datenbrille den Mitarbeitern quasi freie Hand lasse: „Sicher wäre es möglich, die analogen Zähler auch mit herkömmlichen Scannern abzulesen. Allerdings hätten die Mitarbeiter dann immer nur maximal eine Hand frei. Gerade dort, wo Türen geöffnet und Schrauben gelockert werden müssen, hat die Datenbrille entscheidende Vorteile, da mit ihr beide Hände frei bleiben.“ 

Parallel Computing Center entwickelt Software für Supercomputer

Ziel dieses IPCC ist es, die Softwareentwicklung hochparalleler Programmcodes für zukünftige Supercomputer voranzutreiben, die aus einer sehr großen Zahl von Prozessoren mit Koprozessoren bestehen werden. Das Supercomputing entwickelte sich in den letzten Jahren immer mehr in Richtung von Rechnern mit einer sehr hohen Zahl von Rechenkernen, die in einzelnen Rechenknoten zusammengefasst sind, einer Verringerung des Speichers pro Rechenkern und insbesondere auf Vektoreinheiten in den Prozessorkernen.

Darüber hinaus werden in zunehmendem Maße Rechenoperationen auf Koprozessoren wie Intels Xeon Phi verlagert, die aufgrund ihrer spezialisierten Funktionalität bestimmte Aufgaben sehr viel schneller und energieeffizienter rechnen können. Software für diese hochparallelen Rechner mit Koprozessoren zu entwickeln, ist eine große Herausforderung. Das von LRZ, TUM und Intel gegründete Parallel Computing Center soll einen Beitrag dazu leisten.

Dafür werden vier Anwendungen, die bereits mit hervorragender Rechenleistung auf dem Supercomputer am LRZ, dem SuperMUC, laufen für die nächste Rechnergeneration optimiert. SuperMUC wird im Laufe der nächsten Monate planmäßig erweitert und dabei u. a. mit Intel Xeon Phi Koprozessoren ausgestattet. Die Kombination von Prozessoren und Koprozessoren zieht großen Nutzen aus der Parallelisierung der Software und berücksichtig die Entwicklung der nächsten Jahre auf dem Weg zu noch schnelleren Systemen.

Die vier zu optimierenden Programme simulieren Erdbeben und seismische Wellenausbreitung (SeisSol), die Entwicklung des Kosmos (GADGET), wenden Methoden der Molekulardynamik auf industrielle Anwendungen an (ls1 mardyn) oder behandeln hochdimensionale Probleme (SG++), wie sie im Data Mining oder in der Finanzmathematik häufig auftreten. Alle diese Programme laufen bereits jetzt auf Supercomputern, insbesondere dem SuperMUC, mit hervorragender Performance im Bereich von Petaflops. Jetzt sollen sie für die nachfolgenden Rechnersysteme im Bereich von hundert Petaflops und mehr weiterentwickelt werden.

Das entscheidende Ziel des Intel Parallel Computing Center ist es, über die Weiterentwicklung dieser Simulationsprogramme hinaus vor allem den Prozess der Entwicklung wissenschaftlicher Software für zukünftige Rechnersysteme sowohl im Hinblick auf die Rechenleistung als auch auf deren Energieeffizienz besser zu verstehen und ein Modell dafür zu entwickeln. Die erzielten Ergebnisse und Erkenntnisse werden in die Weiterentwicklung der vier Simulationsprogramme einfließen und der wissenschaftlichen Öffentlichkeit zur Verfügung gestellt.

Elektronik-Maschinenbau 2014 auf Wachstumskurs

Der Umsatzzuwachs für das laufende Jahr wird der Umfrage zufolge auf 3,2 Prozent geschätzt, wobei Sondereffekte bei Photovoltaik-Produktionsmitteln das Ergebnis im Vergleich zur Oktober-Umfrage geschwächt haben. Ohne diese lägen die Umsatzerwartungen sogar über neun Prozent Zuwachs. Eine erste Einschätzung der Umfrage-Teilnehmer für 2015 liegt ähnlich positiv bei zehn Prozent Plus.

In den klassischen Segmenten des Elektronik-Maschinenbaus, wie z.B. bei Automobil-, Industrie- und Leistungselektronik stehen die Zeichen demnach voll auf Wachstum. Aber auch bei der Photovoltaik wird es im Jahresverlauf aufwärts gehen.

„Die neue Welle der Fertigungs-Automatisierung, die als ‚Industrie 4.0‘ bekannt geworden ist, ist ein Wachstumstreiber für den Elektronik-Maschinenbau und das gleich in mehrfacher Hinsicht“, freut sich Rainer Kurtz, CEO der kurtz-ersa-Gruppe und Vorsitzender des VDMA Fachverbandes Productronic. „Zum einen profitiert die Elektronikproduktion grundsätzlich durch eine weiterentwickelte Automatisierung. Zudem werden für Industrie 4.0 massenhaft neue Elektronik-Produkte wie beispielsweise vernetzte Mikrosensoren und Steuerungen eingesetzt. Ganz wesentlich profitieren wir im Ausland durch das Vorreiter-Image, das uns Industrie 4.0 gibt“, erklärt Kurtz. „Wir adressieren verstärkt neue Märkte, z.B. in Süd- und Mittelamerika oder der MENA-Region. Gerade dabei dürfen wir aber das mittlere Marktsegment nicht vergessen: ‚Good-enough‘-Maschinen hoher Qualität, wie sie die VDMA Impuls-Studie kürzlich vorgestellt hat, sind auch für den Elektronik-Maschinenbau wichtig“, bekräftigt Kurtz.

 

Die Auftragssituation hat sich in der aktuellen Umfrage im Vergleich zur Oktober-Umfrage deutlich gebessert. Inzwischen melden knapp 70 Prozent der Firmen eine bessere Auftragssituation im Vorjahres­vergleich. Der Auftragsbestand hat sich deutlich auf 3,9 Produktions­monate verbessert und liegt nun über dem langjährigen Durchschnitt von 3,2 Produktionsmonaten für die Elektronik-Maschinenbauer.

So sehr das Photovoltaik-Geschäft heute noch belastet: Es ist auch hier mit deutlichen Besserungen zu rechnen. Zahlen von VDMA Photovoltaik-Produktionsmittel zeigen einen Abbau der Überkapazitäten, ansteigende Fabrikauslastung und erste neue Aufträge. Beschäftigung auf Wachstum, Reduktion von Beschaffungskosten 70 Prozent der Unternehmen melden Überstunden, 62 Prozent planen diese. 38 Prozent der befragten Elektronik-Maschinenbauer planen Personalaufbau. Zur mittelfristigen Stützung der Erträge rücken für firmeninterne Maßnahmen der Melder nun die Reduktion von Beschaffungskosten wie Rohmaterialien und Energie stärker in den Fokus. Effizienzsteigerungen spielen traditionell eine große Rolle.

Patent für Multicore-Algorithmus

Bei Multicore-Prozessoren erfordert die parallele Ausführung von Software Maßnahmen, die sicherstellen, dass auf gemeinsam genutzte Daten nicht gleichzeitig zugegriffen wird und dass die Ausführungsgeschwindigkeit bei der Nutzung mehrerer Prozessorbusse durch mehrere Prozessorkerne nicht beeinträchtigt wird.

Bei der Portierung eines komplexen, aus zahlreichen Komponenten bestehenden Softwaresystems ist eine automatisierte Parallelisierung daher nicht mehr auf Applikationsebene möglich: Hier müssen Ingenieure über die notwendigen grundlegenden Änderungen in der Softwarearchitektur entscheiden. Dies birgt allerdings die Gefahr, dass in einem frühen Stadium weitreichende Fehlentscheidungen getroffen werden, deren Behebung nur mit großem Aufwand und hohen Kosten möglich ist.

Daher hat das Fraunhofer-Institut für Experimentelles Software Engineering IESE einen Ansatz entwickelt, der die notwendigen Architekturentscheidungen systematisch ableitet. Um die richtigen Entscheidungen im Portierungsprozess zu treffen, werden im Prognostics Center des Fraunhofer IESE virtuelle Systemprototypen entwickelt, die in Tests verschiedene Optionen simulieren.

In vier Phasen wird eine so genannte Prognostics-Evaluation durchgeführt: Zuerst wird ein Analysemodell des Systems erstellt. Damit werden im Folgenden die Auswirkungen von Entwurfsentscheidungen mithilfe von Simulations- und Analysewerkzeugen untersucht. In der Evaluationsphase werden die Resultate ausgewertet und es wird eine Diagnose erstellt, um einen optimierten Parallelisierungsprozess zu erhalten.

Für den Algorithmus, der festlegt, wann und auf welchem Rechenkern eine Funktion ausgeführt wird, erhält das Fraunhofer IESE nun ein europäisches Patent und kann somit zukünftig Unternehmen dabei helfen, ihre eingebetteten Systeme sicher und ohne kostspielige Fehlentscheidungen auf Multicore-Prozessoren zu portieren. Da nur mit einem funktionierenden System Geschäftsziele erfolgreich umgesetzt werden können, bietet die Optimierung des Systemdesigns eine wichtige strategische Unterstützung für Unternehmen. Das Fraunhofer IESE macht eingebettete Systeme damit fit für die Multicore-Plattformen der Zukunft.