Archiv der Kategorie: EP – Software Engineering

Neuer Standard für Software-Hardware-Schnittstellen

Die Multicore Association (MCA) hat einen neuen Leitfaden für Software-Hardware-Interfaces bei Mehrkernprozessoren, kurz SHIM, herausgegeben. Die Anpassung vorhandener Entwicklungsumgebungen und Softwaretools an fortschrittlichere Mehrkernprozessoren soll dadurch schneller, einfacher und günstiger werden.

Die gemeinnützige Multicore Association hat sich zur Aufgabe gemacht, allgemein gültige Standards zur Entwicklung und Optimierung vorhandener Produkte zu schaffen, die mit Mehrkern-Prozessoren arbeiten. Mit SHIM hat die Organisation nun einen Standard vorgestellt, der es möglich macht, für Mehrkernprozessoren wesentliche Eigenschaften bestehender wie neuer Hardware zu verallgemeinern und dadurch anfallende Kosten zu senken.

Auf Grundlage des Leitfadens lassen sich neue Tools schneller ausarbeiten und bestehende Software leichter an neue Entwicklungen anpassen. Dies soll vor allem Prozesse wie Leistungseinschätzung, Systemkonfiguration und Hardware-Modellierung beschleunigen. Sprecher mehrerer Unternehmen, darunter Freescale, PolyCore Software oder Vector Fabrics, begrüßten bereits die Einführung des neuen Standards.

Wer sich mit der praktischen Anwendung oder Integration der Spezifikation befassen möchte, findet im Web auf der Open-Source-Austauschplattform GitHub einen öffentlich zugänglichen SHIM Editor und dazu gehörige Tools zur Leistungsmessung. Der Leitfaden selbst steht im Netz von der Website der Multicore Association zum Download bereit.

Bosch bringt BSH-Übernahme in trockene Tücher

Die Bosch-Gruppe hat die Übernahme des 50-Prozent-Anteils von Siemens an der BSH Bosch und Siemens Hausgeräte GmbH am 5. Januar 2015 vollzogen. Zuvor hatten die Kartellbehörden der vollständigen Übernahme zugestimmt.

Damit ist der Weg frei für die Weiterführung des ehemals paritätischen Gemeinschaftsunternehmens von Bosch und Siemens als 100-prozentiges Tochterunternehmen von Bosch. Der Hausgerätehersteller mit rund 10,5 Milliarden Euro Umsatz im Jahr 2013 und rund 50.000 Mitarbeitern wird nach der Eintragung im Handelsregister künftig unter dem Namen BSH Hausgeräte GmbH firmieren.

Mit der vollständigen Übernahme der BSH will Bosch sein Engagement im Bereich der vernetzten Gebäude und Geräte auszubauen. Dr. Karsten Ottenberg, der als Vorsitzender der Geschäftsführung auch künftig die Geschäfte der BSH leitet, erklärt dazu: „Lösungen für das vernetzte Leben sind unser strategisches Ziel“.

Im Rahmen von Smart Home-Konzepten sollen sich Haushaltsgeräte künftig noch komfortabler und energieeffizienter einsetzen lassen und ihre Bedienerfreundlichkeit weiter erhöhen. Als Beispiel nennt das Unternehmen die App „Home Connect“, mit der Nutzer über WLAN vernetzte Hausgeräte vom Smartphone oder Tablet aus steuern können. Als erste Geräte mit Home Connect hat die BSH Backöfen und Geschirrspüler auf den Markt gebracht – weitere Hausgeräte sollen folgen.

BSH soll innerhalb der Bosch-Gruppe weitestgehend eigenständig agieren. „Mit Bosch haben wir weiterhin einen werteorientierten Eigentümer, der unsere strategische Ausrichtung vollständig mitträgt“, so Ottenberg. Ziel der BSH bleibe es, die Position im Weltmarkt weiter auszubauen und insbesondere auch außerhalb Europas Marktanteile zu gewinnen.

Der Umsatz der BSH solle sich bis 2025 verdoppeln. Dazu solle verstärkt in Forschung und Entwicklung sowie in die BSH-Marken investiert werden, so Ottenberg.

Mit der Übernahme aller Anteile an der BSH erweitert Bosch sein Geschäft außerhalb der Kraftfahrzeugtechnik. Durch die vollständige Konsolidierung trägt das Gebrauchsgütergeschäft rund ein Viertel zum Bosch-Umsatz bei. Der Anteil des gesamten Bosch-Geschäfts außerhalb der Kraftfahrzeugtechnik liegt dann bei mehr als 40 Prozent. Damit kommt Bosch seinem langfristigen Ziel, dort rund die Hälfte seines Umsatzes zu erzielen, einen großen Schritt näher.

Von einer Branche, die erwachsen werden muss

Für Embedded-Entwickler gehört der ESE Kongress in Sindelfingen genauso zur Vorweihnachtszeit wie die Türchen am Adventskalender oder der Nikolaus. Die Softwarekonferenz, die heuer mit deutlich über 900 Anmeldungen einen neuen Teilnehmerrekord verbuchen konnte, wartete diesmal zu Beginn mit einem echten internationalen Höhepunkt auf. Der Amerikaner Jack Ganssle, der sich als Veteran vieler Softwareprojekte, als Autor einflussreicher Bücher, als Unternehmer, Berater und Dozent einen Namen gemacht hat, sprach vor einer gut gefüllten Halle über den Stand der Dinge in der Embedded-Softwareentwicklung.

Nicht alles steht dort zum Besten, stellte er zu Beginn seiner Ansprache fest. Seine Grundthese lautete „Wir müssen Künstler durch disziplinierte Erwachsene ersetzen.“ Mit dem Begriff Kunst meinte er eine Softwaretechnik, die sich in weiten Bereichen externen Reviews entzieht und Metriken zur Codequalität abhold ist und sich stattdessen sehr schnell in Glaubenskriegen verliert. Zum Thema Glaubenskriege nannte er zwei Beispiele: So verhielten sich Entwickler manchmal päpstlicher als der Papst, wenn es um die Platzierung von Klammern im Quelltext gehe. Zum anderen sei es ein sicheres Rezept, die Community gegen sich aufzubringen, wenn man über Linux lästere. „Linux ist nur ein Haufen Bits. Für manche Applikationen ist es ein großartiger Haufen Bits, für andere ist es ein furchtbarer Haufen Bits“, erklärte Ganssle.

Um seine Argumentation zu unterstützen, führte der US-Amerikaner eine Umfrage unter Entwicklern an, welche Kriterien bei der Wahl eines Embedded-Betriebssystems die entscheidende Rolle gespielt habe. Sehr oft sei dabei das Kriterium genannt worden „Ich mag keine kommerziellen Produkte“. Daraufhin sagte Ganssle: „Come on! Engineering-Entscheidungen sollten nicht anhand persönlicher Vorlieben getroffen werden.“

Insgesamt riet Ganssle der Softwarebranche, technische Entscheidungen müssten auch gute Business-Entscheidungen sein. Bei der Wahl eines Betriebssystems für harte Echtzeitanwendungen sollte man sich vielmehr für Systeme entscheiden, die sich in harten Umgebungen bewährt hätten und auch von dritter Seite zertifiziert worden seien. Derzeit gebe es nur ein Betriebssystem, das nach die Bedingungen des Qualitätsstandards EAL (Evaluation Assurance Level) 6+ erfülle. Zum Vergleich: Windows ist demnach bei Level 4 dieser Skala angekommen. „Das bedeutet: Windows ist ein sicheres Betriebssystem, wenn es keiner angreift“, erklärte Ganssle. Damit hatte er viele Lacher auf seiner Seite.

Darüber hinaus mahnte Ganssle, wohldefinierte Prozesse zu verwenden. Als Beispiel nannte er das Capability Maturity Model (CMM), das dazu beitragen könne, die Qualität der Software entscheidend zu verbessern. Ganssle riet nicht grundsätzlich von agilen Methoden ab, warnte aber, dass in vielen Embedded-Projekten zwar agile Ideen angewandt würden. Dies geschehe aber unsystematisch. „Nur Ideen, keine Disziplin“, lautete deshalb das Verdikt des Experten über diese Projekte.

Er wehrte sich auch gegen weit verbreitete Gedanken, man müsse sich nicht vorab über ein Applikationsdesign Gedanken machen, wenn man nur genug Code schreibe, dann werde schon ein Design dabei herauskommen. Derartige Gedanken, die unter anderem von Kent Beck, einem der Begründer des Extreme Programming, vertreten werden, erteilte Ganssle mit dem Verdikt „Crazy Talk“ eine deutliche Absage.

Weiters kritisierte er die Aversion vieler Projekte gegen externe Code-Reviews. Solche Reviews würden in kürzerer Zeit mehr Fehler finden, als dies durch Tests möglich sei. Darüber hinaus wunderte sich über die Vorliebe der Embedded-Branche für Entwicklungssprachen wie C und C++, mit denen es möglich sei, zwar korrekten, aber völlig unverständlichen Code zu schreiben.

Abschließend fragte sich Ganssle, ob man angesichts dieser Lage der Dinge bald in den Zeitungen über einen Totalausfall des Internets der Dinge lesen könne. Wichtig sei ein „Quality Mindset“, der die Softwarequalität in den Vordergrund stelle, keine Künstler toleriere und diszipliniert ingenieurgemäße Strategien anwende. Sein Fazit lautete: „Wir haben viel erreicht, aber wir müssen besser werden.“ Auf die Frage eines Zuhörers, was man denn bei bestehenden Projekten tun könne, sagte Ganssle, hier komme es darauf an, die Fehler der Vergangenheit nicht fortzusetzen und einen klaren Schnitt zu machen.

Apple legt Fundament für Geschäftsfelder Smart Home und Gesundheit

Sollte Apple-Chef Tim Cook in diesen Tagen wegen der riesengroßen Erwartungen von Kunden, Investoren und der Öffentlichkeit unter Druck stehen, lässt sich der 53-Jährige das nicht anmerken. Am Ende einer zweistündigen Präsentation zur Eröffnung der Entwicklerkonferenz WWDC in San Francisco plauderte Cook entspannt mit Kollegen und Freunden, während in den sozialen Medien wie Twitter lautstark geklagt wurde, dass der Apple-Boss und seine Leute nicht ein einziges neues Gerät angekündigt hatten.

Die Stimmung unter den Entwicklern im Moscone Center wurde durch das Ausbleiben spektakulärer Hardware-Vorstellungen kaum getrübt. Schließlich hatte Apple-Softwarechef Craig Federighi zuvor mit einer Reihe von größeren und kleineren Verbesserungen für das Betriebssystem iOS für iPhone und iPad sowie die Mac-Software OS X punkten können.

Die beiden Systeme wachsen nicht nur optisch immer stärker zusammen, sondern werden in der Bedienung immer weiter verschränkt. Anrufe auf dem iPhone werden zugleich auf dem Mac-Bildschirm angezeigt und können dort entgegen genommen werden. Ein Mausklick auf eine Telefonnummer auf dem Mac-Bildschirm kann einen Anruf auslösen. Eine E-Mail, die unterwegs auf dem iPhone begonnen wurde, kann auf dem Mac fertiggeschrieben werden. Fotos tauchen auf allen Geräten auf. So verschmelzen iPhone, iPad und Mac zu einer Einheit. Dieser Ansatz ist nicht völlig neu, aber vermutlich nirgendwo so elegant umgesetzt wie beim neuen Mac-System OS X «Yosemite» und dem neuen iOS 8, das im Herbst auf die neueren iPhones und iPads kommen soll.

Deutlich attraktiver erscheint nun auch die Internet-Wolke von Apple, die im Wettbewerb mit Angeboten von Google, Microsoft, Amazon und anderen steht. Der Dienst iCloud wurde nun nicht nur deutlich preiswerter, wenn man über die kostenlosen fünf Gigabyte hinaus Speicherplatz mieten will. In iCloud tauchen nun auch die besten Ideen auf, die man beispielsweise vom Speicherdienst Dropbox oder dem Chatdienst WhatsApp her kennt – alles aber einen Tick schöner und sicherer.

Bei zwei Themen – Gesundheit und vernetztes Zuhause – leistet Apple mühsame Grundsatzarbeit. In den vergangenen Jahren sind unzählige Fitness-Gadgets und Medizin-Sensoren – etwa für die Kontrolle des Blutdrucks – auf den Markt gekommen. Doch untereinander sind die Angebote kaum kompatibel. Der Pulssensor von Hersteller A spricht nicht direkt mit der über WLAN angeschlossenen Personenwaage von Hersteller B. Das Apple-System iOS 8 bietet nun eine Sammelstelle für Medizin- und Fitness-Werte, die in der App Health konsolidiert angezeigt werden können. In dieses Szenario würde sich natürlich eine Smartwatch von Apple mit Pulssensor hervorragend einfügen.

Vermutlich viel komplizierter ist derzeit die Marktsituation im Bereich Smart Home. Zu Steuerung von Licht, Temperatur oder Schließsystemen gibt es nicht nur etliche nicht-kompatible Protokolle der verschiedenen Hersteller. Zum Teil funken die «schlauen» Gegenstände im Heim auch auf so unterschiedlichen Wellen, dass sie nicht zueinander finden können. Apples Plattform HomeKit könnte zumindest die Protokoll-Frage lösen.

Über den Apple-Sprachassistenten Siri könnte der Nutzer dann dem System zum Beispiel einfach sagen, dass er ins Bett gehen will, erläuterte Apple-Softwarechef Federighi. HomeKit könnte dann die Systeme im Haus anweisen, die Lichter zu dimmen, die Haustür abzuschließen und das Garagentor herunterzufahren. Und vielleicht steigt Apple ja auch wie Google mit dem Kauf von Nest hier ins Geräte-Business ein, um ein weiteres Geschäftsfeld aufzubauen.

Diese Aussichten verhinderten am Montag auch einen Absturz der Apple-Aktie. Das Papier, das seit Jahresbeginn um zwölf Prozent zugelegt hat, gab bis zum Börsenschluss in New York nur um 0,7 Prozent nach – obwohl auch etliche Investoren ungeduldig auf das nächste bahnbrechende Produkt von Apple warten. Horace Dediu vom Marktforschungsunternehmen Asymco sagte auf der WWDC, mit den gezeigten Technologien habe Apple ein Fundament gelegt, auf dem neue Gebäude errichtet werden können.

Die Entwickler freuten sich in San Francisco aber nicht nur über die Aussichten auf neue Geschäfte. Sie bejubelten vor allem konkrete Schritte von Apple, die ihnen die Arbeit beim Programmieren erleichtern. So dürfen Apps auf den bislang streng gehüteten Fingerabdruck-Sensor «TouchID» zugreifen, der zuvor nur für das Freischalten des Sperrbildschirms und beim Bezahlen in Apples Online-Store iTunes verwendet wurde. Überrascht wurden Entwickler auch von der neuen Programmiersprache Swift, die laut Apple besonders leicht zu erlernen und gleichzeitig sehr leistungsstark ist.

IBM-Preis für Würzburger Software-Forscher

Kooperationen mit deutschen Universitäten pflegen, um relevante technologische Zukunftsthemen gemeinsam voranzutreiben: Das ist eines der Ziele, die der IT-Konzern IBM mit der Vergabe des IBM PhD Fellowship Award verfolgt. In diesem Jahr zählt der Informatiker Nikolas Herbst zu den Preisträgern. Ausgezeichnet wurde er für seine Arbeit zu dem Thema: „Self-Adaptive Load Intensity Forecasting at Run Time“ – ein „anspruchsvolles und für die Zukunft extrem wichtiges Thema“, wie Erich Amrehn, Distinguished Engineer IBM Research and Development, bei der Preisverleihung sagte.

Herbst sei ein „hervorragender junger Wissenschaftler und ein würdiger Empfänger dieses begehrten Preises“, seine Forschung verspreche „neue und spannende Erkenntnisse für die Industrie und die Wissenschaft“, so Amrehn in seiner Laudatio.

Im Rahmen seiner Promotion arbeitet Nikolas Herbst an intelligenten Mechanismen für die Vorhersage von Lastveränderungen zur Laufzeit eines Computersystems. Insbesondere im Kontext von Cloud-basierten Systemen können physikalische Rechenressourcen dynamisch an einen aktuellen Bedarf angepasst werden. In der Praxis werden derartige Anpassungen jedoch erst vorgenommen, wenn für den Benutzer bereits Geschwindigkeitseinbußen feststellbar sind oder die zugeordneten Ressourcen über einen gewissen Zeitraum ineffizient verwendet werden.

Dieses reaktive Verhalten von elastischen Cloud-Systemen kann durch automatische Vorhersagen deutlich verbessert werden. Dazu werden Zeitpunkte für Re-Konfigurationen zusammen mit den geschätzten Ressourcenverbräuchen bereits vor Eintreten des Engpasses ermittelt. In der Zusammenarbeit mit IBM will Herbst zeigen, wie durch Einsatz der erarbeiteten proaktiven Mechanismen in realen Szenarien die Antwortzeit für Systembenutzer trotz variierender Lastprofile konstant und die Auslastung der Rechenressourcen in einem effizienten Bereich gehalten werden können.

 

Parallel Computing Center entwickelt Software für Supercomputer

Ziel dieses IPCC ist es, die Softwareentwicklung hochparalleler Programmcodes für zukünftige Supercomputer voranzutreiben, die aus einer sehr großen Zahl von Prozessoren mit Koprozessoren bestehen werden. Das Supercomputing entwickelte sich in den letzten Jahren immer mehr in Richtung von Rechnern mit einer sehr hohen Zahl von Rechenkernen, die in einzelnen Rechenknoten zusammengefasst sind, einer Verringerung des Speichers pro Rechenkern und insbesondere auf Vektoreinheiten in den Prozessorkernen.

Darüber hinaus werden in zunehmendem Maße Rechenoperationen auf Koprozessoren wie Intels Xeon Phi verlagert, die aufgrund ihrer spezialisierten Funktionalität bestimmte Aufgaben sehr viel schneller und energieeffizienter rechnen können. Software für diese hochparallelen Rechner mit Koprozessoren zu entwickeln, ist eine große Herausforderung. Das von LRZ, TUM und Intel gegründete Parallel Computing Center soll einen Beitrag dazu leisten.

Dafür werden vier Anwendungen, die bereits mit hervorragender Rechenleistung auf dem Supercomputer am LRZ, dem SuperMUC, laufen für die nächste Rechnergeneration optimiert. SuperMUC wird im Laufe der nächsten Monate planmäßig erweitert und dabei u. a. mit Intel Xeon Phi Koprozessoren ausgestattet. Die Kombination von Prozessoren und Koprozessoren zieht großen Nutzen aus der Parallelisierung der Software und berücksichtig die Entwicklung der nächsten Jahre auf dem Weg zu noch schnelleren Systemen.

Die vier zu optimierenden Programme simulieren Erdbeben und seismische Wellenausbreitung (SeisSol), die Entwicklung des Kosmos (GADGET), wenden Methoden der Molekulardynamik auf industrielle Anwendungen an (ls1 mardyn) oder behandeln hochdimensionale Probleme (SG++), wie sie im Data Mining oder in der Finanzmathematik häufig auftreten. Alle diese Programme laufen bereits jetzt auf Supercomputern, insbesondere dem SuperMUC, mit hervorragender Performance im Bereich von Petaflops. Jetzt sollen sie für die nachfolgenden Rechnersysteme im Bereich von hundert Petaflops und mehr weiterentwickelt werden.

Das entscheidende Ziel des Intel Parallel Computing Center ist es, über die Weiterentwicklung dieser Simulationsprogramme hinaus vor allem den Prozess der Entwicklung wissenschaftlicher Software für zukünftige Rechnersysteme sowohl im Hinblick auf die Rechenleistung als auch auf deren Energieeffizienz besser zu verstehen und ein Modell dafür zu entwickeln. Die erzielten Ergebnisse und Erkenntnisse werden in die Weiterentwicklung der vier Simulationsprogramme einfließen und der wissenschaftlichen Öffentlichkeit zur Verfügung gestellt.

Patent für Multicore-Algorithmus

Bei Multicore-Prozessoren erfordert die parallele Ausführung von Software Maßnahmen, die sicherstellen, dass auf gemeinsam genutzte Daten nicht gleichzeitig zugegriffen wird und dass die Ausführungsgeschwindigkeit bei der Nutzung mehrerer Prozessorbusse durch mehrere Prozessorkerne nicht beeinträchtigt wird.

Bei der Portierung eines komplexen, aus zahlreichen Komponenten bestehenden Softwaresystems ist eine automatisierte Parallelisierung daher nicht mehr auf Applikationsebene möglich: Hier müssen Ingenieure über die notwendigen grundlegenden Änderungen in der Softwarearchitektur entscheiden. Dies birgt allerdings die Gefahr, dass in einem frühen Stadium weitreichende Fehlentscheidungen getroffen werden, deren Behebung nur mit großem Aufwand und hohen Kosten möglich ist.

Daher hat das Fraunhofer-Institut für Experimentelles Software Engineering IESE einen Ansatz entwickelt, der die notwendigen Architekturentscheidungen systematisch ableitet. Um die richtigen Entscheidungen im Portierungsprozess zu treffen, werden im Prognostics Center des Fraunhofer IESE virtuelle Systemprototypen entwickelt, die in Tests verschiedene Optionen simulieren.

In vier Phasen wird eine so genannte Prognostics-Evaluation durchgeführt: Zuerst wird ein Analysemodell des Systems erstellt. Damit werden im Folgenden die Auswirkungen von Entwurfsentscheidungen mithilfe von Simulations- und Analysewerkzeugen untersucht. In der Evaluationsphase werden die Resultate ausgewertet und es wird eine Diagnose erstellt, um einen optimierten Parallelisierungsprozess zu erhalten.

Für den Algorithmus, der festlegt, wann und auf welchem Rechenkern eine Funktion ausgeführt wird, erhält das Fraunhofer IESE nun ein europäisches Patent und kann somit zukünftig Unternehmen dabei helfen, ihre eingebetteten Systeme sicher und ohne kostspielige Fehlentscheidungen auf Multicore-Prozessoren zu portieren. Da nur mit einem funktionierenden System Geschäftsziele erfolgreich umgesetzt werden können, bietet die Optimierung des Systemdesigns eine wichtige strategische Unterstützung für Unternehmen. Das Fraunhofer IESE macht eingebettete Systeme damit fit für die Multicore-Plattformen der Zukunft.