Archiv der Kategorie: Schwerpunkte

Neue Intelligenz gefunden – KI wird an Boden verlieren

Die künstliche Intelligenz hat eine Konkurrenz, die ihr in vielen Belangen überlegen ist. Aber man muss in sie investieren.
Eugen Albisser – Die Suche nach dem besten aller Algorithmen und der besten aller besten Datenanalysen hat schon lange begonnen. Und bereits ist die Kritik da, dass der Mensch sich mit aller Wahrscheinlichkeit mit eben diesen hochgelobten Anstrengungen seine eigene Grube gräbt. Denn einer wie Elon Musk hat darauf hinge­wiesen, dass künstliche Intelligenz (KI) mehr als nur eine gutgemeinte Aneinanderreihung komplexer Algorithmen sei, sondern uns diese Art der Berechnung in eine unberechenbare Zukunft führen wird. Künstliche Intelligenz werde also nicht nur helfen, den Fortschritt innerhalb der Digitalisierung weiterzuführen, sondern auch, dem Fortschritt ein Ende zu bereiten.

Global einsetzen und fördern

Der Streit, den Musk, immerhin Tesla-Chef und umgeben mit den besten KI-Experten der Welt, da entfachte und in den sich auch Zuckerberg einmischte, allerdings mit einer konträren Meinung, dürfte noch eine Weile dauern. Während die Expertise darüber andauern wird, macht bereits eine andere Art der Intelligenz die Runde, und man ist gewillt zu sagen: Sie könnte der momentanen Diskussion um die Gefährlichkeit ein Ende bereiten, wenn sie global gefördert und klug eingesetzt würde.

KI unterliegt teilweise deutlich

Forscher haben herausgefunden, dass die so genannte MI der KI bei weitem überlegen ist, wenn man sie richtig einzusetzen weiss. Grundlagen sind weder determi­nistische Algorithmen noch statische Datenanalyse, sondern vielmehr eine Art undurchschaubare und geheimnisvolle Black Box, die je nach Firma und Einsatz andere und gezielt individuelle Resultate erbringt. Die neue (wieder-)entdeckte Intelligenz kann in Windeseile Entscheidungen treffen, die gepaart sind mit überraschend neuen Sichtweisen. Forscher sprechen von eigenständiger Kreativität, die der KI haushoch überlegen ist.

MI kann’s auch mit wenigen Daten

Die MI erbringt Resultate, ohne auf Milli­arden von Daten zugreifen zu müssen, es gibt solche, die gar nach dem Prinzip «weniger ist mehr» derart erfolgreiche Analysen vollbrachten, dass selbst Forscher sich gezwungen sehen, von einem eigentlichen Wunder reden.

Man hat ausserdem herausgefunden, dass diese MI rund 7,5 Milliarden Mal – in allerdings unterschiedlicher Weise – auf der Erde vorhanden ist und dass man sie gezielt durch Bildung, Förderung oder teilweise ganz einfach mit Lob auf diverse hohe bis sehr hohe Levels heben kann. Forscher plädieren seit der Neuentdeckung dafür, in diese MI erheblich mehr zu investieren, als dies momentan der Fall sei. Denn sie rechnen fest mit einem neuen Jahrhundert für die MI, die auch bekannt ist unter dem Namen «Menschliche Intelligenz».

KI – Technologien zusammenführen

Mitsubishi Electric vereint künstliche Intelligenz unter einer Marke. Deren Ziel: Intelligentere Geräte und höhere Sicherheit, Benutzerfreundlichkeit sowie mehr Komfort im Alltag.
Mit ihrer neuen Marke Maisart umfasst Mitsubishi Electric künftig die ganze Bandbreite seiner KI-Technologien (künstliche Intelligenz). Maisart ist die Abkürzung für «Mitsubishi Electric’s AI creates the State-of-the-Art in technology» und steht für den Beitrag, den die KI von Mitsubishi Electric in der Entwicklung hochmoderner Technologie leistet. Nach dem Unternehmensgrundsatz «Original AI technology makes everything smart» (KI-Technologie macht alles «smart») nutzt Mitsubishi Electric eigene KI-Technologie und Edge Computing, um intelligentere Produkte und höhere Sicherheit, Benutzerfreundlichkeit und mehr Komfort im Alltag zu schaffen.

Starkes Wachstum prognostiziert

Es wird erwartet, dass die neue Marke von Mitsubishi Electric im Bereich der künstlichen Intelligenz eine höhere Aufmerksamkeit für die Initiativen des Unternehmens schafft, das Geschäft ankurbelt und einen vielseitigeren Einsatz in verschiedenen Geschäfts­feldern, darunter auch in der Informationsverarbeitung, erzielt. Der weltweite Markt für KI hatte im Jahr 2015 einen geschätzten Wert von 3,6 Billionen Yen (geschätzt 35 Milliarden US-Dollar und ca. 29,2 Milliarden Euro). Laut Ernst & Young Institute Co., Ltd. ist mit einem jährlichen Wachstum von durchschnittlich 30 Prozent zu rechnen. Der Schwerpunkt der origi­nalen KI-Technologien von Mitsubishi Electric basiert auf kompakten Deep-Learning-­Algorithmen und mass­geblichem Know-how im Hinblick auf effizientes, bestärkendes Lernen und leistungsstarke Big-Data-Zeitreihenanalysen.

mitsubishielectric.com

KI – Software-Defined-Storage-­Lösungen nutzen Machine Learning

Mit Veritas Cloud Storage können Kunden Machine-Learning-­Methoden auf ihre grossen Mengen unstrukturierter Daten anwenden sowie diese direkt analysieren und klassifizieren.
Die Datenmenge wächst exponentiell und treibt die Speicherkosten in die Höhe, weshalb Kunden in moderne softwaredefinierte Speicherkonzepte investieren wollen. Die Veritas-2017-Data-Genomics-Studie etwa kommt zum Ergebnis, dass die Daten­bestände in den Unternehmen im Vergleich zum Vorjahr um 48,7 Prozent gestiegen sind. Analysiert wurden dafür 31 Milliarden anonymisierte Dateien weltweit. Das Datenwachstum wird vor allem von neuen Apps und Technologien wie künstlicher Intelligenz und dem Internet der Dinge angeheizt. Hält dieser Trend an und finden Unternehmen keine effizienteren Speichermethoden, werden sie für Speicher bald Milliarden von Dollars ausgeben müssen.

«Für dieses beispiellose Datenwachstum muss Speicherplatz geschaffen werden. Firmen sollten hierbei eine Strategie für Software-Defined Storage etablieren, die auf Kosten, Leistung und Agilität hin optimiert wurde», sagt David Noy, Vice President of Product Management bei Veritas. «Kunden sollten mit der Lösung zudem intelligente Einblicke in die abgelegten Daten gewinnen können. Als einer der Pioniere der Storage-Industrie blickt Veritas auf mehr als 25 Jahre Erfahrung zurück. Wir gehen die Herausforderungen der Digitalisierung direkt an.»

On-Premise oder in der Cloud

Veritas Cloud Storage baut auf der Veritas- 360-Datenmanagement-Plattform auf und erlaubt Unternehmen, die Lösung sowohl On-Premise als auch in der Cloud einzu­setzen. Zu den Vorteilen gehören:

– Hohe Skalierbarkeit: Unternehmen können ihre Speicher auf mehrere Petabytes skalieren und so Milliarden von Dateien ablegen sowie Quintillionen von Objekten verwalten.

– Intelligentes Datenmanagement: Die Speicher werden «intelligent», indem sich die dort abgelegten Daten von Technologien für Analytics, Machine Learning und Klassifikation untersuchen lassen. Grosse Mengen unstrukturierter Daten lassen sich so effizienter verwalten.

– Bessere Geschäftsergebnisse und höhere Kundenzufriedenheit: Unternehmen können mithilfe ihrer intelligent aufbereiteten Daten bessere Entscheidungen für ihr Geschäft treffen, Kunden genauer beraten und Compliance gewährleisten, beispielsweise zur EU-Datenschutzgrundverordnung (DSGVO, engl: GDPR). Die Lösung scannt gespeicherte Dateien schnell und stellt sicher, dass personenbezogene Daten richtig gekennzeichnet, verwaltet und gesichert sind.

– Globaler Datenzugriff: Die Lösung lässt sich weltweit mit detaillierten Richtlinien und entsprechenden Funktionen aus­rollen, damit globale Firmen von überall auf dieselben Daten zugreifen können, unabhängig vom Standort.

Einige Kunden setzen auf spezialisierte standardisierte Cloud-Storage-Plattformen, die sie als kostengünstigen Speicher in ihre Private-Cloud- oder IaaS-Umgebung integrieren. Hierfür eignet sich die preisgünstige Veritas Access Appliance, mit der Unternehmen ihre veralteten Speicher­geräte wie Bandspeicher problemlos ersetzen können. Die Veritas Access Appliance ist bereits mit der Veritas-­Access-Software konfiguriert und liefert Funktionen wie hochskalierbarer Software-Defined Storage, Multi-Cloud-Fähig­keiten und kostengünstige Datenhaltung.

Veritas Cloud Storage und Veritas Access Appliance werden in den kommenden Quar­talen verfügbar sein.

veritas.com Bild: Pixabay

KI – Zu Risiken und Nebenwirkungen lesen Sie!

Der Bestseller-Autor Karl Olsberg promo­vierte über künstliche Intelligenz, und seine Thriller greifen das Thema wieder auf. Ein Interview über Science-Fiction-Szenarien und Optimierungsmaschinen.
Heike Henzmann— Künstliche Intelligenz als Ermög­lichungstechnologie für Technik-Thriller kann schiefgehen, wenn der Autor keine fundierten Kenntnisse der Thematik hat. Karl-Ludwig Max Hans Freiherr von Wendt hingegen kennt sich auf diesem Gebiet bestens aus. Nach dem Studium promovierte er über Anwendungen der künstlichen Intelligenz, arbeitete als Unternehmensberater und gründete mehrere Start-ups. Mit seinem Thriller «Das System» schaffte er es 2007 als Karl Olsberg erstmals in die «Spiegel»-Bestseller-Liste.

Herr von Wendt, technikbegeisterte Leser kennen Sie unter dem Namen Karl Olsberg und als Verfasser von spannenden Thrillern rund um das Thema künstliche Intelligenz sowie als Jugendbuchautor. Im Oktober erschien Ihr neustes Buch, «Boy in a White Room». Worauf dürfen sich Ihre Fans freuen?
«Boy in a White Room» kombiniert beides, tech­nischen Thriller und Jugendbuch. Es ist ein «All Age»-Buch, wie man heute so schön sagt.

In dem Buch beschäftige ich mich mit der Thematik, inwieweit Technik unsere Wahrnehmung der Welt verändert und was das mit uns macht. Ich selber versinke mitunter beim Computer-Spiel tief in der Spielwelt. Es ist durchaus realistisch, dass sich Menschen in der virtuellen Welt verlieren, süchtig werden und als Folge ihre realen Sozialkontakte verlieren. Heute sind die Spiele noch relativ schlecht und lahm im Vergleich zu dem, was in zwanzig Jahren möglich sein wird. Wir werden mit Augmented-Rea­lity-Brillen dasitzen und gar nicht mehr unterscheiden können, was echt ist und was nur eine Projektion. Mit derartigen Fragestellungen haben sich bereits Platon und Descartes beschäftigt: Ich denke, also bin ich. Das ist das Einzige, was ich sicher weiss. Alles andere kann Illusion sein.

Wir sind ja heute bereits oft in der Situation, nicht mehr zweifelsfrei entscheiden zu können, was echt ist und was nicht. Ein Beispiel hierfür sind die Fake News. Wenn man etwas liest, muss man genau überlegen, ob das jetzt wahr ist oder nicht. Trump ist an die Regierung gekommen, weil die Menschen nicht mehr zwischen Wahrheit und Fiktion unterschei­den können. Wenn ich «Breitbart», «AFD News» oder auch «compact» lese, bekomme ich ein ganz anderes Bild von der Realität, als wenn ich durch die Strassen laufe. Das ist das Thema von «Boy in a White Room».

Wie entziehen Sie dem Protagonisten die Realität?
Ich sperre den Jungen in einen Raum, in dem es nur Bildschirme gibt und er keine Möglichkeit mehr hat herauszufinden, was in der Realität draussen los ist. Er muss sich durch logische Schlussfol­gerungen und durch Gespräche mit Menschen die Wahrheit erschliessen. Im Zwiebelschalenprinzip streift er eine Schale nach der anderen ab, um der Wahrheit auf den Grund zu gehen. Aber es ist immer wieder anders, als er denkt.

Wie sehen Sie den Bezug Ihrer Bücher zu den aktuellen Entwicklungen der Automatisierung?
Durch das Thema Industrie 4.0 bewegen wir uns mit Hochgeschwindigkeit in Richtung intelligenter vernetzter Systeme, bei denen niemand mehr genau weiss, was diese tun und wie sie es tun. Deshalb ist es eine gute Idee zu hinterfragen, was passiert, wenn diese Systeme noch vernetzter, noch intelligenter werden, und wie man damit umgehen will. Als Thriller-Autor ist es mein Job, eine Grusel­geschichte aus diesem Szenarium zu machen. Ich bin kein grosser Pessimist, was diese Entwicklung angeht. Dennoch bin ich der Meinung, dass es hinsichtlich dieser Technologie einige grosse ungelöste Probleme gibt. Das kann gut gehen, aber auch zu einem bedrohlichen Fass werden, das uns irgendwann um die Ohren fliegt. Ich lese derzeit ein sehr spannendes Buch von Max Tegmark, einem MIT-Professor, der sich mit dem Thema künstliche Intelligenz und deren Folgen für die Menschheit beschäftigt. Seine Kernaussage ist, dass wir eigentlich nicht wissen, was auf uns zukommt und wie wir damit umgehen müssen, aber dass wir uns jetzt darüber Gedanken machen sollten.

Ist es nicht schon zu spät, wenn wir jetzt erst darüber nachdenken, wie wir mit den Risiken der künstlichen Intelligenz umgehen sollen?
Natürlich haben schon vor zwanzig Jahren Menschen darüber nachgedacht. Aber jetzt ist der Zeitpunkt, wo dieses Nachdenken in die Breite gehen muss. Jeder, der sich mit Automatisierung und selbst lernenden Systemen auseinandersetzt, muss darüber nachdenken, wie man sicherstellen kann, dass diese Systeme wirklich das machen, was sie machen sollen.

Es gibt ein klassisches Science-Fiction-Szenarium: Eine Maschine entwickelt ihren eigenen Willen und erobert die Welt. So einen Roman habe ich mit «Das System» geschrieben, wohlwissend, dass dies eine naive Sichtweise ist, aber aus dramatur­gischer Sicht eine spannende. Die Realität sieht natürlich anders aus. Max Tegmark stellt die These auf, dass nicht böse Maschinen das Problem sein werden, sondern kompetente Maschinen. Durch ungewollte Effekte kann dies bis zur völligen Zerstörung der Menschheit führen. Ungewollte Effekte und ihre Auswirkungen kennen wir auch von anderen Ent­wicklungen. Die Industrialisierung beispielsweise war ein gigantischer Automatisierungs­prozess, der grundsätzlich positiv war, aber auch zu unerwünschten Nebenwirkungen führte wie Umweltverschmutzung, Klima-Erwärmung und so weiter. Heute erst realisieren wir, dass die Folgen nicht nur in den Köpfen von Wissenschaftern existieren, sondern sehr real sind.

Beim Thema künstliche Intelligenz geht es um Systeme, die sehr effektiv sind in dem, was sie tun, die selbst lernend sind und die sich eigenständig weiterentwickeln. Systeme, die enge Ziele haben, beispielsweise um etwas herzustellen oder zu opti­mieren, und deshalb den Gesamtzusammenhang nicht berücksichtigen können, weil sie diesen gar nicht kennen. Systeme, die konsequent ihr Ziel verfolgen. Wenn dieses Ziel falsch definiert ist und die KI nicht robust ist, kann das ziemlich schnell gefährlich werden.

Ihren Roman «Mirror» bevölkern Menschen mit unterschiedlichsten Problemen. Hoch sensible Menschen, Menschen mit Sehbehinderung, kog­ni­tiven Einschränkungen und Drogenproblemen, Menschen, die sich nicht um ihre Gesundheit kümmern. Diese Menschen werden von einer künstlichen Intelligenz, dem Mirror, im Sinne der Kybernetik wie ein Regelkreis beeinflusst und optimiert. Ist das realistisch, und welche Risiken birgt das aus der Sicht des Thriller-Autors?
Der Mirror und das Mirror-Net, das die Mirrors ver­bindet, ist für mich eine Optimierungsmaschine. Der Mirror ist nicht böse. Er verfolgt nur sein Ziel: Das Leben seiner Träger optimieren. Das System stellt irgendwann fest, dass es seine Menschen besser optimieren kann, je mehr Einfluss es auf sie hat. Das heisst hier konkret, je weniger dieser Mensch mit «Nicht-Mirror-Trägern» zu tun hat. Das Mirror-Net versucht nun, seine Träger von schlechtem Einfluss fernzuhalten, so wie gute Eltern das bei ihren Kindern tun. Diese simple Regelschleife verselbstständigt sich und führt am Ende in eine Beinahe-Katastrophe. Das ist ein Szenario, das ich für realistisch halte. Wenn wir Entscheidungen an Maschinen übertragen, die die Konsequenzen noch weniger abschätzen können als wir Menschen, dann entstehen Probleme.

Wann ist eine Maschine eine künstliche Intelligenz?
Der Begriff künstliche Intelligenz ist irreführend. Man stellt sich unter diesem Begriff eine Maschine vor, die wie ein Mensch denkt. Das gipfelt in dem sogenannten Turing-Test, benannt nach dem Com­puter-Pionier Alan Turing, der ihn als Erster beschrieb. Der Test definiert, dass eine Maschine dann intelligent ist, wenn ein Mensch in einem Dialog mit dieser Maschine nicht mehr feststellen kann, ob diese eine Maschine oder ein Mensch ist. Meiner Ansicht nach ist das eine falsche Sichtweise. Der Turing-Test misst nicht, wie intelligent die Maschine ist, sondern höchstens, wie gut sie es schafft, so zu tun, als sei sie ein Mensch. Genau genommen testet der Turing-Test die Fähigkeit der Maschine, das Denken vorzutäuschen. Das kann auch ein nicht intelligenter Chatbot sehr gut.

Die wesentliche Frage ist: Schaffen wir es, eine kompetente Maschine zu bauen, die universal ist, die ganz unterschiedliche Dinge lernen und Kompetenzen erwerben kann? Die Antwort lautet: natürlich. Das machen wir bereits. Dass sich die Bandbreite der Maschinenkompetenzen ausweitet ist offensichtlich. Programme können immer mehr, Maschinen können immer mehr, vernetzte Fabriken können immer mehr. Wir brauchen nicht darauf warten, dass irgendwann eine Maschine gebaut wird, die den Menschen an allgemeiner Kompetenz übertrifft. Das, was wir heute an künstlicher Intelligenz schaffen, hat relativ wenig damit zu tun, wie unser Gehirn funktioniert. Wozu auch? Ein Auto hat ja auch keine längeren Beine, sondern ist auf eine andere Weise schnell. Ich glaube, künstliche Intelligenzen der Zukunft werden Probleme auf eine andere Art lösen als wir. Aber kompetenter als wir. Es wird auch irgendwann bücherschreibende Algorithmen geben. Ich hoffe, das dauert noch etwas länger, sonst wäre ich arbeitslos.

Leben Sie ausschliesslich vom Schreiben?
Ich könnte es inzwischen, jedoch mehr schlecht als recht. Das hängt immer davon ab, wie das nächste Buch ankommt. Ich betätige mich noch auf anderen Gebieten. Mit einem Team habe ich ein Start-up gegründet, mein Start-up Nummer vier, und eine App entwickelt: Papego. Mit Papego ist es möglich, Papierbücher auf dem Smartphone weiterzulesen. Sie kaufen sich ein gedrucktes Buch, das Papego-fähig ist, das erkennt man an einem ent­sprechenden Aufkleber. Sie lesen bis zu einer Textstelle und wollen nun ab dieser Stelle auf dem Arbeitsweg weiterlesen. Dann starten Sie die Papego-­App und fotografieren den letzten gelesenen Abschnitt. Dieser wird an einen Server geschickt, der nun herausfindet, um welches Buch es sich handelt und auf welcher Seite der Textabschnitt zu finden ist.

Wenn ich ein Foto von der ersten Seite eines Buches mache, kann ich es lesen, ohne es zu kaufen?
Sie können nur ein Viertel des Buches lesen, müssen also mindestens dreimal zum Buch zurückkehren, um es komplett digital zu lesen. Das ist zwar kein hundert­prozentiger Schutz, aber es macht das Klauen hinreichend unbequem. Es gibt einfachere Möglichkeiten, Missbrauch zu treiben.

Generell gehe ich davon aus, dass gedruckte Bücher als Lifestyle-Produkte erhalten bleiben. Gedruckte Bücher fühlen sich gut an, sie machen was her, sie lassen sich in Bücherregale stellen, sie sind ein Stück Lebensqualität. Wenn wir es schaffen, dass für Menschen, die ein gedrucktes Buch kaufen, das digitale Lesen mit drin ist, dann erhalten wir eine Struktur, die für uns Autoren sehr wichtig ist.

Beraten Sie Unternehmen zum Thema künstliche Intelligenz?
Ich bin weiterhin als Unternehmensberater tätig, jedoch berate ich nicht im Bereich künstliche Intelligenz. Ich habe zwar in KI promoviert, das ist aber lange her, und die Technik hat sich sehr stark weiterentwickelt. Meine Beratung geht vielmehr dahin, wie ich mich als Unternehmen auf die Digitalisierung einstelle. Das hat interessanterweise gar nicht so viel mit Technik zu tun, sondern viel mehr mit Dingen wie Change Management und Führung. Technik löst keine Probleme. Um in der digitalen Welt erfolgreich zu sein, muss man experimentieren, neue Wege gehen, Dinge ausprobieren. Man muss die Technik nicht entwickeln, sondern nutzen.

briends.net
karlolsberg.de

KI – Es geht weniger um Intelligenz als um das Lösen komplexer Probleme mit dem Computer

Welche Bedürfnisse haben Industrie-Firmen, und wie können diese sinnvoll mit KI gedeckt werden? Ein Gespräch mit Dr. Thilo Stadelmann, Dozent für Information Engineering und Leiter des Datalab an der ZHAW.
Eugen Albisser – Herr Dr. Thilo Stadelmann, woran forschen Sie gerade?
Ich forsche vor allem an Ansätzen für das Machine Learning, das heisst, wie kann eine Maschine selber lernen, eine bestimmte Aufgabe zu erfüllen? Konkret forschen wir an Methoden der neuronalen Netze. Derzeit arbeiten wir beispielsweise mit einem Unternehmen zusammen, das Maschinen für die Herstellung medizinischer Implantate baut. Für die Qualitäts-Kontrolle der Produkte waren bisher Menschen zuständig. Der Mensch wird aber irgendwann müde und unkonzen­triert. Deshalb entwickeln wir nun eine Maschine, welche die Produkte qualitativ überprüfen kann. Die Maschine schaut sich die Produkte automatisch mithilfe von Kameras an und entscheidet selbstständig, ob die Ware in Ordnung ist — oder ob etwas von der Norm abweicht und deshalb vom Mensch manuell überprüft werden muss.

Sie haben mitgeholfen, das ZHAW Datalab aufzubauen, und leiten es heute: Wozu dient dieses Labor?
Das Datalab ist ein Netzwerk von Fachleuten innerhalb der ZHAW, also quasi eine Plattform für die Instituts-übergreifende Zusammenarbeit. Diese Fachleute betrachten das Thema Daten aus ganz unterschiedlichen Perspektiven. Um zwei Pole zu nennen: Zum einen gibt es die Informatiker, zum anderen die Datenrechtsspezialisten. Im Datalab bringen wir die unterschiedlichen fachlichen Exper­tisen zusammen, um gemeinsam und interdisziplinär an Forschungsprojekten im Bereich Data Science zu arbeiten.

Was fasziniert Sie an der künstlichen Intelligenz?
Allein der Begriff ist schon faszinierend! Intelligenz ist etwas Grosses, und ihre künstliche Erschaffung weckt Emotionen. Wenn man sich dann wie ich im Detail mit der KI beschäftigt, dann merkt man: Es geht eigentlich gar nicht so sehr um Intelligenz, sondern vielmehr darum, komplexe Probleme mit dem Computer zu lösen. Die komplexen Probleme sind aber auch die Spannendsten: Etwa Prozesse automatisieren, für die es bisher menschliche Wahrnehmungsfähigkeiten brauchte. Dem Computer so etwas beizubringen, genau das fasziniert mich heute an KI.

Wie würden Sie KI definieren?
«Complex Computer Applications»: Nüchtern betrachtet geht es darum, rationale Agenden zu schaffen, also einem Computer bzw. einer Software zielführendes Verhalten beizubringen, um ein komplexes Problem zu lösen. Künstliche Intelligenz klingt aber als Begriff sexy und ist deshalb derzeit so verbreitet.

Kann KI der Industrie — zum Beispiel in der Automatisierung — noch eine vollkommen neue Dimension dazugeben?
Fundamental Neues ist naturgemäss schwer vorauszusagen. KI hat schon immer dabei geholfen, Aufgaben zu automati­sieren, die typischerweise ein Mensch gut kann. Das sind meistens wahrnehmungsbasierte Aufgaben wie Hören und Sehen. Schon vor 60 Jahren hat man in den USA versucht, Russisch automatisch in Englisch zu übersetzen — mit mässigem Erfolg. Auch im Jahr 2000 sind solche Sprachprojekte noch gescheitert. Und was sehen wir heute? Auf einmal funktioniert es! Im Bereich Machine Learning sehen wir seit ungefähr drei Jahren, dass sehr viele Wahrnehmungsaufgaben ungefähr auf menschliches Niveau zu bringen sind. Das eröffnet neue Möglichkeiten. Vor ein paar Jahren haben wir noch überlegt: Soll ich etwas von einem Menschen oder einem Roboter montieren lassen? Ich musste dem Roboter jeden einzelnen Schritt einprogrammieren. Mit den heutigen Methoden aus dem Machine Learning ist die Chance gross, dass sich so ein Roboter die Aufgabe selber beibringen kann — beispielsweise durch Ausprobieren.

Was ist heute bereits möglich? Welche Anwendungen sind bereits vorhanden, auf welche die Industrie zugreifen kann?
Auf Wahrnehmung basierende Anwendungen sind schon weit ausgreift. Es ist aber auch heute noch nicht so, dass ich als Industrie-Unternehmen eine ganze Anwendung einfach von der Stange kaufen kann. Aber es gibt immer mehr Firmen, die sagen: Ja, wir können euch das bauen. Und in der Regel kann man in Monaten rechnen: Solche Entwicklungen dauern heute weniger als zwei Jahre.

Haben Sie auch Anfragen aus der Industrie, die Sie ablehnen müssen, weil die Forschung gar noch nicht so weit ist?
Es gibt Anfragen, die ich aus Zeit­gründen leider ablehnen muss. Bei den meisten Anfragen kann ich ehrlich sagen: Das würden wir hinkriegen. Aber wir können nicht alles annehmen. Beispiel selbst fahrende Autos: Es ist heute machbar, aus einem normalen Auto ein selbst Fahrendes zu machen, aber es würde unseren Rahmen sprengen. Riesige Projekte dieser Art können wir als einzelne Hochschule unmöglich alleine stemmen. Es gibt Projekte, die sind einfach zu gross.

Momentan scheint man sich uneinig zu sein, in welche Richtung die KI gehen kann und welche Gefahr dies für die Menschheit bedeuten könnte. Wie ordnen Sie die Diskussion ein?
Ich habe gerade mit Studierenden ausführlich darüber diskutiert. Es sind im Grunde zwei Diskussionen. Zum einen: Welche Bedürfnisse haben Unternehmen in der Industrie, und wie können diese sinnvoll mit KI gedeckt werden? Kurz: Wo macht KI Sinn? Zum anderen: Könnte aus solchen Maschinen etwas werden, was uns am Ende entgleitet, weil wir es ja mit selbst lernenden Systemen zu tun haben? Das ist viel Science-Fiction. Gefährlich — wenn man das so ausdrücken will — ist meines Erachtens der Skalen-­Effekt: Wenn wir Automatisierung mittels Software vorantreiben, dann steht die Lösung in der Regel nicht nur für eine Anwendung, sondern könnte flächendeckend eingesetzt werden. Wenn eine Firma ihre Produktivität um 50 Prozent steigert, ist das schön für das Unternehmen. Wenn aber der gesamte Planet seine Produk­tivität von heute auf morgen signifikant steigert, stellt uns das auch vor Probleme. Die Gefahren von KI haben also aus meiner Sicht einen ähnlichen Stellenwert wie bei der Digitalisierung generell. Wir haben es immer sofort mit einer globalen Skala zu tun, und die haben wir nicht immer unter Kontrolle.

Welche persönliche Arbeit würden Sie gerne an einen Roboter mit KI delegieren?
Administrative Dinge wie Reportings, Statistiken, Anträge und so weiter. Das würde ich sehr gerne abgeben. Dazu würde vermutlich schon ein Softbot aus­reichen, dafür braucht es keinen Roboter mit Arm.

Können Sie etwas zu Reinforcement Learning sagen?
Innerhalb der KI nimmt Machine Learning eine sehr wichtigen Rolle ein. Machine Learing wiederum zerfällt in drei grosse Bereiche. Supervised Learning: Ich füttere die Maschine mit Verfahrens­-Beispielen (Input und Output), und sie lernt dann die Funktionen. Unsupervised Learning: Ich gebe der Maschine nur die Daten, und die Maschine lernt, was die Daten ausmacht. Das ist ähnlich, wie der Mensch lernt. Wir schauen uns um und lernen so etwas über die Welt. Reinfor­cement Learning bedeutet: Lernen zu steuern. Das ist quasi die höchste Form von Lernen. Die Maschine lernt also nicht nur einen Input auf einen Output zu mappen. Sie muss lernen, Sequenzen von Aktionen auszuführen, die irgendwann, vielleicht aber auch erst weit in der Zukunft, zum Erfolg führen. Die Maschine lernt also, etwas voraus­schauend zu steuern.

Wie stark ist eigentlich die schwei­zerische KI-Forschung?
In der Schweiz hatte man in den 2000er-Jahren Angst davor, sich den Begriff KI auf die Fahne zu schreiben. Betrachtet man die weltweite KI-­Forschung, findet man unter diesem Stichwort wenig aus der Schweiz. Aber andererseits passiert viel. Teilweise aber unter anderem Label anstatt unter KI. Beispielsweise indus­trielle Bildverarbeitung: Da steckt ganz viel KI drin. Bilder erkennen, das ist Machine Learning. Es gibt auch KI-Lehrstühle, die nicht in der Informatik, sondern im Maschinenbau oder in der Elektrotechnik angesiedelt sind — aber nicht unter dem Label KI laufen. Man muss also differenzieren: Es läuft sehr viel in der Schweiz, aber es ist nicht immer unter dem Label KI sichtbar. Und wir Forschenden sind ja meist auch etwas konservativer und springen nicht gleich auf jeden Hype auf. Gleichzeitig haben wir aber auch Leuchttürme wie zum Beispiel Jürgen Schmidhuber im Tessin. Er ist einer der Pioniere weltweit im Deep Learning.

Und verglichen mit dem Ausland: Behalten wir da den Anschluss?
Ja. Wir müssen uns definitiv nicht vor dem Ausland verstecken.

Wo liegen die Stärken in Ihrem Institut, Ihren Forschungsgebieten?
Wir fokussieren im Bereich der KI aktuell sehr stark auf die Methodik der Deep Neural Networks. Ich halte aber selber nicht viel davon, sich nur auf eine Methodik zu fokussieren. Uns geht es eigentlich darum zu lernen, wie Maschinen lernen können — also wie automatisches Lernen funktioniert am Beispiel von unter­schiedlichen Usecases. Unsere Stärke ist es, konkrete Probleme von und mit Unternehmen zu lösen. So schaffen wir eine welt­weit einzigartige Lösung, die gleichzeitig neue Forschung induziert. Und bei der ganzheitlichen Lösung solcher Probleme hilft uns wiederum das Datalab als interdisziplinäre Plattform.

Welche Studienrichtung — an der ZHAW oder auch an anderen Hochschulen —schlagen Sie demjenigen vor, der sich ausschliesslich mit KI befassen möchte?
Da KI als Disziplin ein Sub-Gebiet der Informatik ist, schadet ein Informatikstudium nicht. Die richtig spannenden Geschichten passieren aber noch nicht auf Bachelor-Stufe. Wer sich intensiver mit KI beschäftigen möchte, muss danach weiterstudieren. Ich würde dafür ein Master-Studium mit Vertiefung KI empfehlen – gerne an der ZHAW School of Engineering.

Wird es in den nächsten Jahren neue Ausbildungsrichtungen geben, die sich verstärkt mit KI befassen? Wenn ja, welche sind das?
Ja, das wird es. Diese werden aber unter dem Begriff Data Science laufen. Wir sind derzeit dabei, das in verschiedenen Studien­angeboten einzubringen. Wir waren ausserdem mit die Ersten in Europa, die auch konkrete Weiterbildungsan­gebote in Data Science einführten. Dabei sind Grundlagen des maschinellen Lernens ein ganz wesent­licher Bestandteil.

Wenn wir in zehn Jahren noch über KI schreiben, was denken Sie, werden dann die Themen sein?
Wir werden uns weiterhin darüber Gedanken machen, welche Probleme der Zukunft jetzt schon gelöst werden können. Es werden wieder andere sein. Die Diskussionen, ob uns die selbst lernenden Maschinen entgleiten, werden immer noch präsent sein, aber immer noch ein Zukunftsthema. Wir werden aber vermutlich weiter sein bei der Frage: Was macht KI mit uns als Gesellschaft, und wie wollen wir damit umgehen? Es werden neue Ideen da sein.

Unter Ihren Projekten ist auch DeepScore, ein digitales Notenpult mit musikalischem Ver­ständnis durch Active-Sheet-Technologie. Was genau ist das, und kann die Industrie irgendwann von den Resultaten profitieren?
Konkret geht es darum, Scans von Noten umzuwandeln in für Maschinen lesbare Noten. Für gedruckten Text in lateinischen Buchstaben gibt es das bereits. Die Fertigungs-Industrie hat meistens wenig zu tun mit Musik, aber sie kann trotzdem vom Projekt profitieren. Das Problem, das wir hier angehen, ist eigentlich Buchstabenerkennung mit einer zusätzlichen Dimension: Musik-­Noten sind ja eine zweidimensionale Sequenz von Zeichen. Die Notenköpfe sind nicht nur wie Buchstaben nach­ein­ander im Takt, sondern auch übereinander. Die Technologie, die wir jetzt bauen, wird die Erste sein, die es möglich macht, beliebig Symbolschriften zu erkennen. So ein System könnte also auch mathematische Formen lesen lernen. Und je mehr Roboter mit Menschen zusammen­arbeiten, desto wichtiger wird es, dass die Roboter über hoch ent­wickelte Wahrnehmungsfähigkeiten verfügen. Die Deepscore-Technologie ist ein weiterer Schritt in diese Richtung.

zhaw.ch

Was tun, um auf der Gewinnerseite zu stehen?

Wenn Maschinen immer mehr können, was sollen wir dann noch machen? Ein Kommentar von Paul Roehrig von Cognizant Digital Business.
Eines kann nicht mehr wegdiskutiert werden: Die Tatsache, dass Maschinen jeden Tag produktiver werden, einige Berufszweige übernehmen und einige der heutigen Kenntnisse überflüssig machen werden. Wenn man jedoch näher betrachtet, wie Unternehmen gegenwärtig künstliche Intelligenz (KI) als Werkzeuge der nächsten Generation für die Steigerung von Produktivität einsetzen, ist das weniger angsteinflössend. In Wirklichkeit ist es so, dass die Vierte Industrielle Revolution für diejenigen, die lernen, KI-Werkzeuge und neue Geschäftsmodelle zu schaffen und damit umzugehen, eine Ära des Wachstums, höherer Mitarbeitermotivation und -zufriedenheit sowie geringerer Kosten einläuten wird.

Arbeiten fest zuordnen

Was müssen wir tun, um in dieser neuen Ära auf der Gewinnerseite zu stehen? Arbeitgeber müssen jetzt definieren, welche Arbeitsvorgänge, Funktionen, Prozesse, Systeme und Erfahrungswerte automatisiert werden sollen. Andererseits müssen sie auch festlegen, welche Arbeiten fest den Menschen zugeordnet bleiben und durch neue Technologien unterstützt werden sollen.
Die Debatte wogt nun hin und her ­zwischen den Utopisten, die in Technologie die Lösung aller Probleme sehen, und den Anti-Utopisten, die einen von Technologie bestimmten Albtraum für Menschen sehen. Beide liegen falsch. Intelligente Macher wenden KI-Systeme bereits als Werkzeuge zur Steigerung der Produkti­vität an, und das entspricht auch dem Modell für die Zukunft unserer Arbeit. Das ist ein pragmatischer Ansatz, und diese Denkweise ist auch der beste erste Schritt, den wir tun können, um aus der Vierten Industriellen Revolution neuen Mehrwert und Nutzen zu ziehen.

KI – Der digitale Tsunami trifft traditionelle Unternehmen

Interview: Heike Henzmann Fotos: Holger Jacob
Vom Bahnhof zum Bundeshaus: Bei schönstem Wetter quer durch Bern mit Daniel Neuhaus, Geschäftsführer von Sqooba, einem Start-up im Bereich Big Data und Kybernetik.
Herr Neuhaus, Sie haben mit Sqooba ein Start-up im Bereich Big Data, Kybernetik und künstliche Intelligenz gegründet. Wie ist Ihr persönlicher Bezug zu dem Thema?
Ich habe ursprünglich Betriebswirtschaft studiert und bin seit etwa zwanzig Jahren im Umfeld von Data Analytics tätig. Während dieser Zeit war ich an der Gründung von verschiedenen Start-ups beteiligt und als Berater für einige grosse Beraterfirmen, wie beispielsweise CSC, unterwegs. Anschliessend war ich für Telekommunikations-Unternehmen im Bereich Datenanalyse tätig, zunächst bei Orange Telecommunications und dann bei Swisscom. Am prägendsten war wohl der Aufbau des Analytics Service Center bei der Swisscom, das ich geleitet habe, worauf ich sehr stolz bin. Wir sind 2008 mit einem Team von zwanzig Leuten gestartet, als ich 2016 von dort wegging, zählten wir 180 Mitarbeiter. Insgesamt wagten vier ehemalige Swisscom-Mitarbeiter mit mir gemeinsam den Wechsel zu Sqooba. In dem Start-up haben viele Experten zusammengefunden, die sich bereits in namhaften Unternehmen mit Datenanalyse beschäftigt haben, wie beispielsweise meine Mitgründer, Benoit Perroud, CTO, der von Verisign kommt, und Theus Hossmann, CDO, der an der ETH und an der University of Cambridge im Bereich Machine Learning promoviert hat.

Ist Sqooba vom Konzept her ebenfalls eine Art Analytics Service Center?
Sqooba ist auf der einen Seite ein Dienstleistungsunternehmen, aber wir entwickeln darüber hinaus eine eigene Plattform. Diese Plattform, die auf Open Source basiert und unter anderem Maschinenlernkomponenten enthält, können Unternehmen nutzen, um ihre Daten zu analysieren.

«Wir erleben derzeit einen Digitalisie­rungs-Tsunami. Alles was digitalisiert werden kann, wird digitalisiert.»

Wie sieht das Unternehmenskonzept von Sqooba aus?
Wir erleben derzeit einen Digitalisie­rungs-Tsunami. Alles, was digitalisiert werden kann, wird digitalisiert. Bei diesem Tsunami gibt es zwei Seiten. Auf der einen Seite befinden sich Digital Natives wie Google, Amazon und Uber. Auf der anderen Seite stehen die traditionellen Unternehmen. Wenn der Tsunami auf ein traditionelles Unternehmen auftrifft, gibt es Stress. Ein Beispiel: Die Swisscom machte vor einigen Jahren noch 1 Milliarde Franken Umsatz mit SMS. Dann taucht eine 20-Mann-«Bude» auf und zerstört dieses Geschäft. Wir unterstützen die traditionellen Unternehmen bei der Digitalisierung, also dabei, zunehmend datengetrieben zu funktionieren. Unser Angebot umfasst drei Komponenten. Die erste Komponente, Compass, ist ein reines Dienstleistungsangebot im Bereich der Unternehmens­transformation. Zusammen mit den Experten im Unternehmen überlegen wir, was es konkret für das Unternehmen bedeutet, datengetrieben zu sein. Hierbei müssen alle Aspekte der Unternehmens­organisation miteinbezogen werden. Wir führen dazu Design Thinking Workshops und Facilitation Trainings durch. Wenn man fertig «ausgebeinlet» hat, kommt die nächste Komponente, der Diver. Bei Diver heisst es «hands on». Unsere Data Scientists arbeiten in den Unter­nehmen mit den Daten und generieren hierbei bereits einen Mehrwert für das Unternehmen. Es geht darum, Hypothesen mit Proto­typen zu verifizieren: der Fail-fast-Gedanke. Unsere dritte Komponente, Ocean, umfasst die Datenana­lyse-Platt­form, mit der wir Unter­nehmen befähigen, ihre Daten in Echtzeit zu prozessieren und zu analysieren.

Datenanalyse ist eine Sache, Rückschlüsse daraus zu ziehen und neue Geschäftsmodelle zu finden, eine andere. Auch ein Teil Ihres Angebotes?
Für neue Geschäftsmodelle braucht man die Domain-Expertise. Die haben wir nicht in jeder Branche. Die Domain-­Expertise bringt der Kunde mit. Wir verfügen über die technische Expertise, mit der wir den Kunden bei der Entwicklung neuer Geschäftsmodelle unterstützen.

Die Data Labs spriessen derzeit aus dem Boden. Wie schafft man es, sich abzuheben von der Konkurrenz?
Der Big Data Space ist laut, es gibt viel Aktivität. Wir versuchen, uns durch unsere Mitarbeiter abzuheben, die alle aus namhaften Unternehmen kommen und an grossen Big-Data-Vorhaben mitgewirkt haben. Unser Background, unsere Erfahrung, das differenziert uns von den anderen. Deshalb werden wir auch häufig von grossen Unter­nehmen kontaktiert.

Das heisst, Ihre Auftragslage ist bereits ein Jahr nach der Firmengründung gut?
Die Auftragslage ist gut. Doch wir mussten erkennen: Die meisten traditionellen Unternehmen backen bezüglich Big Data noch sehr kleine Brötchen. Einige trauen sich jedoch bereits, ihr Unternehmen voll­ständig umzukrempeln. Wir zählen beispielsweise einen grossen Konzern zu unseren Kunden, der sich gerade mitten in der Transformation befindet. Bei dieser Transformation geht es unter anderem um die Umsetzung einer neuartigen Variante des Kernproduktes in ein kleines Gerät. In den Prototypen des Geräts, die in der Testphase sind, sind Sensoren untergebracht, die Aufschluss über den Gebrauch und die Vorteile des neuen Produkts liefern sollen. Es wird auf Hochtouren daran gearbeitet. Sqooba unterstützt das Unternehmen bei der Umsetzung durch die Analyse der Daten, unter anderem auch dieser Sensor-Daten.

«Der Big Data Space ist laut, es gibt viel Aktivität.»

Welchen Herausforderungen sieht man sich bei solchen Projekten gegenüber?
Alles, was digitalisiert werden kann, wird zukünftig digitalisiert werden. Deshalb ist es wichtig, alle Arten von Daten verarbeiten zu können: Bilddaten, Text­daten, IOT-Daten von Maschinen, einfach alle Arten von Daten. Das können wir. Wir haben alle Skills und die richtigen Tools dafür. Bei der Frage, was man nun mit diesen Daten macht, sind die Unternehmen gefordert. Die Unternehmen müssen erkennen, wo ein Mehrwert generiert werden kann. Die traditionellen Unter­nehmen brauchen häufig viel Zeit, die richtigen Use Cases zu entwickeln.

Fällt Ihnen eine Killer-Applikation aus der Industrie ein?
Nein. Im Allgemeinen mangelt es in Unternehmen der industriellen Produktion bereits an den Daten. In vorauseilendem Gehorsam wurden zwar Maschinen mit Sensoren ausgerüstet oder techno­lo­gie­getriebene Projekte initiiert, aber die Erkenntnisse, die daraus gezogen werden können, sind bescheiden. Aber damit dies gelingen kann, muss man sich als Unternehmen erst überlegen, was man überhaupt zu welchem Zweck wo messen will. Eine solche Analyse ist etwas sehr Exploratives, keine Magie. Man muss sich herantasten.

Kann man das Thema Datenanalyse getrennt vom Thema künstliche Intelligenz betrachten?
Es herrscht viel zu viel Lärm um künstliche Intelligenz. Die künstlichen Intelligenzen, ich spreche lieber von Assistenten, lernen über die Masse an Daten. Deshalb bleibt auch bei der Verwendung von künstlicher Intelligenz die Kernfrage immer die Frage nach den Daten. Welche Daten habe ich? Habe ich genügend Varianz in den Daten? Genügen meine Daten, um die Assistenten zu trainieren?

Mit welchen Zielen werden diese Agenten in der Industrie trainiert?
Eine denkbare Zielvorgabe wäre es, den Ausschuss in Produktionsbetrieben zu minimieren. Sind die Hypothesen einmal definiert, baut man Modelle und verarbeitet die Daten dazu. Doch dieser Prozess ist viel aufwendiger, als einfach digital Angebot und Nachfrage zu ver­binden, wie das in den Digital-­Natives-Unternehmen der Fall ist.

Welche Branchen transformieren sich am schnellsten?
Das sind sicher die Telekommunikationsbranche und die Medienbranche. Hier wird die Digitalisierung am stärksten erhöht. Und wo die Digitalisierung am stärksten erhöht wird, da ist auch das grösste Potenzial. Bei Versicherungsunter­nehmen hingegen wird häufig immer noch mit Papier gearbeitet. Dort finden wir einen sehr geringen Digitalisierungsgrad. Auch im Gesundheitswesen funktioniert die Digitalisierung zur zögerlich. Zwar liegen dort viele Daten vor, doch sie werden nicht verwendet. Denn sobald es um Patientendaten geht, ist man sehr vorsichtig. Kleine Unternehmen haben generell eine eher grosse Hemmschwelle bei der Verwendung von Personendaten. Die grossen Unternehmen hingegen lassen sich ihre Nutzungs-Bestimmungen bestätigen und arbeiten anschliessend mit den Daten. Da sind wir wieder bei den Unterschieden zwischen den beiden Seiten des Tsunami, Digital Natives versus traditionelle Unternehmen. Man ist versucht, Muster und Erkenntnisse auf die andere Seite zu projizieren. Doch das funktioniert nicht.

Inwieweit tangieren Sie aktuelle Änderungen in den EU-Datenschutz­-Regularien bei Ihren Projekten?
Das ist ein komplexes Thema. Die Schweiz hat klare Definitionen, wie sie mit besonders schützenswerten Daten, mit Personen-Daten beispielsweise, umgehen muss. Diese Daten dürfen die Schweiz nicht verlassen. Die EU geht noch weiter, insbesondere im Bereich der schützenswerten Personendaten. Wir sind dabei, uns einen Überblick zu verschaffen über die neue General Data Protection Regulation der EU. Was bedeuten diese für Europa, für die Schweiz, für Sqooba? Was heisst das für Cloud-Anbieter generell? Macht es Sinn, dass Unternehmen ihre Daten den Quasi-­Monopolisten wie Google, Amazon und Mircrosoft anvertrauen? Wie kann sich Sqooba in dem Umfeld mit einem Angebot posi­tionieren? Wenn man davon ausgeht, dass Daten ein Asset sind, warum geben Unternehmen diese dann heraus?

Wird Ihre Datenanalyse-Plattform Ocean mit einer gewissen Branchen-Intelligenz, also mit Domain-Wissen, ausgestattet?
Stellen wir uns folgende Situation vor. Wir haben vier Unternehmen, die ungefähr das Gleiche machen. Firma A ist innova­tiver als die drei anderen. Sie lässt einen Data Scientist ihre Daten analysieren und ist anschliessend in der Lage, einen Assistenten zu bauen, zum Beispiel für vorbeugende Instandhaltung. Diesen Assistenten kann ich nun auch in den Unternehmen B, C und D verwenden und mit deren Daten trainieren. Aber ich muss ihn neu trainieren, denn die Daten sind zwar ähnlich, aber doch anders. Also ja, man kann Assistenten replizieren und übertragen. Aber so weit sind wir noch nicht. Das ist Stufe vier. Im Moment befinden sich die meisten Unternehmen noch auf der untersten Stufe.

«Wenn man mit Informationen arbeitet, dann kommt man an Kybernetik nicht vorbei.»

Welche Rolle spielt Kybernetik bei der digitalen Transformation?
Kybernetik ist ja das Steuern und Regu­lieren von komplexen Systemen auf Basis von Kommunikation und Information. Was Kybernetiker vor 50, 60 Jahren angedacht haben, ist heute aufgrund von vorhandener Information und Technologie umsetz­bar. Wenn man mit Informationen arbeitet, dann kommt man an Kybernetik nicht vorbei. Wir analysieren und wollen anschliessend rückkoppeln und steuern.

Können kybernetische Prinzipien menschliche Entscheidungen im Unternehmen beeinflussen beziehungsweise verbessern?
Um die Frage zu beantworten, muss man sich vergegenwärtigen, wie in Unter­nehmen heute Entscheidungen getroffen werden. Menschen, die schon lange in einer Branche oder einem Unternehmen tätig sind, entwickeln mitunter ein gutes Bauchgefühl für Entscheide. Dieses Bauchgefühl ist schlussendlich nichts anderes als eine Mustererkennung, die sich der Entscheider über die Jahre antrainiert hat. Das Bauchgefühl ist schwer zu schlagen. Das Problem ist heute, dass Zyklen immer kürzer werden und häufig die Zeit fehlt, sich das für Entscheide notwendige Bauchgefühl anzutrainieren. Hier setzen Decision-Support- oder Augmented-Intelligence-Systeme an, die das Management bei Entscheiden unterstützen. Entscheider können mit diesem System ihr Bauchgefühl verifizieren in einem Umfeld, das immer dynamischer wird. Data Driven Decision-Support-­Systeme sind ein wesentlicher Teil der digitalen Transformation. Doch man darf nicht denken, dass künftig ein Roboter in einem Raum sitzt und Entscheidungen trifft. Das System unterstützt vielmehr den Entscheider. Dieser kann auf sein Bauchgefühl hören, dieses aber neu ganz objektiv aufgrund der Datenlage überprüfen. Die jüngere Manager-Generation ist bereits stark datengetrieben und tut sich mit dem Einsatz solcher Systeme in der Regel leichter. Einige der kybernetischen Prinzipien sind bereits in moderne Arbeitsweisen eingeflochten und vertraut.

Kann man Menschen kybernetisch steuern und regeln wie eine Maschine?
Unter Allende hat man versucht, Chile nach kybernetischen Gesichtspunkten zu organisieren beziehungsweise zu steuern. Damals hat aber die Technologie gefehlt. Diese hat man heute. Die ganze Palette, von Überwachungsstaat bis gut informierte Demokratie, ist möglich.

Woher nimmt man Daten, die auf der einen Seite benötigt werden, die man aber nicht selber sammeln kann?
Das ist ein wichtiger Punkt. Benötigte Daten sind zum Teil noch nicht erschlossen. Intelligente Strassenlaternen zum Beispiel. Wie werden die «intelligent»? Man steckt einen Sensor hinein. Dazu braucht man aber zunächst Freigaben von Behörden und so weiter. Es dauert vielleicht drei Jahre, bis die Strassenlampen mit Sensoren ausgestattet sind. Nun benötigt man zusätzlich für eine sinnvolle Analyse und Steuerung die Bewegungsprofile der Bevölkerung und fragt bei Google an. Google rückt die Daten aber nicht raus, denn die Daten sind deren eigenes Asset, das sie selber nutzen wollen.

Kann man Google & Co. die Daten nicht einfach abkaufen?
Damit Google oder ein anderes Digital-Native-Unternehmen seine Personen­daten verwenden darf, müssen seine Nutzer ihr Einverständnis geben. Das ist aber nicht immer einfach und häufig vom Zweck abhängig. Wenn es ein Zweck zum Nutzen für die allgemeine Öffentlichkeit ist, weniger Staus beispielsweise, dann bin ich als Kunde bereit, meine Daten beizutragen. Aber wenn eine Bank ihr Bankomaten-Netz optimieren will, dann sind schon viel weniger Kunden dazu bereit. Das ist also wieder eine Fragedes Anwendungszwecks. Auch innerhalb eines Unternehmens ist es nicht selten schwierig, an benötigte Daten zu kommen. In den meisten Unternehmen stecken die Daten in Silos. Möchte man nun ganzheitlich die Daten analysieren, stellt man schnell fest, dass man gar nicht an die Daten herankommt. Ein erster, wichtiger Schritt der Transformation ist es also, die Daten im gesamten Unternehmen zu erschliessen und zu demokratisieren. Ist das erst einmal geschehen, dann entsteht fast so etwas wie Magie, und es ist ein grosser Mehrwert erreicht. Denn erst dann weiss das Unternehmen, wo es bezüglich seiner Daten steht und kann den nächsten Schritt in Angriff nehmen. Man muss Daten nicht einsperren, sondern freilassen.

Auf welche Zeit dürfen wir uns einstellen, bis sich der überwiegende Teil der Schweizer Industrie-Unternehmen in der Transformation befindet?
Wenn man sich dranhält, dann ist ein Zeithorizont von zehn Jahren realistisch. Wir sind letztes Jahr bei der Gründung mit viel Energie gestartet. Schnell haben wir gemerkt, dass die digitale Transformation nur sehr zäh vorangeht. Das liegt jedoch eher an der produzierenden Industrie als Branche und weniger an der Nation.

Vielen Dank für das Gespräch, Herr Neuhaus.

Plug and Play dank OPC UA

Interview: Heike Henzmann Fotos: Holger Jacob
Es geht weiter am Rhein entlang vom Rheinfall bis zum Firmensitz der Schweizer Sensor People von Leuze electronic und mit dem Gespräch mit Geschäftsführer Tobias Wüst über Sensoren und OPC UA.
Leuze electronic setzt bei der Umsetzung von Industrie 4.0 auf OPC UA. Können Sie dieses Thema umreissen?
OPC UA steht für Open Platform Communications Unified Architectures. Es umfasst einen Satz von Standards für die industrielle Kommunikation und wird von der Initiative Deutschland Digital (IDD) für die Digitale Transformation, Industrie 4.0, unterstützt. Es gibt in verschiedenen Ländern regionale Initia­tiven, die sich mit der Digitalen Trans­for­ma­tion beschäftigen. Hier in der Schweiz ist das Industrie 2025, in den USA IIC, also Industrial Internet Consortium, in China ist es China 2025. Auch diese Initiativen stützen sich auf OPC UA als Kommunikationstechnologie ab.

Welche Lücke schliesst OPC UA?
Wenn man sich die Automatisierungs­pyramide anschaut, so sieht man ganz unten die Feldebene, darüber die Steuerungsebene. Weiter oben finden sich die Prozessebene, die Leitebene und auch die ERP- und Unternehmens­ebene. Via Profinet oder I/O-Link findet ein Datenaustausch nur zwischen der Feld­ebene und der Steuerungsebene statt. Für Industrie 4.0 reicht dies nicht aus. Daten müssen auch ausserhalb der Maschinensteuerung, beispielsweise in der Leitebene oder im ERP, zur Verfügung stehen. Hier kommt OPC UA ins Spiel. Mit OPC UA wird ein Datentunnel über alle Schichten der Automatisierungspyramide geschaffen. Hierfür wird in der Datenquelle, in unserem Fall also dem Sensor, ein OPC-UA-Server integriert, durch den Daten an Abnehmer in allen Ebenen geliefert werden können. Beim Prototyp, den Leuze electronic in einer Kooperation mit Microsoft entwickelte, wurde zusätzlich ein IoT-Hub für die Azure Cloud von Microsoft installiert. Einmal in der Cloud, können die Daten für die unter­schiedlichsten Applikationen ohne lokale Bindung verwendet werden.

Wie sehen die technischen Voraus­setzungen für diese Kommunikation eines Sensors mit der Cloud aus?
Der Sensor muss in der Lage sein, über einen Ethernet-basierten Bus zu kommu­ni­zieren. Dafür braucht er eine entsprechende Kommunikationsschnittstelle, wie z. B. Profinet. Doch auch über die serielle Schnittstelle I/O-Link ist eine komplexere Kommunikation des Sensors möglich. In diesem Fall werden die Sensor­daten auf ein Ethernet-fähiges Gateway geführt und gehen von dort aus in die Cloud.

Warum wurde für diese Prototypen die Microsoft Azure Cloud ausgewählt?
Aus der Historie heraus ist die Azure Cloud sehr mächtig hinsichtlich der Werkzeuge, die in der Cloud zur Ver­fügung stehen, um Daten zu analysieren. Denn schlussendlich geht es ja genau darum: Die Daten sollen in der Cloud analysiert werden. Die Analyse eröffnet die Möglichkeit, verschiedenste Appli­kationen zu implementieren. Die Azure Cloud ist vergleichbar mit der SAP Cloud oder der IBM Cloud. Und auch wenn wir uns derzeit noch auf die Azure Cloud konzentrieren, wäre es kein Hexenwerk, statt dem Azure-Hub einen SAP-Hub oder einen IBM-Hub zu verwenden, denn alle sind für uns über OPC UA zugängig.

Wird Leuze electronic Applikationen für die Sensordaten anbieten?
Das ist so angedacht. Stehen die Datenmengen erst einmal zur Verfügung, kann man darauf basierend viele neue Geschäfts­modelle generieren. Das gilt sowohl für die Maschinenbauer als auch für uns. Es gibt dabei Leistungen, die nur wir anbieten können. Man stelle sich eine Anwendung für predictive Maintenance vor. Ein Sensor liefert komplexe Daten, und diese müssen ausgewertet werden. Kann der Maschinen­bauer aus den Daten den Zeitpunkt der nicht mehr tolerierbaren Sensorverschmutzung zuverlässig ermitteln? Wir sind der Meinung, dass wir für solche Aufgaben am besten geeignet sind. Denn wir kennen unseren Sensor wie kein anderer. Viele unserer Sensoren sind mit einem Temperatur­fühler ausgerüstet. Es ist nicht trivial, die verschiedenen zusätzlichen Informa­tionen, die dieser Fühler liefert, korrekt und nutzbringend auszuwerten. Ausserdem gibt es folgende Situation: Nehmen wir an, der Maschinenhersteller hat einen Kunden, der mehrere Werke betreibt. Es ist unwahrscheinlich, dass der Maschinenhersteller mit seinen Maschinen in allen Werken vertreten ist. Es ist jedoch viel wahrscheinlicher, dass unsere Sen­soren in allen Werken zu finden sind. Damit können wir uns auf eine viel breitere Datenbasis abstützen.

Aber dann stellt sich die Frage, wem die Daten gehören: Ihnen als Sensor­her­steller oder dem Maschinenhersteller? Oder dem Betreiber der Anlage?
Die Daten gehören dem Betreiber. Unser Ziel ist natürlich schon, den Zugang zu diesen Daten zu erhalten, um daraus neue Geschäftsmodelle zu generieren. Wie das genau geregelt wird, ist noch Zukunftsmusik. Nur ein Beispiel: Früher wurden für die Verkehrsnachrichten eher mühsam einzelne Informationen zu Ereignissen wie Staus über Anrufe von Verkehrsteilnehmern gesammelt. Heute hat man das Handy in der Tasche und erhält dank der von Google Maps erho­benen und verdichteten Daten einen sehr guten Überblick, wo es Probleme mit dem Verkehrs­fluss auf den Strassen gibt. Mit OPC UA sind wir aber noch nicht so weit. Wir bauen erst gerade die Strassen und schauen, wie sich das Ganze entwickelt.

Engagiert sich Leuze electronic bei der Weiter­entwicklung des Standards in den entsprechenden Gremien?
Ja, wir haben jemanden, der sich ausschliesslich mit Industrie 4.0 beschäftigt und in dem Gremium mitarbeitet. Bei OPC UA, I/O-Link und anderen Gremien in diesem Bereich sind wir vertreten.

Gibt es in der Schweiz schon den ersten Kunden für den OPC-UA-Azure-Hub?
Die Einführung solch neuer Technologien dauert erfahrungsgemäss ein Weilchen. Bei I/O-Link hat es ebenfalls relativ lange gedauert, bis man ein erstes Gerät mit I/O-Link verkauft hat. Die Branchenplayer müssen sich erst mal auf das Thema einschiessen und den Nutzen erkennen. Wir haben den Azure-Hub letztes Jahr auf der SPS IPC Drives vorgestellt. Die Schwierigkeit bei OPC UA ist im Moment noch, den Nutzen für den Kunden her­auszuarbeiten. Um bei der Analogie mit den Strassen zu bleiben: Es gibt eine Strasse hier und eine Strasse dort, aber dazwischen gibt es noch nichts. Bis das Strassennetz vorhanden ist, braucht es noch seine Zeit.

Hat der Werk- und Marktplatz Schweiz derzeit andere Sorgen?
Die Schweizer Industrie steht im Moment unter einem enormen Kostendruck. Man kann Effizienzsteigerungen durch Digitalisierung realisieren, aber es wird dennoch weitere Verlagerungen von Produktionen ins Ausland geben. Laut einer Statistik von Swissmem ziehen 46 Prozent der Unternehmen der MEM-­Branche eine Auslagerung der Produktion in den nächsten drei Jahren in Betracht. Doch die Entwicklung lagert niemand aus. Nach wie vor ist die Schweiz als Ent­wicklungs- und Innova­tionsstandort sehr interessant. Das bedeutet, dass die Entwickler in ihren Applikationen weiterhin Ansprechpartner brauchen. Da muss genau überlegt werden, wie ein gemeinsames Geschäftsmodell gestaltet werden kann. Denn wenn die Beratung hier stattfindet, die Bestellungen aber im Land der Produktion erfolgen, dann schafft dies eine unangenehme Verlagerung. Ein System, mit dem man dies abbilden kann, wird daher immer wichtiger. Auch wir arbeiten derzeit daran. Insbesondere für kleine Unter­nehmen ist es allerdings eine grosse Herausforderung, dies zu tun.

Muss man künftig Beratung stärker in Rechnung stellen?
Das wird so sein. Wir bieten Leistungen an, durch die der Kunde einen Mehrwert erhält und für die er bereit ist zu zahlen. Ich bin der Meinung, dass künftig mehr solcher Dienstleistungen in der Schweiz angeboten werden müssen. Gerade weil die internen Verrechnungen ziemlich kompliziert sind. Wir werden gut unterstützt vom Mutterhaus und haben im Unternehmen einen konstruktiven Umgang mit der Thematik. Es gibt grosses Verständnis für unsere Situation in der Schweiz. Klar ist auch, dass der Schweizer Standort auf jeden Fall bestehen bleiben wird. Der Schweizer will von Schweizern bedient werden. Das weiss man auch im Mutterhaus, und das wird akzeptiert. Wir werden aber immer kleinere Brötchen backen als die Kollegen in Deutschland, das ist einfach marktbedingt.

Welche Möglichkeiten gibt es, im Sonder­maschinenbau einen Mehrwert zu generieren?
Im Sondermaschinenbau ist es wichtig, dass sich eine gewisse Standardisierung entwickelt. Das heisst, die Maschinen werden in unterschiedliche Module unterteilt, die dann einzeln an ihre Kunden­-bedürfnisse angepasst werden können. Durch diese Technik kann ein gewisser Standard geschaffen werden, und man ist trotzdem flexibel. Die Applikationen der Sondermaschinenhersteller sind komplex und sehr spezifisch. Wir können dort mit unserem Industry Management und dem gesammelten Know-how unterstützen. Ein Mehrwert entsteht dann, wenn wir entweder eine neue Lösung oder mehrere alternative Lösungen anbieten, die zu einem besseren Ergebnis führen. Das bezieht sich auf wirtschaft­liche wie auch technische Aspekte. Als Beispiel: Praktisch alle unsere neuen Sensoren haben eine I/O-Link-Schnittstelle, darüber lassen sich Schaltpunkte bei einer For­matumstellung sehr kom­fortabel über die Steuerung einstellen, und es braucht keine manuelle Einstellung mehr. Das ist wirtschaftlicher und effizienter.

Spielt Datenfusion eine Rolle bei Ihren Sensoren?
Bei schaltenden Sensoren eher nicht. Bei komplexen Geräten wie einem Barcode­leser oder einem Distanzmesser ist das schon möglich. Auf diesen Sen­soren steht eine gewisse Rechenleistung zur Verfügung. In unseren Barcode-­Scannern mit Ethernet-basierten BUS ist ein Switch integriert, damit können mehrere Barcode-Scanner zu einem virtuellen Scanner verknüpft werden. Die gelesenen Daten werden dann direkt im Master gesammelt und nur durch ein Gerät ausgegeben.

Ist man bei der Implementierung abhängig von den unterschiedlichen Steuerungsherstellern?
Es gibt verschiedene Kommunikationsschnittstellen. Die muss man als Sensor­hersteller anbieten können, da wir noch in einer Abhängigkeit zu den System­herstellern stehen. Mit OPC UA eröffnen sich diesbezüglich aber neue Möglich­keiten. Die Steuerung an sich wird zwar nicht überflüssig werden, aber es wird sich diesbezüglich einiges verändern. Beispielsweise ist denkbar, dass die Steuerung in der Cloud angesiedelt ist und dieses Modell eventuell Steue­rungen, wie man sie heute kennt, ablöst. Eventuell geht die Tendenz auch hin zu vielen kleinere Steuerungen, die in der Anlage verteilt sind.

Plug and Play Automation. Wird das möglich durch OPC UA?
Der Trend geht schon dorthin. Die Infrastruktur heute ist noch nicht dazu in der Lage. Wie bei anderen Themen ist der Consumer-Markt auch hier der Industrie um einiges voraus. Wir haben dort bereits Sensoren, die mit Plug and Play funk­tionieren. Das wird künftig durchaus auch für komplexere Systeme möglich sein. Wenn sich alle auf ein Protokoll geeinigt haben, dann ist schon ein grosser Schritt in die richtige Richtung getan. Und OPC UA hat hier sehr grosse Chancen.

Vielen Dank für das Gespräch, Herr Wüst!

Elektrische Antriebe mit direkter Busanbindung

Dank «Plug & Play»-Konzepten wie demjenigen von SMC sind elektrische Antriebe im Nu an Maschinensteuerung angeschlossen und betriebsbereit.
Die neuen Schrittmotor-Controller von SMC kommunizieren offen in Bus-Systeme. So lassen sich die elektrischen Antriebe von SMC mittels einfachem «Plug & Play» in industrielle Feldbusse wie beispielsweise Profinet, EtherNet/IPTM oder EtherCAT einbinden. Zusätzliche Gateways werden nicht benötigt. Damit kommunizieren sie direkt in ein und dasselbe Netzwerk wie andere Komponenten, beispielsweise über Ventilinseln angeschlossene pneumatische Antriebe.

Die Parametrierung der elektrischen Antriebe erfolgt sehr einfach über eine nutzer­freundliche Windows-Software; im Feld ist die Bedienung der Controller per Handheld-Terminal möglich.

Nahtlos und schnell in Betrieb nehmen

Um für den Nutzer Beschaffung und Inbetrieb­nahme so einfach wie möglich zu gestalten, sind Antrieb, Controller und Anschlusskabel zusammen über eine einzige Bestellnummer erhältlich. Zudem werden die Funktionen der Komponenten vor Auslieferung nochmals komplett überprüft. Montiert wird der Controller per Schraubbefestigung oder DIN-Schiene.

Anwendungsbereiche

Die Schrittmotor-Controller sind flexibel für viele vernetzte Anwendungen wie etwa Handling und Montage oder Pick & Place in der Industrie geeignet. Typische Beispiele sind der Maschinenbau sowie die Verpackungs- und Elektronik-Industrie. Daniel Rellstab, Product Manager bei SMC, sieht unter anderem die Flexibilität als grossen Vorteil der Schrittmotor-Controller: «Ob messen, fördern, positionieren, schieben, heben, greifen oder drehen, die Controller sind geradezu universell einsetzbar — auch in Kombination mit pneumatischen Antrieben. Anwender profitieren dabei von der vollen Integrations- und Kommunikationsfähigkeit mit den Automationssystemen von Industrie 4.0.»

smc.ch

«Die meisten Produkte wollen noch parametriert und integriert werden»

Wie viel «Plug & Produce» steckt eigentlich in Produkten, die als «Plug & Produce» auf den Markt kommen? Ein paar Fragen an den Automatisierungsspezialisten Roger A. Bachmann von der Bachmann Engineering AG.
Eugen Albisser – Sie bieten mit Ihrem Unternehmen standardisierte und massgeschneiderte Automatisierungslösungen an. Welche Rolle spielt für Sie bei den zugekauften Komponenten, dass man sie einstecken und gleich «produzieren» kann?
«Plug & Produce» wäre zwar schön, aber wir erleben eher selten, dass wir etwas einstecken können und schon funktioniert alles einwandfrei. Und zudem gibt es Komponenten, die einfacher ins System zu integrieren sind, andere aber sind komplexer und da ist dieses «Plug & Produce» schon sehr schwierig.

Aber es wird viel geredet über «Plug & Produce». Ist nicht alles «Plug & Produce», wo dies draufsteht?
Ich muss ehrlich sagen: Ich habe noch kein wirkliches «Plug & Produce»-Produkt in den Fingern gehabt. Jedenfalls, wenn man es genau nimmt mit dem Begriff. Die meisten Produkte wollen irgendwie noch parametriert und integriert werden.

Sie sind der offizielle Vertreter von Universal Robots in der Schweiz. Die Dänen haben im vergangenen Jahr Universal Robots+ eingeweiht, einen Showroom mit «Plug and Play»-­Applikationen. Was kann man sich dann darunter vorstellen? Welche Applikationen gibt es?
UR+ können Sie sich wie Apps vorstellen, welche auf den Roboter installiert werden. Drittanbieter wie z. B. Robotiq (in der Schweiz ebenfalls durch uns vertreten) entwickeln Zubehör inklusive passender App für den UR. Damit wird die Integration beispielsweise eines Greifers sehr einfach.

(Anmerkung der Redaktion: Die von Universal Robots zertifizierten Produkte können im Showroom auf der UR-Webseite nach Anwendung gesucht werden wie im App-Store, allerdings handelt es sich lediglich um einen Showroom, die Applikationen werden über die Händler wie Bachmann Engineering verkauft.)

Wo liegen immer auch die Heraus­forderungen, und wie kann man sie zumindest ein wenig umgehen?
Es dreht sich oft um die Schnittstellen zwischen den verschiedenen Kompo­nenten. Hier setzen wir auf bewährte Partner, die untereinander harmonieren. Das ist unser Ansatz, um die Heraus­forderung zu bewältigen.
Aber allgemein gilt, dass es bei der Anbindung verschiedener Hersteller immer zu einem Schnittstellenproblem kommen kann, und da kann es zum Beispiel auch geschehen, dass zwei Hersteller ihre Firmware updaten – dann kann man «Plug & Produce» sowieso gleich vergessen.

Sie arbeiten eng mit verschiedenen Roboterherstellern wie ABB, Fanuc, Kuka, Mitsubishi Electric, Stäubli und Universal Robots zusammen. Wie weit ist dort das «Plug & Produce»?
Grundsätzlich kann man einen Roboter einschalten und loslegen. Allerdings nützt ein Roboter ohne Peripherie und ohne Applikationsprogramm wenig. Bei manchen ist diese Programmierung komplexer, bei anderen sehr einfach, wobei ich hier zum Beispiel an die Roboter von UR denke.

Abgesehen von «Plug & Produce»: Wie wichtig ist das Thema Einfachheit bei den Endkunden, welche bei Ihnen Automatisierungslösungen kaufen?
Einfachheit ist bei jedem Endkunden wichtig. Hier legen wir Wert darauf, die Einfachheit der bestehenden ­Produkte (z. B. UR) zu erhalten. Denn eine einfache Bedienung nützt ja wenig, wenn die Anwendung durch ein ­komplexes Programm für den Kunden sehr undurch­sichtig wird.

bachmann-ag.com