Archiv der Kategorie: Schwerpunkte

Modularität – Diskrete Ereignis-Simulation mit Open Source Tool

Die FFHS setzt im Unterricht moderne Hilfsmittel wie Storytelling, Gamebooks oder Simulationen ein. Für Simulationen kommt auch JaamSim, ein Open Source-Simulator für diskrete Ereignis-Simulation, zum Einsatz.
Prof. Willi Bernhard, FFHS — Mit Simulations­modellen lassen sich dynamische Abläufe in einem System simulieren, analysieren und dank Animation auch direkt auf dem Bildschirm betrachten. Auf diese Weise werden Engpässe, Auslastungen und Funktionsweise von geplanten oder bestehenden Systemen überprüfbar. Simulationen eignen sich hervorragend für die praxisnahe Vermittlung, Darstellung und Übung diverser Situationen in einem Unternehmen im Unterricht und als Analyse-Instrument zur Lösung und Optimierung komplexer Problemstellungen aus der realen Welt.

JaamSim (Java Animation Modelling and Simulation) ist ein Simulator, mit dem Studierende in Projektarbeiten Pro­blem­stellungen ihres Betriebes, wie zum Beispiel eines Skilifts, eines Selbst­bedie­nungs-­Restaurants oder der Notfallstation eines Spitals untersuchen können.

Obwohl es eine überschaubare Anzahl vergleichbarer Simulationsprogramme auf dem Markt gibt, ist JaamSim das erste frei verfügbare Simulations-Tool für diskrete Ereignis-Simulation, das ein Drag & Drop-Interface besitzt und eine Animation in 2D- oder wahlweise in 3D-Darstellung erlaubt. Spannend für die Anwendung an Hochschulen: Das Programm kann lizenzfrei verwendet werden, und zwar im schulischen und im geschäftlichen Kontext.

Bausteine und Verteilungsfunktionen

Der Prozessfluss eines Systems wird in JaamSim mithilfe von parametrisierten Bausteinen aufgebaut, die sich aus der Bausteinbibliothek per Drag & Drop grafisch platzieren und miteinander verbinden lassen. Insgesamt stehen 26 verschiedene Bausteine für den Objektfluss zur Verfügung.

Solche Bausteine sind beispielsweise Generatoren, welche die beweglichen Objekte des Systems (Personen, Material, Fahrzeuge, usw.) erzeugen, Arbeitsstationen (Server), welche die beweglichen Objekte zur Bearbeitung eine gewisse Zeit beanspruchen, oder Warteschlangen, in denen die Objekte zur Abarbeitung warten. Weitere Prozess-Bausteine sind Förder­bänder, Verzweigungen, Einpack-, Auspack- und Duplizier-Stationen und dergleichen.

Eine wichtige Bausteinkategorie betrifft die Verteilungsfunktionen, mit deren Hilfe in der Regel die zeitlichen Grössen von Arbeitsstationen nachgebildet werden. Wenn man beispielsweise einen bedienten Bankschalter modelliert, lässt sich mit einer Weibull-, Erlang-, Dreiecks- oder Gleich­verteilung die in der Realität ungleich­mässig verteilte Zeit pro Kunde modellieren. JaamSim stellt 14 solcher Verteilungs­funktionen zur Verfügung, darunter auch Exponential-, Gamma- und Beta-Verteilung (wichtig für Ausfallprozesse).

Diskrete Flüssigkeiten und Kalkulationen

JaamSim besitzt zwei weitere, eher seltene Features: Bausteine für Flüssigkeiten und für Kalkulationen.

Sechs Bausteine dienen der Modellierung von Systemen, die mit Flüssig­keiten umgehen. Dabei diskretisiert JaamSim kontinuierliche Systeme, wie zum Beispiel ein Tanklagersystem. Es unterteilt also kontinuierliche Grössen wie Benzin in diskrete Einheiten wie Liter. Pumpen und Pipelines benötigen entsprechend immer einen Controller-Baustein, dem man einen Zyklustakt zuordnet.

Elf Berechnungs-Bausteine erlauben die Abbildung von Regelungssystemen. Darin befinden sich Bausteine wie Integrator, Differenzierer, Mittelwertbilder, Sinusgenerator oder PID-Controller (Proportional-Integral-Differential-Controller).

Erkenntnisse durch Animation

Durch die Animation werden einerseits Fehler im Prozessfluss erkennbar, und andererseits wird so das Verhalten des Systems in seinem dynamischen Verhalten begreifbar. JaamSim kann Animationen in 2D oder in 3D darstellen. Während die 2D-Animation das abstrakte Simulationsmodell mit seinen Funktionalitäten abbildet, kann durch eine 3D-Animation eine realistische Situation situationsgerecht widergespiegelt werden.

Aus einem 2D-JaamSim-Simulations­modell kann jederzeit — ganz oder teilweise — ein 3D-Modell entstehen, indem man den 2D-Objekten und Bausteinen anstelle einer Grafik jeweils ein 3D-Modell in Form einer Wavefront- (obj) oder Collada-­Datei (dae) zuweist. Die Zuweisung kann auch dynamisch innerhalb der Simulation gemacht werden, um zum Beispiel die Wertschöpfung eines Objektes vom Rohmaterial bis zum fertigen Produkt anzeigen zu lassen. JaamSim unterstützt auch Mehrfach-Simulationsläufe, womit in stochastischen Simulationen die gesuchten Resultate wie Durchlaufzeiten oder Auslastungen mit einem Vertrauensbereich (Konfidenz­intervall) versehen werden können.

Vorteil von Open Source

Als Open-Source-Simulator ist «JaamSim» im schulischen Einsatz sehr attraktiv. So können Studierende, wie beispielsweise im FFHS-Studiengang «Complexity Management mit Simulation» in Projekt­arbeit eine Problemstellung ihres Betriebes simulieren, ohne in lizenzrechtliche Pro­bleme zu geraten (Schul-Lizenzen gestatten dies in der Regel nicht). Auch lernen Studierende ein Werkzeug kennen, auf das sie im Berufsleben jederzeit wieder zugreifen können.

Ausserdem können zusätzlich eigene Bausteine entwickelt werden, da der Source Code des Programms allen zur Verfügung steht. In JaamSim gibt es Anleitungen, Vorlagen und vorgefertigte «leere Bausteine», die Eigenentwicklungen in Java unterstützen. JaamSim ist für die Betriebssysteme Windows, OSX und Linux als Installation oder als direkt ausführbare Universal-Jar (Java-Datei für Java Runtime Version) erhältlich unter jaamsim.com.

Autor

Prof. Willi Bernhard ist Bereichsleiter für Dienst­leistungen an der Fernfachhochschule Schweiz (FFHS) und als Ingenieur, Dozent, Forscher und Berater in den Bereichen Computersimulation, Serious Games, E-Collaboration, Kreativitätsmethoden und Technology Enhanced Learning (TEL) tätig.

ffhs.ch

Modularität – Energiemanagement ohne grosse Einarbeitung

Energiemanagement-Systeme können auch einfach sein. Das beweist Camille Bauer mit dem Smartcollect PM10, einem modular aufgebauten Software- und Lizenzmodell, das sich an individuelle Anforderungen anpasst.
In den kommenden Jahren werden durch Energie­management-Systeme riesige Summen von Energiekosten eingespart. Die ISO50001 gibt als internationale Norm vor, wie Energieverbräuche erfasst werden können, und unterstützt Unternehmen beim Aufbau eines Energiemanagement-Systems. Neben dem Einsatz einer umfangreichen Mess­technik fällt hier das Augenmerk vor allem auf die systema­tische Erfassung, Zusammenführung und Auswertung der gewonnenen Messdaten. Eine detaillierte Erfassung von Verbrauchswerten und deren zeitliche Zuordnung zu den Prozessen bildet die Grundlage jeder Verbrauchs­optimierung. Eine Steigerung der Energieeffizienz ist nur dann möglich, wenn man genau weiss, wo und wodurch die Kosten entstanden sind.

Einfache Systemerweiterung

Die leistungsfähige Smartcollect PM10 Software ist speziell für Applikationen in Energiewirtschaft und Industrie sowie bei Dienstleistern und der öffentlichen Hand ausgelegt. Mit ihr können alle relevanten Verbrauchsdaten, wie zum Beispiel Strom, Gas, Wasser oder Wärme erfasst, gespeichert und visualisiert werden. Dabei setzt die Software vor allem dort an, wo bis heute noch kein Energiemanagement eingesetzt wird. Das modular aufgebaute Software- und Lizenzmodell ermöglicht eine einfache Systemerweiterung und lässt sich an Ihre individuellen Anforderungen anpassen. So starten Sie kostengünstig mit dem Basis­paket und erweitern je nach Bedarf die Anzahl der verarbeiteten Messstellen oder der Computerarbeitsplätze.

Kurze Einarbeitungszeit

Smartcollect PM10 ist extrem benutzerfreundlich und flexibel aufgebaut. Über eine übersichtliche und modern gestaltete Benutzeroberfläche kann die Software ohne lange Einarbeitungszeiten bedient und gesteuert werden. Die Software lässt sich sehr einfach auf allen Rechnern mit aktuellem Windows-Betriebssystem installieren. Als Datenbank wird die kostenfreie und leistungsfähige SQL-Datenbank von Microsoft ver­wendet. Dies bietet einen entscheidenden Vorteil: Da die Daten weder verschlüsselt noch komprimiert in der Datenbank vorliegen, ist es möglich, mit den verschiedensten Software-Lösungen auf diese Daten zuzugreifen. Hieraus ergeben sich unzählige An­wen­dungs­möglichkeiten auch ausserhalb des klassischen Energiemanagements.

Zentrale und auch dezentrale Lösungen

Die Architektur der Software ist so aufgebaut, dass sowohl zentrale als auch dezentrale Lösungen möglich sind. Im Wesentlichen besteht Smartcollect aus 3 Hauptkomponenten:

1. Smartcollect Client: Grafische Visualisierung der abgefragten Daten, Export via Excel-Datei, Konfi­gurationsmodul zur Festlegung der auszu­­lesenden Datenquellen sowie Fehler-/Warn­mel­dungen via E-Mail.

2. Smartcollect Datenbank: Diese kostenfreie und offene SQL-Datenbank enthält die gesammelten Daten.

3. Smartcollect Server: Sammelt die konfigurierten Daten aus den aktiven Quellen und Kanälen und schreibt diese direkt in die zentrale Datenbank. Das Einlesen der Daten erfolgt über Modbus RTU, Modbus TCP oder OPC.

Jede dieser Komponenten kann sowohl auf einem einzelnen System (PC) oder verteilt auf mehreren Servern oder Rechnern installiert werden.

Einsatz oft in Kombination mit anderen Software-Systemen

Durch diese flexible Software-Architektur in Kombi­nation mit einer für andere Programme offenen Datenbank, kommt die Smartcollect Software in den unterschiedlichsten Anwendungen zum Einsatz.

So zum Beispiel in den typischen Anwendungen der Energie- und Kostenanalyse wie der Überwachung des Energieverbrauchs, dem klassischen Soll-Ist-Vergleich, der Beurteilung des Wirkungsgrades, der Identifikation von Spitzenwerten oder der Über­wachung von Budgetplänen.

In der Praxis wird Smartcollect jedoch auch oft in Kombination mit anderen Software-Systemen verwendet, wodurch die Anwendungsmöglichkeiten praktisch unbegrenzt sind. Beispiele hierfür sind die Kostenabrechnung und Abgabeüberwachung von Kraftstoffen an Tanksäulen, die verbrauchs­orientierte Abrechnung auf Camping und Parkplätzen oder auch die Tempe­raturüberwachung der Wasserversorgung in Krankenhäusern zur Vermeidung von Legionellenbildung.

camillebauer.com

Modularität – Vielseitig einsetzbare mapp Technology

Modularität ist überall gefragt, so auch in der Automation. In unserem Interview mit Geschäftsführer Paolo Salvagno von B & R Schweiz wollten wir wissen, wie die Produktpalette von B & R diesem Anspruch gerecht wird.

Paolo Salvagno, Modularität kann man allgemein als Baukastenprinzip benennen. Inwiefern passt hierzu das B & R-Portfolio?

Paolo Salvagno: Das B & R-Portfolio basiert wort­wörtlich auf der Idee der Modularität. Alle Hardware-Komponenten werden mit dem einzig­artigen von B & R entwickelten Automatisierungswerkzeug «Automation Studio» integriert. Heutzutage grenzen wir uns nicht mehr nur über die Hardware ab. Eine gute Software wird immer wichtiger. B & R kann von sich behaupten, hier einiges an Innovation hervorgebracht zu haben in den letzten Jahren.

In der Automatisierung werden hohe Anforderungen an die Modularität gestellt. Mit welchen Produkten ist die B & R vertreten?

Ein Höhepunkt ist einer unserer neusten Entwicklungen im Software-Bereich, die ständig weiter ausgefeilt werden, ist die mapp Technology. Mit mapp Technology revolutioniert B & R die Entwicklung von Anwender-Software in der Auto­matisierung. Modulare Software-Bausteine vereinfachen die Entwicklung neuer Programme und senken so die Entwicklungszeit für neue Maschinen und Anlagen um durchschnittlich über 60 Prozent. Vorgefertigte und geprüfte Software-­Module nehmen Maschinen- und Anla­gen­bauern seitdem die Programmierung von Basis-Funktionen ab.

Nennen Sie uns eine der wichtigsten Anwendungen für B & R-Modularität in der Automatisierung.

Wir könnten hier eine Vielzahl von Anwendungen aufzählen. Nehmen wir zum Beispiel die mapp-CodeBox, mittels der die Vielzahl an Maschinen­optionen für den Maschinenbauer endlich wieder beherrschbar gemacht wird. Der Maschinenbauer programmiert die Grundfunktionen seiner Maschine wie gewohnt. Dabei kann er festlegen, auf welche Daten, Funktionen und welche variable mapp-CodeBox er Zugriff hat. Alle Sonderwünsche und Optionen werden dann mit der CodeBox im Kontaktplan ergänzt. Nur wenn es tatsächlich Änderungen an den Grundfunktionen gibt, wird die Maschinen-Software angetastet.

Welche Anforderungen seitens der Kunden sind die treibende Kraft für neue Entwicklungen?

Der Markt fordert von unseren Kunden, dass deren Maschinen und Anlagen stetig effizienter, kompakter, präziser, einfacher und reproduzierbarer werden. Die Inbetriebnahmezeiten sollen verkürzt werden, und der Hardware sind physikalische Grenzen gesetzt. Deshalb werden immer höhere Anforderungen an die Software gestellt. Eine modellbasierte Entwicklung soll Kosten und Time to Market einsparen.

Welche Applikationen der B & R sind in der nächsten Zukunft zu erwarten?

Bereits in dieser kurzen Zeit wurde mapp hervor­ragend vom Markt angenommen. Daher baut B & R das Software-Framework weiter aus und eröffnet damit zusätzliches Einsparpotenzial bei gleichzeitig steigender Software-Qualität. Die mapp-Bausteine sind bereits für folgende Bereiche verfügbar:

– Mapp View, webbasierte Visualisierung

– Mapp Services, Nutzerverwaltung, Audit Trail, Rezeptverwaltung und mehr

– Mapp Motion, Achsenbewegungen, Kurvenscheiben, CNC, Robotik usw.

– Mapp Control, Regelungsfunktionen

Sind diese Applikationen bereits in den Produkten zur Hannover Messe enthalten?

B & R präsentiert am Messestand neben anderen Produkten die neue Industrie-PC-Familie 3100, die die Leistungsfähigkeit der neusten Core-i-Prozessoren mit einem kompakten Design kombi­nieren. Der kompakte Box-PC-Automation-PC 3100 und der Panel PC 3100 bieten zudem hohe Flexibilität durch modulare Schnittstellenoptionen und eine lüfterlose Bauweise.

Als weiteres Highlight zeigt B & R auf der Hannover Messe die Next Generation Industrial Transport Tech­no­logy, mit der sich jede Losgrösse effizient produzieren lässt. Einzelne Shuttles transportieren Produkte, die sich voneinander unabhängig bewegen und präzise mit Robotik und CNC synch­ro­nisieren lassen.

Ein neues Lösungspaket von B & R ermöglicht die Einbindung alter und isoliert stehender Maschinen in eine vernetzte Fabrik. Bisher unvernetzte Maschinen und Linien für die moderne intelligente Fabrik fit machen, war bislang nur schwer möglich. Das Lösungspaket von B & R ermöglicht nun, die Betriebsdaten alter und isoliert stehender Maschinen und Anlagen in der vernetzten Fabrik auszulesen und nutzbar zu machen. Die bestehende Hard- und Software muss nicht geändert werden.

Der Automatisierungsspezialist stellt die neuen Produkte auf der Hannover Messe 2017 in Halle 9 am Stand D28 vor.

br-automation.com

Big Data – Einblicke ins Leben von Anlagen und Maschinen

National Instruments
NI arbeitet zusammen mit IBM und SparkCognition an der Weiterentwicklung des Industriellen Internet der Dinge (IIoT) und darin im Speziellen am Condition Monitoring and Predictive Maintenance Testbed.
Da in vielen Industriebereichen, u. a. bei Schwer­maschinen, in der Stromerzeugung und in der Prozessfertigung, bessere Verfahren benötigt werden, um alternde Anlagen zu verwalten und die Lebensdauer zu verlängern, haben die drei Unternehmen National Instruments, IBM und SparkCognition beschlossen, durch eine Zusammenarbeit am Testbed ein Höchstmass an Interoperabilität zwischen Betriebs-(Opera­tio­nal Technology-) und Informationstechnik (Information Technology) sicherzustellen.

Auf KI basierende Prognosen

Im neuen Zeitalter von Big Analog Data trägt maschinelles Lernen dazu bei, aus Daten aussagekräftige Informationen zu gewinnen. So lassen sich aus den gesammelten Rohdaten wichtige Erkenntnisse ableiten, um Anlagen sowie den Betrieb und Prozesse zu optimieren. Die Technologie ermöglicht zudem Kosten­einsparungen und Wettbewerbsvorteile, da mithilfe der auf Künstlicher Intelligenz (KI) basierenden Prognosen Komponentenausfälle im Vorfeld erkannt, nicht optimale Betriebsbedingungen identifiziert und Ursachen­analysen durchgeführt werden können.

Ausfälle proaktiv verhindern

Das Condition Monitoring and Predictive Maintenance Testbed basiert auf der offenen, Software-zentrierten Plattform von NI und schöpft die aktuellen Möglich­keiten im Bereich maschinelles Lernen aus. Anwender können mit den von SparkCognition entwickelten kognitiven Analysefunktionen Ermüdungserschei­nungen und Ausfälle bei kritischen Anlagen proaktiv verhindern, da sie wichtige Einblicke in den Zustand ihrer Anlagen sowie Lösungsvorschläge für potenzielle Probleme erhalten. Dies dient der Verbesserung der betrieblichen Effizienz sowie der Sicherheit und ermöglicht zugleich eine Senkung der Wartungskosten.

Neue Möglichkeiten zur Informationsgewinnung aus Sensordaten

«Die Technologien des IIoT haben mehr und mehr Sensoren in Industrieanlagen zufolge, wodurch riesige Datenmengen anfallen. Gemeinsam ermöglichen NI und SparkCognition die komplexe und intelligente Verarbeitung dieser Informationen, um wertvolle Einblicke zu gewinnen und daraus Erkenntnisse abzuleiten», so Stuart Gillen, Director of Business Development bei SparkCognition.

«Wir freuen uns sehr, mit unserer Plattform die nötige Datenerfassungsfunktionalität bereitzustellen, um die SparkCognition-Analysen für das IIoT zu unterstützen und voranzutreiben», so Jamie Smith, Director of Embedded Systems bei NI. «In Kombination mit den bereits im Testbed vorhandenen Technologien eröffnet SparkCognition neue Möglichkeiten, um den Prozess der Informationsgewinnung aus Sensordaten zu automatisieren.»

Dieser Software-definierte Ansatz zur Darstellung, Verwaltung und Optimierung verschiedenster Anlagen­bestände unterscheidet sich deutlich von den herkömmlichen Verfahren mit festgelegten Funktionen, die nicht nur zeitintensiv sind, sondern auch speziell geschultes Personal und separate Modelle für jeden Anlagentyp erfordern.

switzerland.ni.com

Big Data – Value Sharks und neue Geschäftsmodelle

Interview: Heike Henzmann
Fotos: Holger Jacob
Rund um den Rotsee und als Thema Big Data und die Arbeit von digitalen Disruptoren: ein Gespräch mit Dr. Michael Zehnder, CEO des Start-ups Swiss Data Labs sowie Executive Vice President der Partnerfirma GateB.

Heike Henzmann: Herr Zehnder, welche Bedeutung hat der Weg rund um den Rotsee bei Luzern für Sie?

Michael Zehnder: Für mich ist der Rotsee seit frühester Kindheit und Jugend ein Ort der Ruhe. In unmittelbarer Nähe zum See bin ich aufgewachsen. Trotz dieser lokalen Verwurzelung verstehe ich mich als Weltbürger. Diese Haltung ist Ausdruck von Offenheit und einer stetigen Suche nach Innovation dank Diversität. Unter jungen Leuten mit gutem Aus­bildungs-­Background ist dies auch und gerade beim aktuell beobachtbaren Trend in Richtung Populismus noch stark verankert. Den Rotsee verbinde ich dar­über hinaus mit Sport und Outdoor-­Aktivitäten. Der Weg um den Rotsee ist meine Lieblings-Joggingstrecke. Und wegen seiner Windfreiheit ist der See auch ideal geeignet zum Rudern und Schwimmen.

Ist das Joggen für Sie ein wichtiger Ausgleich zur Arbeit?

Idealerweise wäre es das, leider kommt der Sport im Moment ein wenig zu kurz. Sich bewegen an der frischen Luft ist ein idealer Ausgleich zu meiner Arbeit in einer primär digitalen und Datengetrie­benen Welt, in der ich um­­geben bin von Algorithmen, mobilen Geräten und Displays.

Wie viele Stunden pro Tag bewegen Sie sich in der digitalen Welt?

Das ist sehr unterschiedlich. In der Start-up-­Phase einer neuen Business Unit oder einer neuen Firma arbeite ich vierzehn und mehr Stunden pro Tag, sechs Tage die Woche. Ich persönlich bin meist auch sonntags online und erreichbar. Grundsätzlich erwarten wir das jedoch nicht von unseren Mitarbeitern. Unsere Data-Scientists arbeiten üblicherweise zwischen 40 und 50 Stunden pro Woche und behalten ihre «Work-Life-Balance» im Auge.

Sie sind bei der GateB AG und bei Swiss Data Labs in Geschäftsleitungsfunktionen tätig. Wie geht das, und was machen die beiden Unternehmen?

Bei GateB bin ich seit eineinhalb Jahren als Executive Vice President tätig und arbeite somit direkt mit unserem Managing Director Olaf Gijseman zusammen. Ich kann bei GateB mit grosser Autonomie die Business Unit «Customer Intelligence & Analytics», kurz CIA, auf- und ausbauen. Als ich bei GateB einstieg, war ich zunächst allein in dieser BU, nach eineinhalb Jahren bestehen unsere Teams aus 17 Personen. Das ist – gerade im mittel­europäischen Umfeld – ein schnelles, aber solides Wachstum. Wir wägen stets ab, wie viel Wachstum organisch und gesund ist. Die Anzahl der Projekte wächst mit der Grösse unserer Teams, sodass eine hohe Qualität für die Kunden stets gesichert werden kann. GateB sitzt in Steinhausen, Los Angeles und bald auch in Singapur und ist ein Teil des «Brand Leadership Circle», eines Familienunternehmens unter der Führung von Fabian Hotz. In dem Verbund von drei Aktiengesellschaften ist GateB die Umsatzstärkste. Der «Brand Leadership Circle» ist ein Verbund von unabhängig geführten Unternehmen mit dem Ziel der markenorientierten Unternehmensführung und -entwicklung.

Während gut zwei Jahren habe ich mit drei Kollegen das Konzept und einen ska­­lier­baren Business-Plan für Swiss Data Labs entwickelt. Im letzten November haben wir gemeinsam die Firma offiziell als GmbH gegrün­det und werden in den kommenden Monaten die Umfirmierung in eine AG vornehmen. Während bei GateB der Fokus auf Beratung bei Marketing Operations und Analytics liegt, entsteht mit Swiss Data Labs ein innovatives und hoch performantes Ökosystem im Bereich Infrastruktur und Technologie, das komplementär zu GateB ist. GateB und Swiss Data Labs arbeiten somit symbiotisch zusammen. Über Swiss Data Labs akquiriert GateB Neukunden und vice versa. Da Swiss Data Labs mit den neuesten Technologien und Tools arbeitet, kann GateB von der Partnerschaft mit Swiss Data Labs stark profitieren und Projekte akquirieren, die ohne deren Kompetenzen zu weit ausser­halb der eigenen Komfortzone liegen würden. Eine typische Win-win-Situation also.

Wie sieht nun ein Big-Data-Projekt bei Swiss Data Labs genau aus? Wann nehme ich als Unternehmen Ihre Dienstleistungen in Anspruch?

Mittlerweise ist Big Data seit rund 10 Jahren ein Hype. Genau wie Data Science ist Big Data als Buzzword gross geworden und hat jahrelang weltweit Konferenzräume gefüllt. Inzwischen werden Big Data Analytics in diversen Industrien gewinnbringend eingesetzt. So haben mehr und mehr Unternehmen auch in der Schweiz und Kontinental-­Europa realisiert, welches Potenzial in Daten liegt, und nutzen Daten aus verschiedensten Quellen, um geschäfts­kritische Entscheidungen zu treffen. Unternehmen wenden sich in ver­schie­denen Maturitäts- bzw. Entwicklungs­­­­stufen an uns. Die einen sammeln strukturierte und unstrukturierte Daten aus CRM, ERP, SCM, Web, Social Media und Sensoren, sind sich aber noch nicht sicher, wie sie diese gewinnbringend nutzen können.

Häufig wenden sich auch Firmen an uns, die bereits erste Erfahrungen mit Datenauswertungen gesammelt haben. Diese möchten nun beispielsweise fort­geschrittene Vorhersagemodelle auf sehr grosse Datenmengen anwenden und benötigen dazu eine hoch per­for­mante Infrastruktur mit sicherem und einfachem Zugang. Oder sie arbeiten mit einem Sammelsurium von Dashboards, also mit verschiedenen visuellen Zusammenzügen von Daten, die praktisch nie massgeschneidert auf die Kunden­bedürfnisse abgestimmt sind. Diese Firmen kommen dann zu uns und wollen statt zehn nur ein massgeschneidertes und intuitives Dashboard. Kundenan­liegen gehen also in Richtung Vereinfachung, Ease-of-­use, und endnutzergerechte Datenauf­bereitung, Customization, mit dem Ziel, die Relevanz in der gewonnenen Information und deren Mehrwert massiv und messbar zu erhöhen.

Welchen Mehrwert liefert Swiss Data Labs im Umgang mit den Daten?

Big Data ist nie Selbstzweck. Daten an sich bringen keinen Mehrwert, sie tragen lediglich einen Informationswert. Swiss Data Labs identifiziert daraus gemeinsam mit dem Partnernetzwerk die relevanten Datenströme und Informationen, erar­beitet teilweise neue Business­relevante Kennzahlen. Diese Kennzahlen bereiten wir derart auf, dass dem Kunden zeitnah die für sein Geschäfts-­­modell relevanten Key Performance Indicators, kurz KPIs, in visuell ansprechender Weise zur Ver­fügung stehen.

GateB und Swiss Data Labs sind in Schnittstellen aktiv. Analytische Datenmodelle und künstliche Intelligenz sind schon sehr weit. Business- und Geschäfts-Modelle verändern sich naturgemäss erst mit einer gewissen Ver­zö­ge­rung. Wir bringen Menschen aus verschiedenen Welten zusammen und schaffen gegenseitiges Verständnis und Kollaboration. Wir bringen bei­spiels­weise die Welt der Informations­tech­no­logie mit der Welt des Marketings zusammen. Oder die Welt des Supply Chain Managements mit dem Top-­Management. Damit helfen wir, effektive und nachhaltige Geschäftsentscheide daten-basierter und effizienter zu treffen. Wir befähigen unsere Kunden nicht nur, schneller ans Ziel, sondern vor allem ans richtige Ziel zu kommen. Wir verstehen Performance als Produkt von Effektivität und Effizienz und generieren sichtbaren Mehrwert an Schnittstellen.

Um aus Unmengen gesammelter Daten einen Mehrwert, ein neues Geschäftsmodell zu generieren — dazu gehört viel Kreativität, oder?

Sie sprechen zwei sehr entscheidende Faktoren an für den Erfolg von Unternehmen in der digitalen Zukunft. Den produktiven Einsatz von Kreativität einerseits und das zielorientierte Herausfiltern relevanter Information aus exponentiell wachsenden Datenmengen anderseits. Kreativität ist in einem disruptiven Wirtschafts­umfeld ein kritischer Erfolgsfaktor, der gern vernachlässigt wird. Bei Projekten sind wir gefordert, «out of the box» zu denken. Aussagen wie: «Wir machen das schon immer so, es hat ja stets funktioniert», können künftig sehr teuer werden und mitunter gar zum Untergang von Unternehmen und ganzen Industrien führen. Wer weiterkommen will, muss die Treiber von digitaler Disruption verstehen, den Blick dafür im Blut haben. Man muss sein Umfeld wie ein Hai wahrnehmen können, weshalb man auch von «Digital Value Sharks» sprechen kann. Digital Value Sharks suchen in etablierten Geschäftsprozessen und -modellen nach angreifbaren Komponenten.

Was meinen Sie mit angreifbaren Komponenten?

Immer mehr Branchen geraten in einen digitalen Strudel (Digital Vortex) und werden digital angreifbar. Angreifbar in dem Sinn, dass Start-ups jene Geschäfts­bereiche mit hoher Marge und geringem Inves­ti­tionsaufwand auf­greifen und mittels technologisch überlegener Lösungen etablierte Geschäftsprozesse konkurrenzieren. Wir ermitteln und antizipieren solche Stellen, an denen Unternehmen angreifbar und verwundbar sind. Digital Sharks greifen selten eine Industrie als Ganzes an. Sie wollen nicht mit grossen etablierten Firmen um deren Gesamt­geschäft konkurrenzieren. Sie sind nur an den am stärksten wertschaffenden Bereichen interessiert.

Beispielsweise entstehen derzeit im Raum Zug junge Firmen, die mit Block Chain und ähnlichen Technologien in Bereichen wie Digital Finance, Due Diligence und Compliance arbeiten. Das Ziel dieser Firmen ist nicht, eine Grossbank wie die Deutsche Bank oder die UBS abzulösen. Sie sind nur an den hoch lukrativen Geschäftsprozessen interessiert, die aufgrund von Ver­trauens­­problemen oder ähnlichem einen hohen Grad an manuellem Aufwand benö­tigen und deshalb hohe Margen bergen. Immer mehr Menschen können mittels der digitalen Plattformen direkt mitei­nander in Kontakt treten.

Ein Beispiel dafür ist Uber. Uber ist kein Taxi-, Bus- oder Transportunternehmen, sondern ein Plattform-Anbieter. Dank dem effizienten Verbinden von Angebot und Nachfrage hat Uber den «Mittelsmann», also das klassische Taxiunternehmen mit Call Center, de facto eliminiert. So wird Uber heute als das grösste «Taxi-Unternehmen» weltweit wahrgenommen, und bald wird das Unternehmen ein Transport- und Logistikgigant sein. Auch Airbnb hat eine «multi-sided platform» etabliert, auf der eine effektive Vermittlung von Angebot und Nach­frage stattfindet. Wiederum kommen «Zwischen­händler», hier die globalen Hotel­ketten, unter enormen Druck. Es entstehen die Grundpfeiler einer digi­talen «sharing economy.»

Unternehmen wie Uber und Airbnb sammeln ja bei ihrer Vermittlung Daten, die weit über die eigentliche Anwendung hinaus genutzt werden können. Das heisst, wir zahlen das gemietete Zimmer von Airbnb oder den Transport mit Uber nicht nur mit Geld, sondern zusätzlich mit unseren Daten.

Wir zahlen heute generell immer mehr Leistungen und Produkte, die vermeintlich gratis sind, mit unseren Daten. Aus meiner Perspektive ist dieser Trend per se weder positiv noch negativ zu werten; entscheidend ist die Hand­habung und transparente Verwendung dieser Daten, also die Governance. Solche Informationen können verwendet werden, um Gutes in der Gesellschaft zu bewirken und die Lebensqualität von uns Menschen zu verbessern. Nehmen wir beispielsweise Airbnb in New York City und im australischen Bundesstaat Victoria. Das Unternehmen betreibt dort bereits seit Jahren eine neuartige Form von direkter Katastrophen­hilfe. Es hat Abkommen mit regionalen Behörden getroffen und kann im Fall von Hurrikans, Waldbränden und anderen Natur­katastrophen Lokalitäten zur Ver­fügung stellen – und zwar gratis — für die evakuierten oder fliehenden Personen. Das ist ein effizientes Verfahren, im Katastrophenfall sehr schnell Zugang zu Unterkünften zu bieten. Es muss nicht mehr zwingend eine riesige, temporäre Infrastruktur an Notunterkünften aufgebaut werden, denn die bereits verfügbaren und ungenutzten Räumlichkeiten für Übernachtung, Verpflegung und soziale Interaktion sind ja vorhanden und dank Airbnb direkt greifbar.

Aber dass Unternehmen, die über grosse Mengen persönlicher Daten der Bevölkerung verfügen, diese zum Wohl der Menschheit einsetzen, kann man ja nicht zwingend voraussetzen, oder? Braucht es da keine Regulative?

Gerade die Firmen mit sehr hoher Börsen­kapitalisierung leben von ihrer Repu­tation, ihrem Markenwert. Dadurch haben Unternehmen wie Airbnb und Uber auch grosse Public-Relations-­Teams, die sich mit Regierungen und NGOs vernetzen und aktiv zusammen­arbeiten. Bezüglich Datenmissbrauch gilt meist eine «Zero Tolerance»-Politik, sodass internen und legalen Guidelines in Zukunft eine grosse Bedeutung zukommt. Wenn diese Firmen neben dem Touch des Jungen, Frischen und Innovativen ihren Ruf als zuverlässige und integre Akteure verlieren, dann würde dies massive Konsequenzen für ihren Markenwert haben. Deshalb stellt z. B. Airbnb nicht verträumte Back­pack-­Romantiker, sondern ehemalige Finanzspezialisten und Geheimdienst-­Mitarbeiter ein, die für sichere operative und professionelle kommunikative Prozesse verantwortlich sind.

Werden Unternehmen mit ihren Datenmengen künftig in politische Gefüge eingreifen, Wahlen oder Abstimmungen beeinflussen?

Die Verfügbarkeit persönlicher Daten, die oft beobachtbare Unbedarftheit und Unwissenheit von Menschen im Umgang mit ihren Daten ist in der Tat mit Risiken verbunden. Philosophisch gesehen weiss ein Mensch heute nicht, was er morgen machen wird, und ebenso unsicher ist das künftige Handeln politischer Akteure. Aber der Umgang mit persönlichen Daten wie Gesundheits­daten, Steuerdaten usw. ist in der EU und in der Schweiz im internationalen Vergleich hinreichend stark reguliert.

Wie sicher sind Daten, die in irgendeiner Form online präsent sind?

Bei Online-Daten treten Themen wie Daten­schutz und das «Recht auf Vergessen» immer stärker ins öffentliche Interesse. Wie eben angedeutet ist Datenlokalität ein immer wichtigerer, wenn auch oft vernachlässigter Aspekt der Datensicherheit. Eine Cloud ist «just someone else’s computer» — will heissen, die Daten in der Cloud werden irgendwo lokal auf einem Server gespeichert. Deshalb spielt Datenlokalität künftig eine zunehmend wichtige Rolle und ist Teil des Businessmodells von Swiss Data Labs.

Mittelgrosse, grosse und auch inter­nationale Kunden mit Domizil in der Schweiz und Zentral-­Europa sind immer weniger bereit, kritische Daten auf Servern zu speichern, die bei Rechen­zentren unter ausländischer Hoheit stehen. Ein Alleinstellungsmerkmal, das uns als Swiss Data Labs von anderen Data Labs unterscheidet, ist die Garantie hinsichtlich der Lokalität. Unsere Server stehen in der Schweiz in einem Umfeld mit hoher politischer und ökonomischer Sicherheit, grosser Innovationskraft sowie weltweit führenden Universitäten und Technischen Hochschulen.

Was macht Swiss Data Labs konkret mit den Daten ihrer Kunden? Hosten? Managen? Analysieren?

Swiss Data Labs arbeitet mit modernster Big-Data-Technologie, die es erlaubt, sehr schnell grosse Datenmengen zu ver­arbeiten, um daraus neue Erkenntnisse zu gewinnen und finanziellen Mehrwert zu erwirtschaften. Kunden können ihre Daten dauerhaft bei uns hosten und über einen sicheren Zugang darauf zugreifen. Wir können auch nach der Analysephase die originalen und die verar­bei­teten Daten wieder zum Kunden zurückspielen. Unsere Kunden haben ausserdem die Möglichkeit, Swiss Data Labs als «Sandbox» zu nutzen. Sie können dort in einer sicheren und hoch performanten Umgebung mit ihren Daten experimentieren. Hier lernen sie «spielerisch», aus Daten einen visuell sichtbaren und quantitativ messbaren Mehrwert zu gene­rieren. Zudem kann die «Sandbox», die wir individuell auf die Kundenbedürfnisse abstimmen, als eine in sich geschlossene Infra­struktur in das Unternehmen transferiert und dort in die bestehende IT-Architektur integriert werden.

Welche Software wird hierfür beim Kunden notwendigerweise implementiert?

Unternehmen können wählen, ob sie mit proprietärer Software oder einem Open-Source-Software-Stack arbeiten möchten. Die kommende Generation von Data-Scientists ist es gewohnt, mit Open Source zu arbeiten und zu programmieren. Daneben müssen Unternehmen stets auch mögliche Anforderungen an zertifizierte «enterprise-wide solutions» berücksichtigen. Interessant ist ein weiterer Paradigmenwechsel. Früher galt unter eingefleischten Programmierern: «Wer zuerst die Maus berührt, hat ver­loren.» Das hat sich gewandelt. Egal ob proprietär oder Open-Source: Die Einfachheit der Benutzung, die sogenannte Usability, entscheidet über Erfolg oder Misserfolg eines Tools. So sind in den vergangenen Jahren im Big-Data-Umfeld Unmengen von Programmierwerkzeugen entstanden, seit einem Jahr stellen wir jedoch eine Konsolidierung hin zu einfach bedienbaren und in anderen Umgebungen einsetzbaren Tools fest. Apache Spark in einer Kombination mit Skriptsprachen wie Python oder R hat beispielsweise eine grosse Chance, sich durchzusetzen. Und mit Scala wird eine Programmiersprache, die 2004 an der EPFL in Lausanne entwickelt wurde, immer populärer und mittlerweile weltweit genutzt.

Wie könnte ein Swiss-Data-Labs-Projekt aus dem Bereich der Automatisierungstechnik aussehen?

In einer exponentiell wachsenden Datenmenge müssen relevante Informa­tionen identifiziert bzw. aufgefunden werden — gerade in der Automatisierungs­technik, die ja immer stärker sensorbasiert funktioniert und laufend Daten produziert und speichert. «Data Mining» ist zwar ein alter Begriff, aber er trifft den Nagel auf den Kopf. Nehmen wir Flugzeugtriebwerke als Beispiel. Diese sind mit diversen Sensoren ausgerüstet, sodass die Tera­bytes an Daten, die im Verlauf eines Interkontinental-Fluges generiert werden, gar nicht mehr persistent ges­peichert werden können. Um relevante Entscheidun­gen bezüglich des Zustands von Triebwerken zu treffen, muss man in Echtzeit informiert werden und agieren können. In einem riesigen Datenstrom müssen also in «real oder near real time» auffällige Muster entdeckt werden. Das ist vergleich­bar mit Gold waschen.

Analytische Mustererkennung ist dabei zentral. Im Nanosekundenbereich müssen Abweichungen detektiert werden. Daher können unmöglich alle Daten, sondern nur relevante Informationen und Erkenntnisse gespeichert und extrahiert werden. Das ist unsere Aufgabe. Mit unseren Kunden ermitteln wir, welche Daten und Indikatoren entscheidungs­relevant sind. Als «Full Big Data Service Provider» begleiten wir den kompletten Prozess, ermitteln und verstehen die zentralen Entscheidungsprozesse, die aktuell gelebt werden. Und auf dieser Basis identifizieren wir mögliche Mehrwerte und stellen die Daten, Analysen und Visualisierungen dafür bereit.

Herr Zehnder, vielen Dank für das Gespräch!

«Wir generieren messbaren Mehrwert an Schnittstellen.»
«Das Buzzword ‹Big Data› hat ein breites Bewusstsein für Daten- und Digitalisierungs- potenziale geschaffen.»

Big Data – Cebit 2017 macht Digitalisierung erlebbar

Cebit 2017
An der Cebit werden rund 3000 Unternehmen aus 70 Ländern konkrete digitale Anwendungsbeispiele und disruptive Geschäftsmodelle zeigen.
Mit einer Vielzahl von Anwendungsbeispielen, disrup­tiven Technologien und Geschäftsmodellen sowie dem gesamten Lösungsspektrum für die digitale Trans­formation von Unternehmen und Verwaltung geht die Cebit 2017 an den Start. «Die Cebit 2017 wird die Digitalisierung für unsere Besucher so konkret erlebbar machen wie noch nie zuvor», sagt Oliver Frese, Vorstand der Deutschen Messe AG.Gut 3000 beteiligte Unternehmen aus 70 Ländern werden konkrete digitale Anwendungsbeispiele zeigen, Start-ups präsentieren disruptive Geschäftsmodelle, und digitale Visionäre diskutieren über die digitale Zukunft von Wirtschaft und Gesellschaft bei den Cebit Global Conferences.

Shinz Abe, Premierminister des diesjährigen Partnerlandes Japan, und Bundeskanzlerin Angela Merkel werden im Rahmen der Welcome Night am 19. März in Halle 9 auf dem Messegelände in Hannover vor mehr als 2000 Besuchern die Cebit offiziell eröffnen. Aus dem Partnerland werden sich rund 120 Unter­nehmen in allen Themenfeldern der Cebit präsentieren.

CeBIT — The Global Event for Digital Business

«Die Cebit 2017 zeigt die Zukunft von Wirtschaft und Gesellschaft, sie macht die Digitalisierung greifbar», sagt Frese an der Cebit Preview vor mehr als 120 internationalen Journalisten. Die Veranstaltung unter dem diesjährigen Thema «d!conomy — no limits» rückt die Chancen der digitalen Transformation in den Mittelpunkt. «Digitale Innovation eröffnet Wirtschaft und Gesellschaft neue Möglichkeiten. Diese zu erkennen und zu nutzen, um so den Erfolg der digitalen Transformation des eigenen Unternehmens sicherzustellen, ist das Thema der Cebit 2017», sagt Frese. Dazu werden die ausstellenden Unternehmen mehrere Hundert konkrete Anwendungs­beispiele zeigen.

So werden viele neuartige Einsatzfelder künstlicher Intelligenz und von Cognitive Computing präsentiert. «Gerade im Business-Umfeld gibt es vielerlei Ein­satzfelder künstlicher Intelligenz, etwa in der noch umfassenderen Auswertung vorliegender Daten, in ihrer innovativen Verknüpfung oder durch Einsatz von BOT-Systemen in der Kommunikation zum Kunden», sagt Frese.

Das Thema künstliche Intelligenz wird auch bei den Cebit Global Conferences eine zentrale Rolle spielen, wenn etwa Ray Kurzweil, Director of Engineering bei Google, als einer der international profiliertesten Experten über die Zukunft künstlicher Intelligenz bei den Cebit Global Conferences (CGC) sprechen wird.

cebit.de

Cebit 2017

[IMAGE id=“4712″]
Veranstalter: Deutsche Messe AGDatum: 20. bis 24. März 2017

Ort: Messegelände,

30521 Hannover

Öffnungszeiten: Täglich von 09:00 — 18:00 Uhr

Preise für ein Dauerticket: Vorverkauf: EUR 56,00 Tageskasse: EUR 61,00

Big Data – Dringend gesucht

Datenberge wachsen unaufhörlich und immer schneller. Spezialisten im Umgang mit Big Data gehören schon bald zu den dringend gesuchten Fachkräften auf dem Arbeitsmarkt.
Oliver Ittig und Dr. Beatrice Paoli– Big Data ist überall. Im Finanzwesen, in der Industrie, im Gesundheits­bereich, im Handel, in der Werbung, in der Verwaltung — kein Wirtschaftszweig, der nicht von der digitalen Transformation betroffen ist. Nahezu in allen Unternehmen werden Daten mittlerweile im Bereich von Tera- bis Petabytes übermittelt. Neue Technologien wie erschwingliche Sensoren, flächendeckende Verbreitung von Smartphones, Wearables und Apps für alles und jeden vereinfachen die Erhebung von Daten und sorgen für einen steten Strom ständig neuer Daten.

Daten alleine sind noch kein Gewinn. Erst die Verarbeitung, Analyse und Interpretation dieser Daten zu verwertbaren Informationen liefern Unternehmen den gesuchten Mehrwert. Umso unentbehrlicher werden Mitarbeitende, welche diesen Mehrwert jetzt und in Zukunft bieten können, die nötigen Methoden, Instrumente und Tools beherrschen: die Data Scientists.

Ihr Aufgabengebiet umfasst die Sammlung und Verknüpfung von Informationen aller Art. Sie versuchen diese zu entschlüsseln und auszuwerten mit der Absicht, Wissen herauszufiltern, das dabei helfen soll, geschäftliche Ziele besser und effektiver zu erreichen.

Neues Berufsbild mit gezielter Ausbildung

Um diese Aufgaben zu meistern, benötigen die neuen Datenspezialisten fundierte Kenntnisse in Statistik, mathematischen Analysen, maschinellem Lernen, Data Analytics sowie gute Kenntnisse der einschlägigen Programmiersprachen wie «R» oder «Python». Auch entsprechende Datenbankkenntnisse und/oder das Anwenden von Tools wie das Hadoop-Ökosystem werden vorausgesetzt. Neben den mathematischen und technischen Fähigkeiten sind aber auch Branchenkenntnisse, Analyse- und Teamfähigkeit gefragt, und nicht zuletzt müssen diese Fachkräfte in der Lage sein, Daten in verständliche und zielführende Handlungs­anweisungen zu übersetzen. Doch wie wird man zum Big-Data-Spezialisten?

Ausbildungs- und Weiterbildungswege zum Data Scientist sind vielfältig. Oftmals erfolgt der Einstieg über einen Abschluss in Informatik oder Mathematik. Die weiteren Schritte sind aufgrund der Neuartigkeit dieser Berufsgattung noch relativ individuell und offen. Mittlerweile gibt es auf dem Bildungsmarkt zahlreiche (Online-)Kurse, um sich entsprechendes Fachwissen anzueignen bzw. auszubauen.

Die Fernfachhochschule Schweiz (FFHS) hat sich bereits früh auf das Thema Big Data konzentriert und betreibt in ihrem Laboratory for Web Science (LWS) anwendungsorientierte Forschung auf diesem Gebiet. Seit Kurzem bietet die FFHS ein spezialisiertes Weiterbildungsprogramm für Data Science an. Der Studiengang Diploma of Advanced Science (DAS) Data Science fokussiert Big Data, Statistik, Datenanalyse, Maschinelles Lernen und Datenvisualisierung. Innerhalb des Bachelor-Studienganges Informatik kann Data Science von den Studierenden als Ausbildungsvertiefung mit entsprechendem Abschluss gewählt werden.

Viele Unternehmen haben in Bezug auf Big Data und digitale Transformation noch einen weiten Weg vor sich. Nicht nur die schiere Menge an Daten, sondern auch deren Heterogenität und Komplexität macht es den Unternehmen schwer, die Vorteile gewinnbringend umzusetzen. Diejenigen, die den Schritt schaffen, treffen fundiertere Entscheidungen, können Prozesse effektiver gestalten und Kosten sparen. Dazu benötigen sie aber Fachkräfte, die jedoch (noch) rar und nicht leicht zu finden sind.

ffhs.ch

Big Data – Aufbruch in ein neues Maschinenzeitalter

Mindbreeze
Der Begriff Künstliche Intelligenz (KI) scheint derzeit in aller Munde, und Filme wie «I, Robot» und die Serie «Humans» beflügeln die Fantasie. Alles Science-Fiction – oder doch nicht?
Gerald Martinetz– In der Industrie sind Roboter nicht mehr wegzudenken. Sie führen immer wieder die gleichen Arbeitsschritte aus und produzieren die gewünschten Stückzahlen in gleichbleibender Qualität. Bei einem Roboter handelt es sich aber nicht gleich um eine Künstliche Intelligenz. Im Gegensatz zu Ersterem wird bei einer Künstlichen Intelligenz versucht, das menschliche Denken abzubilden. Die Technologie lernt und trifft Entscheidungen. Ursprünglich stammt die Idee der Künstlichen Intelligenz aus dem Militärbereich. Inzwischen hat die sogenannte «weiche KI» Einzug in den Alltag gefunden und wird von Google, Amazon, Übersetzungs-, Bild- und Spracherkennungsprogrammen¹ angewendet. Aber auch im Bereich der intelligenten Informationsverknüpfung und in der Medizin kommen zunehmend Methoden der KI zum Einsatz.

Aus Informationen wird Wissen

In unterschiedlichen Abteilungen und in dezentralen Produktionsstätten von Unternehmen arbeiten Menschen, die oft wenig Berührungspunkte haben. Eines haben sie aber gemeinsam: Sie erzeugen, bearbeiten, speichern oder löschen Informationen in ihren bevorzugten Anwendungen und Datenquellen. Das vorhandene Unternehmenswissen liegt verstreut im Unternehmen, wodurch sich ein hoher Aufwand bei der Bereitstellung von Informationen ergibt. Einer IDC-Studie zufolge sind Mitarbeiterinnen und Mitar­beiter rund 9,6 Stunden, also zirka 24 Prozent ihrer Arbeitswoche, damit beschäftigt, relevante Informa­tionen zu suchen. Wertvolle Arbeitszeit, die besser genutzt werden könnte.

360-Grad-Sicht auf Informationen

Insight Engines² wurden genau für diesen Anwendungs­fall konzipiert. Dahinter verbirgt sich eine auf Enterprise Search basierende Technologie, die mithilfe semantischer Analyse, Berechnung von personalisierten Relevanzmodellen und Deep-Learning-Informationen klassifiziert und relevante Querverbindungen zwischen den untersuchten Daten herstellt. Damit ermöglicht die Anwendung ein schnelles Auffinden, Analysieren und Auswerten von bedeutsamen Daten. Dabei ist es irrelevant, wo diese gespeichert sind und ob sie in strukturierter oder unstrukturierter Form vorliegen. Der Unterschied zu herkömmlichen Anwendungen besteht im Verstehen der Frage. Das heisst, statt unzählige Treffer zum Begriff zu liefern, wird nur die abgefragte Information zurückgeliefert. Durch die semantische Analyse werden die Ergebnisse mit Zusatz­informationen angereichert, die aufgrund des Kontextes für den Nutzer relevant sein könnten.

Ermöglicht wird das durch intelligente Technologien wie Natural Language Processing (NLP) und Natural Language Question Answering (NLQA). Sie helfen dem System, Textinhalte richtig zu analysieren und zu verstehen, um den Bedarf des Users korrekt zu ermitteln. Daten können somit intuitiv und in natür­licher Sprache abgefragt und direkt weiterverarbeitet werden. Für den Benutzer ergibt sich eine sogenannte 360-Grad-Sicht auf die relevanten Informationen, wodurch Rechercheprozesse beschleunigt und die Informationsbereitstellung optimiert werden.

Best Practice Luftfahrt

Gerade im Bereich der Luftfahrt ist die Echtzeitanalyse von Daten bereits sehr weit fortgeschritten. Sensoren über­wachen Flugzeugturbinen und andere Systeme. Eine Boeing 787 erzeugt beispielsweise pro Flug ungefähr ein halbes Terabyte an Daten.³ Betrachtet man nur die Bewegungsstatistik des Flughafens Zürich⁴ vom 13. Februar 2017 mit 335 Flügen, wird schnell klar, welche enormen Datenmengen täglich produziert und analysiert werden. Hinzu kommt, dass Luftfahrt­betriebe unterschiedliche Fachanwendungen und Programme nutzen und neben dem Headquarter oft internationale Standorte betreiben.

Die Komplexität und Menge der Daten, verfügbar in heterogenen Datenquellen, macht es zunehmend schwieriger, situationsbezogen die relevanten Daten im richtigen Kontext zur Verfügung zu stellen. Hier geht es vorrangig um das Darstellen und Erkennen von Korre­lationen, die mit klassischen Suchanwendungen nicht erkennbar sind. Genau an dieser Stelle beginnt das Einsatzgebiet von Insight Engines. Sie ermöglichen einen schnellen, effizienten und sicheren Zugriff auf vorhandene Daten aus unterschiedlichen Quellen (Anbindung via Konnektoren) und von unterschiedlichen Standorten. Die umfassende Semantik-Pipeline versteht die in den Daten enthaltenen Informationen und erkennt Zusammenhänge von Inhalten. Dadurch erhält der Anwender eine konsolidierte Sicht auf die relevanten Daten (360-Grad-Sicht), und zwar von jenen Informationen, die er entsprechend seinier Zugriffsrechte einsehen darf. Letztere werden bei jeder Abfrage geprüft, sodass auch kurzfristige Änderungen der Zugriffsrechte sofort berücksichtigt werden.

Ein deutsches Luftfahrtunternehmen setzt eine solche Insight Engine im Bereich der Technik ein, um Informationen zu bestimmten Bauteilen auf einen Blick, grafisch aufbereitet in einem Dashboard, zu erhalten. Durch diese intelligente Aufbereitung der Daten entfallen umfangreiche Recherchetätigkeiten, und Entscheidungen können auf Basis der grösst­möglichen Faktenlage getroffen werden.

mindbreeze.com