Alle Beiträge von Daniel Metzger

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Big Data: Paradigmenwechsel im Energiesektor

Während früher die Stromaufkommen einigermaßen stabilen Tages-, Wochen-, und Monatszyklen unterlagen, fluktuieren heute die Verbräuche stärker. Dies führt dazu, dass immer mehr Einflussgrößen in die Berechnung für die Stromproduktion oder den Zukauf ins Spiel kommen.

Regenerative Energiequellen stehen außerdem nur zeitweise zur Verfügung. Die Basisversorgung kommt noch klassisch über kalorische Kraftwerke oder über den Zukauf auf der Leipziger Strombörse. Außerdem spielt mittlerweile die dezentrale Stromgewinnung auf den Dächern von Betrieben und Privathäusern eine Rolle – Photovoltaik wurde staatlicherseits lange finanziell üppig gefördert, auch wenn die Förderung mittlerweile etwas zurückgegangen ist.

Wechselndes Stromaufkommen

Nun steht nicht zu jeder Uhrzeit dieselbe Strommenge zur Verfügung – auch wird im Tagesablauf Strom nicht gleichmäßig verbraucht. Mittags und abends erreicht beispielsweise der private Konsum seinen Höhepunkt. Der Energiebedarf im betrieblichen Umfeld lässt sich etwas stabiler voraussagen.

Deswegen bauen Energieversorger in zunehmendem Maße auf intelligente Systeme. Smart Metering, also die Verwendung intelligenter Stromzähler, setzt sich nach und nach in Privathäusern durch. Diese werden nicht – wie früher – ein- oder mehrere Male im Jahr abgelesen, sondern mehrmals in der Stunde abgerufen. Mit ihrer Hilfe könnten die Energieversorger besondere Tarife anbieten, die Endverbraucher dazu motivieren, energieintensive Aufgaben wie etwa Waschen und Trocknen von Wäsche in eine Zeit zu verlegen, in der Energie in hohem Maße bereitsteht.

Moderne IT-Infrastruktur notwendig

Um dies zu gewährleisten, ist aber eine besonders leistungsfähige IT-Infrastruktur notwendig. So müssen die Daten eines jeden Smart Meters erfasst werden. Daher muss die Plattform, die die Daten speichert und analysiert, flexibel und wirtschaftlich sein, um dem ständig wachsenden Volumen gerecht zu werden. Diese Daten werden zusammengefasst, denn ein Einzelwert ist bei der Erfassung eines Verbrauchstrends nicht relevant. Es ist wichtig, dass die Plattform Datensilos eliminieren kann, damit die Organisation ein vollständiges Bild von ihren Betriebs- und Kundendaten erhält. Schließlich wird auf Basis der gewonnenen Informationen ein Prognosemodell erstellt, aufgrund dessen die Kraftwerksplanung beziehungsweise die Planung der Stromaufkäufe besser durchgeführt werden kann.

Big Data verbessert Netzstabilität

Doch nicht nur die Berechnung der anfallenden Verbräuche und Stromlasten ist datenintensiv. Auch die Optimierung des Netzes erfordert eine leistungsfähige Big-Data-Architektur. Hier ist es von Bedeutung, dass sie sich den verändernden Maßstäben anpasst. Denn dass ein Netz sowohl bei Überlastung als auch bei zu wenig Stromaufkommen instabil wird, stellt die Betreiber vor einem schon seit Jahrzehnten bekannten Dilemma. Früher haben auch hier Prognosemodelle ausgeholfen. Großverbraucher, in den Alpen beispielsweise Skiliftbetreiber, mussten ihren Betrieb rechtzeitig vorher anmelden. Dies geschah teilweise manuell. Mit der Anbindung an eine Datenarchitektur können die Stabilität des Netzes und die Verfügbarkeit der erforderlichen Energie schneller und präziser dargestellt werden.

Zusammenspiel der Daten

Neben den operativen Daten arbeiten Energiekonzerne mit Abrechnungsdaten. Früher waren diese Datenkreise getrennt. Das erschwerte die unternehmensübergreifende Verarbeitung von Informationen und führte zu redundanten Strukturen. Sind diese Datenpools vereinigt, ergibt sich automatisch auch ein kostensparender Effekt, da nicht nur die Datenverarbeitung budgetschonender vonstattengehen kann, auch der mit dem Informationsmanagement betrauter Personenkreis kann effizienter zusammenarbeiten – auch hier wird überflüssige Mehrarbeit eingespart, was sich wiederum positiv auf das Betriebsergebnis auswirkt.

Der Einsatz von Connected-Data-Plattformen erleichtert den Versorgern und Netzbetreibern ihre Planung, die effiziente und nachhaltige Stromerzeugung sowie die Abrechnung erheblich. Mit dem Einsatz von IoT und Big Data findet besonders im Energiesektor derzeit ein Paradigmenwechsel statt.

Blockchain in der Produktion

In der Produktion sind, durch das Zusammenspiel verschiedener Zulieferer, mehrere Parteien zugange, die in verschiedene Transaktionen involviert sind. Erfolgt ein Produktionsschritt, kann sein korrekter Abschluss im Netzwerk überprüft werden. Das Ergebnis, die sogenannte Konsensfindung, wird jedem Teilnehmer des Netzwerks übermittelt und so dezentral abgelegt. Um den Produktionsprozess auf IT-Seite zu stören, genügt es somit nicht, eine zentrale Datenbank anzugreifen – die Daten sind an mehreren Punkten verfügbar. Auf diese Weise gewinnt man zusätzliche Sicherheit durch Redundanz der Daten, sogar bei Nutzung unsicherer Übertragungswege.

Die Daten können dabei komplett verschieden beschaffen sein. Einerseits fallen hier die Produktions- oder Messdaten an, andererseits können auch Verträge oder Abkommen mittels Blockchain sicher abgelegt werden. Durch den dezentralen Ansatz werden koordinierende Stellen, die sicherstellen, dass Transaktionen korrekt ablaufen, überflüssig. Das System überprüft sich sozusagen autark.

Big Data prädestiniert für Blockchain

Besonders bei Big-Data-Anwendungen eignet sich die Verwendung von Blockchain, denn hier steht eine enorme Menge an strukturierten und unstrukturierten Daten zur Verfügung. In einem Prozess mit vielen Teilnehmern wäre die zentrale Verwaltung dieser Daten zwar möglich, ein solches System wäre aber auch, weil eben nur ein System, leichter manipulier- und angreifbar als dezentrale Lösungen. Moderne Big-Data-Plattformen können durch ihre Beschaffenheit eben auch genau diese dezentral anfallende Datenbestände sicher verwalten und sind somit eine Grundlage für die Nutzung von Blockchains.

Transparenz ist ein weiterer, nicht zu unterschätzender Vorteil beim Einsatz von Blockchain. Durch den Wegfall eines zentralen Administrators nehmen die verschiedenen Akteure selbst am Management des Gesamtkonstrukts teil. So ist der Produktionsprozess effizienter, kostengünstiger und besser gegen Manipulationen gewappnet.

Darüber hinaus liefert die Blockchain auch im Anschluss an die Produktion besondere Vorzüge. Bei Verkauf und nach Auslieferung kann durch die Ausgabe eines Blockchain-Zertifikats sowohl die Echtheit des Produkts als auch die ordnungsgemäße Entsorgung nachgewiesen werden. Dies wäre eine Verlängerung der im Produktionsprozess notwendigen Informationsabläufe über die Lebensdauer des Produkts hinaus – zu annehmbaren Kosten – und kann gegenüber dem Käufer als Gütesiegel beworben werden. So kommt eine transparente Lieferkette zustande, die sowohl im Interesse des Herstellers, seiner Zulieferer als auch des Handels ist.

Die ersten Schritte in die Produktion hat Blockchain bereits hinter sich. Namhafte Automobilhersteller haben dieses Prinzip in ihre Fertigung bereits implementiert. Welche Erfahrungen sie damit machen und ob die Blockchain die in sie gesetzten hohen Erwartungen erfüllen kann, muss sich noch zeigen.