Fail Often, Fail Cheap – Eindrücke vom Big Data Summit 2017

“Big Data” ist inzwischen aus dem Gartner Hype Cycle verschwunden und durch “Machine Learning” ersetzt. Doch der vom Branchenverband Bitkom ausgerichtete Big Data Summit 2017, der am 15. Februar in Hanau stattfand, demonstrierte mit über 90 Vorträgen und rund 750 Teilnehmern nachdrücklich, dass Themen von Analytics über Machine Learning bis zu Künstlicher Intelligenz relevanter sind denn je.
Die grosse Zahl an Beiträgen, die konkrete Use Cases vorstellte, zeigte dabei vor allem auch, dass das Thema mittlerweile bei vielen Unternehmen in der Praxis angekommen ist.

Use Cases im Marketing

Bei der Otto Group etwa entstehen auf Basis der Daten, die 30 Millionen Unique User pro Monat auf den Portalen und Shops der Gruppe hinterlassen, neue Geschäftsmodelle. Konsequent anonymisiert, werden die mit ausgeklügelter Analytik und Deep Learning aufbereiteten Daten, nicht nur für das eigene Marketing verwendet. Auch Dritte können wahlweise die “Retail Media” der Gruppe oder direkt die dahinter liegenden Daten nutzen.

Das Reiseportal TUIfly.com wiederum setzt Machine Learning ein, um Kunden je Segment und Zeitpunkt mit relevanten Inhalten zu bedienen. Zentraler Pain Point und daher Ausgangspunkt war das Email-Marketing, bei dem unterschiedslos an die Kundenbasis versandte Mailings zu hohen Absprungraten und entsprechend hohen Akquisekosten führten. Die Herausforderung bestand darin, dass bei einer anfänglichen Conversion Rate von 0,04 % die Datenbasis für das Machine Learning relativ gering war. Dennoch gelang es bereits in einer ersten Phase, bei gleichbleibender absoluter Anzahl an Conversions die Absprungrate massiv zu senken.

Data Analytics im Zentrum der Digitalen Transformation

Der Mähdrescher-Hersteller Class zeigte eindrücklich, dass Daten und deren Auswertung im Zentrum der Digitalen Transformation liegen. Wie Unternehmen anderer Branchen auch sieht sich Claas im Wettbewerb mit Start-ups und Unternehmen der Tech-Branche, die drohen, den Landmaschinenbauer zum bloßen Lieferanten zu machen. Der Kampf geht um den direkten Zugang zum Kunden sowie um Generierung und Besitz der Daten. Dabei setzt Claas einerseits auf die Entwicklung eigener digitaler Plattformen, andererseits auf datenbasierte Lösungen wie etwa autonome Traktoren, die kontinuierlich das Erntegut vom fahrenden Mähdrescher abtransportieren.
Die Lufthansa wiederum optimiert den Digital Workplace. Dem internen Help Desk werden durch Machine Learning Handbücher und andere Dokumente ebenso aufbereitet wie Fragen und Antworten aller vorherigen Incidents.

Viele der vorgestellten Lösungen zielen auch auf Service-Modelle und Predictive Maintenance. Wenn ABB einem Minen-Unternehmen zur Kostensenkung verhilft, indem dank Sensordaten jeweils nur die Bereiche der Mine belüftet werden, in denen sich Menschen oder Maschinen aufhalten, oder wenn Siemens daran arbeitet, Kunden im Schienentransport eine planmässige Fahrzeug-Verfügbarkeit von 100 % zu ermöglichen, dann geht es ökonomisch um Themen wie Total Cost of Ownership (TCO) und Overall Equipment Effectiveness (OEE).

In die gleiche Richtung zielt auch der Maschinenbauer Schaeffler, der die Daten von Vibrationssensoren an seinen Maschinen auswertet und damit Schmierintervalle optimieren kann.

Methoden

Wie ein roter Faden zog sich die Erkenntnis durch den Tag, dass Data-Analytics-Projekte unbedingt in einem agilen Projektansatz angegangen werden sollten. Zum einen hilft dies, erst einmal mit einfachen Methoden zu beginnen und nur bei Bedarf komplexere Ansätze einzusetzen. Zum anderen berichteten auch alle Referenten einhellig, dass der letztlich erfolgreiche Analytics-Ansatz nur finden lässt, indem man immer wieder Hypothesen aufstellt, testet und gegebenenfalls rasch verwirft.
Entsprechend waren die Stichworte des Tages Fail Often, Fail Fast und Fail Cheap. Im VW Data:Lab werden potentielle Use Cases innerhalb von gerade einmal 12 Wochen zum “Do or Die” gebracht: Erfolgreiche Projekte gehen danach an die Linie, alle anderen werden zugunsten neuer Projekte aufgegeben.

Um diese Geschwindigkeit in sonst oft eher trägen Strukturen zu realisieren, setzen Unternehmen auch auf spezielle digitale Organisationen. So erzählen Mitarbeiter des VW Data:Lab in einem Video von start-up-ähnlicher Mentalität. Im Lab können sie auch Technologien einsetzen, die nicht im “Book of Standards” stehen.

Und Claas hat gleich ein eigenes Start-up in Berlin gegründet. Aber auch am Hauptstandort versucht man, mit Co-Working-Spaces die interdisziplinäre Zusammenarbeit und agile Methoden wie Design Thinking zu stärken.

Tools
Während die Keynote von Prof. Dr. Volker Markl von der TU Berlin mit einem technischen Deep Dive zur Analyse von Streaming Data in den Tag startete, blieben Tools und Technologien sonst oft eher im Hintergrund.

Auf der einen Seite hat sich bereits ein Set von gängigen Lösungen etabliert, das von Storm, Hadoop, Spark oder Flink für Big Data Analytics über MatLab, R, Python und andere im Machine Learning bis hin zu IBM Watson reicht.

Auf der anderen Seite unterstrichen viele Referenten auch, dass oft bereits vergleichsweise einfache Lösungen etwa auf Basis von Regressionsmodellen zu ersten Erfolgen führen. Herausforderungen liegen oft schon in der Zusammenführung und Bereitstellung von Daten und Datenquellen, während es bei der Wahl der Analytics-Methoden vor allem auch darauf ankommt, frühzeitig die Fachabteilungen und deren Domain-Know-how einzubeziehen.

Visualisierung

Je komplexer aller die Auswertungen werden, desto wichtiger werden User Experience und Visualisierung. Im ersten Schritt mag es noch ausreichen, mit einer roten Warnlampe direkt an der Maschine auf eine fällige Schmierung hinzuweisen. Wenn aber etwa die gesamte Fahrzeugflotte der Londoner U-Bahn auf mögliche Ausfälle von Lagern, Türen oder Klimaanlagen überwacht wird, dann kommt auch der Ergebnis-Darstellung entscheidende Bedeutung zu. Use Cases müssen präzise auf einzelne Nutzergruppen zugeschnitten und so visualisiert werden, dass der Nutzer nicht nur unmittelbar den Handlungsbedarf erkennt, sondern auch bestmögliche Handlungsempfehlungen – beispielsweise auf Basis ähnlicher früherer Ereignisse – erhält.

Ethische Fragen

Bei aller Begeisterung über die schöne, neue Datenwelt gaben die Vorträge aber auch Anlass zur einen oder anderen kritischen Diskussion. Fragen des Datenschutzes standen dabei ebenso im Raum wie Sorge um eine Kartell-artige Dominanz von Google und Facebook. Aber auch, was es denn für die Akzeptanz der sozialen Marktwirtschaft bedeute, wenn etwa die Preisgestaltung immer feiner personalisiert und individualisiert werde, kamen nicht zu kurz.

Letztlich zeigt dies vor allem eines: Big Data hat entschieden Fuß gefasst, verschiedenste analytische Ansätze des Machine Learning von einfachen Modellen bis hin zu neuronalen Netzen sind im produktiven Einsatz. Und eine Reihe von Unternehmen zeigt bereits erfolgreich, wie auf Basis von Daten und Analytics neue Geschäftsmodelle etablieren lassen. Doch noch steht die Entwicklung am Anfang, viele Fragen sind noch ungelöst, technologische wie auch solche im rechtlichen, kulturellen und sozialen Umfeld.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*

*

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>