Programm

Predictive Analytics World Berlin
13.-14. November 2017, Estrel Hotel Berlin


Predictive Analytics World for Business - Berlin - Tag 1 - Montag, 13. November 2017

08:00 Uhr
Registrierung und Frühstückssnacks
08:55 Uhr
Raum: Estrelsaal A
Begrüßung durch den Moderator und Program Chair Martin Szugat
Die Session Beschreibung folgt in Kürze.
Ausführliche Beschreibung
Referent
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
09:00 Uhr
Raum: Estrelsaal A
Sessions werden auf Englisch gehalten
EXPO+
Keynote:
  • Understanding the audience to deliver optimal content
  • Understanding often runs through logged behavioral data
  • Can we leverage methods from polling to generate additional insights?

For media organizations an understanding of one's audience is key to delivering optimal content. The path to this understanding often runs through logged behavioral data, but can we leverage methods from the world of polling to generate additional insights?

Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Haile OwusuMashable
Chief Data Scientist
Mashable
09:45 Uhr
Raum: Estrelsaal A
  • Deep Learning-Anwendungen für Predictive Analytics im Retail
  • Anwendungen aus dem Bereich der Netzwerk- und Komplexitätstheorie
  • Bedeutung für das Retail-Business

Der Handel ist ein komplexes System, in dem immerzu heterogene Daten generiert werden. Während viele Händler noch mit den Herausforderungen von Omni-Channel-Retail kämpfen, haben sich andere zu Technologieunternehmen gewandelt. Diese Vorreiter extrahieren nicht nur Erkenntnisse und generieren Prognosen aus ihren Daten, sondern sie verändern ihr operatives Geschäft disruptiv. Data Science und Predictive Analytics sind die wesentlichen Faktoren, die diese Transformation antreiben. Dabei kommt der Methode des Deep Learnings eine besondere Rolle zu. Der Vortrag zeigt ausgewählte Beispiele von Deep Learning-Anwendungen für Predictive Analytics im Retail. Neben Deep Learning lernen Sie auch Beispiele für Anwendungen aus dem Bereich der Netzwerk- und Komplexitätstheorie kennen und erfahren, wie diese Methode das Retail-Business nachhaltig verändern.

Ausführliche Beschreibung
Gesponsert von
7LYTIX
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
10:15 Uhr
Raumwechsel für Kombi-Pass-Teilnehmer
10:20 Uhr
Raum: Estrelsaal A
Sessions werden auf Englisch gehalten
Track 1 - Case Study
  • Common multivariate driver models rarely show impact on brand health measures or other outcome metrics
  • For Marketing professionals it is crucial to know the impact of brand perception levers on brand measures for related marketing investments
  • In this session an innovative and easy-to-use Excel simulator for modeling Visa's brand preference will be shown simplifying budget allocation decisions

Common multivariate driver models solve for relative impact of brand drivers, but rarely show impact on brand health measures or other outcome metrics. Educated decisions are expected from brand messaging related marketing investments. We present an innovative solution for modeling Visa’s brand preference based on individual-level survey data, comparing various prediction strategies and showcasing an easy-to-use Excel simulator. By taking current performance into account and modeling on an individual level we are able to show the precise impact of brand perception levers in an easy to use and comprehensive format. This shifts the predictive power of the driver model into the hands of key decision makers and stakeholders, thereby creating actionable insights for marketing teams.

Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referenten
Amit DograVisa
Director, Global Product Marketing
Visa
Dr. Albrecht KüfnerFactWorks
Director
FactWorks
Raum: Salon Lyon
Sessions werden auf Englisch gehalten
Track 2 - Case Study (maximal 25 Personen, First Come First Serve!)
  • Predictive maintenance is a crucial factor to avoid unplanned machine shutdowns at Linde
  • Common predictive maintenance approaches didn't deliver sufficient results
  • In this session Linde's tailormade approach to predictive maintenance will be presented

Linde as industrial gas company is operating hundreds of large-scale industrial plants worldwide. Big critical components like rotating machines are equipped with dozens of sensors and deliver a continuous data stream. In total, hundred thousands of sensors generating gigabytes of sensor data every day.

The high reliability of these machines led to a low number of total shutdowns in the past. The variety of the failures, causing the shutdowns, provides an additional level of complexity. Thus, applying common predictive maintenance approaches like pattern recognition did not deliver the expected results.

This track will demonstrate how smart data science and operational expertise in combination, can be the key enabler to the overall goal: The prediction of necessary maintenance activities and the avoidance of unplanned shutdowns.

Ausführliche Beschreibung
Referenten
Christoph HeckmannThe Linde Group
Business Development Manager
Rico Knapperanacision
Chief Data Scientist
anacision
Raum: Office Passage
Track 3 - Case Study (maximal 25 Personen, First Come First Serve!)
  • Einblick in die Prognosemodelle für den Performance Display Kanal bei OTTO
  • Fokus auf Gebotsindividualisierung
  • Datenrückflüsse gewährleisten Verbesserung der Modelle

Erhalten Sie einen Blick in den analytischen Motorraum von Data Driven Display bei der OTTO GmbH. Erfahren Sie mit welchen Prognosemodellen OTTO den Performance Display Kanal datengetrieben für seine Nutzer relevant und effektiv macht und was wir dabei gelernt haben. Vertiefen Sie mit uns unsere aktuelle Initiative Gebotsindividualisierung, bei der wir im Rahmen der vorgegeben Kampagnenbudgets ROI maximierende nutzerindividuelle Gebote berechnen. Dabei prognostizieren wir durch maschinelles Lernen den Mehrwert der AdImpression am aktuellen Nutzer innerhalb seiner dynamisch attribuierten Customer Journey und den Wettbewerb auf dieser Auktion. Datenrückflüsse aus den Auktionen schließen den Kreislauf und verbessern die Modelle kontinuierlich.

Ausführliche Beschreibung
Referenten
Timo ChristophersenOTTO GmbH & Co KG
Leiter des Bereichs Business Intelligence Data Science
OTTO
Christian JungingerOTTO GmbH & Co KG
Data Scientist
OTTO
11:10 Uhr
Kaffeepause
11:35 Uhr
Raum: Estrelsaal A
Sessions werden auf Englisch gehalten
Track 1 - Case Study
Teil 1
  • Learnings from AI Experimenets at Experteer
  • Benchmarking (Recurrent Convolutiona) Neural Networks for extensive classification based on decision trees and SVM
  • Benefits for the day-to-day operations

Classification of text documents is one of the core processes that we have successfully automated with Machine Learning. The challenges we face in the HR Industry are often related to very long text documents in fairly unstructured nature that have to be classified in hundreds of categories. We decided to benchmark our current solution, based on a combination of linear classifiers (SVM, Naïve Bayes, Decision Trees) to a range of algorithms that have generated a lot of buzz. In my presentation we look at how neural networks perform in the area of long document classification on the example of job descriptions. Additionally, we also take a look at Fasttext as an alternative and benchmark all solutions together to see how they perform from a business perspective. To finish, I give you a short overview on our current architecture and how you can use such models in a production environment.

Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Alexander Chukovskiexperteer
Director Data Services
Experteer
Teil 2
  • Launch of a completely new data science program
  • Forming of the analytics strategy, analytics roadmaps, and selected tooling, technology and vendors
  • Recruitment of a top-notch data science team

In this case study, we’ll explore the challenges and opportunities faced by Dr. Stephenson when he was brought onboard by Belvilla, an Axel Springer subsidiary and one of Europe’s leading online booking platforms, to launch a completely new data science program during a period of triple digit company growth. We’ll discuss how the analytics strategy was formed, the short- and long-term analytics roadmaps were  constructed, and tooling, technology and vendors were selected. We’ll also talk about how perhaps the most difficult objective, the recruitment of a top-notch data science team was achieved.

Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Dr. David Stephenson
Freelance Data Scientist
Raum: Salon Lyon
Track 2 - Deep-Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
  • Manuelles Testen von Modellierungen für große Datensätze ist zeitaufwendig
  • Analyse von Big Data mit Hilfe von unüberwachtem maschinellem Lernen?
  • In dieser Session werden Varianten des klassische Clusterings und deren Strukturierung diskutiert, um effektive Visualisierung zu ermöglichen

Big Data-Analysen erfordern komplexe "tiefe" Analyseverfahren, die in großen Datensätzen interessante Zusammenhänge finden. Analysten verbringen viel Zeit damit, Modellierungen für solche Datensätze manuell auszuprobieren und nach verwertbaren Datenpunkten zu suchen. Kann ein Computer dabei helfen? Unüberwachte Formen des maschinellen Lernens können bei der "Erkundung" von neuen, großen Datensätzen helfen, solche inneren Strukturen an die Oberfläche zu bringen. Wir diskutieren nützliche Varianten des klassischen Clusterings basierend auf naiven Bayes-Modellen und wie diese Modelle weiter strukturiert werden können, um effektive Visualisierungen von großen Datensätzen zu erhalten.

Ausführliche Beschreibung
Referent
Dr. Christoph BestGoogle
Senior Computational/Data Scientist
Google
Raum: Office Passage
Track 3 - Deep Dive Expert Session (maximal 25 Personen, First Come First Serve!)
  • Vielzahl der anfallenden Daten werden nur zur ihrem originären Zweck verwendet und nicht für weitere Nutzungsmöglichkeiten archiviert
  • Fundament für Industrie 4.0 durch sicheren und zertifizierten Datenaustausch zwischen Unternehmen
  • Nutzung und Verbreitung von Smart-Service-Konzepten

Die Wertschöpfung in der produzierenden Industrie ist heutzutage geprägt von kapitalintensiven Produktionsanlagen, welche sich durch einen hohen Grad an Automatisierung auszeichnen. Dabei liegt es in der Natur der Sache, dass im fortlaufenden Betrieb eine Vielzahl von Daten anfallen. Oftmals werden diese aber nur zur ihrem originären Zweck, dem Steuern und Regeln der Produktionsprozesse verwendet und nicht etwa für weitere Nutzungsmöglichkeiten archiviert.

Im Rahmen des Deep Dive Workshops zeigen wir am Beispiel von Anlagensteuerungsdaten und Sensorik zur Zustandsüberwachung, wie über intelligente Prozess- und Maschinendatenerfassung Smart Services entstehen können, aber auch welche neuen Herausforderungen bezüglich Daten- und Informationsaustausch auf Industrieunternehmen im Kontext Industrie 4.0 zukommen werden. Hier stellen wir den Industrial Data Space vor, der ein Fundament für Industrie 4.0 bildet, indem er sicheren und zertifizierten Datenaustausch zwischen Unternehmen ermöglicht, ohne dass die Eigentümer der Daten die Souveränität, d.h. die Kontrolle über ihre Daten verlieren. Er fördert damit die Nutzung und Verbreitung von Smart-Service-Konzepten.

Ausführliche Beschreibung
Referent
Stefan WeingärtnerDatatroniq
CEO
DATATRONIQ GmbH
12:30 Uhr
Mittagspause
13:30 Uhr
Raum: Estrelsaal A
Sessions werden auf Englisch gehalten
EXPO+
Keynote
  • Focus on data storytelling used to be on visualization techniques
  • The task of interpreting the models becomes more complex, because data becomes more complex
  • Ways to unravel complex descriptive and predictive models

As data science captures more attention from decision makers, translating the models from the language of the analyst into a language of the decision maker has become an important topic at conferences and in journals. It used to be that the focus on data storytelling was on visualization techniques. While this is important, as analyses become more complex, the task of interpreting the models likewise becomes more complex. Before we can decide on visualization techniques, we first need to uncover what to visualize. In this keynote, Mr. Abbott will describe ways to unravel complex descriptive and predictive models so they can be explained and visualized using machine learning models and resampling techniques. 

Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Dean AbbottSmarterHQ
Co-Founder and Chief Data Scientist
SmarterHQ
14:15 Uhr
Raum: Estrelsaal A
  • Predictive Maintenance und Total Asset Optimisation
  • Praktische Anwendungen von Machine Learning

    In seinem Vortrag stellt Dominik Claßen eine Herangehensweise für IoT-Lösungen vor, insbesondere für die populärsten Anwendungen - Predictive Maintenance und Total Asset Optimisation. Sein Vortrag beinhaltet praktische Anwendungsszenarien für automatisiertes Machine Learning: Zwei Use Cases verdeutlichen, wie Unternehmen dank Machine Learning und eines hohen Automationsgrads massive Ersparnisse pro Asset erzielen konnten. Und wie dies sogar zu einer radikalen Änderung des kompletten Geschäftsmodells führte.

     

    Ausführliche Beschreibung
    Gesponsert von
    it-novum + Hitachi
    Moderator
    Martin SzugatDatentreiber GmbH
    Geschäftsführer
    Datentreiber GmbH
    Referent
    Dominik Classenit-novum + Hitachi
    Director of Sales Engineering EMEA & APAC
    Hitachi Vantara
    14:45 Uhr
    Raumwechsel für Kombi-Pass-Teilnehmer
    14:50 Uhr
    Raum: Estrelsaal A
    Solution Spotlight

    Sehen Sie, wie Dataiku DSS Data Science Projekte unterstützt und worauf Enterprise-Kunden achten, wenn sie Projekte in Produktion überführen wollen:

    • Sicherheit
    • Monitoring
    • Reproduzierbarkeit
    Ausführliche Beschreibung
    Gesponsert von
    Dataiku
    Moderator
    Martin SzugatDatentreiber GmbH
    Geschäftsführer
    Datentreiber GmbH
    Referent
    Matthias FunkeDataiku
    Principal Solution Architect
    Dataiku
    Raum: Salon Lyon
    Track 2 - Deep Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
    • Methoden und Algorithmen vzur Extraktion von Anomalien und Auffälligkeiten aus großen Datenmengen
    • Bspw. Zeitreihenanalyse, Mustererkennung, Ursachenanalyse und Gruppenbildung
    • Maschinelles Lernen ohne sog. Labels

    Viele Firmen haben in den letzten Jahren umfangreiche Data Lakes erstellt, in der Hoffnung, mit den daraus gewonnenen Erkenntnissen Geschäftsentscheidungen zu verbessern und zu beschleunigen. Doch es macht sich mittlerweile auch erhebliche Frustration breit, weil sich die Extraktion nützlicher Informationen aus großen Datenmengen doch erheblicher schwieriger gestaltet als ursprünglich angenommen. Dieses Tutorial stellt einige generell anwendbare Methoden und Algorithmen vor, mit den sich Anomalien und Auffälligkeiten aus großen Datenmengen extrahieren lassen. Hierzu gehören beispielsweise: Zeitreihenanalyse, Mustererkennung, Ursachenanalyse und Gruppenbildung. Auch wird ein Verfahren gezeigt, wie maschinelles Lernen zum Einsatz kommen kann, auch wenn keine sog. Labels zur Verfügung stehen, was in der Praxis oftmals der Fall ist.

    Ausführliche Beschreibung
    Referent
    Norbert KraftNokia Bell Labs
    Referent Research & Technology
    Nokia Bell Labs
    Raum: Office Passage
    Sessions werden auf Englisch gehalten
    Track 3 - Deep Dive Expert Session (maximal 25 Personen, First Come First Serve!)
    • Deep Learning and Deep Neural Networks demystified
    • From data-driven to smart modeling bringing together data, artificial intelligence and domain knowledge
    • Applications of deep neural networks inside Siemens and their benefits

      This session focuses on a new hype wave in neural network modeling called Deep Learning or Deep Neural Networks. Dr. Ralph Grothmann will look behind the scenes and explain the differences between “standard” feedforward and deep neural network models. The decay in gradient information over long chains of hidden layers can be avoided by e.g. multiple outputs, information highways or short cuts, as well as stochastic learning rules. Auto-associators and convolutions enable us to model high-dimensional input spaces by the automated generation of features. Besides deep feedfoward neural networks we will also deal with time-delay recurrent neural network architectures, where deepness is a natural feature when non-algorithmic learning techniques like error backpropagation through time are used. Dr. Ralph Grothmann will give examples of the application of deep neural networks form recent project work and show the merits of the “new” approach in comparison to non-deep modeling techniques. Among others you will deal with the modeling of e.g. the energy supply from renewable sources, energy load forecasting as well as the identification of features responsible for component failures and soft sensor modeling.

      Ausführliche Beschreibung
      Referent
      Dr. Ralph GrothmannSiemens
      Principal Consultant
      Siemens AG, Corporate Technology
      14:55 Uhr
      Raum: Estrelsaal A
      Track 1 - Case Study
      • Herausforderungen der fachlich- technische Verknüpfung von klassischer BI und moderner Data Science
      • Dimensionen Technologie, Tools, Prozesse, Skills, Organisation und Unternehmenskultur
      • Erfolgsfaktoren dieses Changeprozesses

      Die fachlich- technische Verknüpfung von Aspekten der klassischen BI und moderner Data Science – alles möglichst unter einem Dach – stellt viele Unternehmen teilweise vor große Herausforderungen.

      Wie bringt man Enterprise-Architektur, Governance und Stabilität einerseits mit Agilität, Data Science und Big Data-Fähigkeit andererseit unter einen Hut?

      "Will it blend?" ist dabei die Frage, die sich viele Unternehmenslenker heute stellen und für die in den Dimensionen Technologie, Tools, Prozesse, Skills, Organisation und Unternehmenskultur Antworten erarbeitet werden sollten.

      Im Rahmen der Präsentation beleuchtet Herr Nolte anhand seiner praktischen Erfahrungen die wichtigen Erfolgsfaktoren dieses Changeprozesses.

      Ausführliche Beschreibung
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      Dr. Matthias NolteBerliner Sparkasse
      Head of BI Servies
      Berliner Sparkasse
      15:35 Uhr
      Kaffeepause
      16:00 Uhr
      Raum: Estrelsaal A
      Track 1 - Case Study
      Teil 1
      • Auswirkungen der europäischen Datenschutzgrundverordnung (General Data Protection Regulation – GDPR) auf Unternehmen
      • Welche juristischen Änderungen sind wichtig? 
      • Antworten der GDPR auf die technischen Fragen von morgen

      Ab 2018 wird die europäische Datenschutzgrundverordnung (General Data Protection Regulation – GDPR) in nationales Recht umgesetzt. Damit geht ein langer politischer Prozess in einer Zeit zu Ende, in der sich die digitale Welt schon zweimal um sich selbst gedreht hat. Welche Auswirkungen haben die neuen Regelungen auf die Unternehmen? Welche juristischen Änderungen sind wichtig und welche Antworten bietet die GDPR heute auf die technischen Fragen von morgen wie künstliche Intelligenz und Predictive Analytics?

      Ausführliche Beschreibung
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      Björn Stecherinitiative d21
      stellvertretender Geschäftsführer
      Initiative D21 e.V.
      Teil 2
      • DSGVO (Datenschutzgrundverordnung / Englisch GDPR) ist das weitestreichende Gesetz zum Schutz persönlicher Daten
      • Die fünf Kernthemen, die für das Predictive Modeling relevant sind
      • Konkrete Beispiele zur Lösung dieser Herausforderungen basierend auf Open Source Software 

      Die neue DSGVO (Datenschutzgrundverordnung / Englisch GDPR), die am 25. Mai 2018 für die gesamte EU in Kraft tritt, ist das weitestreichende Gesetz zum Schutz persönlicher Daten. Es birgt einige neue Anforderungen an Data Scientists im Umgang mit persönlichen Daten – sowohl im B2C als auch im B2B-Umfeld. Dieser Vortrag befasst sich aus praktischer Sicht mit fünf Kernthemen, die für das Predictive Modeling relevant sind: Informationspflicht, Erlaubnis für die Datennutzung, Recht auf Vergessenwerden, Diskriminierung und Pseudodiskriminierung sowie Anonymisierung von Daten. Der Vortrag stellt konkrete Beispiele zur Lösung dieser Herausforderungen vor, die auf Open Source Software basieren und die Sie im Anschluss selbst ausprobieren können.

      Ausführliche Beschreibung
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      Phil WintersCIAgenda
      Experte für Strategien aus der Kundenperspektive
      CIAgenda
      Raum: Salon Lyon
      Sessions werden auf Englisch gehalten
      Track 2 - Deep Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
      • Guided tour through the most important R packages
      • How to use R for predictive modeling
      • Work with universal and specialized packages and much more

      R is a standard tool for predictive modeling. It allows to use hundreds of predictive models and build complex workflows. The presentation is a guided tour through the most important R packages. It is illustrated with working R examples. You will learn how to:

      – use R for predictive modeling including feature selection, model building, validation, and deployment

      – work with universal and powerful packages `caret` and `mlr`

      – a couple of specialized packages like `xgboost` and `caretEnsemble`

      – supporting packages like `PMML`

      – as a help we will use H2O and Spark

      – and others

      Ausführliche Beschreibung
      Referent
      Dr. Artur SuchwalkoQuantUp
      Data Scientist, Owner
      QuantUp
      Raum: Office Passage
      Track 3 - Deep Dive Expert Session (maximal 25 Personen, First Come First Serve!)

      Das Angebot an Software für Advanced Analytics und Machine Learning wächst und wird mitunter unübersichtlich. Zahlreiche Open Source Angebote, aber auch proprietäre Softwarepakete stehen zur Verfügung. In dieser Deep Dive Session wird zuerst ein kurzer Überblick über das Angebot an Software gegeben und die Unterschiede bzw. Stärken und Schwächen der Softwarepakete werden skizziert. Im Anschluss werden drei Lösungen „live“ anhand von konkreten Beispielen vorgestellt. 

      RapidMiner
      TensorFlow
      H20.ai  

      Ausführliche Beschreibung
      Referent
      Michael Oettinger
      Data Scientist
      oetti-ds
      17:00 Uhr
      Raumwechsel für Kombi-Pass-Teilnehmer
      17:05 Uhr
      Raum: Estrelsaal A
      Sessions werden auf Englisch gehalten

      Ever since the British Navy launched its Longitude prize in 1714, have prizes and competitions advanced science, technology and business. Lindberg crossed the Atlantic to win the Orteig prize, DARPA’s grand challenges led to the development of the autonomous car, and Netflix used data competitions to increase its revenues dramatically. Today we are announcing the 42.ai competitions where corporates can connect with hundreds of brains from selected AI start-ups to solve your data challenges in a secure way.

      Die Session Beschreibung folgt in Kürze.
      Ausführliche Beschreibung
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      17:10 Uhr
      Raum: Estrelsaal A
      Sessions werden auf Englisch gehalten
      Keynote
      • True innovation starts with asking Big Questions
      • New perspectives on the Big Data and Data Science challenges we face today
      • How learning from the past can help you solve the problems of the future

      The “Big Data” and “Data Science” rhetoric of recent years seems to focus mostly on collecting, storing and analysing existing data. Data which many seem to think they have “too much of” already. However, the greatest discoveries in both science and business rarely come from analysing things that are already there. True innovation starts with asking Big Questions. Only then does it become apparent which data is needed to find the answers we seek.
      In this session, we relive the true story of an epic voyage in search of data. A quest for knowledge that will take us around the globe and into the solar system. Along the way, we attempt to transmute lead into gold, use machine learning to optimise email marketing campaigns, experiment with sauerkraut, investigate a novel “Data Scientific” method for sentiment analysis, and discover a new continent.
      This ancient adventure brings new perspectives on the Big Data and Data Science challenges we face today. Come and see how learning from the past can help you solve the problems of the future.

      Ausführliche Beschreibung
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      Lukas VermeerBooking.com
      Data Scientist
      Booking.com
      18:05 Uhr
      Ende des ersten Konferenztages
      18:30 Uhr
      Abfahrt der Shuttlebusse
      19:00 Uhr

      Abendveranstaltung:

      DDB Networking Lounge

      Predictive Analytics World for Business - Berlin - Tag 2 - Dienstag, 14. November 2017

      08:00 Uhr
      Registrierung und Frühstückssnacks
      09:00 Uhr
      Raum: Estrelsaal A
      Sessions werden auf Englisch gehalten
      Keynote
      • How Deep Learning is fuelling the Artificial Intelligence hype
      • Examples of breakthrough Deep Learning Applications
      • Demos of Neural Networks in forecasting employed by leading companies

      Artificial Intelligence (AI) and Machine Learning (ML) have caught the attention of the tech community, fuelled by the availability of Big Data and the advent of Deep Neural Network algorithms. As a result, tech leaders of Facebook, Google, Amazon, Uber and Cisco promise disruptive breakthroughs in industry applications across manufacturing, logistics, and retailing, well beyond the beyond the current applications of face/image/speech recognition.

      However, the adoption of AI in time series prediction and forecasting is lagging, with only few applications showcased to date. This presentation will show live demos of how artificial neural networks learn from time series data and forecast in real-time, using historic sales data at FMCG manufacturer Beiersdorf, global calendar effects at logistics provider Virgin Atlantic Cargo, and weather, price and football effects for beer manufacturer ABInBev.

      Ausführliche Beschreibung
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      Prof. Dr. Sven CroneLancaster Research Centre for Forecasting
      Director
      Lancaster Research Centre for Forecasting
      09:45 Uhr
      Raum: Estrelsaal A
      Sponsored Session:
      • Von der Idee mittels Data Analytics zum Erfolg
      • Wie kann eine nachhaltige und skalierbare Data Analytics-Umgebung entstehen?

      Von der Idee mittels Data Analytics zum Erfolg: die schier unendliche Menge an Daten führt häufig dazu, dass Data Analytics-Projekte enorme Dimensionen annehmen. Man verliert sich in Open Source- und Technologie-Diskussionen und steht vor einem Riesenberg an Anforderungen. Um gezielt und schnell eine Antwort auf diese Aufgabenstellung zu bekommen, ist ein strukturiertes und methodisches Vorgehen nötig. Im Rahmen der Session wird hierfür eine Vorgehensweise aufgezeigt, um vom Business Case schrittweise zur betriebswirtschaftlich sinnvollen, nachhaltigen und skalierbaren Data Analytics-Umgebung zu gelangen.

      Ausführliche Beschreibung
      Gesponsert von
      LC Systems-Engineering
      Moderator
      Martin SzugatDatentreiber GmbH
      Geschäftsführer
      Datentreiber GmbH
      Referent
      Christoph DittmannLC Systems-Engineering
      Management Consultant
      10:00 Uhr
      Raumwechsel für Kombi-Pass-Teilnehmer
      10:05 Uhr
      Raum: Estrelsaal A
      Sessions werden auf Englisch gehalten
      Track 1 - Case Study
      Teil 1
      • Does the benefits case matter if no one believes it?
      • What do you do if the computer genuinely can’t outperform the human?
      • Can a solution to be “too advanced” for the business need?

        Alex discusses the challenges of coming into a forecasting project that is already deployed and hailed as a technical success, yet is beset by business scepticism and challenge to roll-back.  While learning finance on the job, Alex was thrust into the analytics and politics of an exciting technical solution but one with little business belief.  Despite all the hard work and effort getting to ‘go-live’, the hard part was far from over and some very familiar questions were raised:

        • Does the benefits case matter if no one believes it?
        • What do you do if the computer genuinely can’t outperform the human?
        • Can a solution to be “too advanced” for the business need?
          Ausführliche Beschreibung
          Moderator
          Martin SzugatDatentreiber GmbH
          Geschäftsführer
          Datentreiber GmbH
          Referent
          Alex HancockShell Oil Company
          Head of Treasury Analytics
          Shell Oil Company
          Teil 2
          • Typical problems and hidden traps in creating strategy against a VUCA backdrop
          • Tensions that exist across our unavoidably uneven knowledge of the world
          • Mental models to help leaders grapple with this wicked problem

          Political bombshells, unimaginable terrorist attacks, epidemic outbreaks, natural disasters, technological disruptions, fractured markets, transitory advantages, multifarious competitors, increasingly demanding customers and fickle consumers. Thanks to the military, we have a useful descriptor for the conditions and environment these drivers create; ‘VUCA’ – Volatility, Uncertainty, Complexity and Ambiguity… a combination of the magnitude and speed of change, the lack of predictability and prospect of surprise, the multitude of forces and confounding issues, and the lack of ‘one right answer’ or single course of action. Yet against this backdrop many organisations are still carrying the early, often ill-formed, baggage of implicit promises and expectations of Big Data and Analytics, and the mindset of operating in more stable conditions. And that’s before we get to sentiment mining, machine learning, edge analytics and the like. There is no question about the power, pervasiveness, further potential and applicability of predictive analytics. But it is at the edge of this applicability that things get interesting; where a VUCA environment lays cognitive traps for those focused on ‘getting to the right answer’ rather than ‘asking the right questions’. In the context of strategy development, deployment and delivery in the real world, this edge – between prediction and insight, between extrapolation and choice, between algorithm and decision – is critical. This session explores some of the typical problems and hidden traps in creating strategy against a VUCA backdrop, considers the tensions that exist across our unavoidably uneven knowledge of the world, offers some mental models to help leaders grapple with this wicked problem, and to help you drive the most impact and value in support of your strategy.

          Ausführliche Beschreibung
          Moderator
          Martin SzugatDatentreiber GmbH
          Geschäftsführer
          Datentreiber GmbH
          Referent
          Chris TurnerStrataBridge
          Co-Founder
          StrataBridge
          Raum: Salon Lyon
          Track 2 - Deep Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
          • Machine Learning zur Optimierung von Text & Bild von Werbeanzeigen 
          • Feature Engineering Methoden für NLP, Image Recognition mittels Deep Learning, Diskussion der Modellwahl
          • Kritische Erfolgsfaktoren bei der Entwicklung eines Data Products

          Machine Learning ist im Online Marketing allgegenwärtig. Der Fokus liegt jedoch meist auf der Optimierung der Auslieferung und weniger der Gestaltung von Ads. Die Auswahl von Text und Bild erfolgt oftmals nach Bauchgefühl und persönlicher Erfahrung. In dem Vortrag zeigen wir, wie plista Machine Learning verwendet, um Werbetreibende bereits in der “kreativen Phase” mit Empfehlungen bezüglich der Text- und Bildgestaltung zu unterstützen. Welchen Einfluss hat ein Wort auf die Klickrate? Was sind bessere Formulierungen? Welche Objekte im Bild erregen die Aufmerksamkeit? Wir behandeln Feature Engineering Methoden für NLP (u.a. Entity Recognition), diskutieren die Modellwahl und teilen unsere Erfahrungen bezüglich der schlanken Entwicklung eines Data Products. Im Bereich der Bilderkennung präsentieren wir zudem unseren Deep Learning Ansatz einer neu trainierten Inception-v3 Architektur.

          Ausführliche Beschreibung
          Referent
          Malte PietschPlista
          Data Scientist
          plista GmbH
          Raum: Office Passage
          Track 3 - Deep Dives Expert Session (maximal 25 Personen, First Come First Serve!)
          • Wie Uplift-Modelle funktionieren
          • Wie man diese auf eigenen Daten erstellt
          • Fallstricke, die man beachten muss

          Uplift Modelling wird oft als der Heilige Gral des Marketings beschrieben. Die Anwendung dieser Technik soll den Marketer in die Lage versetzen, nur die Kunden zu bewerben, bei denen dieser Anstoß auch zu einer Reaktion führt. So spart man sich das Aufwecken "schlafender Hunde" im Falle von Vertragskündigungen und schreckt keine potentiellen Kunden ab, die nach dem x-ten Newsletter genervt abwinken.

          In der Praxis wird Uplift Modelling bis jetzt selten angewandt, da das Feld komplex und fehlerträchtig ist.

          Die Deep-Dive-Session "Uplift-Modelling Hands-on" zeigt praxisnah, wie Uplift-Modelle funktionieren, wie man diese auf eigenen Daten erstellt und welche Fallstricke man beachten muss.

          Ausführliche Beschreibung
          Referent
          Dean AbbottSmarterHQ
          Co-Founder and Chief Data Scientist
          SmarterHQ
          11:00 Uhr
          Kaffeepause
          11:30 Uhr
          Raum: Estrelsaal A
          Track 1 - Case Study
          Teil 1
          • Lessons Learned aus der Entwicklung des Produktes Global Motor Risk Map
          • Aufbereitung der externen Daten, Validierung der Vorhersagen
          • Einbettung in die kundenseitige Prozesslandschaft inklusive automatischer Aufdatierung der Vorhersagen

          Die Swiss Re als Rückversicherer operiert – auch im Bereich Predictive Analytics – als B2B-Geschäftspartner für Erstversicherer. Eines der Angebote von Swiss Re ist die Global Motor Risk Map. Dieser Service erstellt Vorhersagen für Unfallrisiken mit hoher geografischer Granularität basierend auf externen Daten wie Bevölkerungsdichte oder der Struktur des Straßennetzwerks. Dies ermöglicht dem Erstversicherer als Kunde seine Geschäftstätigkeit aufgrund konkreter Vorhersagen zu den Auswirkungen von geplanten Maßnahmen zu steuern. Der Vortrag fokussiert auf "Lessons Learned" aus der Entwicklung des Produkts in den Bereichen: Aufbereitung der externen Daten, Validierung der Vorhersagen sowie Einbettung in die kundenseitige Prozesslandschaft inklusive automatischer Aufdatierung der Vorhersagen.

          Ausführliche Beschreibung
          Moderator
          Martin SzugatDatentreiber GmbH
          Geschäftsführer
          Datentreiber GmbH
          Referent
          Dr. Christian ElsasserSwiss Re
          Manager Data Analytics
          Swiss Reinsurance Company Ltd
          Teil 2
          • Hohe False-Positive-Ratios beanspruchen erhebliche Ressourcen im Credit Risk Management
          • Lösung ausgehend von einer Ereignishistorie und von Schlüsselwörtern, bei der die relevanten Konstellationen und umgebenen Inhaltsfragmente über maschinelles Lernen identifiziert werden
          • Ziel: den manuellen Arbeitsaufwand reduzieren und intelligent über mögliche Veränderungen informiert zu sein

          Die herkömmlichen quantitativen Finanzanalysen unterliegen hinsichtlich Ausfallfrüherkennung mitunter eheblichen Zeitverzögerungen. Aus diesem Grund kommt qualitativen Faktoren und hierbei insbesondere öffentlich verfügbaren Krisensignalwerten eine erhebliche Bedeutung im Credit Risk Management zu. Keyword-Alerting ist hierbei jedoch heute noch viel zu oft statisch. Begriffslisten werden manuell im Web gesucht und liefern unzureichende Ergebnisse. Hohe False-Positive-Ratios beanspruchen erhebliche Ressourcen im Credit Risk Management. Daneben mangelt es der statischen Listenabfrage an Flexibilität hinsichtlich zielgerichteter Erfassung der Kreditrisiken. Gemeinsam mit Concardis hat DATAlovers eine Lösung entwickelt, bei der ausgehend von einer Ereignishistorie und von Schlüsselwörtern die relevanten Konstellationen und umgebenen Inhaltsfragmente über maschinelles Lernen identifiziert werden. Fortan werden diese Muster ebenso als Grundlage für ein Alerting herangezogen. Gleichzeitig lernt der Alerting-Mechanismus aus den Fehlalarmen und schärft die Güte des Alerts. Ziel aus Sicht von Concardis: den manuellen Arbeitsaufwand reduzieren und intelligent über mögliche Veränderungen informiert zu sein.

          Ausführliche Beschreibung
          Moderator
          Martin SzugatDatentreiber GmbH
          Geschäftsführer
          Datentreiber GmbH
          Referenten
          Joachim Gaschlerconcardis
          Senior Manager Risk
          Andreas KulpaDATAlovers
          COO
          DataLovers AG
          Raum: Salon Lyon
          Track 2 - Deep Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
          • Prozess zu einer komplett datengetriebenen Software zur Optimierung von Marketing-Aktivitäten wird aufgezeigt
          • Interaktive Elemente machen den kompletten Prozess erlebbar
          • Besonderer Augenmerk auf der Herausforderung, komplexe Data Science Modelle im agilen Setup zu entwickeln

          „Irgendwie müsste es doch möglich sein, unsere Marketing-Entscheidungen automatisiert und datengestützt zu optimieren. Bauchgefühl ist ja gut, aber auf Dauer? Wir haben da doch diesen Riesenberg an Daten. Nein, eigentlich sind es ganz viele Berge. Und eine Idee habe ich auch – lass uns unsere Preissetzung optimieren! Oder doch die Vertriebstätigkeiten?“

          In unserer Deep-Dive Session zeigen wir im Detail, wie wir von einem unklaren „Ideenwust“ und einem bestenfalls rudimentären Verständnis von Datenerfordernissen und –realitäten schrittweise zu einer komplett datengetriebenen Software zur Optimierung von Marketing-Aktivitäten kommen. Interaktive Elemente machen den kompletten Prozess erlebbar – von der Priorisierung der Use Cases über die Erstellung erster Design Scribbles in Design Studio Workshops bis hin zur agilen Entwicklung der webbasierten Softwarelösung. Ein besonderes Augenmerk wird dabei auf der Herausforderung liegen, komplexe Data Science Modelle im agilen Setup – welches auf stetige Software-Inkremente abzielt – zu entwickeln. Konkrete Praxisbeispiele ziehen wir aus unseren noch laufenden Entwicklungen von Data Science Webapplikationen zur Retail Store Optimierung, Promotion-Optimierung und zur Produkt-Launch-Optimierung.

          Ausführliche Beschreibung
          Referenten
          Dr. Stefanie HuberSUPERCRUNCH by GfK
          Director Technical Product Development
          SUPERCRUNCH by GfK
          Dr. Ralph WirthSUPERCRUNCH by GfK
          Global Head, Science & Technology
          SUPERCRUNCH by GfK
          Raum: Office Passage
          Sessions werden auf Englisch gehalten
          Track 3 - Deep Dive Expert Session (maximal 25 Personen, First Come First Serve!)
          • Creating user lists based on purchase probability
          • How machine learning can increase the overall e-commerce earnings and the revenue per customer 
          • Open source tools and query samples in a step-by-step guide to implement your own predictive customer journey

          Together with 220-volt.ru, one of the largest Russian DIY online-stores, Yandex tried to understand customer behaviour and to find an algorithm to re-distribute marketing budget according to the input of each channel. To do this, they took historical user data and calculated the probability of purchase. In this deep dive / case-study Viktor Tarnavsky will show how machine learning was used to increase the overall e-commerce spendings up to 20%. The revenue per customer also increased significantly: twice in comparison to control group. At the beginning, different machine learning models were tested: logistic regression, random forest, XGBoost. It was checked with AUC ROC metric and used holdout and cross-validation. To make sure the predictions are working they applied finally an A/B test. In this Deep Dive session Viktor Tarnavsky will provide all tools and query samples in a step-by-step guide, so that everyone can try to play with their own raw data using free and open source tools: Yandex.Metrica Logs API, ClickHouse open-source DBMS, Python, Pandas, XGBoost. This session enables you to implement your own predictive customer journey.

          Ausführliche Beschreibung
          Referent
          Viktor TarnavskyYandex
          Head of Yandex.Metrica
          Yandex N.V.
          12:30 Uhr
          Mittagspause
          13:30 Uhr
          Sessions werden auf Englisch gehalten
          Track 1 - Case Study
          • Live price estimation service for used vehicles based on a Random Forest prediction model
          • Automated verification using live test data sets in the delivery pipeline
          • Release of model improvements at any time

            AutoScout24 is the largest online car marketplace Europe-wide. With more than 2.4 million listings across Europe, AutoScout24 has access to large amounts of data about historic and current market prices and wants to use this data to empower its users to make informed decisions about selling and buying cars. We created a live price estimation service for used vehicles based on a Random Forest prediction model that is continuously delivered to the end user. Learn how automated verification using live test data sets in our delivery pipeline allows us to release model improvements with confidence at any time.

            Ausführliche Beschreibung
            Moderator
            Martin SzugatDatentreiber GmbH
            Geschäftsführer
            Datentreiber GmbH
            Referent
            Christian DegerAuto Scout 24
            Architect
            AutoScout24
            Raum: Salon Lyon
            Track 2 - Deep Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
            • Pricing Algorithmus mit dessen Hilfe für eingehende Transportanfragen ein Marktpreis prognostiziert wird
            • Herausforderungen dieser Aufgabe und Lösungsansätze
            • U.a. Fuzzyfizierungen der Beobachtungen und maschinelle Lerntechniken

            Prognosen sind besonders heikel wenn es um Marktpreise geht. Für die Plattform Cargonexx (www.cargonexx.de) wurde einen Pricing Algorithmus aufgebaut mit dessen Hilfe für eingehende Transportanfragen ein Marktpreis prognostiziert wird. Cargonexx ist als Online-Spedition davon abhängig , dass ihre Preise für Auftraggeber attraktiv genug sind, dass aber anschließend Fuhrunternehmen gefunden werden, die die Aufträge zu einem vorgegeben Preis ausführen, d.h. der prognostizierte Preis muss die aktuelle Marktlage auf beiden Seiten möglichst genau widerspiegeln, um das wirtschaftliche Risiko für Cargonexx zu minimieren. In dem Vortrag werden Alwin Haensel und Andreas Karanas vor allem auf die Herausforderungen dieser Aufgabe eingehen und Lösungsansätze dazu vorstellen. Um dieses stochastische Problem zu lösen, werden Fuzzyfizierungen der Beobachtungen und maschinellen Lerntechniken verwendet, um empirische Wahrscheinlichkeitsverteilungen aufzubauen. Dabei liegt der Fokus auf allgemeineren ML-Anwendung, die auch für ähnliche Business Cases mit zugrunde liegenden stochastischen Optimierungsproblemen gelten, wo Wahrscheinlichkeitsverteilungen aus grossen Datenmengen extrahiert werden müssen, um optimale Kontrollmaßnahmen unter Unsicherheit abzuleiten.

            Ausführliche Beschreibung
            Referenten
            Can AkinCargonexx GmbH
            COO
            Cargonexx GmbH
            Alwin HaenselHaensel AMS
            Business Analytics & Founder
            HAMS
            Raum: Office Passage
            Case Study (maximal 25 Personen, First Come First Serve!)
            • Wie führt Kundenorientierung zu maximalem Ertrag?
            • Praktisches Beispiel von der Datengenerierung bis zur Entscheidungsfindung
            • Am Ende des Prozesses steht konsequente Kundenorientierung und somit der größtmögliche Erfolg

            Wie führt Kundenorientierung zu maximalem Ertrag? Das praktische Anwendungsbeispiel behandelt zunächst die Anbindung aller relevanten Datenquellen, die Datenintegration und die intelligente Datenverdichtung (Big Data -> Smart Data). Darauf aufbauend wird beschrieben, wie sich Data-Mining- und KI-Verfahren zur Prognose von kundenindividuellen Potenzialen und Risiken sowie zur Einschätzung von Ursachen und Beweggründen nutzen lassen. Diese Prognosen fließen in ein Bewertungsmodul ein, das zum einen Potenziale und Kosten/Risiken gegenüberstellt sowie die gewünschte Zielgröße (z.B. den Ertrag) optimiert. Auf Basis dieses analytischen Moduls wird die bestmögliche Entscheidung abgeleitet und diejenige Aktion ausgelöst, die durch ihre konsequente Kundenorientierung den größten Erfolg verspricht.

            Ausführliche Beschreibung
            Referent
            Dr. Joachim Kepplerdefacto realations GmbH
            Director Data Science
            defacto realations GmbH
            14:00 Uhr
            Raumwechsel für Kombi-Pass-Teilnehmer
            14:05 Uhr
            Raum: Estrelsaal A
            Track 1 - Case Study
            Teil 1
            • Einsatz von Business Intelligence (BI) und PA für anstehende Wahlkämpfe 
            • Entwicklung von PA und BI im Kontext heterogener Daten und begrenzter Ressourcen
            • Eingesetzte Verfahren des maschinellen Lernens, Evaluation der Vorhersage, finales Reporting

            Der Einsatz von Predictive Analytics (PA) in amerikanischen Präsidentschaftswahlkämpfen seit 2008 verdeutlicht den Nutzen, den PA für politische Kampagnen haben kann. Längst ist das Thema auch bei deutschen Parteien angekommen. So optimiert die SPD mit dem Einsatz von Business Intelligence (BI) und PA anstehende Wahlkämpfe und begegnet dabei Herausforderungen, die sich in Deutschland gegenüber den USA ergeben: heterogenere Datenquellen, kleinere Datenmengen, strikterer Datenschutz und kleinere Budgets. Wir stellen den Aufbau und die Funktionsweise der Analysearchitektur der SPD exemplarisch anhand von Wahlprognosen auf Wahlkreisebene dar. Dabei diskutieren wir auch eingesetzte Verfahren des maschinellen Lernens, die Evaluation der Vorhersage sowie das finale Reporting. Der Vortrag bietet damit einen umfassenden Einblick in die Entwicklung von PA und BI im Kontext heterogener Daten und begrenzter Ressourcen.

            Ausführliche Beschreibung
            Moderator
            Martin SzugatDatentreiber GmbH
            Geschäftsführer
            Datentreiber GmbH
            Referenten
            Marco Nälitzareto consulting
            Data Scientist
            areto consulting gmbh
            Dr. Matthias OrlowskiSPD
            Parteivorstand
            SPD
            Teil 2
            • Nutzung von Wahlprognosen und historische Daten um mithilfe von Predictive Analytics konkrete Wahrscheinlichkeitsaussagen zu treffen 
            • Vorstellung der Prognose und der zugrundeliegenden Methodik
            • Rückblickende Evaluierung der Prognose

            „Bekommt Rot-Rot-Grün eine Mehrheit im Bundestag?“, „Bleibt Angela Merkel Bundeskanzlerin?“ oder „Wird die AfD die drittstärkste Partei?“. Diese und weitere Fragen tauch(t)en im Vorfeld der Bundestagswahl 2017 auf. Konventionelle Wahlprognosen der Wahlforschungsinstitute liefern jedoch keine Antwort darauf mit welcher Wahrscheinlichkeit solche Ereignisse eintreffen werden, sondern nur eine Stimmanteil-Prognose für die Sonntagsfrage, eine imaginäre Bundestagswahl am nächsten Sonntag.Wir nutzen die verfügbaren Wahlprognosen und historische Daten um mithilfe von Predictive Analytics konkrete Wahrscheinlichkeitsaussagen über oben aufgeführte Fragen zu treffen. Nate Silver, Buchautor und Statistiker, hat es für die US-Präsidentschaftswahlen in seinem Blog „FiveThirtyEight“ vorgemacht. Seit März 2017 bietet INWT Statistics eine methodisch vergleichbare und wöchentlich aktualisierte Wahlprognose für die Bundestagswahlen an. Neben der Vorstellung der Prognose und der zugrundeliegenden Methodik, wird die Gelegenheit genutzt unsere Prognosen rückblickend zu evaluieren.

            Ausführliche Beschreibung
            Moderator
            Martin SzugatDatentreiber GmbH
            Geschäftsführer
            Datentreiber GmbH
            Referent
            Dr. Marcus GroßINWT Statistics
            Senior Data Analyst
            INWT Statistics
            Raum: Salon Lyon
            Track 2 - Deep-Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
            • Very often, classical ARIMA-like models are used for time series forecasting.
            • As of 2017, deep learning is being applied everywhere around us. How well does it work for time series forecasting?
            • Not so new, but seldom used: dynamic linear models (e.g., the famous Kalman filter). How does that stack up against LSTM & ARIMA?
            • All demos will be available to the participants as R notebooks to play with

            Time series data are everywhere: In finance, accounting, sales, IoT (sensor data), operations, production, marketing, economy, ecology … even in our daily lives, where we might measure series of daily calory intake, daily energy consumed, work productivity over the day… and what not. Given the past data, how can we forecast the future? In this session, after a quick look at the classics (random walks, ARMA and ARIMA models) we'll dive into two lesser known but extremely interesting alternatives: Bayesian dynamic linear models (including the famous Kalman filter) and the deep learning approach to sequence modeling, recurrent neural networks (mainly the LSTM). All demos will be available to the participants as R notebooks to play with.

            Ausführliche Beschreibung
            Referent
            Sigrid KeydanaTrivadis
            Data Scientist
            Trivadis
            Raum: Office Passage
            Track 3 - Deep Dive Expert Session (maximal 25 Personen, First Come First Serve!)
            • Die Predictive Modelling Factory (PMF) ist eine Plattform zur Automatisierung und Unterstützung des gesamten Data-Science-Prozess
            • In dieser Session werden Anforderungen und Bausteine einer PMF vorgestellt
            • Beispiel aus der Praxis anhand der EOS Solution

            Bei einer Predictive Modelling Factory (PMF) handelt es sich um eine Plattform, die den gesamten Data-Science-Prozess unterstützt und so weit wie möglich automatisiert. Schwerpunkte sind einfache Datenversorgung und Modellentwicklung, Training und Modelloptimierung im Rechencluster, das automatisierte Deployment von Prognosediensten sowie die kontinuierliche Überwachung im Betrieb.

            Im Rahmen dieses Vortrages stellen wir die allgemeinen Anforderungen und Bausteine einer PMF vor. Wir zeigen die Architektur und praktische Umsetzung am Beispiel unseres Kunden EOS Solutions. EOS optimiert und automatisiert den Inkassoprozess mit dieser Lösung. Als generische Variante wird die Cloud-fähige Alternative der Informationsfabrik vorgestellt.

            Anhand von Kriterien wie Skalierbarkeit, Echtzeitfähigkeit und Integrationsfähigkeit werden wir die Möglichkeiten der Lösungen aufzeigen und über Erfahrungen der Umsetzung berichten.

            Ausführliche Beschreibung
            Referenten
            Avaré StewartEOS Technology Solutions GmbH
            Data Scientist
            EOS Technology Solutions GmbH
            Dr. Steffen ZiegertInformationsfabrik
            Data Scientist
            Informationsfabrik (IN-FAB)
            15:00 Uhr
            Kaffeepause
            15:30 Uhr
            Raum: Estrelsaal A
            Sessions werden auf Englisch gehalten
            Track 1 - Case Study
            Teil 1
            • Quality of service (QoS) in cloud-computing is sensitive to the memory cache replacement policy in the compute host it is utilizing
            • How feature engineering of new scores, characterizing different types of traffic flows in virtual switch may improve the network performance
            • 10% latency reduction and up to 46% throughput improvement in a cloud networking QoS use case example

            Network switch resembles in many ways to traffic signs in a junction, telling the vehicles where to turn to in order to reach a specific destination. Open virtual switch (OVS) is a piece of software that emulates a network switch. It is powerful in that it enables software defined networking (SDN) applications - much more dynamic and flexible compared to traditional networking. However, as a software-based solution, the OVS performance is sensitive to the memory cache optimization in the compute host it is utilizing. Dr. Gruber will show via an illustrative example of cloud networking how a feature engineering of new scores improves the network performance of the OVS, in particular latency reduction of 10% and throughput improvement of up to 46%.

            Ausführliche Beschreibung
            Moderator
            Martin SzugatDatentreiber GmbH
            Geschäftsführer
            Datentreiber GmbH
            Referent
            Dr. Aviv GruberHuawei
            Data Scientist
            Huawei Technologies Co.
            Teil 2
            • How one of the largest logistics company in the Middle East automated the delivery of shipments using machine learning
            • No postcodes in the region, instead customers need to give a description of the address
            • How GPS was used to predict the delivery location using clustering and classification algorithms

            This presentation will give an insight into how we helped one of the largest logistics company in the Middle East to automate the delivery of their shipments using machine learning. The problem was particularly interesting because there are no postcodes in the region. Instead our client would have to make a phone call to each customer and get a description of the address instead, e.g. house with brown door around XYZ roundabout. This process became more difficult because of the cultural dynamics existing amongst the demographics.
            This presentation will describe how we leveraged the GPS data the client had to predict the delivery location using clustering and classification algorithms and how we operationalised the model in order to drive actions in real time.

            Ausführliche Beschreibung
            Moderator
            Martin SzugatDatentreiber GmbH
            Geschäftsführer
            Datentreiber GmbH
            Referent
            Megha AgarwalPivotal
            Data Scientist
            Pivotal
            Raum: Salon Lyon
            Track 2 - Deep Dive Beginners Session (maximal 25 Personen, First Come First Serve!)
            • Können wir messen was eine Gesellschaft denkt?
            • Ja! Mit Text Mining und Natural Language processing (NLP) können Aussagen über das Denken und Verhalten ganzer Nationen und Kundengruppen getroffen werden
            • Illustration der Ergebnisse anhand von Anwendungsbeispiel u.a. Strategische Markenpositionierung, Kundenzufriedenheit 

            Können wir messen was eine Gesellschaft denkt? Mit kognitiven Psychologischen Tests ist das teilweise möglich. Um aber unterbewusstes Gedankengut und irrationales Verhalten ganzer Nationen vorherzusagen, dafür gibt es noch keinen Test. Bis jetzt.

            In diesem Deep Dive wird erlernt, wie man mit Text Mining und Natural Language processing (NLP) valide Aussagen über das Denken und Verhalten ganzer Nationen und Kundengruppen treffen kann. Zuerst erhalten Teilnehmer eine kurze Einführung in die Grundzüge menschlicher Informationsverarbeitung. Danach werden "hands-on" Modelle berechnet, auf Basis nationaler Text Datenbanken. Diese Modelle werden gemeinsam visualisiert, um Aufschluss zu geben über verschiedene Menschliche (Vor)urteile. Z.b. Warum wir Musikinstrumente anziehender finden als Waffen oder warum wir bestimmte Berufe eher mit Frauen assoziieren als andere.

            Die Tragweite der erlernten Analysemethode wird gemeinsam besprochen und praktische Geschäfts-relevante Anwendungsbeispiele gezeigt. Z.b. Strategische Markenpositionierung, Meinungsforschung und Manipulation, Kundenzufriedenheit und Loyalitätsmanagement etc.

            Ausführliche Beschreibung
            Referent
            Dr. Jonathan MallNeuro Flash
            Founder & CEO
            Neuro Flash
            Raum: Office Passage
            Track 3 - Deep Dive Expert Session (maximal 25 Personen, First Come First Serve!)
            • Um AI zu vertrauen, müssen black-box Modell Entscheidungen leichter nachvollziehbar sein
            • In dieser Session wird ein Ansatz zur Verbesserung der Lesbarkeit von black-box Modell Entscheidungen vorgestellt
            • Am Beispiel das Python Pakets 'lime' wird ein Modell agnostischer Ansatz gezeigt, mit dem die Transparenz erhöht werden kann



            Neuronale Netzwerke sind in allen Bereichen der künstlichen Intelligenz angekommen. Bevor wir Ihnen allerdings bei wichtigen Entscheidungen vertrauen, müssen wir verstehen, wie sie zu diesen gelangten. Bei Klassifizierungsproblemen wird die höchste Genauigkeit von black black Modellen wie neural networks oder random forrests erreicht. Am anderen Ende des Spektrums der Genauigkeit gibt es Modelle, deren Vorhersagen zwar leicht verständlich sind, die in ihrer Vorhersagefähigkeit aber meist sehr schlecht oder unflexibel sind. Es wäre schön einfach lesbare Erklärungen dafür zu haben wie solche back-box Modelle ihre Entscheidungen fällen. Am Beispiel das Python Pakets 'lime' wird ein Modell agnostischer Ansatz gezeigt, mit dem black boxen hinsichtlich ihrer Entscheidungen transparenter gemacht werden können. Es wird eine iPhone App gezeigt, mit der man deep neural networks 'on the fly' neu trainieren kann und der white box AI Ansatz von lime wird grafisch als Bild overlay illustriert.

            Ausführliche Beschreibung
            Referent
            Ulf SchönebergThe unbelievable Machine Company
            Senior Data Scientist
            The unbelievable Machine Company
            16:30 Uhr
            Raumwechsel für Kombi-Pass-Teilnehmer
            16:35 Uhr
            Raum: Estrelsaal A
            EXPO+
            Abschluß-Keynote
            • Unterhaltsame und überraschende Einblicke in das Verhalten des vielleicht größten Meinungsmachers Deutschlands
            • Gesellschaftliche Aspekte der DataScience

            Seit Mitte 2014 hat David fast 100.000 Artikel von Spiegel Online systematisch gespeichert.

            Zum einen gelingt dadurch Reverse Engineering von Spiegel Online: Der Datensatz wird auseinander genommen und Spiegel Online aus vielen völlig neuen Blickwinkeln betrachtet. Das Ganze wird bunt, unterhaltsam und anschaulich, so dass sowohl Techies als auch Nicht-Techies profitieren. Warum sind manche Artikel lang, manche kurz? Kann man Artikeln ansehen, ob die Redakteure wirklich dahinter stehen oder nicht? Welche Redakteure sind enger miteinander verbandelt als andere? Welche Inhalte hält der Spiegel selbst für politisch inkorrekt?

            Zum anderen gibt David zum Konferenzabschluss einen Überblick darüber, was Data Science für ihn bedeutet und über die gesellschaftlichen Implikationen, die sich aus dem Hype ergeben - zum Nachdenken und meditieren. Nicht nur die Vorgehensweise, sondern auch die Möglichkeiten und gesellschaftlichen Gefahren der Datensammelwut und Auswerterei werden betrachtet und das anhand bunter Grafiken anstatt von Formeln.

            Ausführliche Beschreibung
            Moderator
            Martin SzugatDatentreiber GmbH
            Geschäftsführer
            Datentreiber GmbH
            Referent
            David KrieselProcter & Gamble
            Advanced Analytics Technology Engineer
            Procter & Gamble Manufacturing GmbH
            17:15 Uhr
            Ende der Predictive Analytics World Berlin 2017
            SchließenGewählte Tags: