Programm

Predictive Analytics World Berlin
8.-9. November 2016, Estrel Hotel Berlin


Predictive Analytics World for Business - Berlin - Tag 1 - Dienstag, 8. November 2016

08:00 Uhr
Registrierung und Frühstückssnacks
09:00 Uhr
Raum: Estrelsaal B
EXPO+
Die Session Beschreibung folgt in Kürze.
Ausführliche Beschreibung
Referent
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
09:15 Uhr
Raum: Estrelsaal B
EXPO+
Keynote:
Dieser Vortrag gibt Ihnen einen Einblick, warum Maschinelles Lernen von so zentraler Bedeutung für Amazon sowie die Online- und E-Commerce-Industrie ist. Nach einer kurzen Einführung in die Grundlagen von Machine Learning (ML) wird ein Überblick über die heutige Anwendung von ML im Bereich Nachfragevorhersage, Maschinelle Übersetzung und Predictive Analytics Cloud Services gegeben.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Dr. Ralf HerbrichAmazon.de
Managing Director
Amazon Development Center Germany
09:45 Uhr
Sponsor Präsentation:
Die Session Beschreibung folgt in Kürze.
Ausführliche Beschreibung
10:15 Uhr
Raumwechsel für Kombi-Pass-Teilnehmer
10:20 Uhr
Raum: Estrelsaal B
Track 1:
Die intensive Nutzung des Business-Netzwerkes XING ist der stärkste Indikator für die Kaufwahrscheinlichkeit der kostenpflichtigen Premium Mitgliedschaft. Dabei sichern sowohl Onsite-Bewerbung als auch E-Mail-Angebote deren stetige Sichtbarkeit und geben Anreize zum Kauf. In diesem Vortrag zeigen wir, wie wir darüber hinaus unter Einsatz von Predictive Analytics Segmente identifizieren, bei denen begleitende Direct-Mail Kampagnen und Retargeting-Maßnahmen rentabel eingesetzt werden können. Die Präsentation bietet Einblick in den Entwicklungsprozess von der ersten analytischen Idee, über Tests verschiedener Ansätze bis hin zur Vorstellung effektiver CRM-Modelle. Fern statischer und thesenbasierter Attributionsmodelle stellen wir zum Abschluss unseres Beitrags eine analytische Herangehensweise vor, die eine leistungsgerechte Allokation des Wertbeitrags einzelner Kanäle der Customer Journey in einem ganzheitlichen Reporting ermöglicht.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referenten
Markus Petig
Senior Manager User Analytics
XING AG
Dr. Ljewin Scheiko
Senior Manager User Analytics
XING AG
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
IoT Analytics ist in aller Munde, aber was sich tatsächlich inhaltlich dahinter verbirgt, ist den wenigsten bewusst. Denn bewährte Machine Learning Methoden führen hier nur bedingt zum Erfolg. Im Rahmen der Deep Dive Session wird ein neuartiger Methoden-Mix aus Signalverarbeitungs- und Machine-Learning Methoden vorgestellt und dessen Funktionsweise am Beispiel von Beschleunigungssensoren präsentiert. Das präsentierte Anwendungsbeispiel veranschaulicht und vertieft dabei die nachfolgenden Analyse-Schritte: Datenakquise von Sensor-Datenquellen; Signalverarbeitungsmethoden; Feature Engineering; Model Training; Model Comparison & Assessment
Ausführliche Beschreibung
Referent
Stefan WeingärtnerDatatroniq
CEO
DATATRONIQ GmbH
11:10 Uhr
Kaffeepause
11:35 Uhr
Raum: Estrelsaal B
Track 1:
Teil 1
Firmen wie Energieversorger und Telekommunikationsdienstleister, die Low-Involvement-Produkte anbieten, fürchten sich vor dem sogenannten Schläfer-Effekt. Laut ihm beschäftigen sich Kunden aus Trägheit nicht mit Ihren Vertragsbeziehungen zu Unternehmen. Werden sie jedoch im Rahmen von Kampagnen zur Churn Prevention angesprochen, analysieren sie den Markt – und kündigen. Im Rahmen eines Projekts wurde Dr. Christian Stallkamp mit dieser These konfrontiert. Diesen Anlass haben die Berater für eine tiefergehende Analyse genutzt. Obwohl Standard-Reports diesen Effekt belegten, konnte durch die Anwendung des innovativen Modelling Ansatzes NEUSREL nachgewiesen werden, dass der Schläfereffekt für diesen Kunden keine Rolle spielt. Die prediktive Power von neuronalen Netzen wurde mit einer Treiberanalyse verwendet, die sonst nur bei klassischen Modellen möglich ist. In diesem Projekt konnten so der ROI der Präventionskampagnen signifikant gesteigert werden. In dieser Session stellt Ihnen Dr. Christian Stallkamp dieses Projekt vor.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Eike Kroll
Manager
cmx-consulting by muuuh! group
Teil 2
Den Kunden in den Fokus stellen. Dies nehmen sich im Zeitalter von „Customer Centricity“ zahlreiche Unternehmen vor. Während sich in der Online Personalisierung vergleichsweise kleine Brötchen backen lassen, lassen sich mit intelligenter datengetriebener Aussteuerung im Print jedoch die großen Fische an Land ziehen. Für jeden Kunden einen komplett individualisierten Katalog entlang der Bedürfnisse des Lifecycles zu drucken, verändert den Kundendialog völlig. Marc Eberle von baby-walz zeigt auf, dass Hyper-Personalisierung längst auch den Print-Kanal erreicht hat. Eindrucksvoll wird aufgezeigt, wie ein hybrides Set aus analytischen Ansätzen gepaart mit modernster Print-Technologie die Conversion Rates – bei sogar effektiv sinkenden Gesamtkosten – nachhaltig explodieren lassen.
Ausführliche Beschreibung
Referent
Marc Eberlebaby-walz GmbH
Senior Manager CRM & BI
baby-walz GmbH
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
Wer kennt nicht diese supercoolen Szenen aus „Minority Report“: Intelligente Maschinen und innovative Benutzerinteraktionen mit Sprache und Gesten? In diesem Deep Dive reden wir darüber, wie Deep Learning uns dabei helfen kann, dieser Erfahrung näher zu kommen. Dazu werden wir uns ein paar Microsoft-Projekte zum Thema NUI (Natural User Interface) etwas genauer ansehen: Kinect, Handpose, Skype Translator und andere. Welche Predictive Models werden verwendet? Was machen wir, wenn nicht genügend Daten verfügbar sind? Am Ende wollen wir einen Ausblick wagen, wie neue und innovative Human-Machine-Interactions-Konzepte unser (er)leben mit Computern ändern können – auch im Rahmen von Industrie 4.0.
Ausführliche Beschreibung
Referenten
Olivia KloseMicrosoft
Technical Evangelist
Microsoft
Dr. Marcel Tilly
Program-Manager
Microsoft Research
12:30 Uhr
Mittagspause
13:45 Uhr
Raum: Estrelsaal B
Sessions werden auf Englisch gehalten
EXPO+
Keynote:
Predictive modelers love more data, and often our mindset is “the more data the better the models”, whether that means more records or more model inputs. However, many times, we find that big data means big headaches for data preparation and models and worse yet, doesn’t necessarily result in more accurate models. Rather than focusing on more data, predictive modelers should prioritize generating more and better information the models can use to identify the patterns. Motivation can be found from learning how humans process and transform data, and the surprising ways we overcome obstacles and limitations in our abilities to make decisions quickly. This talk will describe how predictive modelers can think about big data and big information, and how big data can be leveraged operationally to allow modelers build data and solutions now in ways unimaginable even five years ago.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Dean AbbottSmarterHQ
Co-Founder and Chief Data Scientist
SmarterHQ
14:45 Uhr
Raumwechsel für Kombi-Pass-Teilnehmer
14:50 Uhr
Raum: Estrelsaal B
Track 1:
Im Online-Marketing bei OTTO verwenden wir verschiedene prognosespezifische Modelle, um unsere Kampagnenziele entsprechend umzusetzen. Im Bereich der Attribution arbeiten wir dabei dynamisch, denn Kanäle wie SEO, SEA oder Affiliate nehmen in einer Customer Journey unterschiedliche Positionen und Wichtigkeiten im Kaufentscheidungsprozess ein. Deshalb prognostizieren wir den verursachungsgerechten Erfolgsbeitrag eines Kontakts und berücksichtigen weitere relevante Informationen, wie die Zeit oder Sequenz der Kontakte. Bayes-Techniken sowie moderne multivariate Analysemethoden helfen uns, entsprechende Muster in den Daten zu erkennen und für die Kampagnensteuerung zu verwenden. Unser Beitrag zeigt dabei verschiedene Anwendungen von Predictive Analytics im Bereich Onlinehandel und skizziert den Impact für das Unternehmen.

Dirk Petzoldt, Teamleiter Data Science, Otto (GmbH & Co KG) wirkte als Co-Autor an dieser Session mit.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referenten
Christian HoopsOTTO GmbH & Co KG
Senior Business Analyst
Otto (GmbH & Co KG)
Kerstin PapeOTTO GmbH & Co KG
Bereichsleiterin Online Marketing
Otto (GmbH & Co KG)
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
Mit dem Auftreten von Self-Service-Plattformen für Machine Learning wie BigML oder Microsoft Azure ist das Thema Self-Service-Predictive Analytics in aller Munde. Dennoch gibt es immer noch sehr wenige Alternativen in diesem Bereich, die sich für primär geschäftlich orientierte Fachanwender eignen. Diese Zielgruppe verfügt oft über ein sehr tiefes Fachwissen und ein gutes statistisches Grundverständnis, kann jedoch nicht immer die notwendigen technischen und statistischen Klippen umschiffen, damit ein Machine-Learning-Modell auch tatsächlich erfolgreich eingesetzt werden kann.
Dennis wird in dieser Deep-Dive-Session detailliert und Hands-on vorstellen, was sein Team und er beim Aufbau einer Self-Service-Plattform für Fachanwender gelernt haben und welche Herausforderungen sie dabei zu lösen hatten. Das Ziel dieser Session ist es, dem Predictive Analytics-Profi einen Meilensteinplan an die Hand zu geben, wie der Aufbau einer eigenen Predictive Analytics Self-Service-Plattform gelingen kann.
Ausführliche Beschreibung
Referent
Dr. Dennis ProppeGpredictive
CTO
Gpredictive GmbH
15:35 Uhr
Kaffeepause
16:00 Uhr
Raum: Estrelsaal B
Track 1:
Teil 1
Conrad vertreibt rund 700.000 Produkte allein im Geschäftskundenbereich. Nachdem Dastani Consulting im Projekt Next Best Offer einen Algorithmus für individuelle Empfehlungen entwickelt hat, wird derzeit ein Projekt zur dynamischen Preisanpassung umgesetzt. Vor allem basierend auf internen Daten optimiert die Engine die Preise im Onlineshop automatisch und erzielt so hohe Umsätze, orientiert an der maximalen Konversionswahrscheinlichkeit. Angepeilt wird immer der höchste durchsetzbare Preis. Die Anwendung von Dynamic Pricing in einem sehr großen Sortiment mit langem Long Tail bringt folgende Herausforderungen mit sich:
  • Konkurrenz- statt kundenzentrisch: Häufig dominieren Wettbewerbspreise die Algorithmen. Das beschleunigt unnötig Preisverfälle.
  • Algorithmen machen keine Strategie: Eine unzureichende Mensch/Maschine-Abstimmung schmälert den Nutzen von Dynamic Pricing.
  • Long Tail means Low Significance: Dynamic Pricing braucht ausreichende Transaktionszahlen. Dieses Problem ist besonders im Long Tail relevant.
  • Datenintelligenz statt Fleißarbeit: Conrad gelingt es, mit verhältnismäßig wenigen Datenpunkten die Preisabsatzfunktion exakt zu prognostizieren
Der Vortrag skizziert Erfahrungen mit Dynamic Pricing hinsichtlich dieser Probleme. Mit durchschnittlich sechs Millionen Visits im Monat gehört conrad.de zu den zehn meistbesuchten Internet-Shops in Deutschland. Deshalb lässt sich das Potenzial von Predictive Analytics am Beispiel des Onlinehändlers besonders gut exemplarisch erproben und aufzeigen.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referenten
Dr. Parsis Dastani
CEO
Dastani Consulting
Dr. Jörg DubielConrad Electronic SE
Director Corporate Intelligence
Conrad Electronic SE
Teil 2
Im Zuge der Mobile First & Cloud First-Strategie von Microsoft hat sich das Unternehmen auf die Themen Customer Centric Organisation und Customer Experience Marketing fokussiert. Dieser Fokus hat unter anderem zu einer klaren Ausrichtung auf Predictive Analytics entlang des Customer Lifecycles geführt. Am Beispiel von Microsoft Azure zeigt der Vortrag zwei erfolgreiche Anwendungsfälle von Predictive Modeling: durch Churn Prevention konnte die Kündigungsquote um 46% reduziert werden und dank Behavioral Clustering konnten Cross- & Upsell-Potentiale innerhalb der Cloud Consumption identifiziert werden. Die beiden Lösungen haben im zurückliegenden Fiskaljahr als Proof-of-Concept zusammen ein Umsatzplus von 17 Millionen US-Dollar generiert. Im kommenden Fiskaljahr werden diese Lösungen voraussichtlich einen zusätzlichen Umsatz von 52 Millionen US-Dollar generieren.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Dr. Stefan Schulte
Area Chief Analytics Officer
Microsoft Deutschland
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
In Industrie 4.0 Projekten werden beim Systementwurf weitreichende Architektur- und Design-Entscheidungen getroffen, die bereits frühzeitig die Anforderungen an die spätere Datenanalyse berücksichtigen müssen. Deshalb birgt der Einsatz von Predictive Analytics in Industrie 4.0 eine Vielzahl an Herausforderungen, die bereits weit vor der eigentlichen Datenauswertung beginnen. So müssen z. B. Sensoren ausgewählt, Data-Pipelines und Speichermöglichkeiten geschaffen und ETL-Prozesse etabliert werden. In einem Technical Deep Dive gehen wir exemplarisch die technischen und algorithmischen Details eines IoT-Anwendungsfalls durch, der sich aus mehreren realen Szenarien speist. Sensoren für Beschleunigung und zur drahtlosen Lokalisation senden Daten an ein Backend-System. Wir betrachten hier die konzeptuellen Abstraktionen (Sensor, Datenaggregation, etc.), funktionale Anforderungen (zeitliche Anforderungen, verteilte Analyse vs. Analytics im Backend), Implementation mit Big Data Technologien (Messaging, Echtzeitverarbeitung, Data Lake Technologie) und das Tooling zur Entwicklung. Aus algorithmischer Sicht vergleichen wir einfache Heuristiken zur Sensordatenverarbeitung und modellbasierte probabilistische Ansätze (Conjugate Bayes, Partikelfilter und Variational Bayes) für die Echtzeiterkennung von Bewegungsmustern und zur Lokalisation. Wir illustrieren Echtzeit-Visualisierungen und diskutieren den Feedback-Kanal zurück zum Sensor bzw. Aktuator. Diese wird jeweils eingeordnet in ein IoT-Vorgehensmodell mit mehreren Phasen, das den Ablauf von Industrie 4.0 Projekten von der Idee über die iterative Entwicklung bis hin zur Integration in die Backend-Systeme und Übergabe in den Betrieb beschreibt.
Ausführliche Beschreibung
Referent
Dr. Lars SchwabeLufthansa Industry Solutions
Senior Technology Consultant
Lufthansa Industry Solutions
17:00 Uhr
Raumwechsel für Kombi-Pass-Teilnehmer
17:05 Uhr
Raum: Estrelsaal B
Sessions werden auf Englisch gehalten
Featured Session
When it comes to high tech, we tend to wear blinders. We rarely look around to see how others succeed. This is especially true with organizations who want to look beyond basic BI and reveal answers to questions they never thought to ask. What would demand forecasting for a CMO in media mean to a CIO in banking? What would Proactive Customer Care in telecom mean to a Chief Revenue Officer at a global retailer? Let's dig into some cross industry use cases that will get you outside your comfort zone and allow you to take a different look at how applications of advanced and predictive analytics can help you act on new insights that transform your business.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Graeme NoseworthyIBM
Senior Content Marketing Manager
IBM
18:05 Uhr
Ende des ersten Konferenztages
18:30 Uhr
Abfahrt der Shuttlebusse
19:00 Uhr

Abendveranstaltung:

DDB Networking Lounge

Predictive Analytics World for Business - Berlin - Tag 2 - Mittwoch, 9. November 2016

08:00 Uhr
Registrierung und Frühstückssnacks
09:15 Uhr
Raum: Estrelsaal B
EXPO+
Keynote:
Ein Vorhersagemodel (predictive model), das in der Produktion angewendet wird, bedeutet einen enorm großen manuellen Aufwand, der einen Datenspezialisten von der „eigentlichen Arbeit“ abhält. Was erreichen Sie, wenn Sie diesen Aufwand identifizieren und zu 85-90% automatisieren? In dieser Präsentation werden die einzelnen Komponenten und die Logik von „Model Automation“, anhand einer Open Source Software, vorgestellt und diskutiert. Das Fallbeispiel „Which?“ (englisches Äquivalent von Stiftung Warentest) zeigt, wie ein Unternehmen 29000 Modelle für Preisvorhersagen nutzt, die täglich automatisch – ohne den Einsatz eines Datenspezialisten - erzeugt, aktualisiert und bewertet werden. Das Beispiel dient als Grundlage für die anschließende Diskussion.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Phil WintersCIAgenda
Experte für Strategien aus der Kundenperspektive
CIAgenda
09:55 Uhr
Sponsored Session:
Die Session Beschreibung folgt in Kürze.
Ausführliche Beschreibung
10:00 Uhr
Raumwechsel für Kombi-Pass-Teilnehmer
10:05 Uhr
Raum: Estrelsaal B
Track 1:
Teil 1
Für ein Unternehmen im Massenkonsumentenumfeld geht es immer auch um die Verbesserung der Effizienz von Direktmarketingmaßnahmen (ROI-Steigerung) in den Bereichen Cross-Selling und Churn-Management. Die Präsentation gibt einen Einblick in die durchgeführten Maßnahmen mit dem Fokus auf die datenanalytische Vorgehensweise inklusive der dabei bewältigten Herausforderungen von der Zusammenstellung der historisch vorliegenden Daten mit unterschiedlicher Qualität über die Auswahl der passenden genutzten Verfahren und deren Praktikabilität in der regelmäßigen operativen Anwendung bis zur Durchsetzung der neuen Vorgehensweise in den verschiedenen Gremien und die Anwendung der ermittelten Kennzahlen zur Geschäftsbereichssteuerung.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referenten
Ralf Jäger
Director Database Marketing
Unitymedia NRW GmbH
Sabine Marcus
Director Analysis & Direct Marketing
DataLab. GmbH
Teil 2
Staubsaugen und Rasenmähen kann mittlerweile von Robotern übernommen werden; aus der Produktion sind Roboter schon lange nicht mehr wegzudenken. Jetzt kommt der nächste Schritt: Bots übernehmen weitere Aufgaben aus Ihrem Alltag! In diesem Vortrag geben wir Ihnen einen Überblick über vorhandene Möglichkeiten eigene Bots in Betrieb zu nehmen und Sie mit Deep Learning Methoden intelligent handeln zu lassen. Hierzu zeigen an einem konkreten Projekt der pmOne Analytics GmbH mit einer Firma aus dem Reisesektor wie wir die Buchungslandschaft in die Digitalisierung begleiten: Nutzer können sich in einer Unterhaltung mit einem Bot über Ihre nächste Reise informieren und die nächste Reise planen.
Ausführliche Beschreibung
Referent
Dr. Thomas Spura
Data Scientist
pmOne Analytics GmbH
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
In dieser Präsentation wird anhand eines praktischen Beispiel die technische Umsetzung einer automatischen Modelladaption mit der Statistik-Software R dargestellt. Es wird sowohl auf die Datenaufbereitung und als auch auf die Modellauswahl eingegangen. Die Modellauswahl erfolgt über Cross-Validation wobei unterschiedliche Modellklasse betrachtet werden und deren Performance und Vorhersagequalität bewertet wird. Die Vorgehensweise und Ergebnisse, Reduzierung der Unsicherheit bei der Vorhersagen, werden anhand realer Daten dargestellt.
Ausführliche Beschreibung
Referent
Dr. Johannes Hofrichter
CEO
Statisticial Consulting Johannes Hofrichter
11:00 Uhr
Kaffeepause
11:30 Uhr
Raum: Estrelsaal B
Sessions werden auf Englisch gehalten
Track 1:
Teil 1
Each year, a significant number of public construction contracts are awarded through the competitive bidding process. For most contractors, this represents the proverbial "Catch 22." Bid too high and you lose, bid too low and you jeopardize profit. What if you knew what the competition was going to bid? We developed a model that helps unravel this complex riddle and the results are astonishing. One Contractor increased the number of winning bids to 80% from 58% but more importantly maximized their profit potential for each award achieving a CAGR of 46% within 5 years.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Paul MlakarR2M Solution
Co-Founder and Managing Partner
R2M Solution
Teil 2
Elsevier Health Analytics entwickelt den Medical Knowledge Graph, welcher Korrelationen zwischen Krankheiten und zwischen Krankheiten und Behandlungen darstellt. Auf einem Gesamtdatensatz von sechs Millionen anonymisierten Patienten, beobachtbar über sechs Jahre, haben wir über 2000 Modelle erstellt, welche die Entwicklung von Krankheiten prognostizieren. Jedes Modell ist adjustiert für mehr als 3000 Kovariablen. Dazu kam ein Boosting Algorithmus mit Variablenselektion zum Einsatz. Die Betas der selektierten Variablen wurden extrahiert, getestet hinsichtlich Kausalität und Signifikanz, und daraus wurde die erste Version des Medical Graphen mit über 2000 Krankheitsknoten und 25.000 Effekt-Kanten gebaut. Der Graph wird aktuell in der Praxis getestet, mit dem Ziel, dem Arzt eine patienten-individuelle Entscheidungsunterstützung für die Behandlung zu geben.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Paul Hellwig
Director Research & Development
Elsevier
Raum: Salon Lyon
Sessions werden auf Englisch gehalten
Track 2: Deep Dive - limitierte Teilnahmeplätze
Data Science has been labelled the sexiest job of the 21st century. The challenge is that there are too few of us and we end up many time doing extremely time intensive tasks and not real science, which is definitely not sexy. But there is an emerging dream: guiding non-data scientists through the process of using machine learning. This is fascinating since Gartner and Forrester say there is potential to reach up to 20x as many people as there are current data scientist. In this presentation, a group of academics has attempted to follow the teachings of Dean Abbott to focus on automating the complex series of data preparation steps needed to do machine learning, then running advanced ensembles and testing, to generate usable documented results. All while interacting with the casual user who knows their data but not data mining. The results will be presented along with a list of what worked and didn’t worked. At the end, a panel of experts will talk about the feasibility and practicalities of this approach. This is not just about a philosophy – it’s about giving us time back so we can do real science that is sexy.
Ausführliche Beschreibung
Referenten
Dean AbbottSmarterHQ
Co-Founder and Chief Data Scientist
SmarterHQ
Phil WintersCIAgenda
Experte für Strategien aus der Kundenperspektive
CIAgenda
12:30 Uhr
Mittagspause
14:00 Uhr
Raum: Estrelsaal B
Track 1:
Teil 1
Unsere Welt wird jedes Jahr auf das Neue von natürlichen und von Menschen verschuldeten Katastrophen erschüttert. Gleichzeitig leben wir Informationszeitalter und im Zeitalter von IoT: unsere Augen (Sensoren) sind überall. Doch wir müssen erst noch lernen zu sehen und zu spüren. Die immense Menge an Informationen, die sekündlich produziert wird, sind für die heutige Katastrophenvorhersage und für Verfahren zur Risikoabschätzung erschlagend. Entscheidend sind jedoch nur die abnormalen Datenpunkte: die Anomalien. Der Vortrag stellt ein neues Verfahren zur Anomaliedetektion vor: Hierarchical Temporal Memory (HTM). Als Anschauungsbeispiel dient u.a. Gaia, ein von der ESA prämierter Online-Dienst zur Detektion von Anomalien in Erdbeobachtungsdaten. Weiterhin zeigt der Vortrag Anwendungsmöglichkeiten von HTM aus dem Finanz-, Erdbeobachtungs- und Betrugs-Sektor.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Pascal Weinberger
Co-Founder & CTO
Gaia Solutions Ltd.
Teil 2
Eine Welle flüchtlingsfeindlicher Vorfälle hat Deutschland im Zuge der europaweiten Flüchtlingskrise erfasst. Trotz des drastischen Anstiegs rechter Gewalt gegen Flüchtlinge bzw. deren Unterkünfte wurden bisher nur wenige Taten aufgeklärt — die Strafverfolgung scheint mit einem neuen Tätertypus konfrontiert. Multidisziplinäre Forschungsansätze können dabei helfen, diese Wellen rechter Gewalt besser zu verstehen. Vor diesem Hintergrund wird dieser Vortrag aufzeigen, wie das Risiko flüchtlingsfeindlicher Gewalt für einzelne Regionen Deutschlands quantifiziert werden kann, indem ihre Ausbreitung als Epidemie behandelt wird. Das der Biostatistik entlehnte Modell wird hierzu erklärt und seine Anwendung auf aktuelle Daten demonstriert. Abschließend werden weitere mögliche Einsatzzwecke des Epidemie-Modells im Unternehmensbereich diskutiert.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
David Bencek
Researcher
Institut für Weltwirtschaft
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
Gradient Boosting, Random Forest, Bagging und Stacking sind Stichworte, die jede/r in der Data-Science-Community kennt. Dieser Deep Dive gibt einen Überblick über die Landkarte der Ensembleverfahren, die wichtigsten Algorithmen und ihre Stärken und Schwächen. Geleitet von theoretischen Ergebnissen, die Orientierung bieten, und aufgelockert von Datenbeispielen zum Ausprobieren geht es quer durch die Praxis mit Themen wie Overfitting, Variablenselektion, Deployment, Kombination von Algorithmen und vieles mehr. Die Datenbeispiele benutzen R, sind aber auf toolübergreifende Brauchbarkeit angelegt. Wenn Sie wissen möchten, was man von Kaggle-Wettbewerben lernen kann (und was nicht), welche besseren Alternativen es zu Over- und Undersampling bei seltenen Ereignissen gibt und was es mit dem Friedhof der Kuscheltiere auf sich hat, dann ist dies Ihre Veranstaltung.
Ausführliche Beschreibung
Referent
Dr. Michael Allgöwerb.telligent
Management Consultant Data Science
b.telligent
15:00 Uhr
Kaffeepause
15:30 Uhr
Raum: Estrelsaal B
Track 1:
Teil 1
Fast alle Verantwortlichen in Unternehmen wollen Daten besser nutzen und monetarisieren. Es mangelt nicht an Zielen und Visionen. Schwierig ist oft der nächste Schritt: Die Entwicklung konkreter, Nutzen stiftender Anwendungsfälle! In der Session erfahren und erleben die Teilnehmer, wie mit Design Thinking Methoden innovative Analytics Anwendungsfälle erarbeitet und getestet werden können. Es wird der konkrete Ablauf eines solchen Workshops beschrieben. Die Teilnehmer wenden selbst verschiedene Formate an, um die Wirkung zu erleben. Von der Ideensammlung bis hin zum nichttechnischen Prototypen.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Thomas Löchte
Gründer und Geschäftsführer
Informationsfabrik GmbH
Teil 2
Ein wesentlicher Enabler der digitalen Transformation für Industrieunternehmen ist die Gewinnung von Datenmassen entlang der gesamten Wertschöpfungskette. Ein besonderer Stellenwert kommt dabei dem Internet der Dinge zu. Intelligent verknüpft, verarbeitet und analysiert, können aus diesen Daten nicht nur tiefere Einsichten über die involvierten "Dinge" gewonnen werden, sondern auch über die Prozesse entlang der Wertschöpfungskette. Mit den Fortschritten in Process Mining eröffnet die Industrie 4.0 neue Möglichkeiten der Prozessanalyse und -optimierung. Es wird anhand von konkreten Projekten der Siemens AG Einblick in das Potenzial von Process Mining entlang der kompletten Wertschöpfungskette gegeben, aber auch die Herausforderungen der Datenanalyse in industriellen Großunternehmen aufgezeigt.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Dr. Jochen Gross
Director Data Analytics (CF A IT Audit)
Siemens AG
Raum: Salon Lyon
Track 2: Deep Dive - limitierte Teilnahmeplätze
Hochfrequente Sensorsignale stellen bestehende IoT-Lösungen vor große Herausforderungen. Die notwendige breitbandige Anbindung einer oder mehrerer Maschinen ist oftmals weder gegeben noch lassen sich die entsprechenden Sensorsignale ungefiltert von den Steuerungen verarbeiten. Das wünschenswerte Vorhalten aller Sensorinformationen in einer lokalen oder zentralen Datenbank ist somit ausgeschlossen. Das Ziel der Präsentation ist es aufzuzeigen wie Predictive Maintenance-Szenarien schnell und effizient für vorhandene Maschinen und Produktionsanlagen umgesetzt werden können. Der Fokus liegt auf einer datenlokalen Umsetzung im Unternehmen, die ohne umfassende IoT-Cloud-Dienste auskommt. Mit einem Showcase wird live gezeigt, wie Predictive Maintenance-Modelle trotz Einschränkungen durch die Infrastruktur eingesetzt werden können. Dazu steht der Zühlke IoT-Koffer zur Verfügung, der eine Steuerung mit verschiedenen Sensoren und Aktoren und ein Dashboard zum Abbilden des Systemzustands enthält. Der Showcase ist angelehnt an die Sonolyzer-Smartphone-App, die KSB in Kooperation mit Zühlke entwickelt hat. Mit ihr kann durch die Analyse von Pumpengeräuschen erkannt werden, ob eine KSB-Pumpe effizient arbeitet. Damit wird dem Kunden eine Möglichkeit eröffnet, Fehlkonfigurationen zu erkennen, die zu einem erhöhten Energieverbrauch führen. Im Rahmen des Deep Dive werden folgende Aspekte beleuchtet: - Wie lassen sich Daten-Trainingssets schnell für bestehende Maschinen aufnehmen? - Welche Konzepte, basierend auf den Einschränkungen der Infrastruktur, eignen sich zur Vorverarbeitung und Übertragung der Daten? - Welche Algorithmen und Modelle können in diesem Setup für Predictive Maintenance eingesetzt werden? - Welche Möglichkeiten stehen zur Verfügung, um die Funktionalität der Applikation durch die Einbindung weiterer Sensordaten zu verbessern?
Ausführliche Beschreibung
Referenten
Boris Adryan
Head of IoT & Data Analytics
Zühlke Engineering
Alexander Appel
Software Architekt
Zühlke Engineering GmbH
16:30 Uhr
Raumwechsel für Kombi-Pass-Teilnehmer
16:35 Uhr
Raum: Estrelsaal B
Sessions werden auf Englisch gehalten
EXPO+
Abschluß-Keynote:
The buzz of the “Big Data” revolution had been unnerving CIOs for more than half a decade, when it was suddenly dropped from the Gartner hype-cycle in 2016.Sure, Businesses are still collecting more and more data these days, but is that what matters?At Predictive Analytics World we have always argued that making the right use of what Companies gather matters, and the signs indicate that they weren’t, just creating more data and complexity. Instead, they should focus on using data to make better decisions using new Analytics algorithms and new Business Applications! And it seems that Gartner finally agrees: Machine Learning, (self-service) Advanced Analytics and Neurobusiness have entered the Gartner hype-cycle, with full momentum of only 2 to 10+ years into productivity. Gartner now predicts an annual growth rate of 34 percent by 2017, with revenues projected to reach $48 billion, and venture capitalists have been eager to invest in burgeoning Predictive Analytics startups (after dropping the Big Data ones). Is this finally the rainbow on the horizon which the Analytics community has been chasing for years, possibly since before it was called Data Mining, or even Statistics? Or is it just another dot on the hype-cycle to be banished? Or is it not even real? In Predictive Analytics for Time Series (an area of Predictive Analytics growing in importance with more data gathered continuously over time), aka Forecasting, the corporate reality looks rather different.The elusive crystal ball into the future is often powered by simple and elderly algorithms, many of them around since the 1960s or earlier.Industry as software vendors are slow to adapt machine learning, or indeed even anything contemporary from the 90s. In our presentation, we show evidence from an industry survey of 200+ companies and their reality of algorithms used, and measure the substantial gap between research and practice. To contrast this, we showcase a selection of state-of-the-art algorithms available in Predictive Analytics for time series today, from Neural Networks to Support Vector Machines and from Random Forests to Boosting, and how they could be applied to time series Analytics to drive a revolution. We will give examples how these have been implemented by a few industry though-leaders, from Electricity & Utilities companies to Call-Centres, Manufacturers and Container Shipping lines, who were willing to bridge the gap and lead the hype-cycle onwards.
Ausführliche Beschreibung
Moderator
Martin SzugatDatentreiber GmbH
Geschäftsführer
Datentreiber GmbH
Referent
Prof. Dr. Sven CroneLancaster Research Centre for Forecasting
Director
Lancaster Research Centre for Forecasting
17:15 Uhr
Ende der Predictive Analytics World 2016
SchließenGewählte Tags: