top of page

Erfolgsfaktoren von Predictive Analytics Projekten: Spannungsfelder in Big Data und Machine Learning


Dieser Artikel ist der zweite Teil einer dreiteiligen Reihe


Im zweiten Teil unserer Vorstellung von Spannungsfeldern und Handlungsempfehlungen widmen wir uns dem Bereich der Qualität. Hierbei bezieht sich Qualität nicht nur auf die Datenqualität, sondern auch auf die Prognosequalität. Die zentralen Fragen sind hier: Welche Daten werden wirklich benötigt? Wann macht Datenanreicherung Sinn? Warum sollten Sie eine regelmäßige Datenaufbereitung in Ihrem Unternehmen unterstützen?



Datenbasis: Welche Daten brauche ich wirklich?


Eine pauschale Antwort hierauf würden wir uns sehr für unseren Vertriebsprozess wünschen. Wenn Sie eine gefunden haben, melden Sie sich gerne bei uns! Es sind aber oft gar nicht so viele Daten erforderlich, wie auf Unternehmensseite befürchtet. Grundsätzlich kann man sagen, dass entweder viele Kunden oder viele Daten je Kunde benötigt werden, damit Analysen und Vorhersagen eine gute Qualität erreichen. Dies ist aber eng mit den Unternehmenszielen und der Anforderungsanalyse für das Projekt verknüpft. Möchte das Unternehmen einen sehr hohen Individualisierungsgrad der Maßnahmen erreichen, sind eher mehr Daten notwendig als weniger. Geht es um Einsichten ins Kundenverhalten, um z.B. Cluster zu identifizieren, die besonders lange Kunde bleiben und diese Erkenntnisse im Neukundenmarketing zu nutzen, kann dies bereits auf Basis von Stammdaten mit einigen Tausend Kunden erfolgen.


Datenqualität: „Garbage in - Garbage out“ oder wie die Ausgangsdaten die Prognose beeinflussen


Die alte Redewendung „Garbage in- Garbage out“ kann hierbei auf zwei Arten verstanden werden. Zum einen führt eine schlechtere Datenqualität zu schlechteren bzw. unsauberen Prognosen. Zum anderen können „schlechte“ Zielsetzungen und Anforderungsanalysen auch bei guter Datenqualität zu unbefriedigenden Ergebnissen führen. Die Datenqualität unserer Kunden ist zumeist besser als diese es selbst erwarten. Trotzdem empfehlen wir eine laufende Datenaufbereitung zur Identifikation von fehlerbegünstigenden Prozessen und einer laufend hohen Datenqualität. Zu Beginn unserer Projekte versuchen wir vorhersagenbasiert leere Felder zu füllen und durch Muster- und Anomalieerkennung Fehleingaben, vertauschte Felder und Tippfehler zu identifizieren und zu korrigieren. Dies erleichtert die Arbeit mit den Daten und erhöht die Prognosegüte.


Datenzukauf: Wann lohnt sich der Kauf externer Daten?


Oft werden wir im Projektprozess gefragt, ob wir den Projekterfolg durch Datenzukauf erhöhen können. Dies ist primär eine Kosten-Nutzen-Frage. Nach Analyse der verfügbaren Daten können wir eine erste Prognosegüte abschätzen. Ist diese nicht zufriedenstellend, kann die Datenanreicherung ein Mittel der Wahl sein. Dies muss aber nicht immer über teuren Datenzukauf erfolgen. Wir nutzen dabei ein eigen-entwickeltes „Open-Data-Warehouse“ zur Anreicherung Ihrer Daten mit frei zugänglichen, unterstützenden Daten. Hier sind zum Beispiel auch historische Wetterdaten der letzten Jahre gespeichert und wir können so prüfen, ob das Wetter einen starken Einfluss auf das Kundenverhalten hat. Sollte dies der Fall sein, kann sich der Zukauf von Wettervorhersagen lohnen.


Hier geht es zu:


bottom of page