fbpx

Vertraue keinem Marktforscher

Auch in der Marktforschung

Auch in der Marktforschung

Klassische Marktforschung und Big Data sollen Gewissheiten für die Zukunft produzieren – ihre Prognosekraft ist bescheiden.

In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Anbieter im Marketing. Sie wollen den Zufall besiegen. Häufig handelt es sich um Physiker oder Mathematiker, die in das Lager der Daten-Analysten konvertiert sind. Schaut man in die Big Data-Systeme hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor rund 15 Jahren den so genannten NeuroBayes-Algorithmus erfunden.

„Es gibt Artikel, die eine höhere Wahrscheinlichkeit haben, zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Maschinen-Entscheidungen

Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. So simpel lässt sich also die Wirtschaftswelt steuern. Wenn es aber um konkrete Prognosen geht, die über Stauwarnungen und die Ausbreitung von Grippeviren hinausgehen, schneiden die Daten-Systeme recht kümmerlich ab.

Was Algorithmen leisten, sind Optionen und Anregungen. Dahinter stecken wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Schon bei Textilwaren kann das in die Hose gehen:

„Eine Maschine versagt bei der Vorhersage, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein“, erklärt der Internet-Experte Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, können die Daten-Systeme den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Trügerische Komfortzonen

Es sei der monokausale Glaube, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat, bemerkt der Organisationswissenschaftler Gerhard Wohland.

„Auch wenn ich die Vergangenheit umfangreich und schnell auswerte, weiß ich nicht genau, was die Zukunft bringt.“

Welches Ereignis eine Wirkung in der Zukunft erzeugt, könne man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher.

„Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu.

Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet:

„Was soll man machen?“

Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden.

„Häufig kommen bei solchen Verfahren genau jene Dinge durch, die man schon vorher erwartet hat. Valide sind diese Daten nicht“, bestätigt der Düsseldorfer Marketingexperte Jan Steinbach.

So gleiche die Prüfung eines Werbespots mit ausgewählten Probanden in einer Studiosituation eher den Schimpansen im Versuchslabor. Eine unnatürliche Situation, die nach Ansicht von Steinbach kaum verwertbare Erkenntnisse bringt. Da werde der Wiedererkennungswert einer Anzeige abgefragt oder die Kaufabsicht und Weiterempfehlung eines Produktes.

„Mit solchen Aussagen kann ich nichts anfangen. Großartige Kampagnen werden durch solche Marktforschungsansätze nicht erzeugt. Da kommt eher Mittelmaß heraus. Man braucht sich nur die früheren Werbespots von Procter & Gamble anschauen. Das war Schema F”, so Steinbach.

Der Krösus-Irrtum

Nach Erfahrungen von Holger Rust, Professor für Wirtschaftssoziologie, sind Forschungsansätze sinnvoll, um Widersprüche bei der gewählten Unternehmensstrategie zu verorten. Die quantitativen Daten müssten mit den qualitativ erarbeiteten Befunden kontrovers diskutiert werden. Es ist ein dauerhafter diskursiver Prozess, der nicht zu endgültigen Gewissheiten führt. Wer das in der Attitüde eines allwissenden Gurus verspricht, etwa die einschlägig bekannten Trendforscher, ist nach Meinung von Rust eher ein unterhaltsamer Geschichtenerzähler aber kein Marktforscher.

„Marktforschung ist immer dann sinnvoll, wenn man getroffene Entscheidungen überprüfen möchte“, betont Steinbach.

INNOFACT verfolge mit seinem Online-Panel einen pragmatischen Ansatz. Hier werde plattformübergreifend das Bewegungsprofil mit Zustimmung der Panel-Mitglieder über sehr lange Zeiträume digital gemessen. Der Browser wird komplett ausgewertet, alle Käufe, Empfehlungen, Meinungsbeiträge und das Surfverhalten vor und nach einer Kaufentscheidung. Die Unnatürlichkeit der Testsituation im Studio ist somit ausgeschaltet. Das hält auch Michael Dahlén von der Stockholm School of Economics für einen sinnvollen Weg. Man könne mehr über Kunden erfahren, ohne sie zu manipulieren.

„Ihr Verhalten ist echt – Antworten in einem Fragebogen sind es nicht unbedingt“, sagt Dahlén nach einem Bericht der absatzwirtschaft.

Aber selbst Echtzeit-Systeme blicken in den Rückspiegel und bieten nicht die Datengrundlage, um wirklich Neues zu schaffen. Wenn es um die Zukunft geht, sollten Unternehmensentscheider mit Daten und Zahlen skeptischer umgehen. Ansonsten könnten sie ein ähnliches Debakel erleben wie Krösus: Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.

Man sollte wohl eher diesem Rat folgen – auch in der Marktforschung:

Mehr Kant, weniger Algorithmen

Professor Gerd Gigerenzer, Direktor des Max-Planck-Instituts für Bildungsforschung in Berlin, rief in seinem Impulsvortrag die Netznutzer deshalb dazu auf, dem Credo des Philosophen Kant zu folgen: Aufklärung ist der Ausweg des Menschen aus seiner selbstverschuldeten Unmündigkeit. Und die Unmündigkeit besteht bei vielen Menschen darin, sich nicht seines eigenen Verstandes und Wollens zu bedienen. Gefordert sei eine aufklärerische Algorithmen-Kompetenz. Was die algorithmischen Variablen für Wirklichkeitsmanipulationen produzieren, bleibt in der Regel ein Geheimnis der mathematischen Konstrukteure. Dabei versagen die Systeme in schöner Regelmäßigkeit, wenn es um Vorhersagen geht. So ist der beliebteste Showcase, der von jedem Big Data-Heizdeckenverkäufer präsentiert wird, in sich zusammen gebrochen.

Gigerenzer erwähnt die Google Flu Trends, die in den vergangenen Jahren dramatisch falsch lagen, weil die Suchabfragen keine eindeutigen Korrelationen mehr zuließen. Generell ist es eine Schwäche der Big Data-Algorithmen, reine Korrelationen zu rechnen und keine Kausalitäten.

„Diese Systeme können nicht denken”, so Gigerenzer.

In Momenten, wo etwas Unerwartetes passiert, kommt es zu irreführenden Prognosen.

Siehe auch:

Agenturen haben den Knall noch nicht gehört

Über den Autor

gsohn
Diplom-Volkswirt, Wirtschaftsblogger, Livestreamer, Moderator, Kolumnist und Wanderer zwischen den Welten.

5 Kommentare zu "Vertraue keinem Marktforscher"

  1. Rüdiger Möller | 14. Mai 2016 um 15:15 Uhr |

    Das Problem sind weniger die analytischen/algorithmischen Verfahren an sich, sondern mangelhafte Interpretationskompetenz. Aufgrund der verbreiteten digital/mathematischen Naivität fehlt das nötigen Tiefenverständnis um Ergebnisse von Datenanalysen sinnvoll einordnen und bewerten zu können.

    “a fool with a tool is still a fool”

    Gerade die Medienbranche scheint mir durch die digitale Transformation hoffnungslos überfordert. Es dominieren Halbwissen, Aberglaube, Konfusion und Panik.

  2. Es gibt aber auch durchgehend methodische Fehler, wie bei der Erhebung der Einschaltquoten, die seit Jahren bekannt sind, aber nicht zu einer Änderung führen. Daran sind ist die werbetreibende Wirtschaft schuld.

  3. Hat dies auf http://www.ne-na.de rebloggt.

  4. @ Rüdiger Möller

    Der Einschätzung schließe ich mich an.

    Ich habe auch schon einmal an anderer Stelle parallelen zu technischen Simulation ( Finite Elemente Methode) bei der Bauteilberechnung gezogen. Nicht s ist schlimmer als bunte Bilder (Diagramme), die ein deutliches Ergebnis suggerieren, wenn die Berechnungs- und Interpretationsgrundlagen nicht zum entsprechenden Anwendungsfall passen.

  5. … und der Trend der small data? genauso sinnentleert, oder?

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

%d Bloggern gefällt das: