Nachtrag zur Akte Marktforschung des Spiegels

Führungskräfte stehen in ihrer eigenen Organisation unter Rechtfertigungsdruck, besonders wenn es um Entscheidungen geht, die Forschung, Entwicklung, Produkte und Dienste betreffen.

„In der Hierarchie eines Unternehmens wird es geradezu als verwerflich angesehen, wenn man seiner eigenen Intuition oder seinem Bauchgefühl folgt, etwa beim Start einer Werbekampagne. Hier kommt häufig Marktforschung ins Spiel, um Entscheidungen abzusichern“, weiß Jan Steinbach, Geschäftsführer der Düsseldorfer Marketingagentur Xengoo.

Das Symptom des Misstrauens in die Entscheidungsfähigkeit der Mitarbeiter durchziehe sich durch alle Disziplinen eines Unternehmens bis zur Auswahl von Lieferanten. Es zählen nicht Erfahrungswerte, persönliche Abwägungen oder die interne Expertise der Abteilung, sondern extern erhobene Kennzahlen und die Sehnsucht nach einer eindeutigen Beziehung von Ursache und Wirkung.

Die Kausalitätsfalle

Häufig genug tappt man dabei in die Falle ungerechtfertigter kausaler Schlüsse. So gibt es in der Marktforschung Zeitgenossen, die aus der Untersuchung von erfolgreichen Firmen konkrete Handlungsanweisungen ableiten, um genauso erfolgreich wie die analysierten Organisationen zu werden.

Der Psychologe Dan Kahneman zitiert eines der bekanntesten Beispiele dieses Genres: „Immer erfolgreich“ von Jim Collins und Jerry I. Porras. Es enthält eine gründliche Beschreibung von 18 konkurrierende Unternehmenspaarungen, bei denen eines erfolgreicher war als das andere. Jeder Vorstandschef, Manager oder Unternehmer sollte nach Auffassung der beiden Autoren dieses Buch lesen, um visionäre Firmen aufzubauen. Für Kahneman ein Irrweg:

„Wenn man weiß, wie wichtig der Faktor Glück ist, sollte man besonders argwöhnisch sein, wenn aus dem Vergleich von erfolgreichen und weniger erfolgreichen Firmen hochkonsistente Muster hervorgehen. Wenn der Zufall seine Hand im Spiel hat, können regelmäßige Muster nur Illusionen sein.“

Nach dem Erscheinen des Collins-Porras-Buches schwand der Abstand in Ertragskraft und Aktienrendite zwischen den herausragenden und den weniger erfolgreichen Firmen praktisch auf null. Über einen Zeitraum von zwanzig Jahren erzielten die Unternehmen mit den schlechtesten Bewertungen im weiteren Verlauf viel höhere Aktienrenditen als die meistbewunderten Kandidaten.

Nach Widerlegungen fahnden

Es ist wie bei den frühkindlichen Erfahrungen mit dem Märchen „Schneewittchen“, „in der die furchtbar unsympathische Königin von sich behauptet, die Schönste im Land zu sein. Spätestens da kam bei jedem von uns vermutlich Zweifel am Eigenlob auf“, sagt Heino Hilbig von der Unternehmensberatung Mayflower Concept in Hamburg. Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen oder nach den konstruierten Wahrheiten.

Deswegen ist die Spiegel-Recherche über gefälschte Marktforschungsergebnisse, die besonders von Subunternehmen praktiziert wird, für mich keine Überraschung. Ich habe es selbst erlebt, etwa bei der Werbewirkungsforschung. Folgendes war passiert. Eine sehr, sehr große Werbeagentur in Düsseldorf entwickelte neue TV-Spots. Der Kommunikationschef des Auftraggebers geht auf das Angebot der Werbeagentur ein, in einem Tochterunternehmen der Werbeagentur in Studiobefragungen die Wirkung der Fernsehwerbung testen zu lassen. Mein Einwand, dass man dann auch meine Oma befragen könnte, wie sie mich als Enkelsohn beurteilt, wurde als unfreundlicher Akt eines Mitarbeiters gewertet, der von Werbung keine Ahnung hat. In meiner Zeit als Demoskop lernte ich allerdings auch die Allensbacher Werbeträger Analyse (AWA) kennen, die solch eine methodische Fragwürdigkeit nie gemacht hätte. Warum wird so verfahren? Weil Kommunikationsverantwortliche irgendwelche Statistiken gegenüber dem Vorstand benötigen, um ihre Budgetentscheidungen zu rechtfertigen. Es geht nicht um objektive Erkenntnisse, sondern um interne Politik. Sind das jetzt Einzelfälle oder nur Schwarze Schafe in der Branche? Da bin ich mir nicht so sicher.

Bei Befragungen von Testteilnehmern, Reichweiten-Messungen von PR-Kampagnen, Einschaltquoten, Werbeträger-Analysen, Monitoring oder Targeting-Aktionen im Internet sollte man eigentlich nach Widerlegungen der eigenen Positionen suchen.

„Häufig kommen bei solchen Verfahren genau jene Dinge durch, die man schon vorher erwartet hat. Valide sind diese Daten nicht“, erläutert Werbeexperte Steinbach.

So gleiche die Prüfung eines Werbespots mit ausgewählten Probanden in einer Studiosituation eher den Schimpansen im Versuchslabor. Eine unnatürliche Situation, die nach Ansicht von Steinbach kaum verwertbare Erkenntnisse bringt.

„Marktforschung ist immer dann sinnvoll, wenn man getroffene Entscheidungen überprüfen möchte“, betont der Xengoo-Chef.

INNOFACT verfolge mit seinem Online-Panel einen pragmatischen Ansatz. Hier werde plattformübergreifend das Bewegungsprofil mit Zustimmung der Panel-Mitglieder über sehr lange Zeiträume digital gemessen. Die Unnatürlichkeit der Testsituation im Studio sei somit ausgeschaltet.

Browser-Panel

„Der Browser wird komplett ausgewertet, alle Käufe, Empfehlungen, Meinungsbeiträge und das Surfverhalten vor einer Kaufentscheidung.“

Hier sieht Steinbach einen extrem wertvollen Ansatz der modernen Marktforschung. Als Beispiel nennt er den Streaming-Anbieter Netflix, der den Content fast ausschließlich über Algorithmen steuert. Das Unternehmen sammelt und analysiert jede Online-Aktion des Nutzers und leitet daraus Inhaltsangebote sowie eine personalisierte Vermarktung ab. Dennoch ist die Kreation einer neuen Serie ohne kreativen Impuls nicht machbar. Selbst Echtzeit-Systeme blicken in den Rückspiegel.

Bikini-Fehlprognose

Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Dahinter stecken wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Schon bei Textilwaren kann das in die Hose gehen:

„Eine Maschine versagt bei der Vorhersage, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen“, erklärt der Internet-Experte Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, können die Daten-Systeme den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Es sei der monokausale Glaube, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat, bemerkt der Organisationswissenschaftler Gerhard Wohland.

„Auch wenn ich die Vergangenheit umfangreich und schnell auswerte, weiß ich nicht genau, was die Zukunft bringt.“

Man müsse dann schon für triviale Strukturen sorgen.

„In der Physik nennt man das Labor. Die Welt, wie sie ist, wird ausgeblendet. Mit den wenigen Wirkungszusammenhängen, die übrig bleiben, entwickelt man Gesetzmäßigkeiten. Für soziale Systeme ist das aber albern”, warnt Wohland.

Welches Ereignis eine Wirkung in der Zukunft erzeugt, könne man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig.

Kreative Impulse und Stichproben-Probleme

Wenn es um neue Ideen geht, hält Jan Steinbach qualitative Methoden aus der Psychologie für zielführender. Also so genannte Tiefeninterviews oder Befragungen von kleinen Gruppen nach einem Leitfaden. Wenn so etwas gut aufgesetzt werde, könnten Unternehmen aus dieser Vorgehensweise auch kreative Impulse gewinnen.

„Da braucht man allerdings Forscher, die wirklich brillant sind. Leider tummeln sich in der qualitativen Marktforschung auch sehr viele Scharlatane“, kritisiert Steinbach.

Bei der quantitativen Marktforschung – also klassische Umfragen – bekommt man zunehmend Probleme mit repräsentativen Stichproben.

„In den 1990er Jahren war es relativ einfach, über Telefonumfragen mit zufällige generierten Festnetznummern repräsentative Stichproben zu ziehen für die Grundgesamtheit, die man untersuchen wollte“, erläutert Johannes Mirus von Bonn.digital.

Immer mehr Haushalte seien nur noch mobil erreichbar:

„Das Smartphone ist zwar personalisiert und beseitigt die Herausforderung, die richtige Zielperson ans Telefon zu bekommen. Die Mobilfunk-Nummern sind aber schwerer zu erfassen. Zudem ist eine örtliche Eingrenzung für die Stichprobe nicht möglich.“

Darüber hinaus sei die Bereitschaft dramatisch eingebrochen, an solchen Umfragen teilzunehmen.

„Es gibt zu viele telefonische Befragungen. Die Menschen sind überfragt. Dazu kommen noch Straßenumfragen und auch Online wird man auf jeder zweiten Website gebeten, ein Voting abzugeben“, moniert Mirus.

Viele Umfragen seien zudem handwerklich schlecht gemacht. Damit meint er vor allem das Fragebogen-Design und den Zweck der Umfrage, die häufig für die Teilnehmer im Dunkeln bleibt.

Ford Mustang statt Schema F

Überraschende Erkenntnisse gewinnt man mit den quantitativen Methoden nicht, so der Einwand von Jan Steinbach. Da werde der Wiedererkennungswert einer Anzeige abgefragt oder die Kaufabsicht und Weiterempfehlung eines Produktes. „Mit solchen Aussagen kann ich nichts anfangen. Großartige Kampagnen werden durch solche Marktforschungsansätze nicht erzeugt. Da kommt eher Mittelmaß heraus. Man braucht sich nur die früheren Werbespots von Procter & Gamble anschauen. Das war Schema F. Und wenn gefragt wird, wie ein Produkt gestaltet werden sollte, erzeugt man Ungetüme wie den legendären PKW Edsel von Ford, der Ende der 1950er Jahre auf den Markt kam.“

Für den amerikanischen Konzern wurde der Wagen zum größten Flop der Firmengeschichte. Nach zwei Jahren beendete Vorstandschef Henry Ford II das Projekt. Das ohnehin angeschlagene Unternehmen musste die damals gigantische Summe von 400 Millionen Dollar abschreiben. Der Markenname Edsel wurde zum Synonym für Katastrophen. Im Gegensatz zum Ford Mustang, der die Emotionen ansprach und ohne Marktforschung zum Verkaufsrenner wurde.

Quantitative Ansätze sollten nur zur Unterfütterung herangezogen werden, empfiehlt Mirus. Generell sollte auf Objektivität geachtet werden.

„Man überhört gerne die Ratschläge der Marktforschungs-Institute. Beispielsweise wenn ein Panel empfohlen wird, um Werbespots in realer Situation zu testen und nicht in einer Studio-Befragung mit zehn Probanden. Hört auf die Empfehlungen der Marktforscher und bucht nicht ständig das billigste Paket.“

Siehe auch:

Zur „Akte Marktforschung“: Das Prinzip Quick and Dirty

Johannes Mirus wertet den Spiegel-Beitrag als tendenziöse Berichterstattung.
Das ist ein viel zu hartes Urteil.

https://www.wuv.de/marketing/hochwertige_marktforschung_zum_nulltarif_gibt_es_nicht

https://www.marktforschung.de/hintergruende/meinung/marktforschung/spiegel-reflex-die-uebersehenen-seiten-in-der-akte-marktforschung/

https://www.marktforschung.de/hintergruende/meinung/marktforschung/branchenschelte-durch-spiegel-online-uebertrieben-oder-ueberfaellig/

https://www.marktforschung.de/hintergruende/interviews/marktforschung/die-institute-koennen-sich-hier-nicht-hinter-dem-verband-verstecken/

Vertraue keinem Marktforscher

Auch in der Marktforschung
Auch in der Marktforschung

Klassische Marktforschung und Big Data sollen Gewissheiten für die Zukunft produzieren – ihre Prognosekraft ist bescheiden.

In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Anbieter im Marketing. Sie wollen den Zufall besiegen. Häufig handelt es sich um Physiker oder Mathematiker, die in das Lager der Daten-Analysten konvertiert sind. Schaut man in die Big Data-Systeme hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor rund 15 Jahren den so genannten NeuroBayes-Algorithmus erfunden.

„Es gibt Artikel, die eine höhere Wahrscheinlichkeit haben, zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Maschinen-Entscheidungen

Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. So simpel lässt sich also die Wirtschaftswelt steuern. Wenn es aber um konkrete Prognosen geht, die über Stauwarnungen und die Ausbreitung von Grippeviren hinausgehen, schneiden die Daten-Systeme recht kümmerlich ab.

Was Algorithmen leisten, sind Optionen und Anregungen. Dahinter stecken wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Schon bei Textilwaren kann das in die Hose gehen:

„Eine Maschine versagt bei der Vorhersage, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein“, erklärt der Internet-Experte Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, können die Daten-Systeme den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Trügerische Komfortzonen

Es sei der monokausale Glaube, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat, bemerkt der Organisationswissenschaftler Gerhard Wohland.

„Auch wenn ich die Vergangenheit umfangreich und schnell auswerte, weiß ich nicht genau, was die Zukunft bringt.“

Welches Ereignis eine Wirkung in der Zukunft erzeugt, könne man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher.

„Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu.

Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet:

„Was soll man machen?“

Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden.

„Häufig kommen bei solchen Verfahren genau jene Dinge durch, die man schon vorher erwartet hat. Valide sind diese Daten nicht“, bestätigt der Düsseldorfer Marketingexperte Jan Steinbach.

So gleiche die Prüfung eines Werbespots mit ausgewählten Probanden in einer Studiosituation eher den Schimpansen im Versuchslabor. Eine unnatürliche Situation, die nach Ansicht von Steinbach kaum verwertbare Erkenntnisse bringt. Da werde der Wiedererkennungswert einer Anzeige abgefragt oder die Kaufabsicht und Weiterempfehlung eines Produktes.

„Mit solchen Aussagen kann ich nichts anfangen. Großartige Kampagnen werden durch solche Marktforschungsansätze nicht erzeugt. Da kommt eher Mittelmaß heraus. Man braucht sich nur die früheren Werbespots von Procter & Gamble anschauen. Das war Schema F“, so Steinbach.

Der Krösus-Irrtum

Nach Erfahrungen von Holger Rust, Professor für Wirtschaftssoziologie, sind Forschungsansätze sinnvoll, um Widersprüche bei der gewählten Unternehmensstrategie zu verorten. Die quantitativen Daten müssten mit den qualitativ erarbeiteten Befunden kontrovers diskutiert werden. Es ist ein dauerhafter diskursiver Prozess, der nicht zu endgültigen Gewissheiten führt. Wer das in der Attitüde eines allwissenden Gurus verspricht, etwa die einschlägig bekannten Trendforscher, ist nach Meinung von Rust eher ein unterhaltsamer Geschichtenerzähler aber kein Marktforscher.

„Marktforschung ist immer dann sinnvoll, wenn man getroffene Entscheidungen überprüfen möchte“, betont Steinbach.

INNOFACT verfolge mit seinem Online-Panel einen pragmatischen Ansatz. Hier werde plattformübergreifend das Bewegungsprofil mit Zustimmung der Panel-Mitglieder über sehr lange Zeiträume digital gemessen. Der Browser wird komplett ausgewertet, alle Käufe, Empfehlungen, Meinungsbeiträge und das Surfverhalten vor und nach einer Kaufentscheidung. Die Unnatürlichkeit der Testsituation im Studio ist somit ausgeschaltet. Das hält auch Michael Dahlén von der Stockholm School of Economics für einen sinnvollen Weg. Man könne mehr über Kunden erfahren, ohne sie zu manipulieren.

„Ihr Verhalten ist echt – Antworten in einem Fragebogen sind es nicht unbedingt“, sagt Dahlén nach einem Bericht der absatzwirtschaft.

Aber selbst Echtzeit-Systeme blicken in den Rückspiegel und bieten nicht die Datengrundlage, um wirklich Neues zu schaffen. Wenn es um die Zukunft geht, sollten Unternehmensentscheider mit Daten und Zahlen skeptischer umgehen. Ansonsten könnten sie ein ähnliches Debakel erleben wie Krösus: Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.

Man sollte wohl eher diesem Rat folgen – auch in der Marktforschung:

Mehr Kant, weniger Algorithmen

Professor Gerd Gigerenzer, Direktor des Max-Planck-Instituts für Bildungsforschung in Berlin, rief in seinem Impulsvortrag die Netznutzer deshalb dazu auf, dem Credo des Philosophen Kant zu folgen: Aufklärung ist der Ausweg des Menschen aus seiner selbstverschuldeten Unmündigkeit. Und die Unmündigkeit besteht bei vielen Menschen darin, sich nicht seines eigenen Verstandes und Wollens zu bedienen. Gefordert sei eine aufklärerische Algorithmen-Kompetenz. Was die algorithmischen Variablen für Wirklichkeitsmanipulationen produzieren, bleibt in der Regel ein Geheimnis der mathematischen Konstrukteure. Dabei versagen die Systeme in schöner Regelmäßigkeit, wenn es um Vorhersagen geht. So ist der beliebteste Showcase, der von jedem Big Data-Heizdeckenverkäufer präsentiert wird, in sich zusammen gebrochen.

Gigerenzer erwähnt die Google Flu Trends, die in den vergangenen Jahren dramatisch falsch lagen, weil die Suchabfragen keine eindeutigen Korrelationen mehr zuließen. Generell ist es eine Schwäche der Big Data-Algorithmen, reine Korrelationen zu rechnen und keine Kausalitäten.

„Diese Systeme können nicht denken“, so Gigerenzer.

In Momenten, wo etwas Unerwartetes passiert, kommt es zu irreführenden Prognosen.

Siehe auch:

Agenturen haben den Knall noch nicht gehört

Auch Milliarden Datenpunkte können in die Irre führen #Marketing #Marktforschung

Wird sich als Trend wohl nicht durchsetzen
Wird sich als Trend wohl nicht durchsetzen

Welches Ereignis eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die etwa von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bleibt Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher. „Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu. Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet: „Was soll man machen?“ Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden. Das ist im klassischen Marketing so, aber auch bei allen anderen Disziplinen. Ob sie sich nun Storytelling, Content Marketing oder sonst wie nennen.

All das habe ich ausführlich in meiner Freitagskolumne für die Netzpiloten dargelegt. Wollen wir darüber debattieren?

Sag mir, wie viele Fans und Follower Du hast, und ich sage Dir…? Vom Nutzen der Fliegenbein-Zählerei

Netzökonom Holger Schmidt beschäftigt sich mit einer Untersuchung der Agentur Vierpartner, die jeweils zum Jahresende die Social-Media-Engagements der 30 Dax-Konzerne erfasst. Danach haben Adidas, Volkswagen, Siemens, BMW und die Deutsche Telekom im vergangenen Jahr kräftig auf Facebook, Twitter und Youtube zugelegt. „Auch Beiersdorf, Daimler, die Lufthansa, SAP und Munich Re haben sich stark in den sozialen Medien engagiert, hat Vierpartner mit der Analyse der mehr als 500 wichtigsten deutsch- und englischsprachigen Auftritte der 30 Unternehmen auf Facebook, Twitter und Youtube in aller Welt herausgefunden. Im Durchschnitt haben die Unternehmen die Zahl ihrer Facebook-Fans verfünffacht und ihre Twitter-Follower versechsfacht“, schreibt Schmidt. Er verweist aber zurecht auf die Tatsache, dass die rein quantitative Betrachtung der Fans, Follower und Abrufe wenig über die Relevanz der Social Media-Community aussagt. Für ein Unternehmen wie Adidas ist es sicherlich wichtig, möglichst viele Menschen über soziale Netzwerke zu erreichen, da das Unternehmen sich im Endkunden-Markt bewegt. Bei einem Maschinenbauer sieht das ganz anders aus.

„Gerade für B2B-Unternehmen liegt daher der Aufbau einer Fach-Community näher als das Anhäufen von Facebook-Fans. Blogs gelten dabei als sinnvolles Instrument für B2B-Unternehmen, wenn dort Fachleute aus dem Unternehmen Inhalte produzieren, die sonst im Web nicht so leicht zu finden sind. ‚Von Ingenieur zu Ingenieur‘ lautet zum Beispiel die Überschrift über den Blogs des amerikanischen Unternehmens Indium, das geschickt Inhalte für seine Zielgruppe produziert und seine Ingenieure als Fachleute im Social Web aufbaut„, so Schmidt. Ein schönes Beispiel erwähnt David Meerman Scott in seinem Buch „Die neuen Marketing- und PR-Regeln im Web 2.0“: Er verweist auf The Concrete Network. Hier bekommt man alle Informationen Produkte und Dienstleistungen, die sich mit Beton beschäftigen. Da benötige ich sicherlich keine Massen, sondern eine Community, die sich mit dem Thema Bauen auseinandersetzt. Jim Peterson, Geschäftsführer von The Concrete Network, liefert qualifizierten Content über Arbeitsplatten, Pool-Umrandungen, Terrassen oder Garagenauffahrten, die für Bauherren und Hausbesitzer wichtig sind. Da kommt dann wieder der olle Pareto ins Spiel. Siehe auch: Social Media Index: Klickrate, Reichweite und Meinungsmacher – Was ist wichtiger?

Man müsse eruieren, „ob die alte Pareto-Verteilung in sozialen Netzwerken noch gilt. Wenn wir uns die Long Tail-Effekte im Netz anschauen, gibt es sehr viele Nischen mit 80/20-Verteilungen. In der einen ist man der ‚Star‘ und in der anderen mehr oder weniger der stumme Konsument und Beobachter“, erklärt Peter B. Záboji, Chairman des Frankfurter After Sales-Dienstleisters Bitronic. Entscheidend ist die Frage: 20 Prozent von was? Das kommentierte ein Leser meines Blogs:

Im Unterschied zur „alten“ Welt kann sich jede Spezialgruppe mit wenig Technik und Geld ihr Forum aufbauen. „Wenn dann 20 Prozent der 10 weltweit verteilten Liebhaber von blau-rosa Weinbergschnecken die Aufmerksamkeit in dieser Gemeinschaft auf sich konzentrieren, ist doch alles in Ordnung. In einer anderen Gruppe gehören die beiden wieder ‘nur’ zu den 80 Prozent Konsumenten. Neu ist eigentlich nur der ständige Rollenwechsel. Es gibt im Web 2.0 keine festgefügte 80/20-Aufteilung.

Siehe auch das Interview mit dem Mind-Marktforscher Christian Halemba und den Bericht der absatzwirtschaft:

Bei Twitter ist es zudem wichtig, wie viele aktive Follower mit an Bord sind, „wie viele Leute tatsächlich die Tweets bestimmter Twitterer mitbekommen, sie lesen, retweeten oder weiterverbreiten. An interessanten Ansätzen für aussagekräftigere Zahlen arbeiten im Fall von Twitter derzeit u.a. Anbieter wie backtype, Klout oder resonancers. Aus einer Vielzahl von zusätzlichen Faktoren errechnen sie, welche Twitter-Accounts tatsächlich einflussreich sind. Wie oft werden Tweets geretweetet, wie oft als Favorit markiert, wie einflussreich sind wiederum die Follower des Accounts – das sind nur einige der Faktoren. Noch wird mit diesen Methoden herumexperimentiert – und welcher der drei Anbieter die beste Methode entwickelt, muss sich erst herausstellen. Aussagekräftiger als die reinen Follower-Zahlen dürften die Daten aber schon jetzt sein“, meint Meedia-Analyst Jens Schröder.

Reine Fliegenbein-Zählereien führen also nicht weiter. Dieses Thema würde ich gerne für eine MarketingIT-Story aufgreifen. Eure Meinung interessiert mich. Statements können hier in der Kommentarspalte publiziert werden oder per E-Mail an: gunnareriksohn@googlemail.com

Technomanager und die selbstkonstruierte Wirklichkeit: Warum Entscheider der ITK-Branche auf herumschwirrende Ideen achten sollten

„Die Vernunft, das haben wir von Kant gelernt, ist das auf die Spitze getriebene Vermögen, sich selbst nicht über den Weg zu trauen“, so Dirk Baecker, Professor für Kulturtheorie und Kulturanalyse an der Zeppelin Universtät in Friedrichhafen. Technomanager scheinen diese Selbstskepsis nicht an den Tag zu legen. Sie vertrauen ihrem eigenen Expertenwissen mehr als externe Erkenntnisse. Persönliche Erfahrungen sind für Entscheider der ITK-Branche nach Erkenntnissen des Unternehmensberaters Bernhard Steimel von MIND Consult die wichtigste Wissensquelle. Das könne schnell in die Hose gehen. Die interne Sicht über Marktmechanismen und Kundenzufriedenheit sollte durch externe Erkenntnisse ergänzt werden. Eine solche Außensicht liefere oftmals wichtige Erkenntnisse abseits bequemer Wahrheiten. Entscheider sollten aufpassen, nicht Opfer einer selbstkonstruierten Wirklichkeit zu werden.

Nur jedes zehnte Unternehmen bewertet den Grad der Informiertheit als unzureichend. Diese subjektiv positive Einschätzung sollte allerdings nicht mit dem tatsächlichen Ausmaß der Marktforschung gleichgesetzt werden. „Besonders im Vergleich mit reiferen Branchen sollten die ITK-Unternehmen den Grad ihrer Informiertheit kritisch hinterfragen“, so der Rat von Steimel. Siehe auch das Youtube-Video:
Interview mit dem Berater Bernhard Steimel

Wer nur im eigenen Saft schmort, läuft Gefahr, zu erstarren und wichtige Entwicklungen des Marktes zu verschlafen. Oder systemisch ausgedrückt „Intelligenz und Innovation in Unternehmen hängen davon ab, welche Informationen beobachtet werden und wie die wichtigen Informationen ihren gebührenden Stellenwert erhalten – was man leider erst im Nachhinein wissen kann“, schreibt Professor Winfried W. Weber in seinem Buch „complicate your life“ (Verlag Sordon).

Der Managementdenker Peter Drucker kritisiert die Sichtweise von Managern, die sich eng nur auf das eigene Unternehmen bezieht. „Viele Manager leben noch im 19. Jahrhundert, als Neuerungen aus der Firma oder aus der Branche kamen. Heute hingegen sind es im Wesentlichen die Veränderungen um das Unternehmen herum, die die Geschicke der Firma beeinflussen.“ Innovationen entstünden nicht nur aus Fortentwicklungen und Patenten innerhalb des eignen Fachspektrums. Heute kämen in viel stärkerem Maß als früher gesellschaftliche Entwicklungen hinzu, die als Ausgangspunkt für Innovationen erkannt werden müssten (nachzulesen im Buch „Peter Drucker – Der Mann, der das Management geprägt hat“, herausgegeben von Professor Weber).

Ein kluger Manager führt im richtigen Moment herumschwirrende Ideen mit Akteuren zusammen, nutzt Marktungleichgewichte, erkennt die Lücke und setzt die Innovation durch oder übernimmt im richtigen Moment das Risiko einer nicht sicheren aber vielversprechenden Entscheidung. „Das unterscheidet ihn vom Verwalter, der die organisatorische Routine oder die organisatorisch geronnene Reduktion von Komplexität nicht mehr in Frage stellen kann“, erläutert Weber. Wie bei den Schachgroßmeistern gehe es im Management einer komplexer werdenden Welt darum, ein reiches und komplexes Spielfeld zu erhalten. „Die Disziplin verlässt die Entscheidungskultur des one-best-way, des Alles-im-Griff-haben-Wollens. Wer es versteht, sich von der Komplexität nicht überfordern zu lassen, wer erkennt, dass man immer weniger durchschaut, wer sein Spielfeld pflegt und damit rechnet, dass bald die Lücke kommt, kann dann sofort entscheiden, ohne zu zögerlich zu sein“, führt Weber aus. Oder in den Worten des Kybernetikers Heinz von Foerster: „Handle stets so, dass die Anzahl der Möglichkeiten wächst.“