Analoge Kon­t­rol­let­tis in digitalen Schläuchen #Monitoring #BigData

Paranoia

Nach wie vor sind Vorstandschefs, IT-Leiter, Kommunikationsdirektoren oder Vertriebsbosse davon überzeugt, soziale Netzwerke in irgendeiner Weise steuern oder gar kontrollieren zu können. Das suggerieren auch Anbieter von Big Data- oder Monitoring-Software. Man sitzt wie in einem Cockpit vor seinem Bildschirm und hat alle möglichen Quellen des Netzgeschehens im Blick. Kampagnen werden auf Knopfdruck vorgeplant, Abläufe koordiniert, Schlüsselbegriffe geprüft und Reaktionen studiert. Überschriften und Inhalte für Beiträge laufen durch einen Algorithmus und werden für möglichst hohe Klickraten aufgehübscht.

Digitale Controlling-Tools für Generaldirektoren

Dann zählt man Likes, Retweets und Kommentare, um den Chef von der Wirksamkeit der Controlling-Tools zu überzeugen. Letztlich verharrt man in der Steuerungslogik von Wirtschaftsprüfern und autoritären Generaldirektoren. Hauptsache die Ergebnisse sind positiv und sichern die eigene Machtposition. Die Befindlichkeit der Mitarbeiter ist dabei nachrangig.

Partizipation, Offenheit und Transparenz, die Antriebsfedern des Social Webs, bleiben dabei auf der Strecke. Aber selbst perfekte Steuerungstechniken und Messinstrumente versagen kläglich, wenn Befehl und Gehorsam weiterhin den Arbeitsalltag bestimmen. Mehr dazu in meiner Netzpiloten-Kolumne.

Siehe auch:

Digitale Revolution: Die eigentliche Transformation kommt erst noch – hoffentlich.

Wohl wahr: Hyperventilierender Alte-Säcke-Snapchat-Hype – viel von Mathematik muss man da nicht verstehen. Eher Prozentrechnung auf Grundschulniveau.

Mehr dazu bei den Blogrebellen.

Vertraue keinem Marktforscher

Auch in der Marktforschung
Auch in der Marktforschung

Klassische Marktforschung und Big Data sollen Gewissheiten für die Zukunft produzieren – ihre Prognosekraft ist bescheiden.

In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Anbieter im Marketing. Sie wollen den Zufall besiegen. Häufig handelt es sich um Physiker oder Mathematiker, die in das Lager der Daten-Analysten konvertiert sind. Schaut man in die Big Data-Systeme hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor rund 15 Jahren den so genannten NeuroBayes-Algorithmus erfunden.

„Es gibt Artikel, die eine höhere Wahrscheinlichkeit haben, zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Maschinen-Entscheidungen

Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. So simpel lässt sich also die Wirtschaftswelt steuern. Wenn es aber um konkrete Prognosen geht, die über Stauwarnungen und die Ausbreitung von Grippeviren hinausgehen, schneiden die Daten-Systeme recht kümmerlich ab.

Was Algorithmen leisten, sind Optionen und Anregungen. Dahinter stecken wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Schon bei Textilwaren kann das in die Hose gehen:

„Eine Maschine versagt bei der Vorhersage, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein“, erklärt der Internet-Experte Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, können die Daten-Systeme den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Trügerische Komfortzonen

Es sei der monokausale Glaube, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat, bemerkt der Organisationswissenschaftler Gerhard Wohland.

„Auch wenn ich die Vergangenheit umfangreich und schnell auswerte, weiß ich nicht genau, was die Zukunft bringt.“

Welches Ereignis eine Wirkung in der Zukunft erzeugt, könne man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher.

„Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu.

Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet:

„Was soll man machen?“

Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden.

„Häufig kommen bei solchen Verfahren genau jene Dinge durch, die man schon vorher erwartet hat. Valide sind diese Daten nicht“, bestätigt der Düsseldorfer Marketingexperte Jan Steinbach.

So gleiche die Prüfung eines Werbespots mit ausgewählten Probanden in einer Studiosituation eher den Schimpansen im Versuchslabor. Eine unnatürliche Situation, die nach Ansicht von Steinbach kaum verwertbare Erkenntnisse bringt. Da werde der Wiedererkennungswert einer Anzeige abgefragt oder die Kaufabsicht und Weiterempfehlung eines Produktes.

„Mit solchen Aussagen kann ich nichts anfangen. Großartige Kampagnen werden durch solche Marktforschungsansätze nicht erzeugt. Da kommt eher Mittelmaß heraus. Man braucht sich nur die früheren Werbespots von Procter & Gamble anschauen. Das war Schema F“, so Steinbach.

Der Krösus-Irrtum

Nach Erfahrungen von Holger Rust, Professor für Wirtschaftssoziologie, sind Forschungsansätze sinnvoll, um Widersprüche bei der gewählten Unternehmensstrategie zu verorten. Die quantitativen Daten müssten mit den qualitativ erarbeiteten Befunden kontrovers diskutiert werden. Es ist ein dauerhafter diskursiver Prozess, der nicht zu endgültigen Gewissheiten führt. Wer das in der Attitüde eines allwissenden Gurus verspricht, etwa die einschlägig bekannten Trendforscher, ist nach Meinung von Rust eher ein unterhaltsamer Geschichtenerzähler aber kein Marktforscher.

„Marktforschung ist immer dann sinnvoll, wenn man getroffene Entscheidungen überprüfen möchte“, betont Steinbach.

INNOFACT verfolge mit seinem Online-Panel einen pragmatischen Ansatz. Hier werde plattformübergreifend das Bewegungsprofil mit Zustimmung der Panel-Mitglieder über sehr lange Zeiträume digital gemessen. Der Browser wird komplett ausgewertet, alle Käufe, Empfehlungen, Meinungsbeiträge und das Surfverhalten vor und nach einer Kaufentscheidung. Die Unnatürlichkeit der Testsituation im Studio ist somit ausgeschaltet. Das hält auch Michael Dahlén von der Stockholm School of Economics für einen sinnvollen Weg. Man könne mehr über Kunden erfahren, ohne sie zu manipulieren.

„Ihr Verhalten ist echt – Antworten in einem Fragebogen sind es nicht unbedingt“, sagt Dahlén nach einem Bericht der absatzwirtschaft.

Aber selbst Echtzeit-Systeme blicken in den Rückspiegel und bieten nicht die Datengrundlage, um wirklich Neues zu schaffen. Wenn es um die Zukunft geht, sollten Unternehmensentscheider mit Daten und Zahlen skeptischer umgehen. Ansonsten könnten sie ein ähnliches Debakel erleben wie Krösus: Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.

Man sollte wohl eher diesem Rat folgen – auch in der Marktforschung:

Mehr Kant, weniger Algorithmen

Professor Gerd Gigerenzer, Direktor des Max-Planck-Instituts für Bildungsforschung in Berlin, rief in seinem Impulsvortrag die Netznutzer deshalb dazu auf, dem Credo des Philosophen Kant zu folgen: Aufklärung ist der Ausweg des Menschen aus seiner selbstverschuldeten Unmündigkeit. Und die Unmündigkeit besteht bei vielen Menschen darin, sich nicht seines eigenen Verstandes und Wollens zu bedienen. Gefordert sei eine aufklärerische Algorithmen-Kompetenz. Was die algorithmischen Variablen für Wirklichkeitsmanipulationen produzieren, bleibt in der Regel ein Geheimnis der mathematischen Konstrukteure. Dabei versagen die Systeme in schöner Regelmäßigkeit, wenn es um Vorhersagen geht. So ist der beliebteste Showcase, der von jedem Big Data-Heizdeckenverkäufer präsentiert wird, in sich zusammen gebrochen.

Gigerenzer erwähnt die Google Flu Trends, die in den vergangenen Jahren dramatisch falsch lagen, weil die Suchabfragen keine eindeutigen Korrelationen mehr zuließen. Generell ist es eine Schwäche der Big Data-Algorithmen, reine Korrelationen zu rechnen und keine Kausalitäten.

„Diese Systeme können nicht denken“, so Gigerenzer.

In Momenten, wo etwas Unerwartetes passiert, kommt es zu irreführenden Prognosen.

Siehe auch:

Agenturen haben den Knall noch nicht gehört

Neue Zahnrad-Logik mit Big Data im Personalmanagement? #rpTEN #HRFestival

rpTEN-Debatte über Big Data und Arbeitnehmer
rpTEN-Debatte über Big Data und Arbeitnehmer

Was können Big Data-Systeme im Personalmanagement leisten? Beispielsweise bei der Prognose von Kündigungsabsichten. Nutzt man das, um eine Kündigung zu verhindern oder werden Maßnahmen eingeleitet, um die Kandidaten loszuwerden?

Führt Big Data unternehmensintern zu einem weiteren Controlling-Wahnsinn, der jetzt schon zur Zahnrad-Logik mit digitalen Mitteln genutzt wird?

Im Ideen-Management wären solche Anwendungen höchst nützlich, um in Echtzeit Clusterungen vorzunehmen, Mitarbeiter zu matchen und interdisziplinäre Teams aufzustellen.

Auch Stimmungsbarometer könnte man auf Knopfdruck abrufen.

Auf der re:publica gab es zwei Panel-Diskussionen, die sich mit Big Data im Unternehmen auseinander gesetzt haben. Da gibt es wohl noch eine Menge Klärungsbedarf.

Hier die Podcast-Variante des Interviews für die Badewanne 🙂

Und ohne Open Data – also die Offenlegung aller Algorithmen – geht es nach meiner Meinung überhaupt nicht.

Youtube-Playlist zum HRFestival auf der re:publica in Berlin.

Auch Milliarden Datenpunkte können in die Irre führen #Marketing #Marktforschung

Wird sich als Trend wohl nicht durchsetzen
Wird sich als Trend wohl nicht durchsetzen

Welches Ereignis eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die etwa von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bleibt Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher. „Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu. Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet: „Was soll man machen?“ Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden. Das ist im klassischen Marketing so, aber auch bei allen anderen Disziplinen. Ob sie sich nun Storytelling, Content Marketing oder sonst wie nennen.

All das habe ich ausführlich in meiner Freitagskolumne für die Netzpiloten dargelegt. Wollen wir darüber debattieren?

Live-Hangout: Wie viel Smart Data steckt in Big Data? Autorengespräch mit Björn Bloching von @RolandBerger #NEO15

Über Datenstrategien, die Kunden wirklich wollen
Über Datenstrategien, die Kunden wirklich wollen

Die kalifornischen Nerds im Tal der radikalen Innovation dringen mit ihren digitalen Geschäftsmodellen und Software-Spielereien in nahezu jede Branche ein, schreiben Björn Bloching, Lars Luck und Thomas Ramge in ihrem neuen Buch „Smart Data“, erschienen im Redline Verlag. Während deutsche Führungskräfte in Meetings Worthülsen-Big-Data-Bullshit-Bingo spielen, klinken sich die amerikanischen Angebots-Aggregatoren und Datenauswerter in die Wertschöpfungsketten der klassischen Unternehmen ein und suchen den direkten Kontakt zu Geschäfts- und Privatkunden. Die drei „Smart Data“-Autoren nennen das Plattformisierung und Netzwerkeffekte:

„Der Clou an Plattformen in der digitalen Ökonomie ist: Sie können noch schneller und besser skalieren als Hersteller mit großer Marktmacht in klassischen Wertschöpfungsketten.“

Konsens-Mittelmaßkultur bringt keine technologische Expertise

Völlig unterschätzt werde eine neue Bugwelle, die auf kleine und große Unternehmen zukommt. TED-Talkerin Rachel Botsman nennt das „Collaborative Consumpition“:

„In Management-Etagen wird das Phänomen nach wie vor als Erscheinung mit begrenzter Branchen-Reichweite belächelt, der eigentliche Hebel dahinter wird aber nicht gesehen: Intelligente Kollektive drängen die Mittelsmänner aus der Wertschöpfung heraus – oder rollen wie im Beispiel Uber und Lyft gleich die ganze Branche auf“, erklären Bloching, Luck und Ramge.

Mit Konsens-Mittelmaßkultur, die hierzulande dominiert, wird man nicht die richtigen Antworten finden. Die drei Buchautoren erleben in ihren Gesprächen lähmende Orientierungslosigkeit bei den großen Noch-Champions, die nach und nach ihre unternehmerischen Ambitionen zurückschrauben.

Oder man wählt den Weg der politischen Protektion, um noch einigermaßen mit kleinen Margen zu überleben, wie die Netzbetreiber. Die politische Debatte um die Netzneutralität habe offenbart, dass es an guten Ideen für neue Geschäftsmodelle fehlt: „Denn hinter den unterschiedlichen Geschwindigkeiten im Netz steht ja nichts anderes als der Versuch, die Infrastrukturleistung, Daten zu leiten, höher zu bepreisen.“ Kein guter Plan für die Zukunft.

Was sich ändern muss, bespreche ich im Live-Hangout mit dem Smart Data-Co-Autor Björn Bloching.

Hashtag zum Mitdiskutieren ab 18 Uhr #NEO15

Oder den Frage-Button von Google Plus nutzen – oben rechts am Video.

Man hört, sieht und streamt sich 🙂

Siehe auch:

Smart Data: Transparenz über Daten und Nutzungsrechte.

Wikileaks enthüllt Inhalte des geheimen TISA-Abkommens.