Der Marketer als Konkurrent des Journalisten

In der November-Ausgabe des prmagazins vertiefe ich diese Thematik

In den USA sieht der ehemalige The European-Herausgeber Alexander Görlach in den neuen Medien-Marken wie Mic, Vice oder Buzzfeed gute Karrierechancen für Journalisten.

„In Deutschland ist mein Eindruck, dass eher eingespart werden soll als ausgegeben.“

Die Strukturen werden nach Einschätzung von Görlach ausgedünnt.

„In den USA gibt es noch einige Akteure, die an die Zukunft von Journalismus glauben und die viel Geld investieren. In Deutschland gibt es keine entsprechende Begeisterung und Investitionen in diesem Maße.“

Vielleicht liegt es ja an der Überalterung der Medienunternehmer. Sie leben von der Substanz, investieren kaum und verdrängen die Notwendigkeit von Erweiterungsinvestionen sowie Innovationen. Ein Trend, der nach Studien der KfW für viele Wirtschaftsbranchen gilt: 57 Prozent der Unternehmen mit Chefs unter 40 Jahren investieren. Mit steigendem Unternehmeralter sinkt der Investorenanteil deutlich. Bei den über 60-jährigen Unternehmensinhabern erreicht er nur noch 37 Prozent. Auch die Art der Investition verändert sich mit steigendem Alter. Stärker risikobehaftete und kapitalbindende Vorhaben werden seltener, die noch durchgeführten Investitionen dienen in erster Linie der Pflege des Kapitalstocks. Jürgen Stäudtner spricht in seinem Innovationsstau-Buch gar von einer Hedgefonds-Mentalität, die bei den arrivierten Firmenchefs dominiert.

Eigentümerfamilien der Verlage haben kräftig Umsatzrendite gescheffelt

Im Mediensektor gehen jedenfalls nur wenig Impulse für innovative Themen aus – etwa beim Roboterjournalismus, in der Daten-Analyse oder beim Einsatz von Chatbots. Das skizzierte Saim Alkan von AX Semantics auf dem Besser Online-Kongress des Deutschen Journalisten Verbandes (DJV) in Köln:

„Die großen Medienhäuser liegen in den Händen einiger Eigentümerfamilien. Die haben über Jahre rund 20 bis 25 Prozent Umsatzrendite gescheffelt. Hocken auf hunderten Millionen Euro Kapital. Wenn es darum geht, 50.000 Euro in die Hand zu nehmen, um ein agiles Projekt zu starten, dann wendest Du Dich an Deinen Vorgesetzten, an Deinen Verleger oder Chefredakteur und der sagt dann, das müssten wir selbst erwirtschaften, weil die Verlegerfamilie nichts zurück investiert.“

Wer soll also neue Projekte bezahlen?

„Fangen wir doch mal an, die Leute, die seit 30 oder 40 Jahren Gelder aus den Häusern gezogen haben, zu bitten, wieder zu reinvestieren“, fordert Alkan.

Die Verlegerfamilien sollten wieder etwas zurückgeben und mehr Experimente wagen.

„Die erste Digitalisierungswelle wurde ausgesessen. Vielleicht sollte man bei der zweiten Welle etwas tun und dazu gehört eben auch Geld.“

Konkurrenz bekommen die etablieren Medien zunehmend von branchenfremden Unternehmen, die beim Content Marketing und bei Broadcasting-Einheiten im Verbund mit Big Data-Programmen und Künstlicher Intelligenz kräftig zulegen. Könnten Daimler, Telekom und Co. die Verlage überholen? Dieser Zug sei schon längst abgefahren, so Alkan.

Unternehmen und Sportverbände als Nachrichtenproduzenten

Es gebe sogar erste Sportverbände, die ihre Nachrichten selbst produzieren, weil sie in der Presse zu wenig vorkommen.

„Die erteilen Journalisten sogar schon Haus- oder Platzverbote, um die Exklusivität ihres Contents zu bewahren. Dazu kommen Content Marketer, die mit einem riesigen Druck Service-Themen aufarbeiten. Beispielsweise über die Qualität von Badeseen in Deutschland. Da gibt es Anbieter, die diese Informationen aus öffentlicher Hand nehmen und in einfache Lückentexte einbauen. Wenn ich dann Informationen über die Wasserqualität des nächstgelegenen Badesees suche, poppt nicht mehr meine Tageszeitung auf, die das Thema gar nicht aufgreift, weil es zu teuer und zu schwierig ist, sondern irgend ein Content Marketer, der mit einer Automatisierung nützliche Informationen vermittelt und dadurch Werbeeinnahmen über Google generiert“, erläutert Alkan in Köln.

Unternehmerjournalismus oder Werbung?

Da entstehe eine Befähigung selbst für kleine Unternehmen oder Verbände, Content in großen Mengen zu produzieren. Das führe zu einer Veränderung im Rollenverhältnis zu Journalisten, die dann für solche Berichte nicht mehr notwendig sind. Ob das Ganze zu einem Verfall des Journalismus führt, wurde in einem zweiten Panel heftig unter dem Titel „Rettungsanker oder Sargnagel? Content Marketing“: Professor Lutz Frühbrodt von der Hochschule für angewandte Wissenschaft in Würzburg hält es für problematisch, dass man gar von Unternehmensjournalismus spricht. Diese Zuordnung sei falsch. Es sei letztlich nur eine Ersatzform von Werbung. Entsprechend wichtig seien auf der operativen Ebene Kennzeichnungspflichten.

„Das andere Thema ist, welche Auswirkungen Content Marketing auf die öffentliche Kommunikation und die öffentliche Meinungsbildung hat.“

Er sieht Content Marketing als weiteren Sargnagel des Journalismus. Diesen Befund thematisierte ich bereits in der April-Ausgabe des prmagazins. Sascha Pallenberg von Daimler hält diese Sorge für unbegründet: Sie sei eher ein Beleg für zu wenig Selbstbewusstsein auf der journalistischen Seite. Die Herausforderung liege bei den klassischen Medien, Premiuminhalte herauszubringen.

„Gute Unternehmenskommunikation lebt von der Transparenz. Es muss klar sein, von wem die Botschaften stammen.“

So sieht es auch Karsten Lohmeyer von der Agentur „The Digitale“, einer hundertprozentigen Tochter der Deutschen Telekom:

„Ein großer Teil des täglich produzierten Medienbreis besteht aus belanglosem Entertainment, zusammengestrichenen Pressemitteilungen, schlecht recherchiertem Nutzwert und leider viel zu oft aus armselig versteckter Schleichwerbung. Die so genannten Native Ads auf den Online-Seiten der Verlage sind viel problematischer. Die werblichen Inhalte sind von den redaktionellen Beiträgen kaum zu unterscheiden.“

Man müsse sich dem neuen Wettbewerb im Digitalen stellen.

„Was die Content-Produzenten auf der Unternehmensseite killen, ist in erster Linie schlechter Journalismus.“

Lohmeyer trat bei der Kölner DJV-Veranstaltung als Antipode von Frühbrodt auf.

„Ich arbeite mit journalistischem Werkzeug. Der Journalist ist mein Konkurrent. Ich bin der Konkurrent des Journalismus. In manchen Dingen sind wir symbiotisch, aber im Markt der medialen Kommunikation stehen wir im Wettbewerb. Manchmal gewinnt der Bessere und manchmal gewinnt auch der, der mehr Geld hat.“

Häufig werde auf der Seite des Content Marketings gar kein so außergewöhnlicher Job gemacht. Häufig sei es eher so, dass von den klassischen Journalisten ein viel zu schlechter Job geleistet werde.

„Die interessieren sich nicht für Suchmaschinen-Optimierung, die interessieren sich nicht für Reichweitenaufbau. Die interessieren sich natürlich für die gute Geschichte. Aber nicht dafür, wie sie die gute Geschichte an die Menschen bringen. Und plötzlich erreichen wir im Monat 500.000 Leute und die Fachmagazine nur 10.000“, sagt Lohmeyer und erwähnt als Positivbeispiel die von seiner Agentur realisierte Sportnews-Plattform ISPO.com.

Hier werden Technologien und Fähigkeiten eingesetzt, die der Journalismus auch nutzen könnte.

„Er tut es aber nicht oder er tut es viel zu selten“, so Lohmeyer.

Phantomdiskussion unter Journalisten

Ob das nun als Journalismus gewertet werde oder nicht, sei eher eine Phantomdiskussion, die unter Journalisten geführt wird. Dem Rezipienten sei das egal. Es handelt sich um Content.

„Der User macht das Smartphone an oder schlägt das Laptop auf und trifft auf Inhalte“, erklärt Lohmeyer.

Ob sie nun von Bots, Journalisten oder Marketers erstellt werden, sei dabei zweitrangig. Jeder kann Sender und Empfänger von medialen Botschaften sein. So ist das nun mal im Netz. Ob das nun als Journalismus auf der akademischen Seite gewertet wird oder nicht, ist eher nebensächlich. Ob man nun Blogger als Journalisten anerkennt oder nicht, stört nicht den Erfolg von Blogprojekten.

Interviews zum Thema:

Fortsetzung folgt.

Ein weiteres Problem beschreibt Marcel Weiss: Bei all ihrem Gejammer über die Distributionsmacht von Facebook und Google: Die deutschen Medien sind so unselbständig, dass erst ein Mittelsmann kommen muss, der die Distribution kontrolliert, damit sie ansatzweise zukunftsträchtige1 neue Formate machen.

„Wer Big Data anwendet, kann sich an Open Data nicht vorbeimogeln“ #Siri #Alexa #Cortana

Big Data

Wenn Big Data-Algorithmen und sprachgesteuerte Systeme ohne meine Zustimmung anfangen, mich zu klassifizieren und zu stigmatisieren, automatisch meine Bonität herabstufen, einen Wechsel der Krankenversicherung wegen meines vermeintlich exakt berechneten Gesundheitszustandes verhindern oder Personalberatern die Abweisung meiner Stellenbewerbung empfehlen, wird es zu heftigen Gegenreaktionen der Nutzer kommen.

„Das wird noch eine Weile beobachtet und irgendwann reagiert die Gesellschaft“, meint der Systemtheoretiker Gerhard Wohland.

Es folgen Störungen des Systems, die bis zu Boykott und Ausstieg reichen können.

Im Wettbewerb von personalisierten und vernetzten Angeboten werden deshalb nur jene überleben, die einen Vertrauenspakt mit ihren Kunden eingehen, ist sich der Düsseldorfer Unternehmensberater und Smart Service-Blogger Bernhard Steimel sicher.

„Wer Big Data anwendet, kann sich an Open Data nicht vorbeimogeln. Jedes Tracking zur Auswertung von Datenspuren, jede Lokalisierung und jeder Abgleich mit dem Profil eines Internetnutzers darf nur erfolgen, wenn der Kunde es will.“

Friss-oder-stirb-Geschäftsbedingungen könne sich niemand auf Dauer erlauben. Nicht alles, was technisch machbar sei, ist auch kulturell mehrheitsfähig.

„Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk dürfen nicht fremdgesteuert sein. Sozusagen ein Recht auf virtuelle Selbstbestimmung. Die Nutzung dieser Daten kann ich den Big Data-Systemen zu jeder Zeit wieder wegnehmen. Der Datenschlüssel, den ich zur Verfügung stelle, kann abhängig sein vom Zeitpunkt der Nutzung, er kann abhängig sein von Personen, er kann definiert sein für bestimmte Aktionen oder Nutzungsszenarien. Entscheidend ist nur, dass mir die personalisierten Dienste das Leben einfacher machen“, resümiert Steimel.

Die ersten Anbieter, die zu einem neuen Datenpakt mit den vernetzten Konsumenten bereit sind, werden zu den Gewinnern der Netzwerk-Ökonomie zählen. Ein direkter Vertrag könne auch fernab von Facebook und Google über Apps abgeschlossen werden, so Steimel. Dafür eignet sich aber nicht der anmaßende Begriff „Big Data“, sondern eher „Smart Data“.

Das gilt auch für Systeme wie Siri, Alexa oder Cortana, die Stefan Pfeiffer in seinem Blog thematisiert. Unternehmen sollten nach seiner Ansicht für Transparenz und Vertrauen in den Systemen der künstlichen Intelligenz sorgen. Als Beispiel nennt er die Prinzipien seines Arbeitgebers IBM. Klingt vernünftig. Sollten wir auf der Cebit zum Thema machen.

Da haben allerdings einige Tech-Konzerne noch Nachholbedarf. Sinnvoll sind die Dienste – auch für Journalisten. In der Datenpolitik muss allerdings einiges besser werden.

Gute Frage: Können Algorithmen Falschmeldungen entlarven?

Keine Partei beschäftigt sich mit der drängendsten Frage der Digitalisierung – dabei gibt es so viele Fragen.

#SPON Politik bei Kommentaren: Feuer frei bei Putin und Brexit #33c3

Grafik von Daniel Kriesel
Grafik von Daniel Kriesel

Seit Mitte 2014 hat David Kriesel fast 100.000 Artikel von Spiegel Online systematisch gespeichert und in einer Datenanalyse eindrucksvoll einige Clusterungen beleuchtet.

Etwa die Frage der Kommentierbarkeit von Beiträgen auf Spiegel Online. Klingt unspektakulär. Wenn man sich aber die Muster der Kommentarmögichkeiten anschaut, sieht das ganz anders aus.

putin

brexit

iran

paris

Flüchtlinge

Und da sehe ich einen Bedarf für eine Diskussion mit der Spiegel Online-Redaktion.

Bei Themen zu Putin, Brexit und Iran kann aus vollen Rohren kommentiert werden.

Bei anderen Schwerpunkten ist das nicht möglich. Auch so macht man Politik…..

Ich halte das für einen Fehler. Wer in Kommentaren beleidigt, droht oder hetzt, sollte ausgesperrt werden. Aber ansonsten halte ich diese Gewichtung der Kommentarmöglichkeiten für eine nicht sinnvolle Maßnahme. Damit gießt man noch mehr Öl ins Feuer und beflügelt die Verschwörungstheoretiker.

Siehe auch:

Analyse von Spiegel Online: So tickt Deutschlands größte Nachrichtenseite

Bombiger Big Data-Heizdeckenverkauf – Ein Brexit-Trump-Ex-post-Schlaumeier-Heldenepos

Verkaufsgag Big Data

Merkwürdig, wie die Zahlendreher und Analysten immer im Nachgang eines Ereignisses auf den Plan treten und ihre Heldengeschichten erzählen. Es sind Ex-post-Märchen, die in die Welt gesetzt werden.

Monokausale Angebereien zur Einordnung einer komplexen Welt, die eben nicht so eindeutig analysiert werden kann.

Aber Menschen sehnen sich nach Klarheit – in Politik, Wirtschaft und Wissenschaft. Also werden sie von Ex-post-Schlaumeiern bedient. Besonders beliebt ist die Methode bei Rettern des Abendlandes, die in ihrer Rhetorik als Untergangspropheten auftreten:

Als Alarmglocken-Lautsprecher liegt man in jedem Diskurs-Szenario richtig – eine Komfortzone, die besonders von besorgten Bürgerinnen und Bürgern genutzt wird. Falls das Unheil eintritt, hat man es immer schon gewusst. Je größer das Elend, desto triumphaler die Geste des Allwissenden. Bleibt zu Lebzeiten die Niedergangs-Vorhersage aus, ist es sogar noch besser: Dann waren es die eigenen Warnungen, die die Menschheit gerettet haben. Den Rest erledigt die Vergesslichkeit des Publikums oder die Kunst der Umdeutung eigener Aussagen. Die Wahrheitsmenschen mit dem „Ich-weiß-was-Image“ entfalteten in den 1920er Jahren als barfüssige Propheten (siehe auch das gleichnamige Buch von Ulrich Linse) begnadete Show- und Reklame-Talente, um sich als Heiler geschundener Seelen zu verdingen.

Der Heizdecken-Big-Data-Verkäufer ist ein besonderer Besserwisser-Typus, der seit ein paar Jahren die Medien-Agenda beschäftigt – manchmal sogar in Kombination mit dem Typus des Untergangspropheten und dem Verschwörungstheoretiker.

Dieser Typus kann Datenmaschinen zur Weltrettung konstruieren.

Er weiß, was ich morgen für eine Krawatte kaufe (obwohl ich gar kein Krawattenträger bin).

Er organisiert Wahlsiege – für Trump oder Obama.

Er gebärdet sich als allmächtiger Spekulant.

Und er dirigiert Menschen wie Maschinen.

Es sind Scharlatane, die die Welt nach den Regeln der Astrophysik erläutern und als Formelkonstrukteure eine Menge Geld verdienen.

Aber diese Taschenspieler kann man entlarven. Dazu ein paar lesenswerte Interventionen:

Big Data für Donald Trump: Fake News für die Intelligenzija

Nicht Fake News auf Facebook haben die Wahl entschieden

Vielleicht ist die Bombe auch nur Big Data-Heizdeckenverkaufsgeschwätz

Hat wirklich der große Big-Data-Zauber Trump zum Präsidenten gemacht?

HAT EIN BIG DATA PSYCHOGRAMM TRUMP WIRKLICH DEN SIEG GEBRACHT?

Die Big Data-Schmierlappen-Propaganda kann man hier bewundern:

So kann man sich irren, wenn die Schlaumeier-Analysen vor einem Ereignis erscheinen: Wahlkampf mit Facebook – Norbert Hofer ist österreichischer Bundespräsident

Und noch mal der Hinweis auf die kurze Halbwertzeit von Psychotricks: Wenn Menschen das durchschauen, passiert das Gegenteil von dem: Solche Dinge bleiben eben nicht geheim – dafür sorgen ja die Big Data-Lautsprecher wie Alexander Nix. Instrumente zur Verhaltenskontrolle oder Verhaltensmanipulation werden über kurz oder lang bemerkt. Man erkennt die Absichten und verhält sich absichtsvoll anders. Wolfgang Streeck, Direktor am Max-Planck-Institut für Gesellschaftsforschung in Köln, verweist auf die Hawthorne-Experimente (1924 bis 1932). Forscher wollten herausgefunden haben, dass Arbeiterinnen auch ohne Lohnerhöhung schneller und besser arbeiten, wenn man freundlich zu ihnen ist und die Wände gelb anstreicht.

„Aber nachdem sich unter den Beschäftigten herumgesprochen hatte, dass das Management mit seinen guten Worten und der gelben Farbe nur Geld sparen sollte, kam es zu Lohnforderungen und einem Streik“, führt Streeck aus.

Die Geltung derartiger Modelle und Theorien könne durch ihr Bekanntwerden schnell wieder außer Kraft gesetzt werden! Vielleicht wird ja der Laden von Mr. Nix mal gehackt, wäre doch lustig.

Der Psycho-Test ist übrigens eine Lachnummer.

Krake Paul 2.0 sieht erstmals Deutschland als Top-Favoriten für den Gewinn der #EM2016 #MM

In der Nacht viel gerechnet
In der Nacht viel gerechnet

Nun ist es soweit. Nach dem souveränen Sieg der deutschen Mannschaft im Spiel gegen die Slowakei, ist die Jogi Löw-Elf von Krake Paul 2.0 an die Spitze gesetzt worden als Top-Favorit für den Gewinn der Fußball-Europameisterschaft.

Es folgen Frankreich, Belgien, Spanien und Portugal. Vergangene Woche war noch Spanien als heißester Kandidat für den Titelgewinn gehandelt worden. Jetzt sind sie sogar hinter Belgien auf den vierten Platz zurückgefallen. Das kann sich aber heute schon nach dem Spiel gegen Italien schnell ändern.

Deutschland das erste Mal alleiniger Spitzenreiter
Deutschland das erste Mal alleiniger Spitzenreiter

„Für seine Prognosen durchforstet Paul 2.0 laufend das Internet nach der EM-Berichterstattung zur Fußball EM“, sagt Rüdiger Möller vom Startup-Unternehmen Juptr.

Er hat das Analyse-Tool gemeinsam mit seinem Team entwickelt und kennt sich als Experte für Börsensysteme mit Big Data-Anwendungen und Sentimentanalysen aus.

„Verändern sich die Meldungen, verändert sich auch die Prognose – und nach jedem Tor werden die Siegchancen angepasst“, so Möller.

In der Meistermacher Morningshow werden wir das vertiefen und natürlich auf das Achtelfinale eingehen.

Man hört, sieht und streamt sich in der Meistermacher Morningshow
Man hört, sieht und streamt sich in der Meistermacher Morningshow

Via Hangout on Air und Facebook Live. Um 10 Uhr.

Siehe auch:

Meistermacher Morningshow-Fans sind die Besten.

Oktopus-Tierschutz mit Krake Paul 2.0 – Wer wird Europameister?

Analoge Kon­t­rol­let­tis in digitalen Schläuchen #Monitoring #BigData

Paranoia

Nach wie vor sind Vorstandschefs, IT-Leiter, Kommunikationsdirektoren oder Vertriebsbosse davon überzeugt, soziale Netzwerke in irgendeiner Weise steuern oder gar kontrollieren zu können. Das suggerieren auch Anbieter von Big Data- oder Monitoring-Software. Man sitzt wie in einem Cockpit vor seinem Bildschirm und hat alle möglichen Quellen des Netzgeschehens im Blick. Kampagnen werden auf Knopfdruck vorgeplant, Abläufe koordiniert, Schlüsselbegriffe geprüft und Reaktionen studiert. Überschriften und Inhalte für Beiträge laufen durch einen Algorithmus und werden für möglichst hohe Klickraten aufgehübscht.

Digitale Controlling-Tools für Generaldirektoren

Dann zählt man Likes, Retweets und Kommentare, um den Chef von der Wirksamkeit der Controlling-Tools zu überzeugen. Letztlich verharrt man in der Steuerungslogik von Wirtschaftsprüfern und autoritären Generaldirektoren. Hauptsache die Ergebnisse sind positiv und sichern die eigene Machtposition. Die Befindlichkeit der Mitarbeiter ist dabei nachrangig.

Partizipation, Offenheit und Transparenz, die Antriebsfedern des Social Webs, bleiben dabei auf der Strecke. Aber selbst perfekte Steuerungstechniken und Messinstrumente versagen kläglich, wenn Befehl und Gehorsam weiterhin den Arbeitsalltag bestimmen. Mehr dazu in meiner Netzpiloten-Kolumne.

Siehe auch:

Digitale Revolution: Die eigentliche Transformation kommt erst noch – hoffentlich.

Wohl wahr: Hyperventilierender Alte-Säcke-Snapchat-Hype – viel von Mathematik muss man da nicht verstehen. Eher Prozentrechnung auf Grundschulniveau.

Mehr dazu bei den Blogrebellen.

Vertraue keinem Marktforscher

Auch in der Marktforschung
Auch in der Marktforschung

Klassische Marktforschung und Big Data sollen Gewissheiten für die Zukunft produzieren – ihre Prognosekraft ist bescheiden.

In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Anbieter im Marketing. Sie wollen den Zufall besiegen. Häufig handelt es sich um Physiker oder Mathematiker, die in das Lager der Daten-Analysten konvertiert sind. Schaut man in die Big Data-Systeme hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor rund 15 Jahren den so genannten NeuroBayes-Algorithmus erfunden.

„Es gibt Artikel, die eine höhere Wahrscheinlichkeit haben, zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Maschinen-Entscheidungen

Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. So simpel lässt sich also die Wirtschaftswelt steuern. Wenn es aber um konkrete Prognosen geht, die über Stauwarnungen und die Ausbreitung von Grippeviren hinausgehen, schneiden die Daten-Systeme recht kümmerlich ab.

Was Algorithmen leisten, sind Optionen und Anregungen. Dahinter stecken wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Schon bei Textilwaren kann das in die Hose gehen:

„Eine Maschine versagt bei der Vorhersage, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein“, erklärt der Internet-Experte Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, können die Daten-Systeme den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Trügerische Komfortzonen

Es sei der monokausale Glaube, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat, bemerkt der Organisationswissenschaftler Gerhard Wohland.

„Auch wenn ich die Vergangenheit umfangreich und schnell auswerte, weiß ich nicht genau, was die Zukunft bringt.“

Welches Ereignis eine Wirkung in der Zukunft erzeugt, könne man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher.

„Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu.

Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet:

„Was soll man machen?“

Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden.

„Häufig kommen bei solchen Verfahren genau jene Dinge durch, die man schon vorher erwartet hat. Valide sind diese Daten nicht“, bestätigt der Düsseldorfer Marketingexperte Jan Steinbach.

So gleiche die Prüfung eines Werbespots mit ausgewählten Probanden in einer Studiosituation eher den Schimpansen im Versuchslabor. Eine unnatürliche Situation, die nach Ansicht von Steinbach kaum verwertbare Erkenntnisse bringt. Da werde der Wiedererkennungswert einer Anzeige abgefragt oder die Kaufabsicht und Weiterempfehlung eines Produktes.

„Mit solchen Aussagen kann ich nichts anfangen. Großartige Kampagnen werden durch solche Marktforschungsansätze nicht erzeugt. Da kommt eher Mittelmaß heraus. Man braucht sich nur die früheren Werbespots von Procter & Gamble anschauen. Das war Schema F“, so Steinbach.

Der Krösus-Irrtum

Nach Erfahrungen von Holger Rust, Professor für Wirtschaftssoziologie, sind Forschungsansätze sinnvoll, um Widersprüche bei der gewählten Unternehmensstrategie zu verorten. Die quantitativen Daten müssten mit den qualitativ erarbeiteten Befunden kontrovers diskutiert werden. Es ist ein dauerhafter diskursiver Prozess, der nicht zu endgültigen Gewissheiten führt. Wer das in der Attitüde eines allwissenden Gurus verspricht, etwa die einschlägig bekannten Trendforscher, ist nach Meinung von Rust eher ein unterhaltsamer Geschichtenerzähler aber kein Marktforscher.

„Marktforschung ist immer dann sinnvoll, wenn man getroffene Entscheidungen überprüfen möchte“, betont Steinbach.

INNOFACT verfolge mit seinem Online-Panel einen pragmatischen Ansatz. Hier werde plattformübergreifend das Bewegungsprofil mit Zustimmung der Panel-Mitglieder über sehr lange Zeiträume digital gemessen. Der Browser wird komplett ausgewertet, alle Käufe, Empfehlungen, Meinungsbeiträge und das Surfverhalten vor und nach einer Kaufentscheidung. Die Unnatürlichkeit der Testsituation im Studio ist somit ausgeschaltet. Das hält auch Michael Dahlén von der Stockholm School of Economics für einen sinnvollen Weg. Man könne mehr über Kunden erfahren, ohne sie zu manipulieren.

„Ihr Verhalten ist echt – Antworten in einem Fragebogen sind es nicht unbedingt“, sagt Dahlén nach einem Bericht der absatzwirtschaft.

Aber selbst Echtzeit-Systeme blicken in den Rückspiegel und bieten nicht die Datengrundlage, um wirklich Neues zu schaffen. Wenn es um die Zukunft geht, sollten Unternehmensentscheider mit Daten und Zahlen skeptischer umgehen. Ansonsten könnten sie ein ähnliches Debakel erleben wie Krösus: Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.

Man sollte wohl eher diesem Rat folgen – auch in der Marktforschung:

Mehr Kant, weniger Algorithmen

Professor Gerd Gigerenzer, Direktor des Max-Planck-Instituts für Bildungsforschung in Berlin, rief in seinem Impulsvortrag die Netznutzer deshalb dazu auf, dem Credo des Philosophen Kant zu folgen: Aufklärung ist der Ausweg des Menschen aus seiner selbstverschuldeten Unmündigkeit. Und die Unmündigkeit besteht bei vielen Menschen darin, sich nicht seines eigenen Verstandes und Wollens zu bedienen. Gefordert sei eine aufklärerische Algorithmen-Kompetenz. Was die algorithmischen Variablen für Wirklichkeitsmanipulationen produzieren, bleibt in der Regel ein Geheimnis der mathematischen Konstrukteure. Dabei versagen die Systeme in schöner Regelmäßigkeit, wenn es um Vorhersagen geht. So ist der beliebteste Showcase, der von jedem Big Data-Heizdeckenverkäufer präsentiert wird, in sich zusammen gebrochen.

Gigerenzer erwähnt die Google Flu Trends, die in den vergangenen Jahren dramatisch falsch lagen, weil die Suchabfragen keine eindeutigen Korrelationen mehr zuließen. Generell ist es eine Schwäche der Big Data-Algorithmen, reine Korrelationen zu rechnen und keine Kausalitäten.

„Diese Systeme können nicht denken“, so Gigerenzer.

In Momenten, wo etwas Unerwartetes passiert, kommt es zu irreführenden Prognosen.

Siehe auch:

Agenturen haben den Knall noch nicht gehört

Neue Zahnrad-Logik mit Big Data im Personalmanagement? #rpTEN #HRFestival

rpTEN-Debatte über Big Data und Arbeitnehmer
rpTEN-Debatte über Big Data und Arbeitnehmer

Was können Big Data-Systeme im Personalmanagement leisten? Beispielsweise bei der Prognose von Kündigungsabsichten. Nutzt man das, um eine Kündigung zu verhindern oder werden Maßnahmen eingeleitet, um die Kandidaten loszuwerden?

Führt Big Data unternehmensintern zu einem weiteren Controlling-Wahnsinn, der jetzt schon zur Zahnrad-Logik mit digitalen Mitteln genutzt wird?

Im Ideen-Management wären solche Anwendungen höchst nützlich, um in Echtzeit Clusterungen vorzunehmen, Mitarbeiter zu matchen und interdisziplinäre Teams aufzustellen.

Auch Stimmungsbarometer könnte man auf Knopfdruck abrufen.

Auf der re:publica gab es zwei Panel-Diskussionen, die sich mit Big Data im Unternehmen auseinander gesetzt haben. Da gibt es wohl noch eine Menge Klärungsbedarf.

Hier die Podcast-Variante des Interviews für die Badewanne 🙂

Und ohne Open Data – also die Offenlegung aller Algorithmen – geht es nach meiner Meinung überhaupt nicht.

Youtube-Playlist zum HRFestival auf der re:publica in Berlin.

Auch Milliarden Datenpunkte können in die Irre führen #Marketing #Marktforschung

Wird sich als Trend wohl nicht durchsetzen
Wird sich als Trend wohl nicht durchsetzen

Welches Ereignis eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die etwa von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bleibt Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher. „Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu. Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet: „Was soll man machen?“ Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden. Das ist im klassischen Marketing so, aber auch bei allen anderen Disziplinen. Ob sie sich nun Storytelling, Content Marketing oder sonst wie nennen.

All das habe ich ausführlich in meiner Freitagskolumne für die Netzpiloten dargelegt. Wollen wir darüber debattieren?

Live-Hangout: Wie viel Smart Data steckt in Big Data? Autorengespräch mit Björn Bloching von @RolandBerger #NEO15

Über Datenstrategien, die Kunden wirklich wollen
Über Datenstrategien, die Kunden wirklich wollen

Die kalifornischen Nerds im Tal der radikalen Innovation dringen mit ihren digitalen Geschäftsmodellen und Software-Spielereien in nahezu jede Branche ein, schreiben Björn Bloching, Lars Luck und Thomas Ramge in ihrem neuen Buch „Smart Data“, erschienen im Redline Verlag. Während deutsche Führungskräfte in Meetings Worthülsen-Big-Data-Bullshit-Bingo spielen, klinken sich die amerikanischen Angebots-Aggregatoren und Datenauswerter in die Wertschöpfungsketten der klassischen Unternehmen ein und suchen den direkten Kontakt zu Geschäfts- und Privatkunden. Die drei „Smart Data“-Autoren nennen das Plattformisierung und Netzwerkeffekte:

„Der Clou an Plattformen in der digitalen Ökonomie ist: Sie können noch schneller und besser skalieren als Hersteller mit großer Marktmacht in klassischen Wertschöpfungsketten.“

Konsens-Mittelmaßkultur bringt keine technologische Expertise

Völlig unterschätzt werde eine neue Bugwelle, die auf kleine und große Unternehmen zukommt. TED-Talkerin Rachel Botsman nennt das „Collaborative Consumpition“:

„In Management-Etagen wird das Phänomen nach wie vor als Erscheinung mit begrenzter Branchen-Reichweite belächelt, der eigentliche Hebel dahinter wird aber nicht gesehen: Intelligente Kollektive drängen die Mittelsmänner aus der Wertschöpfung heraus – oder rollen wie im Beispiel Uber und Lyft gleich die ganze Branche auf“, erklären Bloching, Luck und Ramge.

Mit Konsens-Mittelmaßkultur, die hierzulande dominiert, wird man nicht die richtigen Antworten finden. Die drei Buchautoren erleben in ihren Gesprächen lähmende Orientierungslosigkeit bei den großen Noch-Champions, die nach und nach ihre unternehmerischen Ambitionen zurückschrauben.

Oder man wählt den Weg der politischen Protektion, um noch einigermaßen mit kleinen Margen zu überleben, wie die Netzbetreiber. Die politische Debatte um die Netzneutralität habe offenbart, dass es an guten Ideen für neue Geschäftsmodelle fehlt: „Denn hinter den unterschiedlichen Geschwindigkeiten im Netz steht ja nichts anderes als der Versuch, die Infrastrukturleistung, Daten zu leiten, höher zu bepreisen.“ Kein guter Plan für die Zukunft.

Was sich ändern muss, bespreche ich im Live-Hangout mit dem Smart Data-Co-Autor Björn Bloching.

Hashtag zum Mitdiskutieren ab 18 Uhr

Oder den Frage-Button von Google Plus nutzen – oben rechts am Video.

Man hört, sieht und streamt sich 🙂

Siehe auch:

Smart Data: Transparenz über Daten und Nutzungsrechte.

Wikileaks enthüllt Inhalte des geheimen TISA-Abkommens.