Big Dada statt Big Data: Über das theatralische Schauspiel der allwissenden Prognostiker

Die Neo-Alchemisten der Daten-Ökonomie

In Recherchen über Sinn und Unsinn des Schlagwortes Big Data stößt man auf merkwürdige Allianzen. Die Einen warnen vor dem Niedergang des selbstbestimmten Lebens und die Anderen erträumen sich ein Himmelreich der Planbarkeit. Beide Fraktionen sitzen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen von Naturwissenschaftlern mit bedeutungsschweren Gesten vorgeführt werden. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und das wiederum ist kein Zufall. Schaut man in den Zauberkasten der Big Data-Apologeten hinein, findet man recht simple Formeln.

Professor Michael Feindt hat auf einem Zukunftskongress im vergangenen Jahr einen kleinen Einblick in sein alchemistisches Zahlenlabor gewährt. So richtig beeindruckt bin ich nicht. Es erinnert ein wenig an den naiven Empirismus der Wirtschaftswissenschaftler, der glücklicherweise seit dem Ausbruch der Finanzkrise unübersehbare Blessuren abbekommen hat.

Kommen wir aber zum Big Data-Szenario von Professor Feindt. Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.

„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen“, glaubt der Teilchenphysiker Feindt.

Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Es werden also zwei Ziele gleichzeitig erreicht, die sich eigentlich ausschließen. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.

„Aufgrund von historischen Daten mit individualisierten Algorithmen erreicht man beide Ziele gleichzeitig“, meint Feindt.

Er würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Verbessert sich dadurch aber der Verkauf von Fleisch- und Wurstware? Was steckt hinter den Durchschnittswerten, die man ermittelt?

Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Dahinter stecken allerdings wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Grütze manövrieren.

Schon bei Textilwaren kann das in die Hose gehen:

„Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt der Internet-Experte Christoph Kappes.

Kritiker und Anbieter von Big Data-Systemen operieren mit einem simplen Trick. Sie schrauben Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen, um die eigenen Big-Brother-Horror-Thesen oder eben die alchemistischen Anwendungen besser verkaufen zu können.

„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert der Systemtheoretiker Gerhard Wohland.

Sein Rat: In jeder Organisation sollte man nach diesen Übertreibungen suchen. Wer sie findet, besitzt wertvolle Potenziale, um sich zu verbessern.

„Vom Controlling wird verlangt, eindeutige Prognosen für die Zukunft zu liefern. Mit einem Plan, einem Budget und allem, was damit zusammenhängt. Dann tun die Controller das, was man von ihnen erhofft“, so Wohland.

Dumm nur, dass das alles nicht zusammenpasst.

„Kein Plan tritt tatsächlich ein. Die Zeiten sind längst vorbei, die komplexen Vorgänge in Wirtschaft und Gesellschaft prognostizieren zu können. Wir nennen das oft Basar- oder Theaterkommunikation. Jeder spielt eine Rolle. Jeder weiß, dass er eigentlich Unsinn redet. Und der Gesprächspartner weiß es auch. Also passiert nichts Besonderes. Es ist wie bei des Kaisers neuen Kleidern. Es darf keiner kommen und das Ganze tatsächlich so beschreiben, wie es ist – der fliegt in der Regel raus. Der stört das System“, weiß Wohland.

Die Intelligenz eines Unternehmens liege weder beim Controlling noch beim Management. Sie liege bei der Organisation selbst.

„Dynamikrobuste Höchstleister arbeiten nicht mit Wissen, sondern mit Talenten, Ideen und Phantasie. Deswegen ist eine Nachahmung nur schwer möglich“, resümiert Wohland.

Idioten sind die besseren Experten

Die Dogmatik der selbsternannten Experten könne dazu verführen, so der Philosophieprofessor Paul K. Feyerabend, dass sie anstelle von Pferden, störrische Esel besteigen und somit auf wirre Wege geraten. Wie ist es möglich, dass die Unwissenden oder schlecht Informierten mehr zuwegebringen als diejenigen, die einen Gegenstand in- und auswendig kennen, fragt sich Feyerabend.

„Eine Antwort hängt mit der Natur des Wissens selbst zusammen. Jede Einzelinformation enthält wertvolle Elemente Seite an Seite mit Ideen, die die Entdeckung von Neuem verhindern.“

Etwa eine Krawatten-Dispositionsmaschine, die nicht in der Lage ist, einen neuen Trend gegen den Mainstream durchzusetzen.

Lektüreempfehlung

Außerhalb ihres Spezialgebietes seien Experten von weitverbreiteten und zählebigen Gerüchten abhängig. Viele Gerüchte, die mit anmaßender Gewissheit aufgetischt werden, seien nichts anderes als simple Fehler, die aus einer Mischung von Selbstgefälligkeit und Ignoranz entstehen. Besonders eklatant sei das in der Finanz- und Wirtschaftswelt:

„Makroökonomen, Statistiker, Planungsbürokraten, Analysten und selbst ernannte Wirtschaftsexperten sind überhaupt nicht in der Lage, das Unvorhergesehene zu prognostizieren. Sie schauen zu oft in den Rückspiegel, um Erkenntnisse für die Zukunft zu gewinnen. Friktionen, Zufälle, bahnbrechende Entdeckungen, konjunkturelle Bewegungen oder politische Katastrophen kann man nicht mit statistischen Methoden berechnen“, erklärt der IT-Experte Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf.

„Das Management der Zukunft findet unter den Bedingungen von Komplexität und Zufall statt. Zufallsfluktuationen und Komplexität erzeugen nichtlineare Dynamik“, schreibt der Wissenschaftstheoretiker Klaus Mainzer in seinem Buch „Der kreative Zufall – Wie das Neue in die Welt kommt“. Auch wissenschaftliche Modelle und Theorien seien Produkte unserer Gehirne.

„Wir glauben in Zufallsreihen Muster zu erkennen, die keine sind, da die Ereignisse wie beim Roulette unabhängig eintreffen. Wir ignorieren Spekulationsblasen an der Börse, da wir an eine ansteigende Kursentwicklung glauben wollen“, erläutert Professor Mainzer.

In einer zufallsabhängigen Evolution sei kein Platz für Perfektion und optimale Lösungen. Zufällig, spontan und unberechenbar seien auch Einfälle und Innovationen menschlicher Kreativität, die in der Kultur- und Wissenschaftsgeschichte als plötzliche Ereignisse beschrieben werden. Ohne Zufall entstehe nichts Neues.

„Nicht immer fallen die Ereignisse und Ergebnisse zu unseren Gunsten aus – das Spektrum reicht von Viren und Krankheiten bis zu verrückten Märkten und Menschen mit krimineller Energie“, resümiert Mainzer.

Politiker, Entdecker und Unternehmer sollten weniger auf maschinengesteuerte Top-down-Planung setzen, sondern sich auf maximales Herumprobieren und das Erkennen der Chancen, die sich ihnen bieten, konzentrieren, rät der frühere Börsenhändler Nassim Taleb, Autor des Opus „Der Schwarze Schwan – Die Macht höchst unwahrscheinlicher Ereignisse“.

Die beste Strategie bestehe darin, möglichst viel auszuprobieren und möglichst viele Chancen zu ergreifen, aus denen sich Schwarze Schwäne ergeben könnten.

„Dass wir in Umgebungen, in denen es zu Schwarzen Schwänen kommen kann, keine Vorhersagen machen können und das nicht einmal erkennen, bedeutet, dass gewisse ‚Experten’ in Wirklichkeit gar keine Experten sind, auch wenn sie das glauben. Wenn man sich ihre Ergebnisse ansieht, kann man nur den Schluss ziehen, dass sie auch nicht mehr über ihr Fachgebiet wissen als die Gesamtbevölkerung, sondern nur viel bessere Erzähler sind – oder, was noch schlimmer ist, uns meisterlich mit komplizierten mathematischen Modellen einnebeln. Außerdem tragen sie mit größter Wahrscheinlichkeit Krawatten“, bemerkt Taleb.

Es sind also nur spärliche Erkenntnisse für die Zukunft, die über Big Data berechnet werden können – etwa im Datenjournalismus. Siehe auch: Big Data – Die Vermessung von allem. Es springen ein paar nette Storys heraus, die man über Datenanalysen gewinnt. Etwa beim Zugmonitor, der alle verfügbaren Daten über Zugverspätungen sammelt und mich warnen kann, ob meine Verbindung von A nach B pünktlich ist oder nicht. Auch das Beispiel Google Now darf in der Aufzählung nicht fehlen – also die Verbindung von Suche, Ort und Terminkalender in Kombination mit Staumeldungen. Hier bekomme ich eine Warnung, um einen Termin auch pünktlich mit dem Auto zu erreichen. Diese Anwendung entwickelt sich in öffentlichen Verlautbarungen so langsam zu einem Dauerbrenner, wenn über die Vorteile von Datenauswertungen gesprochen wird – ähnlich legendär wie der intelligente Kühlschrank, der mir sagt, wann und wie viel frische Milch ich kaufen soll oder das sogar selbst übernimmt. Auch das haut mich nicht vom Hocker. Nützliche Anwendungen sind ja ok, sie orientieren sich aber an einem klaren und präzisen Nutzungsszenario. Mein Verhalten ist dadurch aber nicht vorhersagbar. Ich entscheide selbst, ob am Bahnsteig eine Datenabfrage für mich sinnvoll ist, um über Zugverspätungen informiert zu sein not more.

Eine Konsequenz könnten die Kritiker und Verkäufer von Big Data-Systemen aber erfüllen. Wer in der Öffentlichkeit darüber redet, sollte auch Ross und Reiter nennen. Ansonsten höre ich nicht auf, das Ganze als naiven Empirismus zu titulieren. Das gilt für Ratingagenturen, Social Media-Berater, Teilchenphysiker, Inkasso-Läden und sonstige Zahlendrehern, die die Welt nicht nur vermessen, sondern auch erklären wollen.

Jeder Big Data-Gichtling ist also herzlich eingeladen, sein Rechensystem in einer Liveübertragung via Hangout On Air beim Blogger Camp zu präsentieren.

Ob der Kaiser am Schluss der Sendung ohne Klamotten dasteht oder nicht, kann ich nicht garantieren :-). Big Data sollte also immer auch Open Data sein – ansonsten ist das alchemistischer Zahlenzauber ohne Relevanz.

Deshalb ist auch die skeptische Zukunftsprognose des Social Media-Beraters Frank Tentler mit Vorsicht zu genießen. Er geht davon aus, dass spätestens in fünf Jahren alles nur noch Big Data und nicht mehr social ist. Nur noch ein paar Herzensangelegenheiten würden für das Social Web übrig bleiben.

Nö. Die Systeme bleiben so blöd wie die Analysten, die die Welt im Rückspiegel betrachten und für Zukunftsprognosen den Finger in die Luft heben. Menschen sind über Big Data nicht bestimmbar – auch wenn die Fraktion der Deterministen etwas anderes behauptet.

Das sind ein paar Ideenskizzen für längere Storys, die ich über das Big Data-Geschwurbel schreiben möchte.

Interviews, Anregungen, Kommentare, kritische Blogpostings und sonstige Vorschläge sind in dieser Woche hoch willkommen.

Am nächsten Wochenende muss ich dann das erste große Opus fertigstellen. Hier setze ich natürlich wieder auf Crowdsourcing-Effekte – also Überraschungen des Netzes, die ich nicht planen kann.

Vielleicht wäre das auch ein nettes Betätigungsgebiet für Hacker.

Man könnte in die Entscheidungsmaschinen dadaistische Algorithmen einpflanzen, die den Anwendern das Leben noch leichter macht. So könnte immerfort die gleiche Entscheidung herausspringen: 42 – also 42 Krawatten, Anzüge, Mettwürste oder 42 Fehlprognosen pro Tag.

Um sich über die Grenzen von Big Data bewusst zu werden, empfehle ich den pragmatischen Ansatz des DFKI-Forschers Professor Hans Uszkoreit vom DFKI. Maschinen seien nicht so klug wie man denkt. Aber trotzdem nützlicher, als es allgemein bekannt sei:

„Seit mehr als fünfzig Jahren versuchen Wissenschaftler, die menschliche Intelligenz nachzubilden. Aber wir haben ja nicht einmal ein dreijähriges Kind nachgebildet. Wir können nicht die Kreativität, das Denken oder die Sprache eines Kleinkindes nachbilden. Was ist hier los“, fragt sich Uszkoreit.

Das verwirre die Öffentlichkeit. Die wirklichen Fortschritte der Künstlichen Intelligenz werden in diesem Spannungsfeld nicht wahrgenommen.

3 Gedanken zu “Big Dada statt Big Data: Über das theatralische Schauspiel der allwissenden Prognostiker

  1. Wenn ich einen vorsichtigen Einspruch formulieren darf: Ist nicht alles, was eine kritische Masse an Menschen betrifft, ein deteministischer und damit simulierbarer Prozess? Klar kann ich nicht vorhersagen, ob ich übermorgen Lust haben werde diese oder jene Krawatte anzuziehen – aber ich kann, mit hinreichend Vorwissen ausgestattet – prognostizieren, welche Farbe bei vielen bzw. wenigen Menschen gut ankommen wird.
    Das Problem bei der Simulation und Prognostik ist (soweit ich das sehe), dass man zu wenige Informationen hat, mit denen man seine Modelle starten lassen kann; Genau hier kann aber „Big Data“ eine entscheidende Wendung geben: Wenn auf twitter „Krawatte“, „blau“ und ein paar positive Attribute plötzlich deutlich häufiger genannt werden und Amazon eine gesteigerte Nachfrage nach blauen Krawatten misst, dann kann man doch prognostizieren, dass in der kommenden Woche mehr Menschen eine blaue Krawatte tragen werden als jetzt. (Okay, das ist WIRKLICH ein sehr unschönes Beispiel, aber ich bin ziemlich sicher, dass wir, wenn wir große unstrukturierte Daten erst einmal effizient verarbeiten können, daraus viele interessante Schlüsse werden ziehen können.)

  2. Selbst wenn die Datenmassen größer werden, die in die Berechnungen einfließen, bleibt das Problem der Gewichtung, der Annahmen, der Wertungen und als Start natürlich der Algorithmus. Was besagt denn die Wortkombination „Krawatte“ und „blau“? Ist ein Kommentar, ein Tweet oder ein Like jetzt positiv oder negativ? Wie erkennt der Algorithmus Ironie und Sarkasmus? Bin ich kaufsüchtig, wenn ich häufig über Produkte schreibe, die ich eigentlich gerne kaufen möchte, aber mich dann doch anders entscheide? Wird dann von der Schufa meine Kreditwürdigkeit herabgestuft? Bei einer Krawatte ist ein Prognosemodell noch relativ profan. Was aber passiert bei Analysen, die zu einer Stigmatisierung von Menschen beitragen auf Grundlage von Clusterungen, die nach der Willkür des Programmierers laufen. Hinter jedem Algorithmus steckt mindestens ein Mensch mit seiner eigenen Wirklichkeitskonstruktion. Insofern sagen die vermeintlichen Entscheidungsmaschinen mehr über den Programmierer als über die Wirklichkeit aus. Nenne mir doch konkrete nachprüfbare Systeme, die wir live via Hangout on Air testen können? Ich bin da für alles zu haben. Jeder, der Big Data anwendet, sollte auch zu Open Data bereit sein – alles, was hinter verschlossenen Türen abläuft und nicht überprüfbar ist, kann nicht sehr ernst genommen werden.

  3. Pingback: Sensationelle Big Data-Erkenntnis: Wassermänner neigen zu Angina Pectoris | Ich sag mal

Kommentar verfassen