Big Data: Sind die Weltsimulatoren so klug, wie das Orakel von Delphi?

Die Revolution der Kundendaten sei Teil einer größeren Umwälzung, proklamieren die Roland Berger-Berater Björn Bloching und Lars-Luck sowie brandeins-Autor Thomas Range in ihrem Buch „Data Unser – Wie Kundendaten die Wirtschaft revolutionieren“ (erschienen im Realien Verlag – auch in einer Kindle-Version erhältlich). Die Digitalisierung habe nach PC und Internet gerade die dritte Zündstufe zugeschaltet.

„Speicher wird immer günstiger, die Rechenleistung immer größer, die Algorithmen immer intelligenter. Informatiker haben dieser Revolution die Überschrift ‚Big Data‘ gegeben“, so die Autoren.

Oder ist es vielleicht nur die neueste Sau, die gerade durchs IT-Dorf getrieben wird, wie Smart Service-Blogger Bernhard Steimel im ichsagmal-Interview ketzerisch bemerkte.

Vielleicht sind es ja gerade die semantischen Übertreibungen, die zu einem kritischen Diskurs über die Daten-Götter einladen. Wenn man von der informationellen Rohmasse für Innovationen redet. Oder von einer Trittleiter zu einer neuen Erkenntnisstufe. So soll Big Data Gesellschaft, Politik und Wirtschaft verändern wie der elektrische Strom und die Erfindung des Internets. Da werde an Apparaturen wie aus einem guten Science Fiction-Roman gebastelt. Es seien die ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi. Weltsimulatoren sollen durch Echtzeitanalyse der anschwellenden Datenmasse den epidemischen Weg von Schweinegrippenviren vorausberechnen. Es sollen Empfehlungen zur Bewältigung des Klimawandels ausgespuckt und rechtzeitig Alarm geschlagen werden, wenn eine neue Finanzkrise droht. Im unternehmerischen Anwendungsmodus können die Entscheidungsmaschinen Aussagen treffen, ob die Einführung eines neuen Produktes den Wettbewerber in die Bredouille bringt oder eher das eigene Portfolio kannibalisiert. IT-Systeme im Zeitalter von Big Data seien zu Leistungen fähig, die von IT-Visionären vor Jahrzehnten versprochen wurden.

„Sie aggregieren das Wissen der Welt auf einem Bildschirm. Sie erkennen Zusammenhänge, die für die menschliche Auffassungsgabe zu komplex waren. Und sie bilden Modelle, die uns mit den Mitteln der Wahrscheinlichkeitsrechnung (was für eine Überraschung, gs) ein Fenster für den Blick in die Zukunft öffnen. Zumindest sagen sie oft zuverlässiger als wir selbst voraus, wie wir uns in bestimmten Situationen verhalten werden. Mietwagen-Firmen wissen aufgrund unseres Kundenprofils, mit wie viel Benzin im Tank wir das Leihauto zurückgeben. Ein analytisch getriebener Online-Händler weiß, bei welchem Preis ein Stammkund mit welcher Wahrscheinlichkeit zuschlägt. Und wie viel Budget es für personalisierte Werbung dafür einsetzen muss. Kreditkartenunternehmen können mit sehr hoher Trefferquote prognostizieren, wer sich in den kommenden fünf Jahren scheiden lässt“, so die Data Unser-Buchautoren.

Kennen eigentlich die Buchautoren die Tricks und das Schicksal des Orakels von Delphi? Mal so eine Bemerkung am Rande.

Auf welcher Datenbasis hat eigentlich Steve Jobs das iPhone eingeführt? Wie kommt es zu disruptiven und nicht vorhersehbaren Innovationen? Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit fast in Echtzeit vorliegen, was können die Big Data-Systeme wirklich? Hinter jedem Algorithmus stecken ja auch Konstruktionen der Wirklichkeit. Annahmen, Gewichtungen, Verzerrungen – die Datenbasis muss wiederum von Menschen interpretiert werden für Entscheidungsempfehlungen.

Dazu führe ich gleich noch ein weiteres Gespräch mit dem Organisationswissenschaftler Dr. Gehard Wohland.

Seine Steilvorlage für das Interview kam per Mail:

„Soziale Systeme sind selbstbeobachtende Systeme, wobei jede Beobachtung das System verändert. Ein soziales System ist nicht, es wird und zwar durch Beobachtung! Egal mit welchen Algorithmen beobachtet wird. Beobachtung ist nur wirksam, wenn sie kommuniziert wird. Also selbst beobachtet wird. Durch Kommunikation fügt sich die Beobachtung dem System zu. Jede Beobachtung verändert das Beobachtete. Die Beobachtung beobachtet immer auch sich selbst. Solche Systeme nennt man komplex. Sie produzieren ständig Überraschungen, die nicht einmal Wahrscheinlichkeiten folgen.“

Könnte mal einer der weltweit führenden Weltsimulations-Konstrukteure in eine Live-Kommunikation via Hangout On Air kommen – also in unserer Blogger Camp-Sendung.
Dann könnte der oder die Entwicklerin die algorithmischen Zaubertricks der Netzöffentlichkeit vorführen. Wer traut sich?

Zudem gilt mein Credo, wer von Big Data redet, sollte sich vor Open Data nicht fürchten. Oder besser: Open Data ist für jeden Big Data-Anwender Pflicht! Ansonsten gibt es eine sehr harte netzpolitische Auseinandersetzung.

Schein und Sein der vernetzten Ökonomie: Deutschland braucht noch 20 Jahre

Netzwerkökonomie statt alte Industriekultur

An die Stelle der Industrieökonomie tritt die Netzwerkökonomie, so die These von Markus Lause und Peter Wippermann in ihrem neuen Buch „Leben im Schwarm – Die Spielregeln der Netzwerkökonomie“. Schon bei dieser Aussage werden einige Manager in den industriepolitischen Schützengräben nervöse Zuckungen bekommen. Dabei sind die Netzeffekte eigentlich in jeder Branche zu spüren – auch beim produzierenden Gewerbe. Allein beim Verkauf der Waren und bei der monologischen Markenkommunikation funktionieren die alten Mechanismen nicht mehr.

„Konsumenten mit individuellen Wünschen und dem Wissen um die Macht der digitalen Kommunikation schreiben längst keine Beschwerdebriefe mehr: Sie äußern Bewertungen von Produkten, Verbesserungsvorschläge oder Unmut in Echtzeit in sozialen Netzwerken mit globaler Reichweite. Das setzt Unternehmen unter starken Druck und zwingt sie zum Handeln. Wer sich dem Dialog mit dem Konsumenten widersetzt, muss ökonomische Nachteile in Kauf nehmen oder wird ganz ausgegrenzt“, so Lause und Wippermann.

Und das ist nur ein Aspekt der Netzwerkeffekte, die man beobachten kann.

Im ichsagmal-Interview hat Professor Wippermann vom Hamburger Trendbüro dann noch einige Dinge zum Status quo der deutschen Wirtschaft gesagt – neben Ausführungen zu Big Data und Co., die ich für einen längeren Artikel abgefragt habe.

Amazon taucht in deutschen Handelsstatistiken gar nicht auf

Warum dominieren in Deutschland die Beharrungskräfte? Firmen, die mit dem Internet gegründet wurden und groß geworden sind, haben mit dem digitalen Wandel naturgemäß keine Probleme: Man brauche sich nur den Siegeszug von Amazon anschauen. Interessant an der Dominanz des amerikanischen Online-Händlers ist für Wippermann, dass der Konzern in den deutschen Handelsstatistiken gar nicht auftaucht, die nach Branchen segmentiert sind – also Bücher, Schuhe oder Waschmaschinen.

„Das hängt damit zusammen, dass es eben ein ganz anderes System ist. Amazon geht nicht über Branchen, sondern es geht über die individuell massenhafte Beziehung zu Kunden“, so Wippermann im Interview.

In Deutschland könne man die Rückständigkeit als vernetzte Ökonomie relativ simpel überprüfen.

„Man muss sich nur das Personalmanagement anschauen. Alle großen Unternehmen sind in irgendeiner Weise im Web 2.0 aktiv. Entweder in den branchenspezifischen Angeboten wie Xing oder LinkIn oder auf Portalen wie Facebook. Aber 64 Prozent der deutschen Mitarbeiter in Personalabteilungen schauen nicht ins Internet. Die Betreuung der Web-Angebote läuft nicht über die Personalabteilung, sondern über PR, Marketing oder IT. Das macht deutlich, dass wir ganz am Anfang stehen“, erläutert Wippermann.

Wobei natürlich Personalmanager auch ins Internet schauen. Es wird aber nicht aktiv als tägliches Werkzeug für die Arbeitsorganisation eingesetzt. Den Lippenbekenntnissen nach außen folgen keine Taten nach innen. Ein Befund, den ich in meinen Kontakten zur Wirtschaft fast täglich erlebe. Technisch sei die Reise relativ klar vorgezeichnet, sagt Wippermann. Es gebe in den Organisationen große Widerstände, die allerdings öffentlich nicht zugegeben werden.

„Man verteidigt ein System der arbeitsteiligen Industriekultur mit einer Kommunikation, die Top-Down verteilt wird und nicht interaktiv ist. So lange wir noch von Neuen Medien und den Herausforderungen des Internets sprechen, wird es noch weitere 20 Jahre dauern, bis sich unsere Kultur umgestellt hat.“

Die Kipp-Geschwindigkeit habe allerdings zugenommen. Aber immer noch sitzen beispielsweise die Verlage auf dem hohen Roß und lamentieren darüber, ob es gerecht sei, dass Amazon eBooks einführt.

Gleichzeitig brechen die Großflächen-Kaufhäuser für Bücher zusammen, weil es sich wirtschaftlich einfach nicht mehr lohnt. Redaktionen werden abgebaut, weil das Vertriebssystem Papier nicht funktioniert. Hier gerät die analoge Industriewelt in den nächsten zehn bis 20 Jahren stärker unter Druck als es in den vergangenen 20 Jahren der Fall war.“

Warum diese Wendemarken in der deutschen Wirtschaft nicht erkannt oder in Abrede gestellt werden, hat Wippermann auch recht plausibel geschildert.

„Diejenigen, die jetzt Mitte 40 sind, haben eine lange Zeit gebraucht, um in Entscheidungspositionen zu kommen. Diese Führungskräfte sind in einer Welt aufgewachsen, die sich von der Welt der Jüngeren deutlich unterscheidet. Sie verteidigen ihre Positionen.“

Die Robotik habe zu einem Wegfall von Arbeitsplätzen in der Produktion geführt. Die vernetzte Ökonomie geht jetzt auch dem Management ans Leder. Und das ruft Widerspruch und Widerstand hervor.

Diesen Aspekt des Interviews möchte ich morgen in einem Beitrag vertiefen – also nicht den Big Data-Teil. Statements bis morgen so gegen 12 Uhr möglich.

Und das die Handelsstatistiken in Deutschland nicht ganz so aussagekräftig sind, belegt folgende Meldung: Amazon ist in Deutschland größer als bisher angenommen – Amazon kontrolliert rund 20 Prozent des Buchmarktes.

Die Amazon-Zahlen und die peinlichsten Fehlprognosen.

Experten verschätzen sich beim Deutschlandumsatz von Amazon um bis zu 65 Prozent.

Amazon Deutschland so groß wie Thalia, Weltbild & Co. zusammen.

Big Dada statt Big Data: Über das theatralische Schauspiel der allwissenden Prognostiker

Die Neo-Alchemisten der Daten-Ökonomie

In Recherchen über Sinn und Unsinn des Schlagwortes Big Data stößt man auf merkwürdige Allianzen. Die Einen warnen vor dem Niedergang des selbstbestimmten Lebens und die Anderen erträumen sich ein Himmelreich der Planbarkeit. Beide Fraktionen sitzen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen von Naturwissenschaftlern mit bedeutungsschweren Gesten vorgeführt werden. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und das wiederum ist kein Zufall. Schaut man in den Zauberkasten der Big Data-Apologeten hinein, findet man recht simple Formeln.

Professor Michael Feindt hat auf einem Zukunftskongress im vergangenen Jahr einen kleinen Einblick in sein alchemistisches Zahlenlabor gewährt. So richtig beeindruckt bin ich nicht. Es erinnert ein wenig an den naiven Empirismus der Wirtschaftswissenschaftler, der glücklicherweise seit dem Ausbruch der Finanzkrise unübersehbare Blessuren abbekommen hat.

Kommen wir aber zum Big Data-Szenario von Professor Feindt. Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.

„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen“, glaubt der Teilchenphysiker Feindt.

Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Es werden also zwei Ziele gleichzeitig erreicht, die sich eigentlich ausschließen. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.

„Aufgrund von historischen Daten mit individualisierten Algorithmen erreicht man beide Ziele gleichzeitig“, meint Feindt.

Er würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Verbessert sich dadurch aber der Verkauf von Fleisch- und Wurstware? Was steckt hinter den Durchschnittswerten, die man ermittelt?

Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Dahinter stecken allerdings wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Grütze manövrieren.

Schon bei Textilwaren kann das in die Hose gehen:

„Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt der Internet-Experte Christoph Kappes.

Kritiker und Anbieter von Big Data-Systemen operieren mit einem simplen Trick. Sie schrauben Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen, um die eigenen Big-Brother-Horror-Thesen oder eben die alchemistischen Anwendungen besser verkaufen zu können.

„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert der Systemtheoretiker Gerhard Wohland.

Sein Rat: In jeder Organisation sollte man nach diesen Übertreibungen suchen. Wer sie findet, besitzt wertvolle Potenziale, um sich zu verbessern.

„Vom Controlling wird verlangt, eindeutige Prognosen für die Zukunft zu liefern. Mit einem Plan, einem Budget und allem, was damit zusammenhängt. Dann tun die Controller das, was man von ihnen erhofft“, so Wohland.

Dumm nur, dass das alles nicht zusammenpasst.

„Kein Plan tritt tatsächlich ein. Die Zeiten sind längst vorbei, die komplexen Vorgänge in Wirtschaft und Gesellschaft prognostizieren zu können. Wir nennen das oft Basar- oder Theaterkommunikation. Jeder spielt eine Rolle. Jeder weiß, dass er eigentlich Unsinn redet. Und der Gesprächspartner weiß es auch. Also passiert nichts Besonderes. Es ist wie bei des Kaisers neuen Kleidern. Es darf keiner kommen und das Ganze tatsächlich so beschreiben, wie es ist – der fliegt in der Regel raus. Der stört das System“, weiß Wohland.

Die Intelligenz eines Unternehmens liege weder beim Controlling noch beim Management. Sie liege bei der Organisation selbst.

„Dynamikrobuste Höchstleister arbeiten nicht mit Wissen, sondern mit Talenten, Ideen und Phantasie. Deswegen ist eine Nachahmung nur schwer möglich“, resümiert Wohland.

Idioten sind die besseren Experten

Die Dogmatik der selbsternannten Experten könne dazu verführen, so der Philosophieprofessor Paul K. Feyerabend, dass sie anstelle von Pferden, störrische Esel besteigen und somit auf wirre Wege geraten. Wie ist es möglich, dass die Unwissenden oder schlecht Informierten mehr zuwegebringen als diejenigen, die einen Gegenstand in- und auswendig kennen, fragt sich Feyerabend.

„Eine Antwort hängt mit der Natur des Wissens selbst zusammen. Jede Einzelinformation enthält wertvolle Elemente Seite an Seite mit Ideen, die die Entdeckung von Neuem verhindern.“

Etwa eine Krawatten-Dispositionsmaschine, die nicht in der Lage ist, einen neuen Trend gegen den Mainstream durchzusetzen.

Lektüreempfehlung

Außerhalb ihres Spezialgebietes seien Experten von weitverbreiteten und zählebigen Gerüchten abhängig. Viele Gerüchte, die mit anmaßender Gewissheit aufgetischt werden, seien nichts anderes als simple Fehler, die aus einer Mischung von Selbstgefälligkeit und Ignoranz entstehen. Besonders eklatant sei das in der Finanz- und Wirtschaftswelt:

„Makroökonomen, Statistiker, Planungsbürokraten, Analysten und selbst ernannte Wirtschaftsexperten sind überhaupt nicht in der Lage, das Unvorhergesehene zu prognostizieren. Sie schauen zu oft in den Rückspiegel, um Erkenntnisse für die Zukunft zu gewinnen. Friktionen, Zufälle, bahnbrechende Entdeckungen, konjunkturelle Bewegungen oder politische Katastrophen kann man nicht mit statistischen Methoden berechnen“, erklärt der IT-Experte Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf.

„Das Management der Zukunft findet unter den Bedingungen von Komplexität und Zufall statt. Zufallsfluktuationen und Komplexität erzeugen nichtlineare Dynamik“, schreibt der Wissenschaftstheoretiker Klaus Mainzer in seinem Buch „Der kreative Zufall – Wie das Neue in die Welt kommt“. Auch wissenschaftliche Modelle und Theorien seien Produkte unserer Gehirne.

„Wir glauben in Zufallsreihen Muster zu erkennen, die keine sind, da die Ereignisse wie beim Roulette unabhängig eintreffen. Wir ignorieren Spekulationsblasen an der Börse, da wir an eine ansteigende Kursentwicklung glauben wollen“, erläutert Professor Mainzer.

In einer zufallsabhängigen Evolution sei kein Platz für Perfektion und optimale Lösungen. Zufällig, spontan und unberechenbar seien auch Einfälle und Innovationen menschlicher Kreativität, die in der Kultur- und Wissenschaftsgeschichte als plötzliche Ereignisse beschrieben werden. Ohne Zufall entstehe nichts Neues.

„Nicht immer fallen die Ereignisse und Ergebnisse zu unseren Gunsten aus – das Spektrum reicht von Viren und Krankheiten bis zu verrückten Märkten und Menschen mit krimineller Energie“, resümiert Mainzer.

Politiker, Entdecker und Unternehmer sollten weniger auf maschinengesteuerte Top-down-Planung setzen, sondern sich auf maximales Herumprobieren und das Erkennen der Chancen, die sich ihnen bieten, konzentrieren, rät der frühere Börsenhändler Nassim Taleb, Autor des Opus „Der Schwarze Schwan – Die Macht höchst unwahrscheinlicher Ereignisse“.

Die beste Strategie bestehe darin, möglichst viel auszuprobieren und möglichst viele Chancen zu ergreifen, aus denen sich Schwarze Schwäne ergeben könnten.

„Dass wir in Umgebungen, in denen es zu Schwarzen Schwänen kommen kann, keine Vorhersagen machen können und das nicht einmal erkennen, bedeutet, dass gewisse ‚Experten’ in Wirklichkeit gar keine Experten sind, auch wenn sie das glauben. Wenn man sich ihre Ergebnisse ansieht, kann man nur den Schluss ziehen, dass sie auch nicht mehr über ihr Fachgebiet wissen als die Gesamtbevölkerung, sondern nur viel bessere Erzähler sind – oder, was noch schlimmer ist, uns meisterlich mit komplizierten mathematischen Modellen einnebeln. Außerdem tragen sie mit größter Wahrscheinlichkeit Krawatten“, bemerkt Taleb.

Es sind also nur spärliche Erkenntnisse für die Zukunft, die über Big Data berechnet werden können – etwa im Datenjournalismus. Siehe auch: Big Data – Die Vermessung von allem. Es springen ein paar nette Storys heraus, die man über Datenanalysen gewinnt. Etwa beim Zugmonitor, der alle verfügbaren Daten über Zugverspätungen sammelt und mich warnen kann, ob meine Verbindung von A nach B pünktlich ist oder nicht. Auch das Beispiel Google Now darf in der Aufzählung nicht fehlen – also die Verbindung von Suche, Ort und Terminkalender in Kombination mit Staumeldungen. Hier bekomme ich eine Warnung, um einen Termin auch pünktlich mit dem Auto zu erreichen. Diese Anwendung entwickelt sich in öffentlichen Verlautbarungen so langsam zu einem Dauerbrenner, wenn über die Vorteile von Datenauswertungen gesprochen wird – ähnlich legendär wie der intelligente Kühlschrank, der mir sagt, wann und wie viel frische Milch ich kaufen soll oder das sogar selbst übernimmt. Auch das haut mich nicht vom Hocker. Nützliche Anwendungen sind ja ok, sie orientieren sich aber an einem klaren und präzisen Nutzungsszenario. Mein Verhalten ist dadurch aber nicht vorhersagbar. Ich entscheide selbst, ob am Bahnsteig eine Datenabfrage für mich sinnvoll ist, um über Zugverspätungen informiert zu sein not more.

Eine Konsequenz könnten die Kritiker und Verkäufer von Big Data-Systemen aber erfüllen. Wer in der Öffentlichkeit darüber redet, sollte auch Ross und Reiter nennen. Ansonsten höre ich nicht auf, das Ganze als naiven Empirismus zu titulieren. Das gilt für Ratingagenturen, Social Media-Berater, Teilchenphysiker, Inkasso-Läden und sonstige Zahlendrehern, die die Welt nicht nur vermessen, sondern auch erklären wollen.

Jeder Big Data-Gichtling ist also herzlich eingeladen, sein Rechensystem in einer Liveübertragung via Hangout On Air beim Blogger Camp zu präsentieren.

Ob der Kaiser am Schluss der Sendung ohne Klamotten dasteht oder nicht, kann ich nicht garantieren :-). Big Data sollte also immer auch Open Data sein – ansonsten ist das alchemistischer Zahlenzauber ohne Relevanz.

Deshalb ist auch die skeptische Zukunftsprognose des Social Media-Beraters Frank Tentler mit Vorsicht zu genießen. Er geht davon aus, dass spätestens in fünf Jahren alles nur noch Big Data und nicht mehr social ist. Nur noch ein paar Herzensangelegenheiten würden für das Social Web übrig bleiben.

Nö. Die Systeme bleiben so blöd wie die Analysten, die die Welt im Rückspiegel betrachten und für Zukunftsprognosen den Finger in die Luft heben. Menschen sind über Big Data nicht bestimmbar – auch wenn die Fraktion der Deterministen etwas anderes behauptet.

Das sind ein paar Ideenskizzen für längere Storys, die ich über das Big Data-Geschwurbel schreiben möchte.

Interviews, Anregungen, Kommentare, kritische Blogpostings und sonstige Vorschläge sind in dieser Woche hoch willkommen.

Am nächsten Wochenende muss ich dann das erste große Opus fertigstellen. Hier setze ich natürlich wieder auf Crowdsourcing-Effekte – also Überraschungen des Netzes, die ich nicht planen kann.

Vielleicht wäre das auch ein nettes Betätigungsgebiet für Hacker.

Man könnte in die Entscheidungsmaschinen dadaistische Algorithmen einpflanzen, die den Anwendern das Leben noch leichter macht. So könnte immerfort die gleiche Entscheidung herausspringen: 42 – also 42 Krawatten, Anzüge, Mettwürste oder 42 Fehlprognosen pro Tag.

Um sich über die Grenzen von Big Data bewusst zu werden, empfehle ich den pragmatischen Ansatz des DFKI-Forschers Professor Hans Uszkoreit vom DFKI. Maschinen seien nicht so klug wie man denkt. Aber trotzdem nützlicher, als es allgemein bekannt sei:

„Seit mehr als fünfzig Jahren versuchen Wissenschaftler, die menschliche Intelligenz nachzubilden. Aber wir haben ja nicht einmal ein dreijähriges Kind nachgebildet. Wir können nicht die Kreativität, das Denken oder die Sprache eines Kleinkindes nachbilden. Was ist hier los“, fragt sich Uszkoreit.

Das verwirre die Öffentlichkeit. Die wirklichen Fortschritte der Künstlichen Intelligenz werden in diesem Spannungsfeld nicht wahrgenommen.

Big Data: “Sag mir, wo Du bist und ich sage Dir, was Du gerade machst“

Welterklärungssysteme der einfachen Art

Gestern startete ich ja eine etwas intensivere Recherche zum Themenkomplex Big Data und Prognose-Systeme. Vom Unternehmensberater Bernhard Steimel kam der Hinweis auf einen DLD-Vortrag von Albert-László Barabási vom Center for Complex Network Research of Northeastern University:

Mobile phones, the Internet and email have turned society into a huge research laboratory. All those electronic trails of time stamped texts, voicemails, and internet searches add up to a previously unavailable massive data set of statistics that track our movements, our decisions, our lives. His conclusion: patterns in human behavior previously thought to be purely random but it isn’t. „Mobility is one of cleanest predictors of human behaviour“, he says.

Vereinfacht könnte man seine Thesen so interpretieren: Menschen sind Gewohnheitstiere und der beste Beweis ist ihre Gewohnheit, immer wieder die gleichen Orte aufzusuchen.

Jedes Jahr Urlaub an der Ostsee

Insofern sei unser Handeln doch vorhersehbar. Das gilt selbst für Studenten am MIT.

Barabási behauptet also: “Sag mir, wo Du bist und ich sage Dir, was Du gerade machst“.

„Wenn man also gut rät, was jemand gerade macht, dann kann man seine Ansprache auf den Kontext einrichten. In Klartext, wenn jemand im Wohnzimmer sitzt und mit seinem iPad rumspielt, dann ist das ein guter Zeitpunkt, ihn mit personalisierter Werbung anzusprechen. Wenn ich weiß, dass jemand regelmäßig am Freitagsnachmittag zum Einkaufen in den Supermarkt fährt, dann sollte ich ihm am Donnerstags den Einkaufsvorschlag schicken“, meint Steimel.

Ist das schon Big Data? Ein recht bescheidener Ansatz. Wie gut sind Prognosesysteme bei Dingen, von denen ich nicht einmal weiß, dass ich sie nicht weiß. Also das Phänomen der „Unknown Unknowns“. Ein Schwerpunktthema der Zeitschrift „GDI-Impuls“ im vergangenen Jahr. Habe ich mir gerade bestellt. Rudolf Burger hat es in einem Beitrag für den Merkur-Sammelband „Macht und Ohnmacht der Experten“ ähnlich formuliert:

„Aber die Masse dessen, was man noch nicht weiß, weiß man derart nicht, dass man nicht einmal weiß, dass man es nicht weiß, wie es in der klassischen Fassung bei Aristoteles heißt.“

Insofern finde ich die Formulierung von Bernhard Steimel schon sehr sympathisch. Big Data ist wohl eher ein Ratespiel:

„Bei Kalkülen, die zukünftige Ereignisse betreffen, handelt es sich nicht, wie bei statistischen Aussagen über gegenwärtige Verteilungen, um empirisch nachprüfbare Tatsachen, sondern um Wetten“, bemerkt der Schriftsteller und Mathematik-Kenner Hans Magnus Enzensberger in seiner Schrift „Fortuna und Kalkül“, erschienen in der edition unseld.

Wo sich die Zukunftsforschung nicht auf gegenwärtig verfügbare Daten stützen könne, wuchert die Ungewissheit.

Und das gilt selbst für Vorhersagen, die sich nicht auf Einzelpersonen beziehen, sondern mit aggregierten Daten operieren:

„Ob sie sich mit der Konjunkturentwicklung, mit der längerfristigen Wetterprognose oder mit der Börsenspekulation beschäftigt – ihre Ergebnisse sind, man kann es nicht anders sagen, niederschmetternd“, so Enzensberger.

Katastrophen, dilettantische Fehlentscheidungen wie beim Problem-BER-Großflughafen, Korruption, Revolutionen, Machtwechsel, disruptive Innovationen oder spontane Reaktionen können die besten Algorithmen nicht erfassen. Menschliche Interaktionen führen zu einer unabsehbaren Zahl von Rückkopplungen, bei denen die Menge der Variablen exponentiell ansteigt.

„Exakte Gleichungen versagen vor solchen Aufgaben. Bereits für grobe Annäherungen wäre ein utopischer Rechenaufwand nötig, um die Reflexivität von ökonomischen und politischen Systemen zu messen“, erläutert Enzensberger.

Elena Esposito kommt in ihrer Schrift „Die Fiktion der wahrscheinlichen Realität“ zu einem ähnlichen Urteil. Bei prognostischen Aussagen, die auf Wahrscheinlichkeitskalkülen beruhen, handelt es sich grundsätzlich um Fiktionen. Zukünftige Ereignisse treten nämlich nicht zu neun oder zu 99 Prozent, sondern entweder ganz oder gar nicht ein – unabhängig von allen Voraussagen. Siehe auch meine The European-Kolumne: Die Antwort bleibt 42.

Vielleicht vertreten die Kritiker und Befürworter von Big Data auch nur ein sehr fragwürdiges Menschenbild: Die erste Fraktion betrachtet Individuen wie wehrlose Web-Maden, die beliebig manipulierbar sind und sich nicht selbst schützen können. Soll uns der Bundesinnenminister vor den bösen Algorithmen beschützen, wo er uns doch gleichzeitig über Staatstrojaner ausspioniert? Oder der Staat als abstrakte Größe? Oder irgendwelche Moralapostel? Keine sehr schönen Perspektiven.

Und die andere Fraktion will eben nur Big Data-Systeme verkaufen und behauptet, unsere Wünsche erahnen zu können, um Produkte und Dienste besser an den Mann oder die Frau zu bringen. Kein Software-Anbieter käme auf die Idee, den potenziellen Kunden klarzumachen, dass sie ein Ratespiel erwerben. Insofern schlummert in dieser Debatte ein philosophisches Problem. Wie stark lässt sich das Verhalten von Menschen determinieren? Es ist vielleicht auch nur die Sehnsucht der Controlling-Gichtlinge, wieder mehr Planungssicherheit unter die Füße zu bekommen. Man sollte einfach kleinere Brötchen backen.

So können Text Mining-Systeme den Inhalt eines eingehenden Textes analysieren und per Mustervergleich den zugrunde liegenden Geschäftsvorfall daraus ableiten – auch und im Besonderen bei unstrukturierten Kundenmitteilungen per E-Mail, De-Mail und Web.

„Mittlerweile erreicht intelligente Klassifizierungssoftware in Poststellen und Service-Centern Fehlerraten, die unter den üblichen Raten bei der manuellen Sortierung von Dokumenten durch Mitarbeiter liegen“, weiß Andreas Klug vom Softwarehaus Ityx in Köln.

Ebenso ermöglichen die Lösungen in vielen Fällen eine automatisierte Erkennung und Extraktion von Fachdaten, um den Kontext einer Nachricht zu bereits bestehenden Informationen festzustellen, bevor ein menschlicher Sachbearbeiter zu dem Fall hinzugezogen wird. Auf diese Weise könne ein modernes Posteingangsmanagement die richtige Verteilung und Beantwortung von Dokumenten im wahrsten Sinne des Wortes “erlernen”. Also eine erhebliche Arbeitserleichterung und Zeitersparnis.

Man könnte auch Apps für den Service auf den Markt bringen, wo der Kunde steuert, wie tief die Datenanalyse gehen soll, um seine Anliegen schneller zu lösen.

„Sie ermöglichen nicht nur die Identifikation des Kunden, sondern bieten sehr viele Möglichkeiten für die Datenanalyse und Vorqualifizierung, die der Anwender individuell steuern kann“, erläutert Heinrich Welter von der Firma Genesys im ichsagmal-Interview.

So könne man den Blindflug im Service beenden. Der Kunde entscheide die Kommunikationsform und der Anbieter stellt sich genau auf das ein, was in der App abgerufen wird. Man braucht nicht mehr in der Warteschleife zu verwesen oder ständig sein Anliegen wiederholen. Zudem werde die Autarkie des Kunden gestärkt, so Welter.

„Er gibt genau seine Präferenzen an und teilt dem Unternehmen mit, welche Daten analysiert werden dürfen und welche nicht.“

Und das könne sich auch von Fall zu Fall ändern, etwa bei der Übermittlung von Geopositionen bei einem Autounfall, die man dann nur in dem einzelnen Fall freigibt.

Insofern sollten die Big Data-Apologeten etwas weniger ihre Klappe aufreißen, sondern Dinge programmieren, die man im Alltag nützlich einsetzen kann. Punktuell, situativ und nur dann, wenn ich es als Anwender auch zulasse. Das menschliche Verhalten ist nicht bestimmbar wie ein mechanisches Uhrwerk. Fortsetzung folgt. Es gibt schon einige Reaktionen für weitere Interviews.

Big Data und die Algorithmus-Herrschaft über Web-Maden

Klein-Gunni

Hallo, ich bin Dein Algorithmus und ab sofort gehörst Du mir. Deine zwanzig Datenpunkte, die Du im Internet zurückgelassen hast, reichen mir, um zu wissen, wer Du bist. Und als willenloser und dummer User, wie ich Dich täglich im Netz wahrnehme, entscheide ich fortan für Dich, was Du in Zukunft machen wirst, Du kleine Web-Made.

Mit diesen drei Sätzen könnte man die prosaischen Gedankenflüge von Miriam Meckel zusammenfassen, die sie in unterschiedlichen Varianten verkündet. Die Kommunikations-, Politik-, Rechts- und Chinawissenschaftlerin wandelt auf den Spuren des Filterblasen-Diskurses, den der Online-Pionier Eli Pariser in seinem Opus „The Filter Bubble“ ausgelöst hat. Auch er wählt als Ausgangspunkt für seine steilen Thesen einer drohenden Maschinen-Gatekeeper-Herrschaft den Dezember 2009: In diesem Monat änderte Google seinen Suchalgorithmus und läutete eine neue Ära der Personalisierung ein. Eine Zeitenwende. In der feuilletonistischen Variante von Frau Meckel sterben wir nun den Tod der virtuellen Berechenbarkeit.

Die Netzmenschen erleben eine Neuauflage des Schicksals von Narziss, dem Sohn des Flussgottes Kephissos, der sich in sein Spiegelbild verliebte, als er sich an einer Quelle niederließ und starb:

„Enttäuschung, Entzauberung und Verirrung – sie bescherten dem Götterjungen sein Ende“, schreibt Meckel im Spiegel.

Diesmal ist es nicht die Wasserquelle, die uns ins Unglück stürzt, sondern Software, die von Google, Facebook und anderen Internet-Giganten programmiert wird.

„Immer mehr Entscheidungen werden uns im personalisierten Internet durch Algorithmen abgenommen“, skizziert Meckel die Lage.

Auf der Strecke bleiben Zufälle, Überraschungen, Zweifel und Ungewissheit. Als Ergebnis entsteht eine Gesellschaft, die auf dem weltkurzsichtigen digitalen Narziss beruht. Was hat uns der arabische Algebraiker Al-Khwarizimi da nur eingebrockt? Oder hat die Kommunikations-, Politik-, Rechts- und Chinawissenschaftlerin die faszinierenden Denkanstöße und Prozeduren der Informatik zur Lösung eines Problems vielleicht falsch verstanden? Die Behauptungen der Professorin für Corporate Communication und Beraterin für strategische Kommunikation stoßen auf Skepsis:

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die bis zum Ende unseres Jahrhunderts keine Ergebnisse zeitigen wird“, erwidert der Jurist und Informatiker Christoph Kappes.

Gute Algorithmen sind lernfähig

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes.

Herrschaft der Automaten?

Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte.

„Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen.

„Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Wie könnten denn nun personalisierte Dienste fernab von den Sirenen-Gesängen von Kulturkritikern wie Meckel funktionieren? Welche Versprechen kann der Bullshit-Bingo-Tanz um das Goldene Kalb namens „Big Data“ wirklich einlösen? Wird es Apps geben, die sich automatisch um meine Anliegen als Verbraucher kümmern – die mir also nervige Routinearbeiten abnehmen, so dass ich mehr Zeit bekomme für die Lektüre schöngeistiger Literatur? So behauptet Michael Wexler, Leiter Digital Insights bei Citigroup, über Big Data-Systeme die „Bedürfnisse“ ganz unterschiedlicher Kunden vorauszusehen.

„Wir beginnen zu verstehen, wie unterschiedlich Kunden mit Finanzdienstleistungen umgehen wollen und können unsere Angebote an diese Wünsche anpassen. Big Data hilft uns, Offline-Interaktionen mit Online-Banking-Klicks zu verbinden, aber auch mit Mobile- und Tablet-Apps.“

Über neue Tools konzentriere man sich auf „atomic data“:

„Wer jeden kleinen Click und jede kleine Aktion in digitalen Netzen analysiert, entdeckt, was Kunden wirklich frustriert, oder stösst auf ungenutztes Potenzial, wie man Kunden bei ihren Entscheidungen unterstützen kann. Wir betreiben auch «text mining», das heisst, wir untersuchen Inhalte in sozialen Netzwerken und lernen so, was unsere potenziellen Kunden beschäftigt“, so Wexler im Interview mit dem Gottlieb-Duttweiler-Institut.

Es bleibt allerdings immer noch ein Blick in den Rückspiegel. Wie treffsicher sind nun die Prognosen für das zukünftige Verhalten der Kunden? Können die Wünsche der Kunden antizipiert werden.

Fragen über Fragen, die ich gerne in nächster Zeit in Interviews behandeln möchte. Am liebsten als Video-Gespräch via Hangout On Air. Wer Zeit und Lust hat, mit dem mache ich natürlich auch gerne ein Bibliotheksgespräch bei mir zu Hause.