Auf der Suche nach der Welterklärungsmaschine: Von den zweifelhaften Verheißungen eines Supercomputers

Scheitern gehört zur Disruption

In Zürich will ein Professor auf einem Computer das gesamte Weltgeschehen simulieren. Menschliches Verhalten und die Zukunft sollen so berechenbar werden. „Wollen wir das überhaupt“, fragt sich die Frankfurter Allgemeine Sonntagszeitung. Besser wäre wohl die Frage, ob wir und der Professor das überhaupt können.

Die Finanzkrise hätte es mit der Welterklärungsmaschine in der Schweizer Metropole angeblich nicht gegeben, der Tsunami hätte nicht 230.000 Menschen getötet, und auch Hitler wäre nicht an die Macht gekommen:

„Wenn alles nur besser gesteuert wäre. Dirk Helbing läuft mit großen Schritten auf das sozialwissenschaftliche Institut der Eidgenössischen Technischen Hochschule in Zürich zu. Der Professor hat es eilig. Er will die Zivilisation retten. Mit Computern, die den Menschen helfen, sich selbst zu steuern. Und um diese Computer zu bauen, braucht Helbing eine Milliarde Euro – die Hälfte davon soll die EU bezahlen“, so die FAS.

Sein Projekt habe es in die letzte Runde des „Future and Emerging Technologies“-Wettbewerbs der EU geschafft – noch nie zuvor wurden so hohe Fördermittel an Forscher vergeben.

„Wenn Helbing und sein Team gewinnen, wollen sie das gesamte Geschehen auf der Welt mit einem Supercomputer simulieren: Sämtliche verfügbaren Informationen über alle und alles, von überall, sollen permanent einfließen. So soll die Zukunft vorhersehbar werden“, führt die FAS weiter aus.

„Ein Jahr vor dem Banken-Crash unterhielt sich Helbing auf einer Konferenz in Dresden mit Vertretern der Europäischen Kommission. Keiner der Experten habe die Finanzkrise kommen sehen, sagt Helbing – außer ihm selbst. Er habe gewusst, dass es Kaskadeneffekte, wie er das nennt, geben würde, und erkannt, dass die Politik das nicht versteht. Da sei ihm klar geworden: Die Zeit ist reif für sein Projekt zur Berechnung der Welt. ‚FuturICT‘, was, entknotet und ins Deutsche übersetzt, ungefähr bedeutet: die Vorhersage der Zukunft mit Informations- und Kommunikationstechnik. Was die Gehirne der Politiker nicht leisten können, müsse die Technik erledigen. ‚Wir brauchen neue Erkenntnisinstrumente. Früher gab es ein Fernrohr, in Zukunft muss es Instrumente geben, die Feedback- und Kaskadeneffekte im Vorfeld erkennen lassen'“, erläutert die FAS.

Merkwürdig, dass solche Erkenntnisse immer erst so spät das Licht der Öffentlichkeit erblicken. Professor Helbing hat also alles vorher gewusst. Ihm war also schon 2008 klar, dass Lehman Brothers den Bach runtergeht, die Immobilienblase in den USA platzt und das gesamte Finanzwesen an den Rand des Absturzes gebracht wird. Warum haben wir von diesem Genie diese Weissagungen nicht schon vor fünf Jahren gehört? Das riecht kräftig nach Ex-Post-Schlaumeierei und Wissensanmaßung. In der Wirtschaftswissenschaft verabschiedet man sich gerade von der Planungs- und Vorhersage-Hybris, beerdigt den Rationalitätsmythos homo oeconomicus und muss kleinlaut eingestehen, noch nicht einmal den Konjunkturverlauf eines Jahres richtig prognostizieren zu können. Nun kommt ein zur Sozialwissenschaft konvertierter Naturwissenschaftler daher und predigt die Notwendigkeit einer eierlegenden Welterklärungs-Wollmilchsau. Ich halte das für Scharlatanerie.

„Management der Zukunft findet unter den Bedingungen der Komplexität und Zufall statt. Zufallsfluktuationen und Komplexität erzeugen nichtlineare Dynamik“, schreibt der Wissenschaftstheoretiker Klaus Mainzer in seinem Buch „Der kreative Zufall – Wie das Neue in die Welt kommt“.

In unsicheren und unübersichtlichen Informationsräumen könnten Menschen nur auf Grundlage beschränkter Rationalität entscheiden und nicht als homo oeconomicus. Der Laplacesche Geist eines linearen Managements von Menschen, Unternehmen und Märkten sei deshalb zum Scheitern verurteilt. Auch wissenschaftliche Modelle und Theorien seien Produkte unserer Gehirne.

„Wir glauben in Zufallsreihen Muster zu erkennen, die keine sind, da die Ereignisse wie beim Roulette unabhängig eintreffen. Wir ignorieren Spekulationsblasen an der Börse, da wir an ein ansteigende Kursentwicklung glauben wollen“, erläutert Professor Mainzer.

Zufall führe zu einer Ethik der Bescheidenheit. Es gebe keinen Laplaceschen Geist omnipotenter Berechenbarkeit. In einer zufallsabhängigen Evolution sei kein Platz für Perfektion und optimale Lösungen. Zufällig, spontan und unberechenbar seien auch Einfälle und Innovationen menschlicher Kreativität, die in der Kultur- und Wissenschaftsgeschichte als plötzliche und unvorherbestimmte Ereignisse beschrieben werden. Ohne Zufall entstehe nichts Neues.

„Nicht immer fallen die Ereignisse und Ergebnisse zu unseren Gunsten aus – das Spektrum reicht von Viren und Krankheiten bis zu verrückten Märkten und Menschen mit krimineller Energie“, resümiert Mainzer.

Der Ökonom Friedrich August von Hayek wandte sich 1974 in seiner Rede zur Verleihung des Wirtschaftsnobelpreises gegen die Benutzung der Instrumente der harten Wissenschaften in den sozialen Wissenschaften. Den Boom dieser Methoden in den Wirtschaftswissenschaften konnte Hayek nicht aufhalten, obwohl es immer noch Stimmen gibt, die den Ökonomen eher die Rolle bescheidener Philosophen zuweisen wollen. Hohepriester sind sie jedenfalls nicht.

Professor Helbing sollte wieder zum Bunsenbrenner zurückkehren und sich auf physikalische Vorhersagen kaprizieren. In den Sozialwissenschaften haben mechanistische und formelgesteuerte Instrumente nichts zu suchen. Hat der Helbing meine spontane Meinungsäußerung voraussehen können?

Ich werde das Thema in meiner Mittwochskolumne für das Debattenmagazin „The European“ aufgreifen.

Statements wie immer hoch willkommen. Benötige ich am Dienstag so bis 12 Uhr.

Algorithmen und das mechanistische Weltbild ihrer Kritiker und Anwender

Kathrin Passig setzt sich in der Süddeutschen mit der im vergangenen Jahr um sich greifenden Kritik an einer vermeintlichen Algorithmen-Diktatur auseinander (Zur Kritik an Algorithmen: Warum wurde mir ausgerechnet das empfohlen?). Vor allen Dingen Miriam Meckel hatte sich ja mit Horrorszenarien hervorgetan. Passig schreibt:

„Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen – und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen – nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.“

Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruhe auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion „Genius“. Genius erzeuge automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt:

„Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.“

Genius aber könne dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet.

„Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können“, so Passig.

In der FAZ legte Meckel dann noch weitere Argumente vor:

„Alle Unbekannten in dieser Gleichung werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt.“

Dazu Passig: „Abgesehen davon, dass die ‚Unbekannten in dieser Gleichung‘, die ‚von vornherein herausgerechnet werden‘, nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.“

Ich selbst hatte mich im September 2011 mit den Thesen von Meckel beschäftigt und dazu Internet-Experten Christoph Kappes interviewt: Sterben wir den Tod der virtuellen Berechenbarkeit?

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die auf absehbare Zeit keine Ergebnisse zeitigen wird.“

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes. Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte. „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen. „Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Algorithmen sind also nicht allwissend und versagen bei der Prognose von Verhaltensmustern in der Zukunft. Kappes hat in dem Interview eine Frage aufgeworfen, die viel spannender ist und die ich in meiner nächsten Kolumne aufgreifen möchte? Mit welchem Weltbild agieren Konzerne wie Google und Facebook bei der Programmierung von Algorithmen? So operiere Facebook mit einem sehr einfachen behavioristischen.

„Ich kann die Aufregung von Geisteswissenschaftler verstehen, wenn Technologen simple Modelle von menschlichem Verhalten in die Welt setzen. Das ist in der Tat bedenklich. Hier modelliert man den Menschen als Objekt der Maschine. So wird man der Komplexität seines Verhaltens und Denkens nicht gerecht. Hier liegt Facebook falsch mit der Frage, ob man aus dem Maß der Interaktion mit anderen Personen schließen kann, welche Statusmeldungen angezeigt werden. Wenn ich etwas schweigend zur Kenntnis nehme, ist das ja kein Beleg für Unwichtigkeit. Auf dieser Grundlage gibt es keine Rechtfertigung für das Ausblenden von Informationen.“

Aber nicht nur Facebook wenden solche simplifizierenden Verfahren an. Auch die Sozialwissenschaften – besonders die Politikberater in den Wirtschaftsforschungsinstituten – vertreten eine mechanistische Weltsicht, kritisiert Wolfgang Streeck, Direktor am Max-Planck-Institut für Gesellschaftsforschung in Köln. Sie blenden den Faktor Ungewissheit aus. Warum das bei den Konjunkturprognosen regelmäßig in die Hosen geht, habe ich bereits ausführlich in diesem Blog dargelegt. Streeck liefert dafür weitere Argumente:

„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen. Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat (Kappes spricht von Singularität, gs), für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“, schreibt Streeck in dem Sammelband „Wissenschaftliche Politikberatung“, erschienen im Wallstein Verlag).

Trotzdem versuchen natürlich Politiker und auch Marketing-Gurus, unser Handeln zu beeinflussen oder sogar zu steuern. Wenn Menschen das durchschauen, passiert sogar das Gegenteil. Solche Dinge bleiben eben nicht geheim. Instrumente zur Verhaltenskontrolle oder Verhaltensmanipulation werden über kurz oder lang bemerkt. Man erkennt die Absichten und verhält sich absichtsvoll anders. Streeck verweist auf die Hawthorne-Experimente (1924 bis 1932). Forscher wollten herausgefunden haben, dass Arbeiterinnen auch ohne Lohnerhöhung schneller und besser arbeiten, wenn man freundlich zu ihnen ist (wie großzügig, gs) und die Wände gelb anstreicht.

„Aber nachdem sich unter den Beschäftigten herumgesprochen hatte, dass das Management mit seinen guten Worten und der gelben Farbe nur Geld sparen sollte, kam es zu Lohnforderungen und einem Streik“, führt Streeck aus.

Die Geltung derartiger Modelle und Theorien könne durch ihr Bekanntwerden schnell wieder außer Kraft gesetzt werden!

In meiner Freitagskolumne möchte ich genau diesen Aspekt aufgreifen. Meinungsäußerungen und Tipps bitte bis Donnerstagabend hier als Kommentar posten oder mir direkt wieder per E-Mail senden an: gunnareriksohn@googlemail.com