Big Dada statt Big Data: Über das theatralische Schauspiel der allwissenden Prognostiker

Die Neo-Alchemisten der Daten-Ökonomie

In Recherchen über Sinn und Unsinn des Schlagwortes Big Data stößt man auf merkwürdige Allianzen. Die Einen warnen vor dem Niedergang des selbstbestimmten Lebens und die Anderen erträumen sich ein Himmelreich der Planbarkeit. Beide Fraktionen sitzen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen von Naturwissenschaftlern mit bedeutungsschweren Gesten vorgeführt werden. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und das wiederum ist kein Zufall. Schaut man in den Zauberkasten der Big Data-Apologeten hinein, findet man recht simple Formeln.

Professor Michael Feindt hat auf einem Zukunftskongress im vergangenen Jahr einen kleinen Einblick in sein alchemistisches Zahlenlabor gewährt. So richtig beeindruckt bin ich nicht. Es erinnert ein wenig an den naiven Empirismus der Wirtschaftswissenschaftler, der glücklicherweise seit dem Ausbruch der Finanzkrise unübersehbare Blessuren abbekommen hat.

Kommen wir aber zum Big Data-Szenario von Professor Feindt. Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.

„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen“, glaubt der Teilchenphysiker Feindt.

Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Es werden also zwei Ziele gleichzeitig erreicht, die sich eigentlich ausschließen. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.

„Aufgrund von historischen Daten mit individualisierten Algorithmen erreicht man beide Ziele gleichzeitig“, meint Feindt.

Er würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Verbessert sich dadurch aber der Verkauf von Fleisch- und Wurstware? Was steckt hinter den Durchschnittswerten, die man ermittelt?

Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Dahinter stecken allerdings wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Grütze manövrieren.

Schon bei Textilwaren kann das in die Hose gehen:

„Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt der Internet-Experte Christoph Kappes.

Kritiker und Anbieter von Big Data-Systemen operieren mit einem simplen Trick. Sie schrauben Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen, um die eigenen Big-Brother-Horror-Thesen oder eben die alchemistischen Anwendungen besser verkaufen zu können.

„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert der Systemtheoretiker Gerhard Wohland.

Sein Rat: In jeder Organisation sollte man nach diesen Übertreibungen suchen. Wer sie findet, besitzt wertvolle Potenziale, um sich zu verbessern.

„Vom Controlling wird verlangt, eindeutige Prognosen für die Zukunft zu liefern. Mit einem Plan, einem Budget und allem, was damit zusammenhängt. Dann tun die Controller das, was man von ihnen erhofft“, so Wohland.

Dumm nur, dass das alles nicht zusammenpasst.

„Kein Plan tritt tatsächlich ein. Die Zeiten sind längst vorbei, die komplexen Vorgänge in Wirtschaft und Gesellschaft prognostizieren zu können. Wir nennen das oft Basar- oder Theaterkommunikation. Jeder spielt eine Rolle. Jeder weiß, dass er eigentlich Unsinn redet. Und der Gesprächspartner weiß es auch. Also passiert nichts Besonderes. Es ist wie bei des Kaisers neuen Kleidern. Es darf keiner kommen und das Ganze tatsächlich so beschreiben, wie es ist – der fliegt in der Regel raus. Der stört das System“, weiß Wohland.

Die Intelligenz eines Unternehmens liege weder beim Controlling noch beim Management. Sie liege bei der Organisation selbst.

„Dynamikrobuste Höchstleister arbeiten nicht mit Wissen, sondern mit Talenten, Ideen und Phantasie. Deswegen ist eine Nachahmung nur schwer möglich“, resümiert Wohland.

Idioten sind die besseren Experten

Die Dogmatik der selbsternannten Experten könne dazu verführen, so der Philosophieprofessor Paul K. Feyerabend, dass sie anstelle von Pferden, störrische Esel besteigen und somit auf wirre Wege geraten. Wie ist es möglich, dass die Unwissenden oder schlecht Informierten mehr zuwegebringen als diejenigen, die einen Gegenstand in- und auswendig kennen, fragt sich Feyerabend.

„Eine Antwort hängt mit der Natur des Wissens selbst zusammen. Jede Einzelinformation enthält wertvolle Elemente Seite an Seite mit Ideen, die die Entdeckung von Neuem verhindern.“

Etwa eine Krawatten-Dispositionsmaschine, die nicht in der Lage ist, einen neuen Trend gegen den Mainstream durchzusetzen.

Lektüreempfehlung

Außerhalb ihres Spezialgebietes seien Experten von weitverbreiteten und zählebigen Gerüchten abhängig. Viele Gerüchte, die mit anmaßender Gewissheit aufgetischt werden, seien nichts anderes als simple Fehler, die aus einer Mischung von Selbstgefälligkeit und Ignoranz entstehen. Besonders eklatant sei das in der Finanz- und Wirtschaftswelt:

„Makroökonomen, Statistiker, Planungsbürokraten, Analysten und selbst ernannte Wirtschaftsexperten sind überhaupt nicht in der Lage, das Unvorhergesehene zu prognostizieren. Sie schauen zu oft in den Rückspiegel, um Erkenntnisse für die Zukunft zu gewinnen. Friktionen, Zufälle, bahnbrechende Entdeckungen, konjunkturelle Bewegungen oder politische Katastrophen kann man nicht mit statistischen Methoden berechnen“, erklärt der IT-Experte Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf.

„Das Management der Zukunft findet unter den Bedingungen von Komplexität und Zufall statt. Zufallsfluktuationen und Komplexität erzeugen nichtlineare Dynamik“, schreibt der Wissenschaftstheoretiker Klaus Mainzer in seinem Buch „Der kreative Zufall – Wie das Neue in die Welt kommt“. Auch wissenschaftliche Modelle und Theorien seien Produkte unserer Gehirne.

„Wir glauben in Zufallsreihen Muster zu erkennen, die keine sind, da die Ereignisse wie beim Roulette unabhängig eintreffen. Wir ignorieren Spekulationsblasen an der Börse, da wir an eine ansteigende Kursentwicklung glauben wollen“, erläutert Professor Mainzer.

In einer zufallsabhängigen Evolution sei kein Platz für Perfektion und optimale Lösungen. Zufällig, spontan und unberechenbar seien auch Einfälle und Innovationen menschlicher Kreativität, die in der Kultur- und Wissenschaftsgeschichte als plötzliche Ereignisse beschrieben werden. Ohne Zufall entstehe nichts Neues.

„Nicht immer fallen die Ereignisse und Ergebnisse zu unseren Gunsten aus – das Spektrum reicht von Viren und Krankheiten bis zu verrückten Märkten und Menschen mit krimineller Energie“, resümiert Mainzer.

Politiker, Entdecker und Unternehmer sollten weniger auf maschinengesteuerte Top-down-Planung setzen, sondern sich auf maximales Herumprobieren und das Erkennen der Chancen, die sich ihnen bieten, konzentrieren, rät der frühere Börsenhändler Nassim Taleb, Autor des Opus „Der Schwarze Schwan – Die Macht höchst unwahrscheinlicher Ereignisse“.

Die beste Strategie bestehe darin, möglichst viel auszuprobieren und möglichst viele Chancen zu ergreifen, aus denen sich Schwarze Schwäne ergeben könnten.

„Dass wir in Umgebungen, in denen es zu Schwarzen Schwänen kommen kann, keine Vorhersagen machen können und das nicht einmal erkennen, bedeutet, dass gewisse ‚Experten’ in Wirklichkeit gar keine Experten sind, auch wenn sie das glauben. Wenn man sich ihre Ergebnisse ansieht, kann man nur den Schluss ziehen, dass sie auch nicht mehr über ihr Fachgebiet wissen als die Gesamtbevölkerung, sondern nur viel bessere Erzähler sind – oder, was noch schlimmer ist, uns meisterlich mit komplizierten mathematischen Modellen einnebeln. Außerdem tragen sie mit größter Wahrscheinlichkeit Krawatten“, bemerkt Taleb.

Es sind also nur spärliche Erkenntnisse für die Zukunft, die über Big Data berechnet werden können – etwa im Datenjournalismus. Siehe auch: Big Data – Die Vermessung von allem. Es springen ein paar nette Storys heraus, die man über Datenanalysen gewinnt. Etwa beim Zugmonitor, der alle verfügbaren Daten über Zugverspätungen sammelt und mich warnen kann, ob meine Verbindung von A nach B pünktlich ist oder nicht. Auch das Beispiel Google Now darf in der Aufzählung nicht fehlen – also die Verbindung von Suche, Ort und Terminkalender in Kombination mit Staumeldungen. Hier bekomme ich eine Warnung, um einen Termin auch pünktlich mit dem Auto zu erreichen. Diese Anwendung entwickelt sich in öffentlichen Verlautbarungen so langsam zu einem Dauerbrenner, wenn über die Vorteile von Datenauswertungen gesprochen wird – ähnlich legendär wie der intelligente Kühlschrank, der mir sagt, wann und wie viel frische Milch ich kaufen soll oder das sogar selbst übernimmt. Auch das haut mich nicht vom Hocker. Nützliche Anwendungen sind ja ok, sie orientieren sich aber an einem klaren und präzisen Nutzungsszenario. Mein Verhalten ist dadurch aber nicht vorhersagbar. Ich entscheide selbst, ob am Bahnsteig eine Datenabfrage für mich sinnvoll ist, um über Zugverspätungen informiert zu sein not more.

Eine Konsequenz könnten die Kritiker und Verkäufer von Big Data-Systemen aber erfüllen. Wer in der Öffentlichkeit darüber redet, sollte auch Ross und Reiter nennen. Ansonsten höre ich nicht auf, das Ganze als naiven Empirismus zu titulieren. Das gilt für Ratingagenturen, Social Media-Berater, Teilchenphysiker, Inkasso-Läden und sonstige Zahlendrehern, die die Welt nicht nur vermessen, sondern auch erklären wollen.

Jeder Big Data-Gichtling ist also herzlich eingeladen, sein Rechensystem in einer Liveübertragung via Hangout On Air beim Blogger Camp zu präsentieren.

Ob der Kaiser am Schluss der Sendung ohne Klamotten dasteht oder nicht, kann ich nicht garantieren :-). Big Data sollte also immer auch Open Data sein – ansonsten ist das alchemistischer Zahlenzauber ohne Relevanz.

Deshalb ist auch die skeptische Zukunftsprognose des Social Media-Beraters Frank Tentler mit Vorsicht zu genießen. Er geht davon aus, dass spätestens in fünf Jahren alles nur noch Big Data und nicht mehr social ist. Nur noch ein paar Herzensangelegenheiten würden für das Social Web übrig bleiben.

Nö. Die Systeme bleiben so blöd wie die Analysten, die die Welt im Rückspiegel betrachten und für Zukunftsprognosen den Finger in die Luft heben. Menschen sind über Big Data nicht bestimmbar – auch wenn die Fraktion der Deterministen etwas anderes behauptet.

Das sind ein paar Ideenskizzen für längere Storys, die ich über das Big Data-Geschwurbel schreiben möchte.

Interviews, Anregungen, Kommentare, kritische Blogpostings und sonstige Vorschläge sind in dieser Woche hoch willkommen.

Am nächsten Wochenende muss ich dann das erste große Opus fertigstellen. Hier setze ich natürlich wieder auf Crowdsourcing-Effekte – also Überraschungen des Netzes, die ich nicht planen kann.

Vielleicht wäre das auch ein nettes Betätigungsgebiet für Hacker.

Man könnte in die Entscheidungsmaschinen dadaistische Algorithmen einpflanzen, die den Anwendern das Leben noch leichter macht. So könnte immerfort die gleiche Entscheidung herausspringen: 42 – also 42 Krawatten, Anzüge, Mettwürste oder 42 Fehlprognosen pro Tag.

Um sich über die Grenzen von Big Data bewusst zu werden, empfehle ich den pragmatischen Ansatz des DFKI-Forschers Professor Hans Uszkoreit vom DFKI. Maschinen seien nicht so klug wie man denkt. Aber trotzdem nützlicher, als es allgemein bekannt sei:

„Seit mehr als fünfzig Jahren versuchen Wissenschaftler, die menschliche Intelligenz nachzubilden. Aber wir haben ja nicht einmal ein dreijähriges Kind nachgebildet. Wir können nicht die Kreativität, das Denken oder die Sprache eines Kleinkindes nachbilden. Was ist hier los“, fragt sich Uszkoreit.

Das verwirre die Öffentlichkeit. Die wirklichen Fortschritte der Künstlichen Intelligenz werden in diesem Spannungsfeld nicht wahrgenommen.

Die Allensbach-Jahresumfrage und das Versagen der Konjunkturforscher: Wirtschaftsaufschwung stärker als es die Prognoseprofis vorhersagen!

Ich habe mich ja schon in einigen Beiträgen mit einem Phänomen beschäftigt, dass vom kongenialen Informatik-Professor Karl Steinbuch entdeckt wurde. Er hat 1979 eine interessante Korrelation entdeckt. Steinbuch berechnete, dass eine seit 1949 jeweils zum Jahresende vom Institut für Demoskopie Allensbach gestellte Frage „Sehen Sie dem Neuen Jahr mit Hoffnungen oder Befürchtungen entgegen“ in dem Prozentsatz der Antworten „mit Hoffnungen“ der Entwicklung des realen Bruttosozialprodukts vorauseilt. Der Verlauf des Optimismus folge nach Erkenntnissen von Steinbuch wie das Wachstum des Bruttosozialprodukts Zyklen mit einer Dauer von etwa vier bis fünf Jahren und der Optimismus in der Bevölkerung hinke nicht hinter der Konjunktur her, sondern gehe ihr voraus: Zuerst Optimismus, dann Wachstum. Die persönliche Einschätzung der Zukunft sei ein besserer Indikator für die Entwicklung der Konjunktur, als die mit großem wissenschaftlichen Aufwand betriebenen Vorhersagen der Wirtschaftsforschungsinstitute – für die der Staat kräftig Steuergelder verprasst. Hier versagen die Modelle der makroökonomischen Erbsenzähler. Denn die wirtschaftliche Dynamik ist nicht nur abhängig von äußeren Faktoren wie Steuerlast oder Arbeitsgesetzen, sondern in hohem Maß auch von Psychologie. Für die Konjunkturentwicklung ist es relevant, wie es zu gleichgerichteten Verhaltensweisen der Bevölkerung bei jenen Faktoren kommt, die Expansion und Rezession beeinflussen; denn erst der Gleichschritt erzeugt die Durchschlagskraft, verstärkt die Wirkung so sehr, dass der Konjunkturverlauf einen schicksalhaften Rang erhält. Als Ursache ist ein sozialpsychologischer Faktor herausgearbeitet worden – Ansteckung. Sie wird ausgelöst durch übereinstimmende Motive der Wirtschaftsakteure, gemeinsame, unter bestimmten Umständen erweckte Vorstellungen, Nachahmung, Übertragung von Gefühlen und überspringende Stimmung.

Soweit die Theorie. Schauen wir uns die aktuelle Allensbach-Jahresumfrage an, dann können wir mit einem deutlichen Wachstum in diesem Jahr rechnen. Denn mittlerweile geben 45 Prozent der Umfrageteilnehmer zu Protokoll, den kommenden 12 Monaten mit Hoffnungen entgegen zu sehen. 11 Prozentpunkte mehr im Vergleich zum Wert vor einem Jahr. Aber selbst die Umfragedaten zum Beginn des „Krisenjahres“ deuteten darauf hin, dass wir eben nicht die schwerste Wirtschaftskrise seit dem Ende des Zweiten Weltkrieges erlebten. Denn 34 Prozent votierten damals für Hoffnungen. Ein Wert, der Anfang der 80er Jahre erreicht wurde. 1973, im Jahr der Ölkrise, kam man auf 30 Prozent. 1950, lag der Umfragewert bei 27 Prozent, stieg in den Folgejahren durch die Erfolge der Wirtschaftspolitik Ludwig Erhards sehr schnell und steil an.

Siehe auch: Volkswirtschaft in der Formelfalle – Wirtschaftspolitik sollte wieder als Staatskunst begriffen werden

Die Rückkehr der Fröhlichkeit

„Natürlich haben wir uns schon oft geirrt“

Glaskugel statt Ökonometrie: Warum die Prognosen der Wirtschaftsforscher nichts taugen

Alchemie & Mystik: Vielleicht der bessere Konjunktur-Ratgeber
Alchemie & Mystik: Vielleicht der bessere Konjunktur-Ratgeber
Das Frühjahrsgutachten der Wirtschaftsforschungsinstitute prognostiziert für 2009 einen Rückgang des Bruttoinlandsproduktes von sechs Prozent. Der DGB-Vorsitzende Michael Sommer warnte angesichts der tiefen Rezession vor sozialen Unruhen wie in den 1930er Jahren. Die Situation sei vergleichbar mit den Zahlen aus den Jahren der Wirtschaftskrise 1930, 1931 und 1932, sagte Sommer am Mittwochabend in der ARD-Sendung „hart aber fair“.

Möglicherweise würden sich Menschen jetzt von der Politik abwenden oder radikalisieren. Die Zahlen des Frühjahrsgutachten könne man nach Ansicht von Udo Nadolski, Geschäftsführer des Düsseldorfer Beratungshauses Harvey Nash, nicht mit der Wirtschaftsdepression der Weimarer Republik vergleichen. „Das ist wissenschaftlich höchst unseriös und für die Menschen der damaligen Zeit, die Not, Hunger und Elend durchmachten, eine Beleidigung“, kritisiert der Personalexperte Nadolski.

Zudem müssten neben der Veränderung des Bruttoinlandsproduktes auch die Niveauunterschiede berücksichtigt werden. „Wir müssten schon um rund 90 Prozent schrumpfen, um in eine Situation wie vor rund 80 Jahren zu kommen. Davon kann aber keine Rede sein. Selbst wenn wir zurückgeworfen werden auf das Wohlstandniveau von 2005 oder 2006, können wir den Wirtschaftseinbruch sehr gut verkraften“, sagt Nadolski.

Darüber hinaus hätten die Wirtschaftsprognostiker in den vergangenen Jahren regelmäßig daneben gelegen. „Warum soll das diesmal anders sein“, fragt sich Nadolski. Vielleicht sollten es die Ökonometriker mal mit einer Glaskugel versuchen, um valide Konjunkturdaten zu erstellen.

Ähnlich urteilen die Cicero-Autoren Richard Gaul und Christiane Goetz. Der kollektive Krisenrausch suche zwar nach Parallelen mit 1929. Nur dieser Vergleich sei schief. „Verglichen werden nämlich Wachstumsraten und nicht Substanzniveaus“. Der prozentuale Rekordeinbruch würde nur wenig über die realen Effekte aussagen. Entscheidend bleibe der Bezugswert und wir schrumpfen eben auf einem sehr hohem Niveau. Vom höchsten, das uns die Weltgeschichte je beschert habe.

„Das Wohlstandsniveau liegt um ein Zigfaches über dem vor 80 Jahren”, so Gaul und Goetz. Was immer man vergleiche – die Lebenserwartung, die Qualität des Essens, das Bildungsniveau, die Wohnsituation, der industrielle Kapitalstock – „wir leben so dramatisch viel reicher als die Generation von 1929“, erklären Gaul und Goetz.

Die Vorhersagen, diese Krise werde nicht nur schwer, sonder auch lang, könnte trügen. Denn immer mehr Indizien sprechen dafür, dass ein Aufschwung schneller bevorstehen könnte als die meisten denken. „Viele Unternehmen haben ihre Lagerbestände stark zurückgefahren, sodass bei einer anspringenden Nachfrage sehr schnell sehr viel wieder produziert werden muss. Diesen Lagerzykluseffekt sieht man derzeit bei den Folgen der Abwrackprämie der Autoindustrie“, erläutern Gaul und Goetz.

Die wichtigsten Rahmenbedingungen würden gute Nachrichten für einen baldigen Aufschwung verheißen: Die extrem niedrigen Öl- und Rohstoffpreise, die historisch geringen Zinsen, die politische Stabilität, die milliardenschweren Konjunkturprogramme und die Abwesenheit großer Konflikte könnten zu einer überraschend schnellen Gesundung der Wirtschaft beitragen. Der ZEW-Konjunkturindex deutet schon darauf hin, dass die Konjunktur wieder anspringt. Er ist um 16,5 Punkt auf plus 13 gestiegen – erstmals seit Juli 2007 liegt er wieder im positiven Bereich.

Siehe auch:
VWL-Mechaniker im Machbarkeitswahn

Antizyklisch agieren

Der Spiegel in Weltuntergangsstimmung

Enzensberger und das Alphabet der Krise

Volkswirtschaft in der Formelfalle – Wirtschaftspolitik sollte wieder als Staatskunst begriffen werden

Wer heute als Ökonom reüssieren will, der muss vor allem ein begnadeter Formelkünstler sein: „Er muss sich in der höheren Mathematik bewegen wie ein Fisch im Wasser und die Wirtschaftswelt in Formeln und abstrakte Modelle einpassen. Damit hat sich die Wirtschaftswissenschaft in den vergangenen fünf Jahrzehnten immer stärker zu einer mathematischen Disziplin entwickelt. An den Rand gedrängt wurde die ältere ordnungsökonomische Schule, die in Deutschland einst bedeutend war und die nach den Zusammenhängen von Wirtschaft, Politik und Gesellschaft fragte, dabei aber auf Formeln verzichtete und verbal argumentierte“, schreibt der Redakteur Philipp Plickert in der neuen FAZ-Rubrik „Der Volkswirt“, die im wöchentlichen Wechsel mit „Der Betriebswirt“ erscheint.

Es wachse allerdings das Unbehagen an der Mathematisierung der Volkswirtschaftslehre. So erinnert der Soziologe und Ökonom Viktor Vanberg von der Universität Freiburg an den Massenprotest französischer Studenten vor einigen Jahren, die sich gegen eine „autistische Ökonomik“ wandten. Die mathematische Formalisierung sei Selbstzweck geworden, beklagten sie. Es würden imaginäre Welten modelliert, die mit ihrer Erfahrungswirklichkeit wenig oder nichts gemein hätten.
Noch härter drücke es der Theoriegeschichtler Mark Blaug aus: „Die moderne Ökonomik ist krank.“ Sie sei zu einem intellektuellen Spiel geworden, das um seiner selbst willen gespielt werde, aber nur wenig praktische Bedeutung für das Verständnis der Welt liefere. Nach Ansicht des Nobelpreisträgers Ronald Coase sei die Ökonomik nur noch ein theoretisches Spiel, das in der Luft schwebt und kaum Bezug zu dem hat, was in der realen Welt geschieht. „Die Volkswirtschaftslehre ist mittlerweile mathematischer als naturwissenschaftliche Disziplinen. Teilweise wird das Fach von Konvertiten aus der Mathematik bevölkert, die uns mit naiven Ceteris-paribus-Klauseln die Welt erklären wollen“, kritisiert Udo Nadolski, Geschäftsführer des Düsseldorfer Beratungsunternehmens Harvey Nash.

Die Mathematisierung der Ökonomik erinnert den ehemaligen Allensbach-Meinungsforscher Manfred Wirl an die Mathematisierung und Topographisierung des Kriegswesens vor der französischen Revolution. „Damals glaubte man allen Ernstes mit Hilfe von strikt ausgerichteten mathematischen Modellen, den Verlauf und den Ausgang einer Schlacht vorhersagen zu können. Die Revolutionsarmeen und später Napoleon haben diese schönen Rechenmodelle über den Haufen geworfen und auf diese Weise nachgewiesen, dass immaterielle und moralische Faktoren in der Realität des Krieges von entscheidender Bedeutung sein können“, so Wirl, der sich wissenschaftlich mit der öffentlichen Meinung unter dem NS-Regime beschäftigt hat.

An der Börse könne man nachvollziehen, wie sehr die Ökonomie von sozialpsychologischen Faktoren bestimmt wird. „Zwar käme keiner auf den Gedanken, sie als exaktes Abbild der Wirtschaftslage wahrzunehmen, doch ebenso wenig lässt sich ihre Bedeutung als Indikator für die Wirtschaft leugnen. Mit mathematisch-formalistischen Modellen kommt man an der Börse nicht sehr weit. Man würde damit nur Geld verlieren. Ich kenne zumindest keinen Wirtschaftswissenschaftler, der aufgrund seines theoretischen Wissens dort reich geworden wäre“, sagt Wirl.

„Die formale Eleganz und scheinbare Genauigkeit der mathematischen Ökonomik übten aber auf viele Wissenschaftler eine unwiderstehliche Anziehungskraft aus. In den späten vierziger und frühen fünfziger Jahren schaffte sie in Amerika einen Durchbruch, für den berühmte Namen wie Kenneth Arrow, Gérard Debreu und auch Paul Samuelson stehen. Diese bauten die ökonomische Wohlfahrtstheorie aus, die behauptete, ein soziales Optimum der wirtschaftlichen Allokation sei mit mathematischer Logik voraussagbar und sogar planbar. Auch in der Makroökonomik, welche die Schüler von Keynes vorantrieben, herrschte der Glaube an die Steuerbarkeit von Konjunktur und Wachstum vor. Folglich erlebte die ökonomische Politikberatung einen Aufschwung, der die Wirtschaftsfachleute in eine gesellschaftliche Schlüsselrolle brachte und ihr Selbstbewusstsein steigerte“, so der Wirtschaftshistoriker Philip Plickert, der darauf hinweist, dass diese Denkschule in Deutschland zunächst keine Relevanz hatte.

Die Soziale Marktwirtschaft entstand vor allen Dingen durch die Freiburger Schule um Walter Eucken und Franz Böhm. Ihr Credo war das ‚Denken in Ordnungen’. Wirtschaft, Recht und Gesellschaft müssten in ihrer Interdependenz betrachtet werden. Ordoliberale Ökonomen wie Wilhelm Röpke hatten ein reges Interesse an Soziologie und dachten intensiv über die außerökonomischen Voraussetzungen einer funktionierenden Marktwirtschaft nach.

„Die mathematisch-formale Ökonomik lehnten sie ab, da sie ihnen zu mechanisch erschien“, weiß Plickert. Wirtschaftsminister Ludwig Erhard sah das Konzept der Sozialen Marktwirtschaft nicht als wissenschaftlich-empirisches Modell. „Erhard und seine ordoliberalen Berater begriffen Wirtschaftspolitik als Staatskunst. Sie war der dynamische Kern der deutschen Innenpolitik und begründete auch das außenpolitische Gewicht der Bundesrepublik. Die Soziale Marktwirtschaft entstand nicht als theoretische Formel, sondern als politische Konfession. Von dieser Raison der politischen Ökonomie zehren wir noch heute, obwohl die Praxis der marktwirtschaftlichen Politik mittlerweile von ideenlosen Zahlendrehern und Technokraten dominiert wird“, erklärt der Personalexperte Nadolski.

Bezeichnend sei, so Plickert, dass die erste Generation der mathematisch ausgerichteten Ökonomen in Deutschland oft ausgebildete Physiker oder Ingenieure waren: „An den Wirtschaftsforschungsinstituten experimentierte man mit immer größeren Makromodellen mit unzähligen Gleichungen, welche die volkswirtschaftlichen Zusammenhänge im Detail darstellen und auch steuerbar machen sollten. Ein konjunkturelles ‚fine-tuning’ galt in den sechziger und frühen siebziger Jahren als möglich. Dies stellte sich aber wenig später als Illusion heraus“.

Der Ökonom Friedrich August von Hayek wandte sich 1974 in seiner Rede zur Verleihung des Wirtschaftsnobelpreises gegen die Benutzung der Instrumente der harten Wissenschaften in den sozialen Wissenschaften. Er forderte seine Zunft zu mehr Demut auf und kritisierte die „Anmaßung von Wissen“. Den Boom dieser Methoden in den Wirtschaftswissenschaften konnte Hayek nicht aufhalten. „Die in Deutschland einst stark repräsentierte Ordnungsökonomik ist mittlerweile weitgehend verschwunden, seit an den Universitäten mehr und mehr Lehrstühle für Wirtschaftspolitik geschlossen oder der mathematisch orientierten Richtung umgewidmet wurden“, erläutert Plickert.

Die mathematisch-formalistische Ökonomik sei längst zu einem auf sich selbstbezogenen System geworden, moniert der Publizistikwissenschaftler Manfred Wirl: „Sie erstarrt im Dogmatismus. Es fällt der menschlichen Natur leichter, sich an Modellen der Wirklichkeit zu orientieren als an der Wirklichkeit selbst. Man nennt das auch die Reduzierung von Komplexität. Dummerweise kommt es damit auch immer zu einem Realitätsverlust. In der derzeitigen Situation sind die negative Auswirkungen besonders schwerwiegend, da die Verfechter solcher Modelle mit ihrem begrenzten Wissen die Deutungshoheit über die Gesetze der Ökonomie nach wie vor für sich beanspruchen.“