Die Rätselecke der Konjunkturforscher: Warum Wirtschaftsprognosen nichts mit der Realität zu tun haben

Ach herrlich, jetzt hat sich auch das Handelsblatt mal die Glaskugel-Ökonomen der Wirtschaftsforschungsinstitute vorgeknöpft und titelt das Stück treffend mit „Die Irrtums-Industrie“. Und nach den Ausführungen von Wolf Lotter über die Industrielastigkeit über die ökonomischen Gutachter-Fabriken ist die Formulierung in zweifacher Hinsicht gut gewählt – auch wenn die Handelsblatt-Autoren ihren Schwerpunkt auf Irrtum setzen. Für 2013 bringen sich die Orakel-Wissenschaftler wie Professor Sinn schon wieder in Position und unken über Schlechtigkeiten, die über die deutsche Volkswirtschaft herniedergehen.

„Die gute Nachricht: Sie liegen mit ihren Prognosen verlässlich daneben. Ihr Pessimismus wird von der Wirklichkeit Jahr für Jahr widerlegt.“

Etwa das Ifo-Institut von Herrn Sinn. Für 2010 wurde ein minimales Wachstum von 1,7 Prozent „errechnet“. Tatsächlich lag es bei 4,2 Prozent.

„Die Wirtschaftsleistung lag also um fast 70 Milliarden Euro – das entspricht gut dem Fünffachen des Bildungs- und Forschungsetats des Bundes – höher als vorausgesagt“, so das Handelsblatt.

Für nächstes Jahr werden die Werte sich wohl bei 0,4 bis 0,5 Prozent einpendeln – und von der Realwirtschaft mit Sicherheit übertroffen. Meine Prognose gebe ich ja bereits traditionell Anfang Januar ab mit der Neujahrskarte meines alten Arbeitgebers: Dem Institut für Demoskopie Allensbach.

In der Regel liegt ja die Veränderung der Stimmungslage in der Bevölkerung als Basis für meine „Berechnungen“ immer besser als die vom Steuerzahler alimentierten Konjunkturforscher. Bislang hat mir die Bundesregierung aber noch kein Honorar überwiesen. Ich fordere daher die Aufnahme in die Blaue Liste des Bundesfinanzministers – denn da findet man die Vertreter der Irrtums-Industrie.

Die Fehlerquote hat übrigens zugenommen im Vergleich zu den 1980er Jahren. Warum die Präsidenten dieser Wahrsager-Institute dann immer so bedeutungsschwer in der Bundespressekonferenz aufschlagen und im Blitzlicht-Gewitter mit Mister-Wichtig-Miene dem Wirtschaftsminister ihren Bericht übergeben, ist mir schleierhaft. Die sollten da lieber Bingo spielen und Rubbel-Lose verteilen – das hätte mehr Substanz.

Am besten fasst das Rätselecken-Spektakel der von mir hoch verehrte Schriftsteller Hans-Magnus Enzensberger in Worte:

„Was Wirtschaftswissenschaftler unter Wirtschaft verstehen, ist bestenfalls ihnen selber klar; der Rest der Welt hegt gewisse Zweifel an ihren Vorstellungen und fragt sich, ob es sich bei ihrer Beschäftigung überhaupt um eine Wissenschaft handelt.“

Mit ihrem Denken in großen Aggregaten und den gewaltigen Mengen von statistischen Daten operieren sie eher wie Maulwürfe und können eine Tanne nicht von einer Zeder unterscheiden. Sie erkennen vor lauter Wald eben nicht die vielen unberechenbaren Bäume.

VWL-Mechaniker im Machbarkeitswahn.

Algorithmen und das mechanistische Weltbild ihrer Kritiker und Anwender

Kathrin Passig setzt sich in der Süddeutschen mit der im vergangenen Jahr um sich greifenden Kritik an einer vermeintlichen Algorithmen-Diktatur auseinander (Zur Kritik an Algorithmen: Warum wurde mir ausgerechnet das empfohlen?). Vor allen Dingen Miriam Meckel hatte sich ja mit Horrorszenarien hervorgetan. Passig schreibt:

„Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen – und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen – nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.“

Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruhe auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion „Genius“. Genius erzeuge automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt:

„Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.“

Genius aber könne dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet.

„Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können“, so Passig.

In der FAZ legte Meckel dann noch weitere Argumente vor:

„Alle Unbekannten in dieser Gleichung werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt.“

Dazu Passig: „Abgesehen davon, dass die ‚Unbekannten in dieser Gleichung‘, die ‚von vornherein herausgerechnet werden‘, nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.“

Ich selbst hatte mich im September 2011 mit den Thesen von Meckel beschäftigt und dazu Internet-Experten Christoph Kappes interviewt: Sterben wir den Tod der virtuellen Berechenbarkeit?

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die auf absehbare Zeit keine Ergebnisse zeitigen wird.“

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes. Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte. „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen. „Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Algorithmen sind also nicht allwissend und versagen bei der Prognose von Verhaltensmustern in der Zukunft. Kappes hat in dem Interview eine Frage aufgeworfen, die viel spannender ist und die ich in meiner nächsten Kolumne aufgreifen möchte? Mit welchem Weltbild agieren Konzerne wie Google und Facebook bei der Programmierung von Algorithmen? So operiere Facebook mit einem sehr einfachen behavioristischen.

„Ich kann die Aufregung von Geisteswissenschaftler verstehen, wenn Technologen simple Modelle von menschlichem Verhalten in die Welt setzen. Das ist in der Tat bedenklich. Hier modelliert man den Menschen als Objekt der Maschine. So wird man der Komplexität seines Verhaltens und Denkens nicht gerecht. Hier liegt Facebook falsch mit der Frage, ob man aus dem Maß der Interaktion mit anderen Personen schließen kann, welche Statusmeldungen angezeigt werden. Wenn ich etwas schweigend zur Kenntnis nehme, ist das ja kein Beleg für Unwichtigkeit. Auf dieser Grundlage gibt es keine Rechtfertigung für das Ausblenden von Informationen.“

Aber nicht nur Facebook wenden solche simplifizierenden Verfahren an. Auch die Sozialwissenschaften – besonders die Politikberater in den Wirtschaftsforschungsinstituten – vertreten eine mechanistische Weltsicht, kritisiert Wolfgang Streeck, Direktor am Max-Planck-Institut für Gesellschaftsforschung in Köln. Sie blenden den Faktor Ungewissheit aus. Warum das bei den Konjunkturprognosen regelmäßig in die Hosen geht, habe ich bereits ausführlich in diesem Blog dargelegt. Streeck liefert dafür weitere Argumente:

„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen. Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat (Kappes spricht von Singularität, gs), für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“, schreibt Streeck in dem Sammelband „Wissenschaftliche Politikberatung“, erschienen im Wallstein Verlag).

Trotzdem versuchen natürlich Politiker und auch Marketing-Gurus, unser Handeln zu beeinflussen oder sogar zu steuern. Wenn Menschen das durchschauen, passiert sogar das Gegenteil. Solche Dinge bleiben eben nicht geheim. Instrumente zur Verhaltenskontrolle oder Verhaltensmanipulation werden über kurz oder lang bemerkt. Man erkennt die Absichten und verhält sich absichtsvoll anders. Streeck verweist auf die Hawthorne-Experimente (1924 bis 1932). Forscher wollten herausgefunden haben, dass Arbeiterinnen auch ohne Lohnerhöhung schneller und besser arbeiten, wenn man freundlich zu ihnen ist (wie großzügig, gs) und die Wände gelb anstreicht.

„Aber nachdem sich unter den Beschäftigten herumgesprochen hatte, dass das Management mit seinen guten Worten und der gelben Farbe nur Geld sparen sollte, kam es zu Lohnforderungen und einem Streik“, führt Streeck aus.

Die Geltung derartiger Modelle und Theorien könne durch ihr Bekanntwerden schnell wieder außer Kraft gesetzt werden!

In meiner Freitagskolumne möchte ich genau diesen Aspekt aufgreifen. Meinungsäußerungen und Tipps bitte bis Donnerstagabend hier als Kommentar posten oder mir direkt wieder per E-Mail senden an: gunnareriksohn@googlemail.com

Konjunkturforscher wissen nicht, wie Menschen ticken: Nachwort zum Herbstgutachten

Die Konjunkturforscher haben ihren Modus wieder auf Pessimismus gestellt. Nach dem heute vorgestellten Herbstgutachten werde angeblich wieder eine Periode magerer Wachstumsraten beginnen. Für das nächste Jahr komme es zwar nicht zu einer Rezession – aber das Bruttoinlandsprodukte steige nur um 0,8 bis 1,2 Prozent – vielleicht sogar noch schlechter. Im Frühjahr rechneten die vom Steuerzahler finanzierten Konjunktur-Forschungsinstitute noch mit 2 Prozent. Nun ja, in den vergangenen Jahren lagen die Glaskugel-Ökonomen eigentlich immer falsch. Nach oben und nach unten. Ihre groben makroökonomischen Indikatoren können halt die vielen Einzelentscheidungen im Wirtschaftsleben nicht im Ansatz richtig erfassen. Alle Konjunkturforscher starren wie gebannt auf die Entwicklungen der Euro- und Finanzmarktkrise.

Wie das ganze Börsen- und Schulden-Spektakel auf die Realwirtschaft durchschlagen wird, ist ungewiss. Darauf machte bereits in den 1930er Jahren der Ökonom Joseph A. Schumpeter aufmerksam. Makroökonomen würden sich nur mit Aggregaten beschäftigen, also mit der Gesamtsumme der Mittel, die Volkswirtschaften für den Konsum und für Investitionen aufwenden. Einzelne Unternehmer, Firmen, Branchen und Konsumenten verschwinden aus dem Blickfeld. Die Rolle von Innovationen werde heruntergespielt, bemängelte Schumpeter. An den Rekordumsätzen und Gewinnen, die Apple selbst nach dem Ausbruch der Lehman-Krise erzielte (und wer strategische Fehler macht und Innovationsschübe verpennt, stürzt halt ab: Beispiel Blackberry!), erkennt man, wie falsch die Ökonometrie funktioniert – übrigens auch der Wirtschaftsjournalismus. Seit 2009 wurde wohl kein Wort zu häufig verwendet wie „Krise“.

Der einseitige Blick auf die Erschütterungen der Börsen ist nicht gleichzusetzen mit dem, was wirklich passiert: „Die meisten ökonomischen Analysen konzentrieren sich auf finanzielle Motive wie das Streben nach mehr Konsum oder Einkommen. In der Wirtschaftswissenschaft von heute geht es jedoch nicht nur um Geld und viele Wirtschaftswissenschaftler sind der Ansicht, dass auch nicht-finanzielle Motive untersucht werden sollten“, schreiben George A. Akerlof und Rachel E. Kranton in ihrem Buch „Identity Economics“. Die Identität sei eine unterschätzte Größe. Normen, die unser Verhalten beeinflussen, hängen von unserer Position in einem bestimmten sozialen Kontext ab. Es gibt also eine Vielzahl von Wechselwirkungen, die berücksichtigt werden müssen, um richtige Prognosen zu treffen.

Auch die von mir angeführte Allensbach-Jahresumfrage über Hoffnungen und Befürchtungen ist ja nur ein grober Indikator für den Konjunkturverlauf. Stimmungslagen sind auch das Ergebnis von sehr verschiedenen Faktoren. Allerdings hat sich dieses Stimmungsbarometer für meine Konjunkturprognosen als recht hilfreich erwiesen. Ich konnte zumindest bessere Vorhersagen treffen als die professionellen Konjunkturforscher. Anfang 2012 ist es dann wieder soweit und ich werde wieder eine Einschätzung vorlegen. Aber ich wage schon jetzt eine Aussage. Die Süddeutsche Zeitung liegt mit ihrem Artikel über das Weihnachtsgeschäft bestimmt nicht auf der richtigen Linie: „Schuldenkrise trifft Weihnachtsgeschäft“. Auch wenn der Sommer für den Handel mies gelaufen ist, wird es in den nächsten Wochen wieder kräftig in den Kassen klingeln. Die Schuldenkrise von Griechenland und Co. wird nicht auf die Konsumenten durchschlagen.

Die besten Konjunkturprognostiker: Brüderle-Ministerium schneidet miserabel ab – Meine Vorhersage wurde nicht gewertet ;-)

„Oft erinnern sie an Kaffeesatzleserei, aber Konjunkturumfragen sind durchaus ein hartes Geschäft. Wer bei den Prognosen, wie sich die deutsche Wirtschaft entwickelt, zu oft daneben liegt, wird von der Konkurrenz schnell abgehängt“, schreibt Spiegel Online und bezieht sich auf einen Bericht der „Financial Times Deutschland“, die verglichen hat, wie treffsicher die Ökonomen und Institute in diesem Jahr waren – und ein aufschlussreiches Ranking erstellt. Die FTD formuliert nun das genaue Gegenteil: „Konjunkturprognosen zu erstellen ist nicht wie Kaffeesatzlesen. Die Auswertung der FTD über neun Jahre zeigt, dass regelmäßig dieselben Ökonomen gut abschneiden – so wie Karsten Klude von M.M. Warburg.“ Ich bin neige da eher zur ersten Position. Vor allen Dingen die Wirtschaftsforschungsinstitute, die kräftig mit Steuergeldern vollgepumpt werden, versagen mit ihren ökonometrischen Modellen. Entsprechend schlecht schneidet das Bundeswirtschaftsministerium unter Leitung von Rainer Brüderle im FTD-Ranking ab: Die Experten der Bundesregierung unterschätzten, wie schnell sich das Land von der Krise erholen würde. „Anfang des Jahres sagten sie für 2010 ein Wachstum des Bruttoinlandsprodukts von 1,4 Prozent voraus. Mittlerweile sind sich die meisten Experten jedoch einig, dass am Ende des Jahres ein Plus von 3,7 Prozent stehen wird – auch wenn dieser Wert naturgemäß noch nicht feststeht. Für Brüderle heißt dies, dass er mit seiner defensiven Prognose in diesem Jahr nur auf Platz 39 kommt“, so Spiegel Online.

Warum tauche ich eigentlich nicht in dem Ranking auf? Vor knapp 12 Monaten habe ich wieder einmal die Steinbuch-Methode für meine Konjunkturprognose eingesetzt. Siehe auch: Die Allensbach-Jahresumfrage und das Versagen der Konjunkturforscher: Wirtschaftsaufschwung stärker als es die Prognoseprofis vorhersagen!

Der Informatik-Professor Karl Steinbuch hat 1979 eine interessante Korrelation entdeckt. Er berechnete, dass eine seit 1949 jeweils zum Jahresende vom Institut für Demoskopie Allensbach gestellte Frage „Sehen Sie dem Neuen Jahr mit Hoffnungen oder Befürchtungen entgegen“ in dem Prozentsatz der Antworten „mit Hoffnungen“ der Entwicklung des realen Bruttosozialprodukts vorauseilt. Der Verlauf des Optimismus folge nach Erkenntnissen von Steinbuch wie das Wachstum des Bruttosozialprodukts Zyklen mit einer Dauer von etwa vier bis fünf Jahren und der Optimismus in der Bevölkerung hinke nicht hinter der Konjunktur her, sondern gehe ihr voraus: Zuerst Optimismus, dann Wachstum.

Die persönliche Einschätzung der Zukunft sei ein besserer Indikator für die Entwicklung der Konjunktur, als die mit großem wissenschaftlichen Aufwand betriebenen Vorhersagen der Wirtschaftsforschungsinstitute – für die der Staat kräftig Steuergelder verprasst. Hier versagen die Modelle der makroökonomischen Erbsenzähler. Denn die wirtschaftliche Dynamik ist nicht nur abhängig von äußeren Faktoren wie Steuerlast oder Arbeitsgesetzen, sondern in hohem Maß auch von Psychologie. Für die Konjunkturentwicklung ist es relevant, wie es zu gleichgerichteten Verhaltensweisen der Bevölkerung bei jenen Faktoren kommt, die Expansion und Rezession beeinflussen; denn erst der Gleichschritt erzeugt die Durchschlagskraft, verstärkt die Wirkung so sehr, dass der Konjunkturverlauf einen schicksalhaften Rang erhält.

Ende 2009 Schauen fiel die Allensbach-Jahresumfrage schon recht optimistisch aus, so dass ich für 2010 ein kräftiges Wachstum vorhersagte. Vor einem Jahr gaben 45 Prozent der Umfrageteilnehmer zu Protokoll, den kommenden 12 Monaten mit Hoffnungen entgegen zu sehen. 11 Prozentpunkte mehr im Vergleich zum Wert vor einem Jahr. Aber selbst die Umfragedaten zum Beginn des „Krisenjahres“ deuteten darauf hin, dass wir eben nicht die schwerste Wirtschaftskrise seit dem Ende des Zweiten Weltkrieges erlebten. Denn 34 Prozent votierten damals für Hoffnungen. Ein Wert, der Anfang der 80er Jahre erreicht wurde. 1973, im Jahr der Ölkrise, kam man auf 30 Prozent. 1950, lag der Umfragewert bei 27 Prozent, stieg in den Folgejahren durch die Erfolge der Wirtschaftspolitik Ludwig Erhards sehr schnell und steil an.

Auf Platz eins der treffsichersten Konjunktur-Prognostiker steht zwar der Ökonom Carsten Klude von der Privatbank M.M. Warburg. Er hat diesen Platz aber nicht verdient 😉

Anfang Januar 2011 werde ich wieder eine Vorhersage wagen. Wenn ich richtig liege, verlange ich ein Honorar aus dem Bundeshaushalt. Immerhin kassieren die Wirtschaftsforschungsinstitute pro Jahr über 40 Millionen Euro vom Staat.

Konjunkturprognosen ohne Glaskugel

Ich habe mich ja schon des öfteren über die Unfähigkeit der Glaskugel-Ökonomen in den steuerlich alimentierten Wirtschaftsforschungsinstituten ausgelassen, die Konjunktur halbwegs richtig vorherzusagen. Siehe vor allen Dingen die Beiträge „Gemeinschaftsdiagnose der Wirtschaftsforschungsinstitute“ und besonders „Die Allensbach-Jahresumfrage und das Versagen der Konjunkturforscher: Wirtschaftsaufschwung stärker als es die Prognoseprofis vorhersagen!“. Im letzteren Blogpost ist mir ja das Meisterstück (Eigenlob) gelungen, den Konjunkturverlauf für 2010 genauer zu prognostizieren als die so genannten Wirtschaftsweisen , die ihre Berichte regelmäßig mit großem Tamtam der Bundesregierung übergeben. Warum versagen die gut bezahlten Makroökonomen.

Einen Grund hat der Wirtschaftswissenschaftler Joseph Schumpeter schon vor einigen Jahrzehnten benannt: Die Idee einer exakten Wirtschaftswissenschaft mit der Präzision der Physik oder Chemie war von Anfang an eine Illusion gewesen. Makroökonomen würden sich nur mit Aggregaten beschäftigen, also mit der Gesamtsumme der Mittel, die Volkswirtschaften für den Konsum und für Investitionen aufwenden. Im keynesianischen Modell wie auch in anderen makroökonomischen Modellen verschwinden einzelne Unternehmer, Firmen, Branchen und Konsumenten völlig aus dem Blickfeld. Die Rolle von Innovationen werde heruntergespielt, bemängelte Schumpeter. Er wendet ein, dass Keynes dadurch „das herausragende Merkmal des Kapitalismus“ abtue, durch das sowohl Technologie als auch Geschäftsmethoden „unaufhörlich revolutioniert werden“. Nachzulesen in meinem Beitrag: „VWL-Mechaniker im Machbarkeitswahn“.

Insofern sind vielleicht Branchenkenner die besseren Konjunkturforscher – auch wenn sie dafür keine Steuergelder kassieren;-). Ein Beispiel habe ich im Onlinemagazin NeueNachricht veröffentlicht:

„Im Maschinenbau steigen Leasing-Anfragen um 50 Prozent – Leasingmakler sieht Nachfrage als Konjunktur-Frühindikator.

So könnte der deutsche Maschinenbau vor einem stärkeren Aufschwung stehen als bisher angenommen. Die Maklerfirma FM LeasingPartner verzeichnet bis Herbst 2010 einen Anstieg der Finanzierungsanfragen um rund 50 Prozent gegenüber dem Vergleichszeitraum 2009. „Die sprunghafte Steigerung ist sehr ungewöhnlich und lässt in den nächsten beiden Jahren ein deutliches Wachstum erwarten, weil die Produktion dieser Maschinen typischerweise erst nach dem Jahreswechsel abgeschlossen wird“, so FM-Geschäftsführer Mathias Fröde.

Hier geht es zur kompletten NeueNachricht-Story.