Wüste Visionen

Wüste Visionen Erleben wir mit Desertec einen einen der größten Fakes des Jahrhunderts? Zu dieser Schlussfolgerung gelangt Wissenschaftsjournalist Edgar Gärtner: „Ich weiß, warum ich bei Partys meistens zögere, mich als Journalist vorzustellen. Am vergangenen Wochenende brauchte ich mich nicht vorstellen, denn da war ich unter lauter lieben Kollegen. Einer von ihnen, Pressesprecher eines großen Stromkonzerns, schilderte uns die wahren Hintergründe des Medienmärchens vom Solarstrom aus der Sahara. Die Idee, in der Sahara mithilfe von Parabolspiegeln Dampf und Strom zu erzeugen, ist uralt. Schon vor dem Ersten Weltkrieg standen dort erste Solarkraftwerke mit der antiken Solarthermie-Technik. Sie gerieten in den Wirren des Krieges in Vergessenheit. Der obskure Club of Rome griff vor einigen Jahren die Idee wieder auf. Die im nicht weniger obskuren ‚Klimaschutz‘-Geschäft engagierte Münchner Rückversicherung sah darin neue Geschäftschancen und brachte Stromkonzerne wie E.on und RWE sowie Siemens, die Deutsche Bank, Schott Solar und einige andere deutsche, spanische und italienische Firmen dazu, sich mit jeweils einigen Tausend Euro an einer Vorstudie über die Machbarkeit des vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) und von Greenpeace unterstützten ‚Desertec‘-Projektes des Club of Rome zu beteiligen. Dieses sieht vor, mithilfe von Hochspannungs-Gleichstrom-Leitungen zwischen Nordafrika und Westeuropa etwa 15 Prozent unseres Strombedarfs abzudecken.
In allen deutschen Medien war aber nicht von dieser bescheidenen und vorläufigen finanziellen Beteiligung die Rede, sondern von einem ‚Konsortium von 20 deutschen Firmen‘, das sich bereits anschicke, bis zur Jahrhundertmitte nicht weniger als 400 Milliarden Euro in die Erzeugung und den Transport des Sahara-Stroms zu investieren. Doch zu mehr als einer skeptischen Prüfung der Idee hatten sich gerade die genannten Stromkonzerne gar nicht bereit erklärt“. Da sind wohl einige ohne klare Absprachen vorgeprescht, um Tatsachen zu schaffen und Konzerne unter Druck zu setzen. In einigen Jahren werden wir von diesem Projekt nichts mehr hören. Das wir ablaufen wie das One-Hit-Wonder.

Wenn die Birne leuchtet, lernen wir nicht besser – Ein Profihirn zeigt wenig Aktivität

Vertrauen ist ein Hirnzustand. Das ist die Grundthese von Professor Henning Scheich, Direktor des Leibniz-Instituts für Neurobiologie in Magdeburg. „Vertrauen hat etwas mit Lernprozessen zu tun. Es geht dabei nicht nur um positive Einstellungen zu Dingen oder Personen, sondern es ist ein Verlass-Aspekt auf Personen oder Dinge und Verlass impliziert bereits, dass man multiple Erfahrungen machen muss, um sich auf etwas zu verlassen“, erläutert Scheich. Lernprozesse, die dabei eine Rolle spielen, seien im Wesentlichen alte Bekannte. Es gibt die Pawlowsche und die instrumentelle Konditionierung. Das sind Lernprozesse, wo man in der Auseinandersetzung mit Reizen zu neuen Verhaltensweisen kommt. Bei der Pawlowschen Konditionierung kommt es eigentlich nur darauf an, dass man irgendeine positive Überzeugung hat von irgendetwas, klassisch gesehen. Futter ist immer gut. Es können aber auch andere Dinge sein. Man lernt, mit einem solchen positiven Objekt oder einer positiven Person irgendetwas zu assoziieren, was die Sache ankündigt oder umreißt. Diese Art von Lernprozess ist überhaupt nicht geeignet, Vertrauen zu schaffen“, weiß der Wissenschaftler. Dabei könne sich nichts als Erfahrung bewähren im Sinne einer Rückkoppelung, also einer positiven Erfahrung. Das könne man in der Werbung beobachten: „Vieles wird hochkarätig angekündigt und verpufft dann als Luftblase“, sagt Scheich.

Anders sehe es mit der instrumentellen Konditionierung aus. Hier würde man Verhaltensweisen und Erfahrungen auf nachhaltige Vorteile überprüfen. Es handele sich um Rückkopplungs-Lernprozesse. „Man kann mit einem Bestrafungsparadigma sehr schnell einen Lernprozess in Gang bringen und auch zu einem asymptotischen Niveau bringen, also einem hohen Niveau, wo diese Aufgabe gelöst wird. Das ist jedem geläufig: Gebranntes Kind scheut das Feuer. Das geht wahnsinnig schnell. Nur will man mit dieser Erkenntnis nichts mehr zu tun haben, weil man unangenehme Erfahrung damit verbindet. Macht man das Ganze aber mit Belohnungslernen, geht die Sache zwar viel langsamer und führt aber auch zu demselben Niveau“, führt Scheich aus.

Mit einseitiger Belohnung oder Bestrafung könnten die Ergebnisse nie hundertprozentig werden. „Das heißt also, Sie können noch so sehr belohnen, es bleibt immer eine Differenz zu einer optimalen Performanz übrig. Eine Restdifferenz von Nichtvertrauen, die das Ganze immer gefährdet. Sie können diese Belohnungen weglassen, und das Hirn merkt sich wahnsinnig schnell, dass kein Vorteil mehr bei der Sache besteht, das könnte beispielsweise passieren, wenn irgendwas mit mehr Vorteilen kommt oder wenn Zweifel daran aufkommen lässt, dass die Belohnung überhaupt eine Belohnung war. Dann gibt es eine Extinktion, das heißt also das Verhalten fällt sofort wieder in kurzer Zeit auf Null zurück. Interessant ist bei der ganzen Betrachtungsweise, dass die Mischung von Belohnung und Bestrafung, das heißt Vorteile und Nachteile nicht etwa dazu führt, dass die Sache auf Null fällt, sondern zu einem Superlernen führt. Wenn Sie jeden positiven Umgang belohnen und jeden negativen Umgang bestrafen, dann gibt es hundert Prozent Performanz in ganz kurzer Zeit. Man vergisst das praktisch nie mehr. Das ist das perfekte System, um irgendetwas anzutrainieren“, empfiehlt der Neurobiologe. Allerdings müsse es eine positive Bilanz von Belohnungen geben. Wenn diese Art von Dynamik auftritt, dann könne man das Superlernen erreichen.

Wichtig sei auch das interne Belohnungssystem des Gehirns. Es werde der Neurotransmitter Dopamin ausgeschüttet. „Das Dopamin hat eine zweifache Wirkung: Es gibt ein gutes Gefühl, wenn Sie Erfolge haben. Der zweite Effekt ist noch viel wichtiger: die Erinnerung. Wir erleben enorm viele Dinge, die wir in unseren Kopf schnüren und nicht alles bleibt im Langzeitgedächtnis haften. Die Umsetzung vom Kurzzeitgedächtnis ins Langzeitgedächtnis wird über das Dopamin gesteuert“, so Scheich. Erfolg mache Spaß, da unterscheiden sich Menschen und Mäuse nicht. Dabei könne sich ein Überflieger, der beim ersten Versuch auf die Lösung kommt, genauso freuen wie ein minder Begabter, der mehr Anläufe benötigt. Es komme darauf an, sich die richtigen Ziele zu setzen. „Die Stimmungsaufheller wirken direkt auf die Gedächtnisbildung. Das hilft uns, eine Erfolgsstrategie automatisch abzuspeichern. Der Zusammenhang gilt auch umgekehrt: Wir behalten emotional gefärbte Erlebnisse besser als neutrale. Der erste Schultag, die große Liebe oder der Tod eines Freundes prägen sich uns tiefer ein als jede Mathe-Formel. Wem es auf der anderen Seite gelingt, trockenen Lernstoff mit Emotionen oder Sinn zu verknüpfen, wird ihn besser memorieren. Die Telefonnummer 14921960 etwa setzt sich aus dem Jahr der Entdeckung Amerikas und der Olympischen Spiele in Rom zusammen“, berichtet die Zeitschrift Focus.

Auch ausreichende Ruhepausen zwischen den Lektionen seien für das Funktionieren des Langzeitgedächtnisses unerlässlich. „Inhalte, die dauerhaft in unserem Gehirn verankert werden sollen, erfordern einen grundlegenden Umbauprozess an den Nervenzellen, der mindestens 24 Stunden in Anspruch nimmt. Kommen neue Informationen zu schnell hintereinander, konkurrieren ihre Inhalte und löschen sich aus“, so Focus. „Ohne Pausen“, erklärt Scheich, „wissen die Neuronen nicht mehr, was sie speichern sollen.“ Visueller Müll aus Fernseher und Computerspiel oder aufwühlende Erlebnisse würden das Langzeitgedächtnis blockieren. Was als Ablenkung gedacht sei, kommt im Speicher als Störsignal an.

Warnungen spricht Professor Scheich beim Modethema Neuroökonomie aus: „Man sollte sehr misstrauisch sein gegenüber den Weisheiten, die aus diesem Bereich kommen und zwar insbesondere wenn sie über die Macht der Bilder erzielt werden. Fast alle Medien würden zur Zeit Bilder der Kernspintomographie veröffentlichen. Da taucht ein Fleck im Gehirn auf, also muss das irgendwas bedeuten“, so Scheich. Da gebe es sehr viel Rattenfängerei. Es sei einfach nicht richtig zu glauben, wenn die Birne aufleuchtet und die Aktivierung im Gehirn größer wird, ein besserer Zustand des Gehirns erreicht werde. Im Gegenteil: „Große Aktivierung im Gehirn bedeutet Unsicherheit des Gehirns. Wenn Sie Aufgaben untersuchen, wie sie gelöst werden, von unsicherem Status bis zum Profi, dann finden Sie eine negative Korrelation mit der Größe der Hirnaktivierung. Der Profi setzt eigentlich nur noch seine spezifischen Mechanismen für etwas ein“, so der Hinweis von Scheich. Gehirnjogging mit riesiger Hinaktivierung nachzuweisen, sei Unfug. Die kleine Aktivierung, die beim scharfen Nachdenken von einem Profi produziert werde, das ist die eigentliche Aktivierung, die richtig ist.

Rüttgers, Kaiser Wilhelm und die Fabrik im Kopf – Der Staat als Museumswächter

Worum es heute geht....hat Rüttgers wohl nicht verstanden
Worum es heute geht....hat Rüttgers wohl nicht verstanden
Staatsknete für Versandhauskataloge, Rettungspakete für marode Industriekonzerne, die schon vor der Finanzkrise kurz vor der Pleite standen, Bürgschaften und Finanzhilfen für Warenhaus-Dinosaurier, Fusionserleichterungen für angeschlagene Zeitungsverlage: Was Spitzenpolitiker wie Seehofer, Merkel oder Rüttgers derzeit wirtschaftspolitisch bieten, hat nach Ansicht von Experten überhaupt nichts mit der Zukunft des postindustriellen Zeitalters zu tun.
Technikvisionär
Technikvisionär

„Wenn Ministerpräsident Jürgen Rüttgers der gebeutelten Medienbranche mit Megafusionen die Rettung vor dem nahenden Untergang verspricht und ein Leben ohne Zeitungen für ‚unvorstellbar’ hält, wird er wohl als Politiker in die legendäre Ahnengalerie von Persönlichkeiten aufgenommen, die sich über die Wirkungen technologischer Zeitenwenden derb verschätzt haben. Wer Millionen von Zeitungsseiten konservieren will, die täglich das Gestern zitieren, mutiert zum Kaiser Wilhelm II, der an das Pferd glaubte und das Automobil nur als vorübergehende Erscheinung abtat“, so Udo Nadolski, Geschäftsführer des IT-Beratungshauses Harvey Nash in Düsseldorf.

Deutsche Meinungsführer haben immer noch die Fabrik im Kopf
Deutsche Meinungsführer haben immer noch die Fabrik im Kopf

Zu diesem Befund kommt auch brand eins-Redakteur Wolf Lotter in seinem Buch „Die kreative Revolution – Was kommt nach dem Industriekapitalismus?“ (Murmann-Verlag): Wirtschaft werde immer noch mit dem Kopf der Fabrik gedacht. „Alle zeitlichen und materiellen Erscheinungen von Ökonomie sind nach wie vor voll am Ablauf des reinen Produktionsbetriebes orientiert, in dem Veränderungsprozesse nachrangig sind“, schreibt Lotter. Man müsste erst einmal den Irrgarten industriekapitalistischer Terminologie und Lehre verlassen, um sich überhaupt ein halbwegs geordnetes Bild dessen zu machen, was seit mehreren Jahrzehnten im Alltag bereits deutlich wird: Wissen schlägt Produkt. „Die großen Gewinne, die weltweiten Erfolge ökonomischer Prozesse und Innovationen sind nahezu alle wissensbasiert, seit dem Siegeszug des Computers und des Internets ist das deutlich“, erläutert Lotter, der aber darauf verweist, dass die meisten Akteure von Wirtschaft und Politik getaktet sind wie in den Zeiten des Fordismus. Harmonisch werde der Machtkampf zwischen industriekapitalistischen und wissensbasierten Organisationen nicht ablaufen.

Pflichtlektüre für Industriepolitiker
Pflichtlektüre für Industriepolitiker

Die antiquierten Eliten und Paten sollten abdanken: „Besser herrscht transparente Unübersichtlichkeit als jene vornehme Verschwiegenheit der diskreten Gesellschaft“, proklamiert der Schriftsteller Beat Wyss. Die Promotoren des Systemsturzes sind schon in den Startblöcken: Es sind Außenseiter, die schon mitten unter uns als kreative Zerstörer wirken und die alten Monopole torpedieren. „Kleine Spinner werden über Nacht zu Superstars. Absurde Geschäftsideen entpuppen sich und der größte ökonomische Schwachsinn wird zum Megaerfolg“, so der Publizist Peter Felixberger. Es würden sich schon jetzt fundamentale Veränderungen abzeichnen bei der Form und Funktion von Computern, Handys, Zeitungen oder Autos, meint der Wirtschaftswoche-Autor Konrad Buck: „Was sich an partizipatorischen Verhaltens- und Arbeitsmustern derzeit im Internet entwickelt, Stichwort: Social Web, wird entscheidenden Einfluss auf die Produkte und Services von morgen haben. In derzeit laufenden Projekten wie eEnergy (smart metering von Strom, Gas plus Zusatzservices), Elektromobilität (batteriegetriebene Autos mit einer Strom-ID überall aufladen), Genivi Alliance (In-Vehicle Infotainment) spielt sich das Verschmelzen von IT und Anwendung und von IT und Produkt bereits ab“. Hardware werde verdrängt. Experten sagen einen Rückgang um bis zu 95 Prozent bis 2030 voraus. „Gewinner sind Unternehmen mit Expertise im Aufsetzen neuer Geschäftsprozesse, IT- und Netzwerkfachleute mit Gespür für Prozessmodellierung und Verständnis von Wandel als einzig verbleibender Kontinuität oder Spezialisten mit Branchen- und Integrationswissen bekommen das Sagen. Und Verbraucher können sich auf eine Fülle ebenso nützlicher wie spannender neuer Services einstellen“, prognostiziert Buck.

Mobile Zukunft
Mobile Zukunft

Die Integration ehemals getrennter Anwendungen in mobile Endgeräte werde sich nach Einschätzung des Mobilfunkexperten Karl-Heinz Gabler fortsetzen. „Zählen heute Notebooks mit integriertem WLAN zum Standard, so werden die Netbooks der Zukunft HSPA+ und LTE-Modems integrieren, die es erlauben, immer und überall das Netz zu nutzen. Dank integriertem GPS werden auch Navigationsanwendungen Teil des Funktionsumfanges werden. Dem Nutzer werden unabhängig von seinem Ort all seine gewohnten Dienste zur Verfügung gestellt. Ortsgebundene Teilnehmergeräte verschwinden“, sagt Gabler von der Firma Nash Technologies in Nürnberg. Nutzer müssten nur noch angeben, wie viel Leistung sie benötigen – mehr nicht, bestätigt Marc-Christopher Schmidt, Geschäftsführer des Bonner Reiseportals Triptivity. „Wo die Applikation wirklich läuft, ist sekundär. Viele Anwender steigen von ‚traditionellen’ Computern auf Notebooks oder Netbooks um und Unternehmen setzen verstärkt auf Thin Clients. Mobiltelefone entwickeln sich zur universellen Kommunikationszentrale“, führt Schmidt aus. Der Dienstleistungsexperte Harald Henn erwartet radikale Veränderungen bei den Geschäftsmodellen. „Wir erleben eine Abkehr vom Gedanken, dass sich Menschen für Kommunikation und Informationsaustausch an festen Orten befinden müssen. Dass man Hardware in Form von PCs oder Handys benötigt, um zu arbeiten, Daten und Informationen zu erstellen und auszutauschen“, bemerkt Henn.

Industriemuseum Deutschland
Industriemuseum Deutschland

Das Land der Maschinenbauer, Mechaniker und Laboranten verliere seine industrielle Basis, so die Kulturwissenschaftlerin Heike Grimm. Faktisch macht die industrielle Wertschöpfung heute weniger als 20 Prozent des gesamten Bruttoinlandsproduktes aus. Daran ändern auch die Lügen von Interessenvertretern der Industrie nichts mehr, das angeblich jeder siebte Arbeitsplatz am Auto hängt. Das Zahlenwerk stammt aus dem Jahr 1980, wie die Zeitschrift Capital eindrucksvoll nachgewiesen hat.

Bei Anruf Verbraucherzorn! Call Center brauchen Qualitätsstandards

Das aktuelle Marktvolumen für den externen Einkauf von Call Center-Dienstleistungen beträgt jährlich rund zwei Milliarden Euro. Während telefonischer Service für Dienstleister schon seit geraumer Zeit unverzichtbar sind, bieten auch Industrieunternehmen ihren Kunden immer häufiger telefonische Kontaktmöglichkeiten an.

Trotz des hohen Einkaufsvolumens mangelt es nach Auffassung von Experten an Preistransparenz. Auch die jeweils gebotene Servicequalität und die Serviceanforderungen bei der Auftragsvergabe spielen hier eine zentrale Rolle. Sie werden in Deutschland bisher noch in keiner regelmäßigen Erhebung erfasst. Aus diesem Grund führt der Bundesverband Materialwirtschaft, Einkauf und Logistik (BME) gemeinsam mit dem internationalen Call Center-Unternehmensverband CCBenchmarks im deutschsprachigen Raum eine detaillierte und umfassende Erhebung zum Einkauf von Call Center- Dienstleistungen durch.

Der neue Preis- und Qualitätsindex ermögliche Einkäufern, Preise und Qualitäten präzise miteinander zu vergleichen. So werden bei den Preisabfragen zu In- und Outbound jeweils 15 unterschiedliche Anruftypologien abgefragt. „Darüber hinaus enthält die Studie viele wertvolle Informationen rund um den Einkauf von Call Center Dienstleistungen. Dies reicht von Bewertungsmethoden für die Servicequalität bis zu den von den Unternehmen primär genutzten Kriterien für die Auswahl von Call Center-Dienstleistern“, teilen BME und CCBenchmarks mit.

Messbare Qualitätsnormen sind nach Auffassung von Bernhard Steimel, Sprecher der Voice Days plus, auch bei der Sprachcomputern vonnöten. „Seit 2007 wird deshalb in Kooperation mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation und Experten der deutschsprachigen Fachszene ein industrienaher Standard für Sprachapplikationen erarbeitet“, so Steimel.

Die Ergebnisse der ersten Projektphase wurden in der Studie „Leitfaden – Qualitätskriterien für Sprachapplikationen“ veröffentlicht: „Als Unternehmen, das seit acht Jahren und von Anfang an auf die Nutzung von Spracherkennung und die Verfolgung innovativer natürlichsprachlicher Designansätze gesetzt hat, sehen wir uns in der Verantwortung, einen Beitrag zur Konsolidierung und zur weiteren Entwicklung der Branche insgesamt zu leisten“, erläutert Jörn Kreutel, Chief Technology Officer bei SemanticEdge in Berlin.

Auch wenn die Nutzung von Spracherkennung gegenüber dem Tonwahlverfahren DTMF (Geben Sie die 1 ein, wenn….) klar überlegen sei, müsse man immer noch Vorbehalte in der Öffentlichkeit ausräumen. Dazu seien die Maßstäbe des Fraunhofer Instituts, die sich auch in anderen Technologiefeldern bewährt hätten, ein wichtiger Beitrag: „Für die Branche und auch für uns selbst als Marktteilnehmer“, resümiert Kreutel.

Wer an der BME/CC-Benchmarks-Erhebung teilnehmen möchte, kann sich an Volkmar Klein wenden: volkmar.klein@bme.de. Teilnehmer der Studie erhalten kostenfrei eine Zusammenfassung der Analyse. Die Veröffentlichung der Studie „Einkauf von Call Center-Dienstleistungen“ ist zum 30. September 2009 geplant.

Link zum Qualitätsleitfaden für Sprachcomputer.

Weitere Blog-Beiträge:
Call Center auf der Hitliste des Zorns

Virtuelle Call Center

Intelligente Software-Assistenten

Dumme Kundeninteraktion

Spinner statt Spießer: Warum wir in Deutschland mehr Regelbrecher brauchen – Fortschritt kommt vom Außenseitertum

Professor Zerr: Schöner Scheitern statt Benchmarking

Rund 200 Innovationschefs diskutierten beim forward2business-Zukunftskongress in Halle den unternehmerischen Wert von Grenzverletzungen und Regelbrechern. „Regelbrecher sind wie Herzensbrecher, die mit sehr viel Engagement Neues bewirken“, sagte Zukunftsforscher Dr. Karlheinz Steinmüller, wissenschaftlicher Direktor von Z-Punkt. „Sie werden allerdings von der Öffentlichkeit nicht geliebt. Sie werden als Störenfriede bezeichnet, weil sie Gewohnheiten über den Haufen werfen. Sie gelten als Spielverderber, weil sie die existierenden Gesetze des Spiels verletzen. Sie sind Grenzverletzer, weil sie immer über die Demarkationslinie hinwegspringen. Sie sind Querköpfe, weil sie im Dauerkonflikt mit der Mehrheitsmeinung liegen. Sie sind Starrköpfe, weil sie beharrlich ihre Ziele verfolgen“, erläuterte Steinmüller in seinem Vortrag. Regelbrecher seien auch kreative Zerstörer, vor denen kein etabliertes Geschäftsmodell sicher sei. Gerade jene Unternehmer, die sich am sichersten fühlen, seien am meisten gefährdet durch die Regelbrecher. Das könne man zur Zeit in der Automobil- und Finanzbrache beobachten.

„Es gibt Muster, die man bei Regelbrechern erkennen kann. Als Albert Einstein die Quantentheorie des Lichts vor über hundert Jahren entwickelte, hat er zwei Dinge zusammengerührt, die überhaupt nicht zusammengehören: den Teilchen- und Wellencharakter des Lichts. Die Physiker waren entsetzt und haben dann gesehen, dass das doch sinnvoll ist. Oder Arnold Schönberg, der mit seiner Zwölftonmusik gegen den vorherrschenden Musikgeschmack verstoßen hat“, erläuterte Steinmüller.

Zu den Auffälligkeiten würden neuartige Kombinationen, neue Verwendungszwecke und neue ästhetische Gewohnheiten zählen, die vor allen Dingen in den kreativen Milieus gedeihen, wie es Professor Richard Florida auf den Punkt gebracht hat. Überall dort, wo Talent, Technik und Toleranz aufeinandertreffen, könnten richtige disruptive Innovationen oder Sprunginnovationen entstehen.

Was notwendig sei, um ein günstiges Klima für Störer und Innovatoren zu schaffen, sei eine Kultur des Karnevals, Narrentums und des Scheiterns. Das gelte für Wirtschaft, Politik, Wissenschaft und Management. Im Vordergrund stehe heute das einseitige Streben nach Erfolg und nicht der kreative Umgang mit dem Misserfolg. Zudem brauche Deutschland nicht nur Querdenker, sondern mehr Quermacher. „Medien sollten sich vom Starkult verabschieden und einen Blick fürs Visionäre an den Tag legen. Da gibt es dann nicht mehr Sendungen wie ‚Deutschland sucht den Superstar’ und ‚Dschungelcamp’, sondern ‚Deutschland sucht den kreativen Zerstörer’ oder ‚Vom Spießer zum Spinner’“, empfiehlt der Science Fiction-Kenner.

Ähnliche Fundamentalkorrekturen forderte Professor Michael Zerr, Präsident der Karlshochschule, für die Universitäten. „Was an deutschen Hochschulen läuft, ist Stoff-Bulimie: reinschaufeln, auskotzen, vergessen. So funktioniert die Wirtschaftswissenschaft bislang wie ein Jahrmarktsverkäufer. Hier noch eine Leberwurst und eine Salami – einen Büchsenöffner gibt es noch kostenlos dazu. Ein bisschen Jura, Mathe und Rechnungswesen. Regeln, Regeln, Regeln und das ist es dann“, beklagte sich Zerr. Studenten sollten lernen, Dinge in Frage zu stellen, beispielsweise über den Sinn des Controllings. „In erster Linie handelt es sich um eine Inszenierung von Rationalität. Unsere Studenten beschäftigen sich damit, wie man eine kalkulatorische Wirklichkeit inszeniert, welche Rituale sich im Management abspielen, welche Metapher verwendet werden, um in einer Organisation Mikropolitik zu mache. Das ist das Programm unserer Universität“, sagte Zerr in Halle.

Studenten würden sich mit den Wirklichkeitskonstruktionen auseinandersetzen aus Sicht der etablierten Wirtschaft und aus Sicht der Regelbrecher. Dann komme man irgendwann zu den Möglichkeiten des Wandels und der Innovation. Manager müssten heute intelligent stören. Schöner Scheitern statt Benchmarking sollte ihre Devise sein.

Egal, ob man den Regelbruch in Organisationen kultiviert oder nicht, wäre es nach Ansicht des IT-Personalexperten Udo Nadolski schon ein großer Fortschritt, wenn sich Manager, Politiker und Wissenschaftler von ihrer Rationalitätsgläubigkeit verabschieden und stärker mit dem Unerwarteten kalkulieren würden. „Den von Joseph A. Schumpeter geprägten Begriff der kreativen Zerstörung muss man in seinen Konsequenzen auch zu Ende denken. Wer gesellschaftliche und wirtschaftliche Phänomene nur in Aggregatzuständen wahrnimmt und berechnet, vernachlässigt den ständigen Prozess von Innovationsrevolutionen. Technologien und Geschäftsmethoden können über Nacht wertlos werden. Etablierte Branchen gehen unter und neue entstehen. Da helfen auch milliardenschwere Konjunkturpakete nicht weiter, denn Regelbrecher lassen sich davon wenig beeindrucken“, so Nadolski, Geschäftsführer von Harvey Nash.

Wähle die Worthülse des Monats! Hitliste der Phrasendrescher und Powerpoint-Rhetoriker

Es gibt so viele Ranglisten, Hitparaden, Statistiken über Twitter-Weltmeister, Bücher, Anwälte oder Ärzte. Es fehlt noch ein Votum über die Worthülse des Monats. Eine Liste des Grauens, der rhetorischen Leerformeln, semantischen Umweltverschmutzer, Powerpoint-Schaumschläger, Phrasendrescher und Wichtigtuer.

51Rv0GCDujL._BO2,204,203,200_PIsitb-sticker-arrow-click,TopRight,35,-76_AA240_SH20_OU03_Wer bei der Umfrage mitmacht und in der Kommentarspalte seine E-Mail-Adresse hinterlässt, nimmt an einer Verlosung teil unter nicht-notarieller Aufsicht meiner Kinder: Der Gewinner bekommt das Buch „Best of Bullshit“ von Hans Rudolf Jost (Orell Füssli Verlag). Der Jahressieger erhält Ende Dezember die Kurt-Tucholsky-Ehrenurkunde.

Bitte schickt mir Vorschläge, welche Worthülsen im nächsten Monat aufgenommen werden sollen!

Ich sitze im Büro, also arbeite ich: Warum die postindustrielle Gesellschaft die Arbeitsorganisiation auf den Kopf stellt

Kicker und Obst machen die 9to5-Büroarbeit auch nicht viel besser
Kicker und Obst machen die 9to5-Büroarbeit auch nicht viel besser

Büros mit Fußballkicker, Obstkörben und bunten Büromöbeln scheinen in Deutschland schon zu Avantgarde-Erscheinungen des modernen Arbeitslebens zu zählen. Für den Publizisten Markus Albers, Autor des Buches „Morgen komme ich später rein“, sind diese Anreize eher ein Feigenblatt, um Mitarbeiter auf Effizienz zu trimmen. An starren Arbeitszeiten und Organisationsmethoden hat sich wenig geändert. „Vorbild des in Deutschland heute am weitesten verbreiteten Bürokonzeptes, des Einzelbüros, sind die im 16. Jahrhundert in Florenz gebauten Uffizien, von denen sich das englische Wort für Büro ableitet: ‚office’“. Freie Arbeitsgestaltung ist weitgehend noch Fehlanzeige. Es gilt immer noch das Motto „Ich sitze im Büro, also arbeite ich“. Ob man die Wand anstarrt, in der Nase popelt, die Minuten bis zum Feierabend zählt oder Kollegen nervt, spielt keine Rolle. Die alten Strukturen der Industriegesellschaft funktionieren immer schlechter: Abgesessene Kernarbeitszeit und exzessive Überstunden würden zwar immer noch als Beweis für echtes Engagement gelten. In Wirklichkeit erleiden wir durch Langeweile und Ineffizienz am Arbeitsplatz enorme volkswirtschaftliche Verluste.

Arbeitswelt der postindustriellen Gesellschaft
Arbeitswelt der postindustriellen Gesellschaft
Dabei sind wir schon längst eine Wissens- und Dienstleistungsökonomie. Ein Großteil der Menschen arbeitet in Informations- und Serviceberufen. Galt bisher die Maxime „Arbeiten in einer festen Struktur, am fixen Ort und zur bestimmten Zeit, so erlauben neue Entwicklungen der IT- und TK-Branche das „Arbeiten mit wem, wo und wann man will“. Gesucht werden in der „Easy Economy“ nach Auffassung von Markus Albers vor allem Experten, die per Definition mobil und flexibel arbeiten.

Nach einer BITKOM-Umfrage arbeiten zwar derzeit nur zehn Prozent der Berufstätigen in Deutschland ganz oder zeitweise von zu Hause aus. Aber 62 Prozent wünschen sich regelmäßige Arbeit im Home-Office, 41 Prozent an einigen Tagen in der Woche und 21 Prozent sogar täglich. 28 Prozent der befragten Arbeitnehmer gehen am liebsten jeden Tag ins Büro. Der Wunsch nach einem Home-Office ist bei den 30- bis 49-Jährigen am stärksten ausgeprägt. Drei Viertel der Befragten in dieser Altersgruppe will regelmäßig zu Hause arbeiten oder tut dies bereits. Die technischen Voraussetzungen sind vorhanden. „Heute kann fast jeder Büroarbeitsplatz zu geringen Kosten an den heimischen Schreibtisch verlegt werden“, sagt BITKOM-Präsident Profesor August Wilhelm Scheer. Eine schnelle Internetverbindung ermögliche den Zugriff auf Anwendungen, Datenbanken und Kommunikationssysteme des Arbeitgebers.

„Gerade in größeren Unternehmen ist die technische Integration von Mitarbeitern außerhalb der Unternehmensstandorte bereits Standard. Das betrifft mobile Mitarbeiter, Home-Office-Arbeitsplätze wie auch sogenannte nomadisierende Mitarbeiter, die mobil oder von wechselnden Standorten arbeiten“, bestätigt Andreas Latzel, Deutschlandchef von Aastra. Die technische Integration erfolge dabei über Internet-Zugänge, die mittels eines so genannten Virtual Private Networks (VPN) für gesicherte Datenverbindungen zu den Unternehmensstandorten genutzt werden, und über SIP für IP-Telefone oder IP-Kommunikationsprogramme auf dem PC oder Notebook. „Diese SIP-Anbindung erlaubt dem Mitarbeiter die gleichen Funktionalitäten wie an jedem anderen Telefonendgerät im Unternehmen. Mobiltelefone werden dabei über das GSM-Netz und eine Mobile Extension Funktion integriert – sie funktionieren ebenfalls wie eine Nebenstelle im Unternehmen“, so Latzel. Die leicht in die ITK-Struktur des Unternehmens integrierbaren Unified Communications-Lösungen von Aastra kämen letztlich dem Mitarbeiter, dem Unternehmen und sogar der Umwelt zugute. Mit der Verbreitung dieser Technologien werde auch die allgemeine Akzeptanz von flexiblen und mobilen Arbeitsbedingungen steigen.

Die ökonomische Metamorphose zur „Easy Economy“ sei nicht mehr aufzuhalten, glaubt auch Markus Albers. Mit einer Schönwetter-Thematik habe das nichts zu tun. Es sei vielmehr ein Programm zur Beschleunigung von Innovationen und zur Optimierung von Prozessen. „Sie hilft Unternehmen, die klügsten Köpfe anzuziehen, die besten Produkte zu entwickeln und nebenbei noch Immobilienkosten zu sparen, weil Büros bis zu 50 Prozent kleiner sein können, wenn nicht mehr jeder jeden Tag 9to5 am Schreibtisch sitzt. Insofern ist der Schritt zur Easy Economy die beste Vorbereitung für wirtschaftlich schwierigere Zeiten“, prognostiziert Albers. Die Krise beschleunige überfällige Anpassungen der konventionellen Organisationsstrukturen erfolgen, die so zunehmend den Anforderungen einer postindustriellen Arbeitswelt.

Auch Wilhelm Bauer vom Fraunhofer Institut für Arbeitswirtschaft und Organisation geht nicht von einem kurzfristigen Trend aus. Es bewege sich alles in Richtung einer Easy Economy. Aktienmärkte seien volatil, aber technologischer, arbeitsorganisatorischer und gesellschaftlicher Wandel findet vor längeren Zeithorizonten statt und ist darum vergleichsweise stabil. Also: Aktuelle Wirtschaftkrise hin oder her – wir werden in Zukunft mit Hilfe moderner Technik arbeiten, wann und wo wir wollen.

Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Warum der intelligente Kühlschrank kein Hirngespinst mehr ist

Wenn über Künstliche Intelligenz diskutiert wird, darf der „intelligente Kühlschrank“ nicht fehlen. Seit Jahren geistert er in Fachbeiträgen und Zukunftsprognosen umher, in der Realität findet man ihn nicht. Das will das Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) ändern. So hat das DFKI unter der Leitung von Professor Antonio Krüger ein Forschungslabor mit dem Namen „Innovative Retail Laboratory (IRL)“ in der Zentrale des Handelsunternehmen Globus in St. Wendel eingerichtet.

Vom intelligenten Kühlschrank zum Supermarkt der Zukunft
Vom intelligenten Kühlschrank zum Supermarkt der Zukunft

Hier steht zumindest ein smarter Kühlschrank der dem Nutzer mitteilt, dass die saure Sahne nur noch bis morgen haltbar ist, Frischmilch nachgekauft werden muss und auch die Wurstbestände sehr übersichtlich sind. „Mit viel Technik soll Einkaufen zum Erlebnis gemacht werden: übersichtlicher, informativer und transparenter. Am Bildschirm des Kühlschranks kann gleich eine Einkaufsliste erstellt werden. Jedes Familienmitglied kann seine persönlichen Vorlieben einstellen und im virtuellen Globus-Katalog nach neuen Angeboten suchen. Mit ein paar Klicks ist die virtuelle Einkaufsliste auch schon auf dem Handy gespeichert“, berichtet die Saarbrücker Zeitung.

Neue Formen der Interaktion mit dem Kunden werden entwickelt und für den Einsatz getestet: von personalisierter Verkaufsberatung über „sprechende“ Produkte, bis hin zum intelligenten Einkaufswagen der den Weg durch das Warenhaus anhand des Einkaufszettels plant und anzeigt, rezeptbasierte Kaufanregungen gibt, Produktvergleiche ausführt, personalisiert auf passende Sonderangebote hinweist und Zusatzinformation zu den Produkten gibt.

Das IRL konzentriert nach eigenen Angaben seine Aktivitäten nicht nur auf Konzepte und Technologien, die allein das SB-Warenhaus der Zukunft als Ort des Einkaufens betrachten. Die Beziehung des Warenhauses zu seinen Kunden beginnt vor dem Einkaufen schon mit der individuellen Einkaufsvorbereitung und personalisierten Angebotspräsentationen zu Hause und wird durch Produkt- und Verwendungsratgeber zu den gekauften Waren nach dem Einkauf weitergeführt. Erforscht und realisiert werden auch Konzepte der Innovationsallianz Digitales Produktgedächtnis des Bundesministeriums für Bildung und Forschung: Im Projekt SemProM – Semantic Product Memory – werden Schlüsseltechnologien für das Internet der Dinge entwickelt. Produkte führen Tagebuch, Smarte Labels geben ihnen ein Gedächtnis und unterstützen intelligente Logistik.

wine3
Durch integrierte Sensoren werden Herstellungszusammenhänge transparent, Lieferketten und Umwelteinflüsse nachvollziehbar. Der Produzent wird unterstützt, der Verbraucher besser informiert. An der Tiefkühltruhe erfährt der Kunden beispielsweise, dass der Spinat Laktose enthält und wie sich daraus eine Lasagne zubereiten lässt, der „digitale Sommelier“ gibt an, dass der Chardonnay gut zu Salat und hellem Fleisch passt sowie eine feinwürzige Note von Vanille und Frucht besitzt. Und die Bananen am Obsttresen stammen aus der Dominikanischen Republik und genügen den Bio-Standards, erklärt die virtuelle Beraterin.

Mit Sensoren bekommen Produkte ein Gedächtnis, um Informationen für Rezepte, Inhaltsstoffe, Ökobilanzen oder Lagerungsvorschläge zu vermitteln: „Im Moment ist das noch sehr teuer“, erklärt Antonio Krüger gegenüber der Saarbrücker Zeitung, der seit April die Professur am DFKI innehat, „aber wir gehen davon aus, dass in zehn Jahren die technologischen Möglichkeiten vorhanden und auch erschwinglich sind. Wir wollen zeigen, was möglich ist.“

Supermarkt-Waagen als Einkaufsassistenten
Supermarkt-Waagen als Einkaufsassistenten

Transparenz ist dabei einer der wichtigsten Faktoren für den Supermarkt der Zukunft, bestätigt Tudor Andronic aus dem Leitungsteam des Bereichs Retail Systems Development beim Technologiespezialisten Bizerba. „Es gibt bereits mehr Prozessoren als Menschen. Jeden Tag fließen unglaublich viele Datenmengen ins Internet. Gefragt ist jetzt die Kunst, die richtige Daten einfach zur Verfügung zu stellen. Dafür brauchen wir vordefinierte Schnittstellen sowie intelligente und adaptive Modelle, wie sie vom DFKI entwickelt werden“. Sein Unternehmen sei darauf vorbereitet und habe in entsprechende IT-Architekturen investiert, um die Visionen von Bill Gates „Information at the fingertip“ zu realisieren. „Aus den Technologien müssen jetzt Werte generiert werden mit den richtigen Inhalten, Empfehlungen und personalisierten Informationen. Zehn Jahre, wie von Professor Krüger prognostiziert, werden wir nicht mehr warten müssen. Das kommt schneller“, resümiert Andronic.

Mit dem Projekt „Supermarkt der Zukunft“ zählt das DFKI zu den „365 Orten im Land der Ideen“, die in diesem Jahr jeweils an einem Tag ihre Ideen präsentieren können.

Vom Weltuntergang zum neuen Wirtschaftswunder??

Es gerade einmal vier Wochen her, da schockt uns der Spiegel mit einem Titelbild, das uns eindeutig den bevorstehenden Totalzusammenbruch der Wirtschaft suggerierte mit Analogien zur schweren Depression nach 1929. Einige Ausgaben vorher musste mal wieder die Titanic herhalten, um den schweren Seegang der Konjunktur zu untermauern. Was man davon zu halten hat, habe ich vor einigen Wochen beschrieben.

Den gestrigen Tag sollte man sich allerdings sehr genau merken. Die Titelstory der Wirtschaftswoche dokumentiert wohl den „überraschenden“ Wendepunkt der Talfahrt. „Die globale Depression ist abgesagt. Weltweit zeigen wichtige Konjunktursignale wieder noch oben, die Stimmung hellt sich auf. Das nährt die Hoffnung auf ein Ende der Rezession“, schreibt die Wiwo. Was wird jetzt wohl der Spiegel für einen Aufmacher finden? „Die Lügen der Konjunkturforscher – Warum wir monatelang an der Nase herum geführt wurden“. Oder: „Konjunkturlokomotive China“. Vielleicht auch: „Die gefühlte Krise der Printmedien“.

Jedenfalls kommen immer mehr Experten aus den Löchern gekrochen, die Entwarnung geben. „Noch gehen diese optimistischen Stimmen unter im Meer der schlechten Nachrichten. Doch sie bestätigen, was wichtige Frühindikatoren für die globale Konjunktur schon seit geraumer Zeit ankündigen. Der Tiefpunkt der Krise ist durchschritten. Ab Jahremitte könnte die Wirtschaft sogar wieder den Vorwärtsgang einschalten. Rund um den Globus hellt sich die Stimmung der Unternehmen auf“, so die Wiwo.

Man könnte auch hinzufügen. Danke, liebe Verbraucher in Deutschland, dass Ihr Euch diesmal so undeutsch verhalten habt und nicht in Panik verfallen seid. Gut, dass es ein doppeltes Meinungsklima gibt und jeder Einzelne seine eigene Lage besser beurteilen kann als viele staatlich alimentierte Konkunkturforscher, selbsternannte Wirtschaftsexperten und Crash-Propheten (die über Jahrzehnte den Weltuntergang predigen in der Hoffnung, irgendwann mal recht zu bekommen).

Jedenfalls verzeichnen selbst die exportabhängigen Industrieunternehmen wieder mehr Bestellungen aus dem Ausland – das erst Mal seit August 2008! „In den USA geht die Zahl der Erstanträge auf Arbeitslosenunterstützung wieder zurück – bisher war das immer ein sicheres für das baldig Ende der Rezession“, führt die Wiwo aus. Steigende Frühjahrsindikatoren würden die Doomsday-Prognosen in den Schatten stellen. „Erst hat uns die Schwere des konjunkturellen Einbruchs nach der Lehman-Pleite überrumpelt, jetzt könnte uns die Aufwärtsdynamik überraschen“, beschreibt Elga Bartsch, Euroland-Chefvolkswirtin der US-Bank Morgan Stanley, die Ratlosigkeit der Zunft. Selbst der Groß-Investor George Soros hält den Kollaps des Finanzsystems für gestoppt. Nach der medialen Pessimismuswelle dringen immer stärker die Konjunkturbullen nach vorne. Man rechnet sogar mit einem satten Wachstum von über vier Prozent (nicht auf das komplette Jahr gerechnet). Über die Ursachen für den positiven Umschwung habe ich schon einiges geschrieben.

Was passiert denn nun mit den hochbezahlten Konjunkturforschern??? Den Streichposten im Haushaltsplan finden Sie hier, lieber Finanzminister Steinbrück.