Google Glass und die German Angst: Mit dem dritten Auge sieht man besser #rp13

republica-Feldexperiment

Bei technischen Innovationen gründen wir in Deutschland erst einmal Kommissionen, Arbeitskreise und wissenschaftliche Initiativen zur Technikfolgen-Abschätzung. So auch bei Google Glass. Was da so alles auf uns zukommt: Ständige Überwachung durch Brillenträger. Selbst beim Nerd-Klassentreffen namens re:publica gab es solche Reflexe, wie das Feldexperiment von Hannes Schleeh unter Beweis stellte.

„Er war das gefragteste Fotomotiv der re:publica und Gesprächsthema, wo er auftauchte: ‚Da ist einer mit der Google Glass!‘ Doch wer Hannes Schleeh ansprach, erfuhr die Wahrheit von ihm: Das Erlebnis ist unbezahlbar, die Brille aus dem 3D-Drucker hat 25 Euro gekostet“, schreibt die Rhein-Zeitung und führte mit Hannes ein Interview über seine Erfahrungen, drei Tage mit diesem Gerät in Berlin durch die Gegend zu laufen.

Müssen wir uns auf ein neues Spionage-Gadget einstellen und rechtzeitig über die alarmististischen Staats-Datenschützer neue Bollwerke zum Schutz der Privatsphäre errichten?

Hobby-Spione können sich im Online-Handel schon jetzt wesentlich wirksamer mit allen möglichen Geräten aufrüsten, um unbemerkt andere Menschen zu beobachten. Vom Schlüsselanhänger mit Camcorder, über SpyCam-Kugelschreiber bis zum Feuerzeug mit Webcam ist alles dabei und niemand scheint sich so richtig darüber zu echauffieren.

Taucht in einem Produktnamen das Wort „Google“ auf, brennen in der öffentlichen Debatte schnell die Sicherungen durch. Insofern hat Sascha Lobo in seiner Spiegel Online-Kolumne sicherlich recht, wenn er Google vorwirft, nicht genügend über die Wirkung von Google Glass zu diskutieren.

„Die technosoziale Faszination ist so groß, dass der Verkauf selbst kaum mehr als eine Preisfrage sein wird. Google Glass braucht kein Marketing, sondern Aufklärung.“

Im April 2012 stellte Google den Prototyp „Project Glass“ vor. Eine Brille mit eingebautem Display über einem Auge, das Informationen übermittelt, über gesprochene Kommandos Nachrichten verwaltet und über eine eingebaute Kamera Bilder und Videos aufnehmen kann.

„In Zukunft wird die Zusammenstellung von tragbarer Technologie, Augmented Reality und P2P eine Kombination aus Sinneseindrücken, Information und sicherer Kommunikation bieten und einige nützliche Geräte hervorbringen“, schreiben Google Chairman Eric Schmidt und Google Ideas-Direktor Jared Cohen in ihrem Buch „Die Vernetzung der Welt“.

Das Schlagwort Augmented Reality bezeichnet die Verschmelzung der Welten, der digitalen mit der nichtdigitalen, so Lobo:

„Es handelt sich dabei um eine derzeit dramatisch unterschätzte Spielart der Technologie – insbesondere, was die Diskussion um die Wirkung angeht. Augmented Reality steht nämlich von außen betrachtet für das Gefühl, dem Internet nicht mehr ausweichen zu können, wenn man den Rechner zuklappt.“

Und Frank Schirrmacher wird wahrscheinlich der Erste sein, der für die kulturpessimistische Debatte das entsprechende Buch liefert. Das wäre schade. Selbst in den Ausführungen von Lobo taucht nicht ein einziges Beispiel auf, um die Sinnhaftigkeit bei der Kombination von realen und digitalen Wahrnehmungen zu untermauern.

Etwa bei Ferndiagnosen. Über das dritte Auge kann ein Tierarzt kontaktiert werden und einem Bauern, der mit der Netz-Brille das Tier untersucht, erste Hinweise über das Krankheitsbild geben.

Bei der Analyse eines Tatorts folgt das dritte Auge dem Sichtfeld des Inspekteurs und fängt Informationen ein, die dem Betrachter vielleicht gar nicht so richtig aufgefallen sind. Phänomen: Man sieht den Wald vor lauter Bäumen nicht. Zudem können die Filmaufnahmen live übertragen und von weiteren Inspekteuren am Bildschirm verfolgt werden. Auch die nachträgliche Bearbeitung der Aufzeichnungen ergänzt die eigenen Sinneseindrücke, die von Störquellen beeinträchtigt sein können.

Gleiches gilt für die Wartung von Flugzeugen. Mit dem dritten Auge – gepaart mit Sprachsteuerung – hat man die Hände frei, muss nicht ständig seine Arbeit wegen Schreibarbeiten unterbrechen, protokolliert über Sprache die Arbeitsschritte und reduziert die Fehlerquellen.

In Kombination mit Minicomputer, die man als ständige Begleiter mit sich führt, werde die Sprachsteuerung erst voll zur Wirkung kommen, so die Überzeugung von Mind Business-Unternehmensberater und Smart Service-Blogger Bernhard Steimel:

„Erst dann kann man von einem elektronischen Assistenten sprechen, der meinen Alltag erleichtert, mich vor der Informationsüberflutung bewahrt und sich auf meine Bedürfnisse einstellt.“

Schon vor einigen Jahren entwickelte der Grazer Informatikprofessor und Science Fiction-Autor Hermann Maurer interessante Szenarien für Brillen, die mit Mikrofon, Kamera, Stereoton und GPS-System ausgestattet sind. Weitere Sensoren ermitteln die Kopfposition des Brillenträgers, inklusive Blickrichtung und Kopfneigung, so dass der Minicomputer stets weiß, wohin der Benutzer gerade sieht. Der „Brillen PC“ kombiniert Mobiltelefon, Fotoapparat sowie Videokamera und ist ständig mit dem Internet verbunden. Die Eingabe von Informationen über Tastatur und Mausklicks wird ersetzt durch Sprach- und Gestenerkennung.

Beim wearable computing geht es weniger darum, medienwirksame Cyborg-Phantasien oder Jacken mit eingebautem MP3-Player zu realisieren, sondern langfristig dem Menschen in persönlicher Weise zu dienen: Seinen Gesundheitszustand zu überwachen, seine Sinne zu schärfen und ihn mit Informationen zu versorgen.

Wer über die Risiken spricht, sollte also über den Nutzen nicht schweigen. Ich werde das Thema in den nächsten Wochen vertiefen: In meinen Kolumnen, in Video-Interviews und gemeinsam mit Hannes Schleeh in Bloggercamp-Hangout-Fachgesprächen. Dabei werden wir natürlich auch kritisch reflektieren, ob hier ein neuer Kulturkampf schlummert. Wer Interesse daran hat, sollte sich bei mir melden.

Auf der re:publica dominierten übrigens in der Begegnung mit Hannes Schleeh die positiven Reaktionen 🙂

Siehe auch:

Das Google Glass Experiment auf der re:publica #rpstory13

Im Tal der digitalen Ahnungslosen? Diskussionsstoff für die heutige #Bloggercamp Sendung mit Staatssekretär Otto

Die Zeichensprache der Merkel-Gang

Lustlos im Netz – Wie Politik und Wirtschaft die digitale Transformation blockieren, so habe ich heute meine The European-Kolumne aufgezogen als Steilvorlage für unsere heutige Bloggercamp-Sondersendung. Und natürlich wollen wir auch die medienrechtliche Problematik ansprechen und endlich einen Lösungsvorschlag der Politik bekommen.

Wer im Netz anfängt, Liveübertragungen via Hangout On Air oder vergleichbare Plattformen laufen zu lassen, steht mit einem Bein im Knast oder könnte zumindest ein deftiges Ordnungswidrigkeiten-Verfahren mit Geldstrafen von bis zu 500.000 Euro kassieren.
Der Rundfunkstaatsvertrag ist ein Relikt aus den Zeiten von „Dalli Dalli“ und „Einer wird gewinnen“:

„Rundfunk im Sinne des Rundfunkstaatsvertrages ist ein linearer Informationsdienst, der für die Allgemeinheit und zum zeitgleichen Empfang bestimmt ist und die Veranstaltung und Verbreitung von Angeboten in Bewegtbild oder Ton entlang eines Sendeplans unter Benutzung elektromagnetischer Schwingungen zum Inhalt hat. Private Veranstalter bedürfen zur Veranstaltung von Rundfunk einer Zulassung, §20 Abs. 1 Satz 1 RStV. Bundesweite Fernsehangebote bedürfen der medienrechtlichen Prüfung durch die Kommission für Zulassung und Aufsicht (ZAK) sowie die Kommission zur Ermittlung der Konzentration im Medienbereich (KEK). Für die Prüfung eines bundesweiten Zulassungsantrages rechnen Sie bitte mit einem zeitlichen Aufwand von zwei bis drei Monaten (!) bis zur abschließenden gebührenpflichtigen Genehmigungserteilung.“

Verstöße gegen dieses prächtige Regelwerk der Echtzeitkommunikation können mit einer Geldbuße von bis zu 500.000 Euro geahndet werden.

Foto von Hannes Schleeh
Foto von Hannes Schleeh

Ein echtes Innovationshindernis. Gleiches gilt generell für Politik und Wirtschaft, die die digitale Transformation blockieren:

Die Netzbetreiber erhoffen sich hohe Umsätze aus der digitalen Transformation der deutschen Wirtschaft. Sprachtelefonie ist ein Auslaufmodell und beim Datengeschäft schneiden die Content-Anbieter den größten Teil des Kuchens ab. Sie sind Gefangene ihrer Flatrate-Preispolitik und wollen endlich am Bit-Geschäft partizipieren. Doch diese Hoffnungen könnten sich als Blütenträume erweisen – zumindest in Deutschland. Die Wirtschaft ist seltsam lustlos auf dem Weg in eine vernetzte Ökonomie. Sie suhlt sich in ihren Erfolgen als Exportnation aus den guten alten Tagen der industriellen Massenproduktion und spekuliert auf eine industrielle Renaissance. Auf Facebook oder Google marschiert man wegen des guten Tons und intern wird auf den Einsatz von Social Web-Werkzeugen wenig wert gelegt. Es könnte ja die hierarchische Statik der eigenen Organisation ins Wanken geraten:

Digitale Schockstarre

„Die meisten warten ab. Das hemmt das Neue beträchtlich und verzögert den Übergang so sehr, dass man in gewisser Weise annehmen kann, es werde gar keinen geben“, moniert der Publizist Professor Gunter Dueck. Es dominiert die unverkennbare Unlust. Die Verlage haben keine Lust auf eBooks und kapitulieren in Schockstarre vor Amazon, das Fernsehen hat keine Lust, sich mit den nebenbei im Kleinen betriebenen Internetkanälen herumzuschlagen. Banken ergötzen sich an jeder Filiale, die noch offen ist. Die schrumpfenden Tageszeitungen wollen nicht so richtig wahrnehmen, warum sie nur noch halb so dick sind, weil Anzeigen der Sparten Immobilien, Kontakte, Stellenangebote oder gebrauchte Autos auf Portale im Netz und in Smartphone-Apps abwandern. „Die Unlust ist so sehr spürbar, dass man auch von Abwarten sprechen kann, dessen schlechtes Begleitgewissen durch halbherzige Versuche gemildert wird“, so Dueck.

Die Politik ergeht sich in aktionistischer Symbolpolitik und bringt noch nicht einmal die eigenen eGovernment-Projekte erfolgreich auf den Weg – Bund Online dürfte noch als vage Erinnerung abrufbar sein. Stichwort: Die digitale Kompetenz der Bundesregierung – Placebo-Lutschpastillen.

Deutschland verliert international den Anschluss und gleitet ins digitale Mittelmaß ab, warnt Dr. Roman Friedrich von der Unternehmensberatung Booz & Company.

Er spricht sogar von einer technologiefeindlichen Einstellung der Wirtschaft. Fast alle Branchen seien sogar unterdigitalisiert.

„Wir fallen sogar zurück. Es gibt in Deutschland eine gewisse Technologiefeindlichkeit, auch in Unternehmen. In Nordeuropa gibt es beispielsweise eine viel höhere Affinität zu neuen Technologien“, sagt Friedrich mit Blick auf die nächste Woche startende Mobile World in Barcelona.

Staatliche Impotenz

Als Bremsklotz erweise sich auch das regulatorische Umfeld. In Nordeuropa gebe es eine Gesetzgebung, die die Unternehmen verpflichtet, hohe Bandbreiten für schnelles Internet überall anzubieten und zwar für jedes Gebäude. Auch die Nachfragestimulation des Staates liege bei uns im Argen.

„Es gibt weltweit sehr viele eGovernment-Projekte, die die Nachfrage für digitale Dienste anregt. Nicht so in Deutschland“, bemängelt Friedrich.

Da bekommen die liebewertesten Gichtlinge des Staates schon Pickel beim Gedanken, Like-Buttons auf ihrer Webpräsenz zuzulassen.

“Nicht mal ein Drittel der Deutschen bekommen Internet, das schneller als 10 Megabit ist. Das Wachstum der Internet-Zugänge liegt unter einem Prozent”, so Banse.

Er bezieht sich auf den Monitoring Report “Digitale Wirtschaft 2012″ des Wirtschaftsministeriums, der sich eher wie eine Krankenakte liest. Eine Bemerkung, die Banse im c’t-Online-Talk von Deutschlandradio Wissen machte.

Deutschland sei auf diesem Feld international nicht konkurrenzfähig. Ähnlich sieht es auch bei der nächsten Generation des schnellen Internets aus: Glasfaser. Merkel spricht ja so gerne von der Gigabit-Gesellschaft.

“Das ist nur mit Glasfaser möglich. Nur 0,6 Prozent der Internetzugänge bestehen aus Glasfaser. In Japan sind es über 62 Prozent”, erläutert Banse.

Die Politik verhalte sich pragmatisch und wartet auf den Druck von außen, sagte bwlzweinull-Blogger Matthias Schwenk in der Bloggercamp-Sendung über die „Krankenakte digitale Wirtschaft“:

„Und der ist viel zu gering.“

Handwerk und Mittelstand wissen schlicht nicht, was sie mit digitaler Technologie anfangen sollten. Über Firmen-Wikis oder die Ausstattung der Außendienstmitarbeiter mit Tablet-Computern werde gar nicht nachgedacht.

„Und die Konzerne schnüren sich in einer übervorsichtigen IT-Hauspolitik ein und sperren moderne Social Web-Werkzeuge aus.“

Die Honigtopf-Innovationen

Etwas aktiver sind Staat und Wirtschaft beim Fördergeldwellen-Surfen. Da gibt es einen Überbietungswettkampf an digitalen Innovationen – für die Kulisse.

„Die Forschungsinstitutionen des Staates und der Wirtschaft pervertieren diese Maßnahmen, indem sie dadurch Geld verdienen, dass sie die Fördertöpfe unter sich aufteilen! Sie müssen gar keine Innovationen hervorbringen! Sie bewerben sich mit ihren Ideen einfach um die Fördergelder für die Umsetzung genialer Ideen und forschen mit diesen Geldern irgendwie weiter. Wenn dann die Finanzkontrolleure nach den aus Innovationen verdienten Geldern fragen, weisen sie die Einnahmen aus den Fördertöpfen vor. Ja, tatsächlich, sie haben es geschafft, aus ihren Ideen Geld zu machen“, schreibt Dueck in seinem neuen Buch „Das Neue und seine Feinde – Wie Ideen verhindert werden und wie sie sich trotzdem durchsetzen“.

Studien, Publikationen, Impact-Points, Leuchtturmprojekte, Politiker-Pressetermine und einen ordentlichen Bonus für den spezialisierten Fördertopf-Innovationsmanager. Sobald die Förderung aufhört und die Mittel versiegen, marschieren die Winnie Puuhs des digitalen Wandels zum nächsten Honigtopf. Die gestoppten Projekte werden durch neue ersetzt, die wiederum neu gefördert und jährlich auf IT-Gipfeln der staunenden Öffentlichkeit als Theaterstück präsentiert werden.

Sollten Leser an der innovativen Fördergeld-Kreislaufwirtschaft zweifeln, empfiehlt Gunter Dueck eine Suchanfrage mit den Stichworten „Theseus“, „Galileo“ und „Ariane“. Oder schlicht: „Fördermittel verpulvern“.

Genügend Diskussionsstoff für unsere heutige Bloggercamp-Sondersendung von 18,30 bis 19,00 Uhr mit dem Staatssekretär Hans-Joachim Otto aus dem Bundeswirtschaftsministerium. Mal schauen, wie viele Themen wir unterbringen heute. Hashtag für Twitter-Zwischenrufe während der Liveübertragung #bloggercamp

Honigtopf-Innovationen und Fördergeld-Wellensurfen #bloggercamp

Neues Opus von Duck

Für meine morgige The European-Kolumne zum Thema „Lustlos im Netz – Wie Politik und Wirtschaft die digitale Transformation blockieren“ bin ich im neuen Buch von Professor Gunter Dueck auf eine herrliche Lesefrucht gestoßen, die ich natürlich sofort als Abschluss meines Beitrages verwenden musste:

Es geht um die Abwehr gegenüber der notwendigen digitalen Transformation, die übrigens leider auch in netzpolitischen Diskursen nicht so richtig auf der Agenda steht, wenn man sich mal die täglichen Treffer auf Rivva anschaut. Aber das ist noch ein Thema für weitere Storys, die ich in nächster Zeit aufgreife werde.

Hier nun der Auszug meiner Kolumne:

Etwas aktiver sind Staat und Wirtschaft beim Fördergeld-Wellensurfen. Da gibt es einen Überbietungswettkampf an digitalen Innovationen – für die Kulisse.

„Die Forschungsinstitutionen des Staates und der Wirtschaft pervertieren diese Maßnahmen, indem sie dadurch Geld verdienen, dass sie die Fördertöpfe unter sich aufteilen! Sie müssen gar keine Innovationen hervorbringen! Sie bewerben sich mit ihren Ideen einfach um die Fördergelder für die Umsetzung genialer Ideen und forschen mit diesen Geldern irgendwie weiter. Wenn dann die Finanzkontrolleure nach den aus Innovationen verdienten Geldern fragen, weisen sie die Einnahmen aus den Fördertöpfen vor. Ja, tatsächlich, sie haben es geschafft, aus ihren Ideen Geld zu machen“, schreibt Dueck in seinem neuen Buch „Das Neue und seine Feinde – Wie Ideen verhindert werden und wie sie sich trotzdem durchsetzen“. Klingt irgendwie nach dem Bestseller von Karl Popper.

Und welche Ernte bringen die innovativen Tarnkappenbomber? Studien, Publikationen, Impact-Points, Leuchtturmprojekte, Politiker-Pressetermine und einen ordentlichen Bonus für den spezialisierten Fördertopf-Innovationsmanager. Sobald die Förderung aufhört und die Mittel versiegen, marschieren die Winnie Puuhs des digitalen Wandels zum nächsten Honigtopf. Die gestoppten Projekte werden durch neue ersetzt, die wiederum neu gefördert und jährlich auf IT-Gipfeln der staunenden Öffentlichkeit als Theaterstück präsentiert werden. Sollten The European-Leser an der innovativen Fördergeld-Kreislaufwirtschaft zweifeln, empfiehlt Gunter Dueck eine Suchanfrage mit den Stichworten „Theseus“, „Galileo“ und „Ariane“. Oder schlicht: „Fördermittel verpulvern“.

Genügend Diskussionsstoff für unsere morgige Bloggercamp-Sondersendung von 18,30 bis 19,00 Uhr mit dem Staatssekretär Hans-Joachim Otto aus dem Bundeswirtschaftsministerium. Hashtag für Twitter-Zwischenrufe #bloggercamp

Und dann gehen wir ja mit unserem Buchprojekt „Die Streaming-Revolution“ in die Vollen. Bitte unterstützt uns! Wir brauchen für die Startphase mindestens 50 Fans. Und wenn etwas Geld übrig ist, freuen wir uns natürlich auch über eine pekuniäre Förderung – garantiert ohne Honigtopf-Innovationen!

Mal schauen, ob das Daten-Portal der Bundesregierung besser funktioniert als die Bund Online-Projekte.

Und vielleicht kommen wir auch deshalb nicht aus dem Tal der digitalen Ahnungslosen heraus: Wir kamen aus dem Monopol – Warum Telekommunikation in Deutschland fast grauenhaft ist.

Zur Lutschpastillen-Politik des Bundes passt auch: Was der Innenminister unter Netzpolitik versteht…

Update:

Hier geht es zur The European-Kolumne!

Big Data: Sind die Weltsimulatoren so klug, wie das Orakel von Delphi?

Die Revolution der Kundendaten sei Teil einer größeren Umwälzung, proklamieren die Roland Berger-Berater Björn Bloching und Lars-Luck sowie brandeins-Autor Thomas Range in ihrem Buch „Data Unser – Wie Kundendaten die Wirtschaft revolutionieren“ (erschienen im Realien Verlag – auch in einer Kindle-Version erhältlich). Die Digitalisierung habe nach PC und Internet gerade die dritte Zündstufe zugeschaltet.

„Speicher wird immer günstiger, die Rechenleistung immer größer, die Algorithmen immer intelligenter. Informatiker haben dieser Revolution die Überschrift ‚Big Data‘ gegeben“, so die Autoren.

Oder ist es vielleicht nur die neueste Sau, die gerade durchs IT-Dorf getrieben wird, wie Smart Service-Blogger Bernhard Steimel im ichsagmal-Interview ketzerisch bemerkte.

Vielleicht sind es ja gerade die semantischen Übertreibungen, die zu einem kritischen Diskurs über die Daten-Götter einladen. Wenn man von der informationellen Rohmasse für Innovationen redet. Oder von einer Trittleiter zu einer neuen Erkenntnisstufe. So soll Big Data Gesellschaft, Politik und Wirtschaft verändern wie der elektrische Strom und die Erfindung des Internets. Da werde an Apparaturen wie aus einem guten Science Fiction-Roman gebastelt. Es seien die ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi. Weltsimulatoren sollen durch Echtzeitanalyse der anschwellenden Datenmasse den epidemischen Weg von Schweinegrippenviren vorausberechnen. Es sollen Empfehlungen zur Bewältigung des Klimawandels ausgespuckt und rechtzeitig Alarm geschlagen werden, wenn eine neue Finanzkrise droht. Im unternehmerischen Anwendungsmodus können die Entscheidungsmaschinen Aussagen treffen, ob die Einführung eines neuen Produktes den Wettbewerber in die Bredouille bringt oder eher das eigene Portfolio kannibalisiert. IT-Systeme im Zeitalter von Big Data seien zu Leistungen fähig, die von IT-Visionären vor Jahrzehnten versprochen wurden.

„Sie aggregieren das Wissen der Welt auf einem Bildschirm. Sie erkennen Zusammenhänge, die für die menschliche Auffassungsgabe zu komplex waren. Und sie bilden Modelle, die uns mit den Mitteln der Wahrscheinlichkeitsrechnung (was für eine Überraschung, gs) ein Fenster für den Blick in die Zukunft öffnen. Zumindest sagen sie oft zuverlässiger als wir selbst voraus, wie wir uns in bestimmten Situationen verhalten werden. Mietwagen-Firmen wissen aufgrund unseres Kundenprofils, mit wie viel Benzin im Tank wir das Leihauto zurückgeben. Ein analytisch getriebener Online-Händler weiß, bei welchem Preis ein Stammkund mit welcher Wahrscheinlichkeit zuschlägt. Und wie viel Budget es für personalisierte Werbung dafür einsetzen muss. Kreditkartenunternehmen können mit sehr hoher Trefferquote prognostizieren, wer sich in den kommenden fünf Jahren scheiden lässt“, so die Data Unser-Buchautoren.

Kennen eigentlich die Buchautoren die Tricks und das Schicksal des Orakels von Delphi? Mal so eine Bemerkung am Rande.

Auf welcher Datenbasis hat eigentlich Steve Jobs das iPhone eingeführt? Wie kommt es zu disruptiven und nicht vorhersehbaren Innovationen? Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit fast in Echtzeit vorliegen, was können die Big Data-Systeme wirklich? Hinter jedem Algorithmus stecken ja auch Konstruktionen der Wirklichkeit. Annahmen, Gewichtungen, Verzerrungen – die Datenbasis muss wiederum von Menschen interpretiert werden für Entscheidungsempfehlungen.

Dazu führe ich gleich noch ein weiteres Gespräch mit dem Organisationswissenschaftler Dr. Gehard Wohland.

Seine Steilvorlage für das Interview kam per Mail:

„Soziale Systeme sind selbstbeobachtende Systeme, wobei jede Beobachtung das System verändert. Ein soziales System ist nicht, es wird und zwar durch Beobachtung! Egal mit welchen Algorithmen beobachtet wird. Beobachtung ist nur wirksam, wenn sie kommuniziert wird. Also selbst beobachtet wird. Durch Kommunikation fügt sich die Beobachtung dem System zu. Jede Beobachtung verändert das Beobachtete. Die Beobachtung beobachtet immer auch sich selbst. Solche Systeme nennt man komplex. Sie produzieren ständig Überraschungen, die nicht einmal Wahrscheinlichkeiten folgen.“

Könnte mal einer der weltweit führenden Weltsimulations-Konstrukteure in eine Live-Kommunikation via Hangout On Air kommen – also in unserer Blogger Camp-Sendung.
Dann könnte der oder die Entwicklerin die algorithmischen Zaubertricks der Netzöffentlichkeit vorführen. Wer traut sich?

Zudem gilt mein Credo, wer von Big Data redet, sollte sich vor Open Data nicht fürchten. Oder besser: Open Data ist für jeden Big Data-Anwender Pflicht! Ansonsten gibt es eine sehr harte netzpolitische Auseinandersetzung.

Schein und Sein der vernetzten Ökonomie: Deutschland braucht noch 20 Jahre

Netzwerkökonomie statt alte Industriekultur

An die Stelle der Industrieökonomie tritt die Netzwerkökonomie, so die These von Markus Lause und Peter Wippermann in ihrem neuen Buch „Leben im Schwarm – Die Spielregeln der Netzwerkökonomie“. Schon bei dieser Aussage werden einige Manager in den industriepolitischen Schützengräben nervöse Zuckungen bekommen. Dabei sind die Netzeffekte eigentlich in jeder Branche zu spüren – auch beim produzierenden Gewerbe. Allein beim Verkauf der Waren und bei der monologischen Markenkommunikation funktionieren die alten Mechanismen nicht mehr.

„Konsumenten mit individuellen Wünschen und dem Wissen um die Macht der digitalen Kommunikation schreiben längst keine Beschwerdebriefe mehr: Sie äußern Bewertungen von Produkten, Verbesserungsvorschläge oder Unmut in Echtzeit in sozialen Netzwerken mit globaler Reichweite. Das setzt Unternehmen unter starken Druck und zwingt sie zum Handeln. Wer sich dem Dialog mit dem Konsumenten widersetzt, muss ökonomische Nachteile in Kauf nehmen oder wird ganz ausgegrenzt“, so Lause und Wippermann.

Und das ist nur ein Aspekt der Netzwerkeffekte, die man beobachten kann.

Im ichsagmal-Interview hat Professor Wippermann vom Hamburger Trendbüro dann noch einige Dinge zum Status quo der deutschen Wirtschaft gesagt – neben Ausführungen zu Big Data und Co., die ich für einen längeren Artikel abgefragt habe.

Amazon taucht in deutschen Handelsstatistiken gar nicht auf

Warum dominieren in Deutschland die Beharrungskräfte? Firmen, die mit dem Internet gegründet wurden und groß geworden sind, haben mit dem digitalen Wandel naturgemäß keine Probleme: Man brauche sich nur den Siegeszug von Amazon anschauen. Interessant an der Dominanz des amerikanischen Online-Händlers ist für Wippermann, dass der Konzern in den deutschen Handelsstatistiken gar nicht auftaucht, die nach Branchen segmentiert sind – also Bücher, Schuhe oder Waschmaschinen.

„Das hängt damit zusammen, dass es eben ein ganz anderes System ist. Amazon geht nicht über Branchen, sondern es geht über die individuell massenhafte Beziehung zu Kunden“, so Wippermann im Interview.

In Deutschland könne man die Rückständigkeit als vernetzte Ökonomie relativ simpel überprüfen.

„Man muss sich nur das Personalmanagement anschauen. Alle großen Unternehmen sind in irgendeiner Weise im Web 2.0 aktiv. Entweder in den branchenspezifischen Angeboten wie Xing oder LinkIn oder auf Portalen wie Facebook. Aber 64 Prozent der deutschen Mitarbeiter in Personalabteilungen schauen nicht ins Internet. Die Betreuung der Web-Angebote läuft nicht über die Personalabteilung, sondern über PR, Marketing oder IT. Das macht deutlich, dass wir ganz am Anfang stehen“, erläutert Wippermann.

Wobei natürlich Personalmanager auch ins Internet schauen. Es wird aber nicht aktiv als tägliches Werkzeug für die Arbeitsorganisation eingesetzt. Den Lippenbekenntnissen nach außen folgen keine Taten nach innen. Ein Befund, den ich in meinen Kontakten zur Wirtschaft fast täglich erlebe. Technisch sei die Reise relativ klar vorgezeichnet, sagt Wippermann. Es gebe in den Organisationen große Widerstände, die allerdings öffentlich nicht zugegeben werden.

„Man verteidigt ein System der arbeitsteiligen Industriekultur mit einer Kommunikation, die Top-Down verteilt wird und nicht interaktiv ist. So lange wir noch von Neuen Medien und den Herausforderungen des Internets sprechen, wird es noch weitere 20 Jahre dauern, bis sich unsere Kultur umgestellt hat.“

Die Kipp-Geschwindigkeit habe allerdings zugenommen. Aber immer noch sitzen beispielsweise die Verlage auf dem hohen Roß und lamentieren darüber, ob es gerecht sei, dass Amazon eBooks einführt.

Gleichzeitig brechen die Großflächen-Kaufhäuser für Bücher zusammen, weil es sich wirtschaftlich einfach nicht mehr lohnt. Redaktionen werden abgebaut, weil das Vertriebssystem Papier nicht funktioniert. Hier gerät die analoge Industriewelt in den nächsten zehn bis 20 Jahren stärker unter Druck als es in den vergangenen 20 Jahren der Fall war.“

Warum diese Wendemarken in der deutschen Wirtschaft nicht erkannt oder in Abrede gestellt werden, hat Wippermann auch recht plausibel geschildert.

„Diejenigen, die jetzt Mitte 40 sind, haben eine lange Zeit gebraucht, um in Entscheidungspositionen zu kommen. Diese Führungskräfte sind in einer Welt aufgewachsen, die sich von der Welt der Jüngeren deutlich unterscheidet. Sie verteidigen ihre Positionen.“

Die Robotik habe zu einem Wegfall von Arbeitsplätzen in der Produktion geführt. Die vernetzte Ökonomie geht jetzt auch dem Management ans Leder. Und das ruft Widerspruch und Widerstand hervor.

Diesen Aspekt des Interviews möchte ich morgen in einem Beitrag vertiefen – also nicht den Big Data-Teil. Statements bis morgen so gegen 12 Uhr möglich.

Und das die Handelsstatistiken in Deutschland nicht ganz so aussagekräftig sind, belegt folgende Meldung: Amazon ist in Deutschland größer als bisher angenommen – Amazon kontrolliert rund 20 Prozent des Buchmarktes.

Die Amazon-Zahlen und die peinlichsten Fehlprognosen.

Experten verschätzen sich beim Deutschlandumsatz von Amazon um bis zu 65 Prozent.

Amazon Deutschland so groß wie Thalia, Weltbild & Co. zusammen.

Big Dada statt Big Data: Über das theatralische Schauspiel der allwissenden Prognostiker

Die Neo-Alchemisten der Daten-Ökonomie

In Recherchen über Sinn und Unsinn des Schlagwortes Big Data stößt man auf merkwürdige Allianzen. Die Einen warnen vor dem Niedergang des selbstbestimmten Lebens und die Anderen erträumen sich ein Himmelreich der Planbarkeit. Beide Fraktionen sitzen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen von Naturwissenschaftlern mit bedeutungsschweren Gesten vorgeführt werden. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und das wiederum ist kein Zufall. Schaut man in den Zauberkasten der Big Data-Apologeten hinein, findet man recht simple Formeln.

Professor Michael Feindt hat auf einem Zukunftskongress im vergangenen Jahr einen kleinen Einblick in sein alchemistisches Zahlenlabor gewährt. So richtig beeindruckt bin ich nicht. Es erinnert ein wenig an den naiven Empirismus der Wirtschaftswissenschaftler, der glücklicherweise seit dem Ausbruch der Finanzkrise unübersehbare Blessuren abbekommen hat.

Kommen wir aber zum Big Data-Szenario von Professor Feindt. Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.

„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen“, glaubt der Teilchenphysiker Feindt.

Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Es werden also zwei Ziele gleichzeitig erreicht, die sich eigentlich ausschließen. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.

„Aufgrund von historischen Daten mit individualisierten Algorithmen erreicht man beide Ziele gleichzeitig“, meint Feindt.

Er würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Verbessert sich dadurch aber der Verkauf von Fleisch- und Wurstware? Was steckt hinter den Durchschnittswerten, die man ermittelt?

Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Dahinter stecken allerdings wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Grütze manövrieren.

Schon bei Textilwaren kann das in die Hose gehen:

„Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt der Internet-Experte Christoph Kappes.

Kritiker und Anbieter von Big Data-Systemen operieren mit einem simplen Trick. Sie schrauben Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen, um die eigenen Big-Brother-Horror-Thesen oder eben die alchemistischen Anwendungen besser verkaufen zu können.

„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert der Systemtheoretiker Gerhard Wohland.

Sein Rat: In jeder Organisation sollte man nach diesen Übertreibungen suchen. Wer sie findet, besitzt wertvolle Potenziale, um sich zu verbessern.

„Vom Controlling wird verlangt, eindeutige Prognosen für die Zukunft zu liefern. Mit einem Plan, einem Budget und allem, was damit zusammenhängt. Dann tun die Controller das, was man von ihnen erhofft“, so Wohland.

Dumm nur, dass das alles nicht zusammenpasst.

„Kein Plan tritt tatsächlich ein. Die Zeiten sind längst vorbei, die komplexen Vorgänge in Wirtschaft und Gesellschaft prognostizieren zu können. Wir nennen das oft Basar- oder Theaterkommunikation. Jeder spielt eine Rolle. Jeder weiß, dass er eigentlich Unsinn redet. Und der Gesprächspartner weiß es auch. Also passiert nichts Besonderes. Es ist wie bei des Kaisers neuen Kleidern. Es darf keiner kommen und das Ganze tatsächlich so beschreiben, wie es ist – der fliegt in der Regel raus. Der stört das System“, weiß Wohland.

Die Intelligenz eines Unternehmens liege weder beim Controlling noch beim Management. Sie liege bei der Organisation selbst.

„Dynamikrobuste Höchstleister arbeiten nicht mit Wissen, sondern mit Talenten, Ideen und Phantasie. Deswegen ist eine Nachahmung nur schwer möglich“, resümiert Wohland.

Idioten sind die besseren Experten

Die Dogmatik der selbsternannten Experten könne dazu verführen, so der Philosophieprofessor Paul K. Feyerabend, dass sie anstelle von Pferden, störrische Esel besteigen und somit auf wirre Wege geraten. Wie ist es möglich, dass die Unwissenden oder schlecht Informierten mehr zuwegebringen als diejenigen, die einen Gegenstand in- und auswendig kennen, fragt sich Feyerabend.

„Eine Antwort hängt mit der Natur des Wissens selbst zusammen. Jede Einzelinformation enthält wertvolle Elemente Seite an Seite mit Ideen, die die Entdeckung von Neuem verhindern.“

Etwa eine Krawatten-Dispositionsmaschine, die nicht in der Lage ist, einen neuen Trend gegen den Mainstream durchzusetzen.

Lektüreempfehlung

Außerhalb ihres Spezialgebietes seien Experten von weitverbreiteten und zählebigen Gerüchten abhängig. Viele Gerüchte, die mit anmaßender Gewissheit aufgetischt werden, seien nichts anderes als simple Fehler, die aus einer Mischung von Selbstgefälligkeit und Ignoranz entstehen. Besonders eklatant sei das in der Finanz- und Wirtschaftswelt:

„Makroökonomen, Statistiker, Planungsbürokraten, Analysten und selbst ernannte Wirtschaftsexperten sind überhaupt nicht in der Lage, das Unvorhergesehene zu prognostizieren. Sie schauen zu oft in den Rückspiegel, um Erkenntnisse für die Zukunft zu gewinnen. Friktionen, Zufälle, bahnbrechende Entdeckungen, konjunkturelle Bewegungen oder politische Katastrophen kann man nicht mit statistischen Methoden berechnen“, erklärt der IT-Experte Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf.

„Das Management der Zukunft findet unter den Bedingungen von Komplexität und Zufall statt. Zufallsfluktuationen und Komplexität erzeugen nichtlineare Dynamik“, schreibt der Wissenschaftstheoretiker Klaus Mainzer in seinem Buch „Der kreative Zufall – Wie das Neue in die Welt kommt“. Auch wissenschaftliche Modelle und Theorien seien Produkte unserer Gehirne.

„Wir glauben in Zufallsreihen Muster zu erkennen, die keine sind, da die Ereignisse wie beim Roulette unabhängig eintreffen. Wir ignorieren Spekulationsblasen an der Börse, da wir an eine ansteigende Kursentwicklung glauben wollen“, erläutert Professor Mainzer.

In einer zufallsabhängigen Evolution sei kein Platz für Perfektion und optimale Lösungen. Zufällig, spontan und unberechenbar seien auch Einfälle und Innovationen menschlicher Kreativität, die in der Kultur- und Wissenschaftsgeschichte als plötzliche Ereignisse beschrieben werden. Ohne Zufall entstehe nichts Neues.

„Nicht immer fallen die Ereignisse und Ergebnisse zu unseren Gunsten aus – das Spektrum reicht von Viren und Krankheiten bis zu verrückten Märkten und Menschen mit krimineller Energie“, resümiert Mainzer.

Politiker, Entdecker und Unternehmer sollten weniger auf maschinengesteuerte Top-down-Planung setzen, sondern sich auf maximales Herumprobieren und das Erkennen der Chancen, die sich ihnen bieten, konzentrieren, rät der frühere Börsenhändler Nassim Taleb, Autor des Opus „Der Schwarze Schwan – Die Macht höchst unwahrscheinlicher Ereignisse“.

Die beste Strategie bestehe darin, möglichst viel auszuprobieren und möglichst viele Chancen zu ergreifen, aus denen sich Schwarze Schwäne ergeben könnten.

„Dass wir in Umgebungen, in denen es zu Schwarzen Schwänen kommen kann, keine Vorhersagen machen können und das nicht einmal erkennen, bedeutet, dass gewisse ‚Experten’ in Wirklichkeit gar keine Experten sind, auch wenn sie das glauben. Wenn man sich ihre Ergebnisse ansieht, kann man nur den Schluss ziehen, dass sie auch nicht mehr über ihr Fachgebiet wissen als die Gesamtbevölkerung, sondern nur viel bessere Erzähler sind – oder, was noch schlimmer ist, uns meisterlich mit komplizierten mathematischen Modellen einnebeln. Außerdem tragen sie mit größter Wahrscheinlichkeit Krawatten“, bemerkt Taleb.

Es sind also nur spärliche Erkenntnisse für die Zukunft, die über Big Data berechnet werden können – etwa im Datenjournalismus. Siehe auch: Big Data – Die Vermessung von allem. Es springen ein paar nette Storys heraus, die man über Datenanalysen gewinnt. Etwa beim Zugmonitor, der alle verfügbaren Daten über Zugverspätungen sammelt und mich warnen kann, ob meine Verbindung von A nach B pünktlich ist oder nicht. Auch das Beispiel Google Now darf in der Aufzählung nicht fehlen – also die Verbindung von Suche, Ort und Terminkalender in Kombination mit Staumeldungen. Hier bekomme ich eine Warnung, um einen Termin auch pünktlich mit dem Auto zu erreichen. Diese Anwendung entwickelt sich in öffentlichen Verlautbarungen so langsam zu einem Dauerbrenner, wenn über die Vorteile von Datenauswertungen gesprochen wird – ähnlich legendär wie der intelligente Kühlschrank, der mir sagt, wann und wie viel frische Milch ich kaufen soll oder das sogar selbst übernimmt. Auch das haut mich nicht vom Hocker. Nützliche Anwendungen sind ja ok, sie orientieren sich aber an einem klaren und präzisen Nutzungsszenario. Mein Verhalten ist dadurch aber nicht vorhersagbar. Ich entscheide selbst, ob am Bahnsteig eine Datenabfrage für mich sinnvoll ist, um über Zugverspätungen informiert zu sein not more.

Eine Konsequenz könnten die Kritiker und Verkäufer von Big Data-Systemen aber erfüllen. Wer in der Öffentlichkeit darüber redet, sollte auch Ross und Reiter nennen. Ansonsten höre ich nicht auf, das Ganze als naiven Empirismus zu titulieren. Das gilt für Ratingagenturen, Social Media-Berater, Teilchenphysiker, Inkasso-Läden und sonstige Zahlendrehern, die die Welt nicht nur vermessen, sondern auch erklären wollen.

Jeder Big Data-Gichtling ist also herzlich eingeladen, sein Rechensystem in einer Liveübertragung via Hangout On Air beim Blogger Camp zu präsentieren.

Ob der Kaiser am Schluss der Sendung ohne Klamotten dasteht oder nicht, kann ich nicht garantieren :-). Big Data sollte also immer auch Open Data sein – ansonsten ist das alchemistischer Zahlenzauber ohne Relevanz.

Deshalb ist auch die skeptische Zukunftsprognose des Social Media-Beraters Frank Tentler mit Vorsicht zu genießen. Er geht davon aus, dass spätestens in fünf Jahren alles nur noch Big Data und nicht mehr social ist. Nur noch ein paar Herzensangelegenheiten würden für das Social Web übrig bleiben.

Nö. Die Systeme bleiben so blöd wie die Analysten, die die Welt im Rückspiegel betrachten und für Zukunftsprognosen den Finger in die Luft heben. Menschen sind über Big Data nicht bestimmbar – auch wenn die Fraktion der Deterministen etwas anderes behauptet.

Das sind ein paar Ideenskizzen für längere Storys, die ich über das Big Data-Geschwurbel schreiben möchte.

Interviews, Anregungen, Kommentare, kritische Blogpostings und sonstige Vorschläge sind in dieser Woche hoch willkommen.

Am nächsten Wochenende muss ich dann das erste große Opus fertigstellen. Hier setze ich natürlich wieder auf Crowdsourcing-Effekte – also Überraschungen des Netzes, die ich nicht planen kann.

Vielleicht wäre das auch ein nettes Betätigungsgebiet für Hacker.

Man könnte in die Entscheidungsmaschinen dadaistische Algorithmen einpflanzen, die den Anwendern das Leben noch leichter macht. So könnte immerfort die gleiche Entscheidung herausspringen: 42 – also 42 Krawatten, Anzüge, Mettwürste oder 42 Fehlprognosen pro Tag.

Um sich über die Grenzen von Big Data bewusst zu werden, empfehle ich den pragmatischen Ansatz des DFKI-Forschers Professor Hans Uszkoreit vom DFKI. Maschinen seien nicht so klug wie man denkt. Aber trotzdem nützlicher, als es allgemein bekannt sei:

„Seit mehr als fünfzig Jahren versuchen Wissenschaftler, die menschliche Intelligenz nachzubilden. Aber wir haben ja nicht einmal ein dreijähriges Kind nachgebildet. Wir können nicht die Kreativität, das Denken oder die Sprache eines Kleinkindes nachbilden. Was ist hier los“, fragt sich Uszkoreit.

Das verwirre die Öffentlichkeit. Die wirklichen Fortschritte der Künstlichen Intelligenz werden in diesem Spannungsfeld nicht wahrgenommen.

Nun gibt es doch keine Welterklärungsmaschine in Zürich, schade!

ETH-Forscher Dirk Helbing

Nach Redaktionsschluss für meine heutige The European-Kolumne erreichte mich einige Mails von Professor Dirk Helbing, die sich mit meinen ironischen Bemerkungen zur angeblich geplanten Welterklärungsmaschine in Zürich beschäftigten. Das Wort „Maschine“, soviel vorweg, sollte man übrigens im metaphorischen Sinne verstehen. Mir ist auch klar, dass da in Zürich keine klassischen Maschinen gebaut werden. Es geht in erster Linie um Software, die allerdings auch ein Stückchen Hardware benötigt – also ganz ohne Maschinen wird man auch an der ETH wohl nicht auskommen. Hier jedenfalls die Stellungnahme von Professor Helbing, die mich gestern Abend erreichten:

Sehr geehrter Herr Sohn,

vielen Dank fuer Ihr Interesse an FuturICT. Ich möchte Ihnen gerne die Gelegenheit geben, sich ein Bild aus erster Hand zu machen.

Zunächst einmal wissen Sie sicher, dass alles, was nicht in Anführungsstrichen geschrieben wird, keine Zitate sind, und so habe ich auch nicht behauptet, dass die Finanzkrise niemand anders kommen sehen hat. Es hat mich auch befremdet, dass der FAZ-Artikel so auf eine Person zugespitzt ist, da das Projekt doch das Gemeinschaftswerk von 160 Wissenschaftlerteams an 84 führenden europäischen Institutionen in 25 Ländern ist.

Es ist auch nicht das teuerste Projekt der Geschichte. Grossprojekte in den Natur- und Ingenieurwissenschaften (CERN, ITER, Galileo, Weltraumprojekte, Nanotechnologie, Gentechnologie etc.) kosten 10x mehr oder sind sogar noch teuerer.

FuturICT möchte auch nicht die Zukunft vorhersagen, sondern den Menschen Instrumente an die Hand geben, die ihnen erlauben, sich besser im Informationsdschungel orientieren zu können. Wir bauen keine Maschine, sondern eine offene Plattform, die alle selbstbestimmt nutzen können, und zu der alle beitragen können (wie gesagt, Maschine als Metapher sehen, gs).

FuturICT möchte weiterhin „digital literacy“ fördern. So, wie man das Lesen und Schreiben irgendwann vom Privileg zum Allgemeingut gemacht hat, was unsere moderne Gesellschaft erst ermöglicht hat, möchten wir auch Daten für die Allgemeinheit zugänglich machen, um ein Informationsökosystem zu schaffen, das der Kreativität aller Interessierten zugute kommen wird, und um neue Möglichkeiten der Beteiligung an sozialen, wirtschaftlichen und politischen Prozessen zu schaffen, im Einklang mit den Zielen der Europäischen Union.

Es ist uns bewusst, dass wir nur einen begrenzten Beitrag leisten können, aber wir denken, wenn jeder einen Beitrag leistet, dann wird Europa die Krise überwinden, besonders, wenn man Plattformen schafft, die Synergieeffekte zwischen den Einzelbeiträgen erzeugen können (also mit der Plattform überwinden wir Krisen in der EU? gs).

FuturICT ist auch ein Projekt, das sich wissenschaftlich mit den Risiken und Chancen des Informationszeitalters auseinandersetzt. Das Projekt hat einen starken Schwerpunkt auf ethischen Fragestellungen – kein anderes mir bekanntes Projekt kümmert sich mehr um diese essenziellen Fragen. Die folgende Folie erlauetert den besonderen Ansatz des Projekts.

Gerne stehe ich Ihnen für Fragen heute abend zur Verfügung (morgen werde ich eine Asienreise antreten).

Mit besten Grüssen,

Dirk Helbing

PS: Hintergrundinformationen finden Sie unter den unten angegebenen Links und in den angehaengten Dokumenten. Einige typischen Fragen zum Projekt beantwortet folgender Blog: http://www.futurict.blogspot.ch/2012/03/futurict-participatory-computing-for.html. Insbesondere hat FuturICT NICHTS zu tun mit: Kristallkugel, Zukunftsprognose, Futurologie, Laplace’scher Dämon, Psychohistory usw.

PPS: Vielleicht interessiert Sie auch die amerikanische Reaktion auf FuturICT:

http://www.govloop.com/profiles/blogs/the-u-s-needs-a-futurict-program-to-confront-the-challenges-of

http://www.scoop.it/t/futurict-in-the-news/p/3954849835/the-u-s-needs-a-futurict-program-to-confront-the-challenges-of-21st-century-government-govloop-knowledge-network-for-government

Wenn Europa das Projekt nicht durchführt, wird es sicher in den USA entstehen. Auch Japan und China arbeiten an analogen Projekten.

Soweit die erste Stellungnahme von Professor Helbing. Die Nachbemerkung finde ich übrigens schwach. Wenn die EU die 500 Millionen Mäuse nicht locker macht, läuft das Projekt dann anderswo. Wie viel hat das Ganze dann noch mit Europa zu tun?

Was ist nur in dem Gespräch mit den Redakteuren der Frankfurter Allgemeinen Sonntagszeitung schief gelaufen? Entscheidend sind also nur die wörtlichen Zitate. Ok. Hier kommen ein paar von Professor Helbing:

„Wir brauchen neue Erkenntnisinstrumente. Früher gab es ein Fernrohr, in Zukunft muss es Instrumente geben, die Feedback- und Kaskadeneffekte im Vorfeld erkennen lassen.“

Sind das jetzt keine Vorhersagen?

Oder:

„Für ein visionäres Projekt muss man bis zum Horizont sehen und darüber hinaus denken können“, bemerkt Helbing leise.

Oder:

„Sie müssen sich das wie ein Imax vorstellen“, erklärt Helbing, „und durch Eingriffe in diese räumlichen Visualisierungen können Sie Zukunftsszenarien durchspielen.“

Oder:

„In zehn Jahren werden Computer die Leistungfähigkeit menschlicher Gehirne erreichen“, sagt Helbing.

Davon sind wohl nicht einmal die Forscher für Künstliche Intelligenz überzeugt.

Zur Frage der Warnung vor dem Finanzcrash 2009 verweist Helbing auf einen Aufsatz, der im APRIL 2008 verfasst und nacheinander zu verschiedenen Zeitungen geschickt wurden.

Wenn das eine Warnung vor dem Szenario ist, was sich nach der Lehman-Pleite abspielte, muss man wohl ein Künstler im Verständnis von Aussagen sein, die zwischen den Zeilen stehen. Aber das kann jeder selbst beurteilen. Eine Warnung erkenne ich nicht.

Titel des Artikels: Die Erforschung komplexer Systeme macht Krisen verständlich und vermeidbar

Auszug:

Eine Analyse des heutigen Finanzsystems unter dem Blickwinkel der Theorie komplexer Systeme offenbart also ein differenzierteres Bild als die heutige Bewertung der Krise als einen „grösseren Börsencrash“. Die letzten Monate zeigten alle Anzeichen eines ausser Kontrolle geratenen Flächenbrandes. Die laufen zunehmenden Abschreibungen der Banken zeigen, dass nicht mehr klar ist, was eine „subprime mortgage“ überhaupt ist – der Name für die gegenwärtige Krise ist also irreführend. Aus diesem Grund kursieren auch sehr unterschiedliche Schätzungen hinsichtlich des gesamten Abschreibungsbedarfs in der Grössenordnung von 170 Milliarden (Bank of England) über 400 Milliarden (OECD) bis gegen eine Billion Dollar (IMF) – die Schätzungen liegen also um einen Faktor 6 auseinander.

Wir denken deshalb, dass die derzeitige Diskussion über die Nutzen und Zulässigkeit von Kapitalspritzen der Zentralbanken zu kurz greift. Sie düngen quasi ein Ökosystem, das seine Stabilitätseigenschaften weitgehend verloren hat. Die Frage der Kontrolle eines Systems muss an dafür relevanten und oben beschriebenen Eigenschaften ansetzen. Die Analyse der Faktoren, welche die Systemrobustheit beeinträchtigen oder stabilisieren, bietet dazu Lösungsansätze. Daher ist die Beschreibung sozio-ökonomischer Systeme als komplexe Systeme nicht nur ein leistungsstarker Ansatz zum besseren Verständnis dieser Systeme, sondern auch zur Milderung oder Verhinderung von Krisen. Dies verlangt jedoch einen Ausbau entsprechender Forschungskapazitäten. Die ETH Zürich hat daher kürzlich das Kompetenzzentrum „Coping with Crises in Complex Socio-Economic Systems“ gegründet. Es vereint Forscherinnen und Forscher mit Mehrfachkompetenzen in den Natur-, Wirtschafts- und Sozialwissenschaften, die sich mit der Beschreibung und Stabilisierung von sozialen und ökonomischen Systemen befassen.

Mehr als eine Symptom-Therapie schlagen die Autoren dieses Beitrages nicht vor. Um die Zockereien der Spekulatius-Bubis zu verhindern, müssen bestimmt Geschäfte auf den Kapitalmärkten schlichtweg verboten werden. Da brauche ich keine Simulationsberechnungen. Wer mit Renditeversprechen von über 20 Prozent hausieren geht, ist ein Scharlatan. Ich freue mich übrigens auf das Interview mit Professor Helbing, wenn es denn noch zustande kommt. Das sollte aber schön öffentlich geführt werden – also via Hangout On Air. Versteht sich von selbst 😉

Drama statt Dramaturgie: Warum Technik und Services nerven #BloggerCamp

Das Opus „complicate your life“ von Winfried W. Weber zählt wohl zu den wenigen Versuchen, der Flut von Vereinfachungsratgebern etwas entgegenzusetzen. Ein hoffnungsloses Unterfangen.

Warum soll man denn kostbare Lebenszeit für sinnlose Tätigkeiten aufwenden, wenn sie nicht ins Zentrum der eigenen Interessen passen? Beim Kaffeetrinken ist mir das Innenleben des Vollautomaten völlig egal. Kommt es zu einer Leistungsverweigerung des Apparates, reicht meine handwerkliche Grobmotorik sowieso nicht aus, um der Maschine wieder Leben einzuhauchen.

Hier ist Reparaturservice gefragt und nicht die Notwendigkeit, im zweiten Bildungsweg noch Kompetenzen als Mechatroniker zu erwerben. Mutiere ich unter diesen Voraussetzungen zum Sklaven einer nicht beherrschbaren Technik? Ich könnte mit der Roten Karte reagieren und den Hersteller wechseln, der wartungsfreundliche, leicht bedienbare und robuste Geräte anbietet. So ist es im Idealfall, wenn der Konkurrent auch bessere Produkte anbietet.

In der Regel geht es beim Wechselspiel von Mensch und Gerät um einen Wettstreit, bei dem nie eindeutig gesagt werden kann, wer eigentlich wem dient. Nicht nur Versagensängste und die tägliche Plage im Umgang mit Geräten werden als schmerzliche Erfahrung der Moderne empfunden. Der Benutzer ist zudem einem Generalverdacht der Hersteller ausgesetzt. Er ist ein potentieller Störenfried. Diese Botschaft vermittelt schon die Bedienungsanleitung und spätere Disputationen beim Umtausch der Ware.

Der Benutzer verendet in einer „Zirkulation von Schuldzuweisungen und Unterstellungen“, wie es Jasmin Meerhof in ihrem Buch „Read me! Eine Kultur- und Mediengeschichte der Bedienungsanleitung“ ausdrückt.

Schuldig ist nicht das Gerät, sondern der dümmliche und idiotische Kunde. Die Über- und Unterordnung zwischen Gerät und Benutzer werden über zahlreiche Ge- und Verbote, Vorsichtsmaßnahmen und Hinweise zur Garantie zementiert. Das Ganze ist eine Demonstration der Macht und das Scheitern am Gerät soll uns in die Rolle der Demut pressen.

Glücksmomente, oder Flow, wie es der Psychologe Mihaly Csikszentmihalyi bezeichnet, entstehen in dieser Konstellation nicht. Alle Bewegungsabläufe werden im Flowzustand in harmonischer Einheit durch Körper und Geist mühelos erledigt. Ob Kommunikationsdienste, Endgeräte, Software oder Serviceprovider: Die Auswahl ist unüberschaubar, die Bedienung unübersichtlich, kompliziert und verlangt nach dem seitenlangen Studium einer kryptischen Anleitung in feinster deutsch-chinesischer Prosa. Dieser Sprachbrei ist vielleicht das Ergebnis des Google Übersetzungsdienstes, hat aber mit verständlicher Kundenkommunikation nichts zu tun.

In die gleiche Kategorie fällt das legendäre Hotline-Deutsch: „Wir verbinden Sie sofort mit einem Kundenberater“ heißt übersetzt, dass man sich jetzt in aller Ruhe schon mal einen Tee zubereiten kann, um sich in der Warteschleife von einschläfernder Hotelfahrstuhl-Musik einnölen zu lassen. Varianten für die Spartakiade des Wartens lauten: „Der nächste Mitarbeiter ist für Sie reserviert“. Klingt nach Ansicht des Spiegel-Kolumnisten Tom König nach einem Sternerestaurant. In Wahrheit ist es nur eine verfeinerte Stufe des Hinhaltens. Oder wie wäre es mit „Zurzeit dauert es etwas länger, weil sehr viele Kunden anrufen.“ Auch dieser Spruch aus dem Lexikon der Ausreden sollte nachdenklich machen:

„Normalerweise belügen wir dich von vorne bis hinten und behaupten, du hättest eine reelle Chance, hier irgendwann mit irgendwem zu sprechen. Wenn wir – wir! – schon zugeben, dass es heute schwierig wird, dann solltest du lieber auflegen“, so die Interpretation von König in seinem lesenswerten Buch „Ich bin ein Kunde, holt mich hier raus“.

An jedem Kontaktpunkt mit Kunden sollten die Anbieter etwas mehr das Hirn einschalten, um sich auf die Kenntnisse und das Verhalten der Verbraucher einzustellen. Das gilt für Produkte und Dienste. Andreas Bock, Autor des Buches „Kundenservice im Social Web“ fordert ein dramaturgisches System:

„Kunden sollten an allen Berührungspunkten mit einem Unternehmen die gleichen Informationen bekommen, ob gedruckt, gesendet, geschrieben, gefunkt, gepostet oder im direkten Gespräch, ob es um Preise, Konditionen, Modelle, Leistungsumfang, Anleitungen oder anderes geht.“

Wenn ich als Kunde gezwungen bin, bei einer Hotline anzurufen, ist das tägliche Anrufvolumen mit Sicherheit kein Indikator für smarten Service, sondern der Beweis für mangelhafte Tuchfühlung mit den sehr unterschiedlichen Nutzungsszenarien des Anwenders.

Es reiche auch nicht aus, Social Media mit einer Facebook-Präsenz gleichzusetzen oder den Vernetzungsgedanken auf das Ein- und Ausschalten des Zimmerlichts per Handy zu beschränken, moniert Ityx-Manager Andreas Klug in seinem Blog „Mein lieber Kokoschinski“. Die Notwendigkeit von durchdachten und vernetzten Services ist übrigens das Leitthema der Call Center World im Februar des nächsten Jahres: „Weil Kunden nicht nur anrufen…“.

Ob man sich dann wirklich vom Silodenken im Kundenservice verabschiedet, ist allerdings fraglich. Gleiche Fehler grassieren bei der Konzeption von Applikationen für das mobile Internet:

„Jede App ist autark und macht nicht viel mit anderen Diensten. Es gibt zwar einige einfache Kombinationen wie den Kalender auf dem iPhone. Aber so richtig begeistert hat mich das nicht. Man sieht nichts von komplexeren Software-Architekturen wie man das in der traditionellen Software-Entwicklung kennt. Da ist noch ziemlich viel Luft nach oben. Die Frage ist, ob die App-Anbieter sich überhaupt in diese Richtung bewegen”, so Bernd Stahl vom Netzwerkspezialisten Nash Technologies.

Es müsste möglich sein, ein größeres System in einem Framework aus vielen Applikationen zusammen zu bauen. Also die Überwindung der Software-Krise durch die Schaffung von einfach nutzbaren Apps.

“Irgendwie klappt es mit der Modularisierung von Apps nicht so, wie man sich das anfänglich vorgestellt hat”, sagt Stahl.

Es sei immer noch eine große Aufgabe, die komplexen Anwendungen nach den Grundsätzen der Vereinfachung für Massenanwendungen zu gestalten.

Man müsse den gleichen Gegenstand mit einer unterschiedlichen logischen Tiefe behandeln, fordert der Medienphilosoph Norbert Bolz. Eine Lösung sind Menüs, die eine normale Ansicht und eine Expertenansicht haben, auf die man bei Bedarf umschalten kann. So sind nur die Funktionen aufgelistet, die man auch wirklich sehen will. Generell gilt: Die Benutzeroberfläche muss klar gestaltet sein – und sie soll schön sein, damit sie Appetit auf die Anwendung macht.

Die Technologie werde immer komplexer – das dürfe nicht auf dem Rücken der Kunden abgeladen werden, fordert Aastra-Deutschlandchef Jürgen Signer:

„Die einfache Bedienbarkeit der Systeme, die wir anbieten, ist das wichtigste Kaufkriterium unserer Geschäftskunden. Das gilt vor allem für die Installation und für die Benutzeroberfläche. Was sich unter der Haube abspielt, ist die Sache unserer Entwickler und darf den Anwender nicht belasten“, sagt Signer.

Man braucht deshalb Menschen, die sich in unterschiedlichen Welten bewegen können:

„Der Philosoph Ludwig Wittgenstein sagte: ‚Die Grenzen meiner Sprache sind die Grenzen meiner Welt.‘ Darin kommt all das zum Ausdruck, worum es eigentlich geht. Ingenieure leben in einer anderen Welt als Verkäufer und Konsumenten. Und jeder spricht seine eigene Sprache. Hier könnte ein neues Berufsbild entstehen für Fachleute, die diese verschiedenen Welten vereinen“, resümiert die freiberuflich beratende Ingenieurin Anett Dylla.

Ingenieure müssten lernen, dass Design heute etwas anderes ist als bloße Verpackung und dass User­Interface­Design weit über Verpackungskünste oder Ornamentik oder Aufhübschung hinausgeht, so Bolz. Das müsse eine gemeinsame Operation sein, nämlich den Punkt zu gestalten oder die Fläche zu gestalten, wo Menschen auf Technik treffen, die prinzipiell nicht mehr durchschaubar ist.

„Bei Design hat man früher an die Gestaltung von Flaschen oder Kaffeekannen oder Aral­ Tankstellenzapfsäulen gedacht, aber heute ist Design – wenn man so will – die zentrale Frage der Technik selber.“

Wer das begriffen hat, produziert nicht nur selbsterklärende und einfach zu bedienende Produkte, sondern ist auch klar im Kopf.

Das haben bislang die Wenigsten wirklich begriffen, obwohl nun schon seit Ewigkeiten über die Einfachheit philosophiert wird. Meistens sind es Lippenbekenntnisse:

„Auch wenn die E-Plus-Tochter Simyo seit Jahren kommuniziert, dass ‚einfach einfach einfach ist’ und der Discount-Ableger von E.ON die Simpel-Formel ‚E wie einfach’ für sich reklamiert, zeigen doch beide Anbieter ob der vielen zur ‚Verbraucheraufklärung’ nötigen Fußnoten, wie sehr der Teufel im Detail steckt“, resümiert Andreas Frank vom Möglichmacher-Blog.

Andreas Bock, Bernd Stahl, Andreas Frank, Bernhard Steimel, Hannes Schleeh und meine Wenigkeit werden diese Fragen morgen in der ersten Session des virtuellen Blogger Camps von 18,30 bis 19,00 Uhr diskutieren. Thema: Einfachheit: Bin ich zu blöd oder die Technik? Hoffe, wir sehen und hören uns! Hashtag für Twitter-Zwischenrufe während der Live-Übertragung #BloggerCamp.

Blogger Camp: Plädoyer für eine disruptive Sit-in-Bewegung #bc

Aus der zerstörerischen Disruption ist mit dem Internet die digitale Dauerdisruption geworden. Davon ist Sascha Lobo überzeugt:

„So techno-verschwurbelt sich diese Behauptung anhören mag, so radikal sind ihre Folgen. Während im 20. Jahrhundert ein industrieller Markthit mit zarten Weiterentwicklungen einen Konzern über Jahrzehnte tragen konnte, kennt im Netz kaum noch jemand die Helden von vor fünf Jahren“, schreibt Lobo in seiner „Spiegel“-Kolumne.

Schöpferische Zerstörung im Sinne des Ökonomen Joseph A. Schumpeter war schon immer ein Prozess, aber das Internet habe den Takt sehr aggressiv erhöht. Der Konzern von morgen sei eine fortwährende Kette von Riesen-Start-ups, die stakkatohaft wiedergeboren werden und jedes einzelne Mal zum Erfolg verdammt sind.

Ziegelstein-Diktatur in den Organisationen

„Und das in einem Land, in dem Medien noch zwanzig Jahre nach ihrer Einführung als ‚Neue Medien‘ bezeichnet werden. In einem Land, in dem Start-ups so lange misstrauisch beäugt werden, bis sich genau deshalb das Misstrauen rückwirkend als berechtigt erweist. In einem Land, in dem das Neue erst dann akzeptiert wird, wenn es sich ein paar Jahre bewährt hat. Schon ein falscher Schritt eines solchen prozessualen Umbauunternehmens – wie es Facebook schon heute ist – reicht aus, damit die digitale Dauerdisruption das tut, was sie am liebsten macht: disruptieren, zerreißen, zernichten. Damit aus den gefallenen Kurzzeitkonzernen der Humus entsteht, auf dem Schumpeter seine nächsten Pflänzchen ziehen kann“, führt Lobo weiter aus.

Wie gehen nun die Arbeitskräfte von morgen mit dieser Unkalkulierbarkeit um? In den Hochschulen bekommen die liebwertesten Gichtlinge des akademischen Betriebes leider eine andere Welt geboten. Gefragt sind heute Selbstorganisation statt Hierarchie, Möglichkeitsräume statt pseudoexakter Planungen, Fehlerfreundlichkeit statt Standardisierung. Kein Befehl und Gehorsam, sondern Abschaffung der Ziegelstein-Diktatur in den Organisationen von Wirtschaft und Staat. Und was für ein Nachwuchspersonal kommt von den Universitäten im Geiste von Bologna? Akademische Automaten.

Das verwaltete Studium ist Verrat an der akademischen Freiheit des Denkens, so meine Ausführungen in der Mittwochskolumne für das Debattenmagazin „The European“. Deshalb mein heutiges Plädoyer für eine disruptive Sit-in-Bewegung in den Hörsälen und auch virtuell.

Beginnen werde ich damit im heutigen Blogger Camp in der zweiten Session von 19,30 bis 20,00 Uhr. Thema: Von der zerstörerischen Kraft der digitalen Dauerdisruption – nicht zu verwechseln mit Dauererektion, lieber Mirko Lange 🙂

Teilnehmer: Katja Andes (Ideacamp UG), Lars Mensel (The European), Dirk Elsner (blicklog), Andreas Klug (Ityx), Hannes Schleeh und Heinrich Rudolf Bruns. Moderation: Icke.

Hashtag für Zwischenrufe während des Live-Hangouts #bc

Übrigens: Aus dem Werk von Professor Clayton M. Christensen stammt die Formulierung:

„Disruptive Technologien machen zu dem Zeitpunkt, an dem Investitionen für das Unternehmen so wichtig wären, noch kaum Sinn.“

Klingt nicht so spektakulär, ist aber für etablierte Industrien ein echtes Problem. Die Umsätze stagnieren auf hohem Niveau und die Talfahrt ist noch nicht so ganz in Sichtweite. Man kann es höchstens erahnen.

Zum Lamento über die disruptive Wirkung des Netzes zähle ich übrigens auch den neuen Verleger-Volkssport „Google-Bashing“.

Von der zerstörerischen Kraft der digitalen Dauerdisruption #bc


Das Netz verändert die Welt. Das dürften weder Gegner noch Befürworter des digitalen Wandels bestreiten. Doch viel weiter reichen die Gemeinsamkeiten nicht. Ob sich das Ganze zum Guten oder zum Schlechten fügt, ist nach Ansicht von Sascha Lobo und Kathrin Passig nicht so eindeutig zu beantworten, wie die Verfechter beider Ansichten es gern hätten. „Die einen bewegen sich in einem Feld zwischen fortschrittsgläubiger Naivität und selbstbewusstem Optimismus, die anderen verharren zwischen gesunder Skepsis und verbittertem Pessimismus”, schreiben die beiden Autoren in ihrem neuen Buch „Internet – Segen oder Fluch“ (Rowohlt Verlag). Einen ärgerlich großen Raum würden dabei reflexhafte Phrasen und kaum belegbare Behauptungen einnehmen, verbunden mit einem emotionalen Amalgam, das mehr die Gruppen-Zugehörigkeiten festigen als irgendjemanden überzeugen soll.

„Regelmäßig lassen sich Diskussionspodien, Talkshowkonfrontationen und Artikelgefechte beobachten, deren Teilnehmer weniger an der Vermittlung und Erklärung interessiert sind als an der Selbstvergewisserung, und oft genug waren diese Teilnehmer die Autoren des vorliegenden Buches”, so Passig und Lobo.

Der dringend notwendige Diskurs um das Internet, seine Bedeutung für unser Leben und seine Folgen für die Welt sei ritualisiert und erstarrt. Genau zu erkennen, ob disruptive Innovationen zu einer Implosion tradierter Geschäftsmodelle führen, ist ein schwieriges Unterfangen.

„Das Neue sieht für die Nutzer eines vorhandenen Produkts immer erst mal schlechter aus“, führen Passig und Lobo weiter aus.

Dampfschiffe waren zunächst langsamer als Segelschiffe. Musik über das Format MP3 klang schlechter als auf CDs und frühe Digitalkameras konnten mit analogen nicht mithalten. Solange aber das neue Produkt in irgendeiner Hinsicht billiger, praktischer oder attraktiver sei als das alte, kann es einen nichtexistenten Markt und bisher unerreichbare Käuferschichten erschließen. Nachzulesen in meiner heutigen The European-Kolumne: BESSER SCHLÄGT GUT – Über Gewinner und Verlierer der Digitalisierung.

Schumpeter: Wirtschaft nicht auf Aggregate reduzieren

In dem Kapitel „Disruption ist kein Kindergeburtstag“ darf natürlich der von Joseph A. Schumpeter geprägte Begriff der „schöpferischen Zerstörung“ nicht fehlen. Wer sich die Originalschriften von Schumpeter anschaut, entdeckt Zusammenhänge, die sich wohl permanent im Zusammenhang mit disruptiven Innovationen abspielen. Wichtig ist dabei nicht nur die berühmte Schrift „Kapitalismus, Sozialismus und Demokratie“ (wichtige Vorarbeiten für dieses Werk entstanden übrigens in seiner Bonner Zeit – hinzuweisen ist hier vor allem auf den wissenschaftlichen Aufsatz „The Instability of Capitalism“, in dem er schon früher angesprochene Stabilitätsprobleme des Kapitalismus systematisiert), sondern auch das weit weniger beachtete Opus „Konjunkturzyklen“.

„Der Kern dieses Buches besteht aus einer Fülle von Einzelheiten über die Blüte der Wirtschaftssysteme in Großbritannien, Deutschland und den Vereinigten Staaten“, schreibt Thomas K. McCraw in seiner Schumpeter-Biografie (in deutscher Übersetzung im Murmann-Verlag erschienen).

Es war wohl schon immer so, dass das Eindringen einer neuen Firma in eine bestehende Branche stets einen Kampf mit der alten Sphäre nach sich zieht. Die Altvorderen sind bestrebt, den Vorteil, den eine neue Firma durch eine Innovation erlangt, zu verbieten, zu diskreditieren oder auf andere Weise zu beschränken. Die Patentklagen von Apple gegen Konkurrenten oder das von den Zeitungsverlegern ersehnte Leistungsschutzrecht sind dafür ja sehr gute aktuelle Beispiele. Was immer dabei auch im Einzelfall geschehe, so Schumpeter, sei der hohe Gewinn jedes Unternehmers stets vergänglich, denn Konkurrenten würden Neuerungen kopieren und damit ein Sinken des Marktpreises bewirken. An der Verteidigungsstrategie von Apple wird sichtbar, dass der Technologiekonzern eben kein „kreativer Zerstörer“ mehr ist.

Und was für Deutschland in Fragen der Digitalisierung wichtig ist, können wir an unserer eigenen Geschichte ablesen. Erfolge habe nicht in erster Linie der Innovator, der Erfinder und schöpferische Zerstörer, sondern jener, der das Neue am besten organisiert, so Schumpeter. Die Deutschen verstanden es im 19. Jahrhundert besser als die Briten, ihre Textilindustrie zu organisieren, selbst wenn sie wenig zu deren maschineller Technologie beitrugen.

Steve Jobs war so ein schöpferischer Unternehmer, wie ihn Schumpeter beschrieben hat. Ein Innovator zeichnet sich vor allen Dingen durch die Kunst der Kombinatorik aus. Innovationen entstehen eben nicht nur durch Erfindungen: So sah es jedenfalls Schumpeter in seinem Werk „Theorie der wirtschaftlichen Entwicklung“, erschienen vor knapp 100 Jahren:

„Nur dann erfüllt er (der Unternehmer) die wesentliche Funktion eines solchen, wenn er neue Kombinationen realisiert, also vor allem, wenn er die Unternehmung gründet, aber auch, wenn er ihren Produktionsprozess ändert, ihr neue Märkte erschließt, in einen direkten Kampf mit Konkurrenten eintritt.“

Innovatives Unternehmertum unterscheidet sich dabei deutlich vom Routineunternehmer, der auf überkommenen Grundlagen arbeitet und nie Neues schafft. Aus altbekannten Techniken wie W-LAN, MP3 und Bewegungssensoren schuf Apple neue Geräte mit Kultfaktor. Und auch das benutzerfreundliche Design ist keine Kreation aus Cupertino. Der Steve Jobs-Konzern folgt konsequent dem Less-and-More-Diktum des genialen Industriedesigners Dieter Ram, der in den 1960er und 1970er Jahre bahnbrechende Produkte für die Braun AG schuf. Und was noch wichtiger für die Erfolgsstory von Apple ist: Jobs erzeugte neue Märkte. Der dynamische Unternehmer orientiert sich nicht primär an gegebener oder unmittelbarer Nachfrage des Konsumenten, sondern „er nötigt seine Produkte dem Markte auf“, so Schumpeter. Das ist Steve Jobs mit Produkten und Diensten für das mobile Internet und für den Tablet-PC-Markt gelungen.

Was sollte man in Deutschland nun tun? Es sind fast immer charismatische und ein wenig verrückte Persönlichkeiten (nicht nur Unternehmer, sondern auch Beamte wie der Generalpostmeister Heinrich von Stephan!), die Neues durchsetzen, besser organisieren, intelligenter organisieren und sich vom Routinebetrieb abgrenzen. Wer nur das anwendet, was man gelernt hat und sich an den übergekommenen Grundlagen seiner Organisation orientiert, ist ein passiver Anpasser und eben kein schöpferischer Zerstörer. Anpasser und Verwalter haben wir wohl zu viele.

Wir werden dieses Thema in der zweiten Session des nächsten Blogger Camps diskutieren: Am Mittwoch, den 24. Oktober von 19,30 bis 20,00 Uhr: Von der zerstörerischen Kraft der digitalen Dauerdisruption. Andreas Klug, Dirk Elsner, Heinrich Bruns, Hannes Schleeh und meine Wenigkeit sind dabei. Wer im Live-Hangout noch mitmachen möchte, sollte sich frühzeitig bei mir oder bei Hannes melden, damit wir das gut vorbereiten können mit Techniktest und Vorabinfos für die Moderation.

Nicht ganz unwichtig ist auch die Frage, wie eigentlich die populären Web-Dienste Geld verdienen.

Was im mobile Business abgeht, beleuchtet der Bitkom-Verband.

Einen „Beipackzettel“ für das Buch von Passig und Lobo hat Sascha Lobo in seinem Blog gepostet.