Millionen, Billionen, Trillionen, Quintillionen – wenn es um Datenmengen geht, scheint keine Zahl mehr zu groß. Getreu dem Motto „Viel hilft viel“ hoffen viele Analysten, aus immer besseren Daten der Vergangenheit Aussagen für die Zukunft treffen zu können. Doch das wahre Leben könnte diese Hoffnungen zerstäuben. Ob Business Intelligence, Big Data oder Data Mining. Es geht um die Illusion der rationalen Entscheidungsfindung. Vielleicht erleben wir die letzte Schlacht des Controllings, um in den Zeiten des Kontrollverlustes die alte Logik des Industriezeitalters in die vernetzte Welt zu retten, um neue Übersichtlichkeit im chaotischen Universum des Cyberspace zu schaffen. Vielleicht rühren daher der Wunsch nach Rückgewinnung der Deutungshoheit und die Sehnsucht nach maschinengesteuerten Entscheidungen auf dem Fundament der Ratio.
Daten bleiben scheu und grausam, sagt etwa Nikolas Bissantz, Gründer und Mehrheitsgesellschafter von Bissantz & Company, im Interview mit GDI-Impuls.
„Es ist schwierig, aus ihnen zu lernen und noch schwieriger, das Gelernte umzusetzen.“
Gute Manager müssten in der Lage sein, das Modell zu hinterfragen, das der Analyse zugrunde liegt.
„Zaubertricks, die wir nicht durchschauen, sind sympathisch – im Varieté. Im Business nicht“, erklärt Bissantz.
Big Data sei ein Sammelbegriff für mehrere Phänomene und gleichzeitig ein verkäuferischer Geniestreich. Im Moment werde mehr Zeit in die Speicherung als in die Analyse von Daten gesteckt.
„Viele Kandidaten auf dem Personalmarkt, die aus dem Vertrieb oder der Beratung kommen, positionieren sich für Big Data-Stellenangebote, ohne genau zu wissen, was sie dabei erwartet. Ein Manager aus dem Verkauf, der in ein Unternehmen gewechselt ist, um Big Data abzudecken, stellte fest, dass er etwas zu euphorisch war und die internen Voraussetzungen beim neuen Arbeitgeber alles andere als positiv waren. Es gab noch keine Kunden und man arbeitete hoch defizitär“, so Berge.
„Viele Unternehmen in Deutschland haben zur Zeit einfach nur das Bedürfnis, irgendwie dabei sein zu müssen. Und da wird dann auf alten Technologien einfach das Etikett ‚Big Data draufgeklebt. Das ist sehr bedauerlich. Viele Kunden, die sich diese Systeme zulegen, wissen überhaupt nicht, was sie damit anfangen sollen. Ich habe noch bei keinem Anwender gesehen, dass auf Grundlage von Datenerkenntnissen wirklich logische Schlussfolgerungen gezogen werden. Da wäre mehr zu machen“, so Ripanti in Bloggercamp TV.
Zudem könnten Einzelentscheidungen nicht determiniert werden. Das sei eine Illusion:
„Egal, was in die Rechnung einbezogen wird, um beispielsweise das Wahlverhalten vorherzusagen, man darf den Faktor Zeit nicht unterschätzen. Es gibt eine Vielzahl von Verlautbarungen auf Facebook, mit denen ich definitiv nichts mehr am Hut habe. Das hat mit meinen heutigen Interessen überhaupt nichts mehr zu tun. Und diesen Cut schafft kein Big Data-System“, erklärt Ripanti.
Bauchentscheidungen, das belegen die Forschungsarbeiten von Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung, können nach wie vor die raffiniertesten Computerstrategien in den Schatten stellen. Business Intelligence und Big Data werden die Intuition nicht überflüssig machen.
Korrelation sollte man nicht mit Kausalität verwechseln, eine Landkarte hat nicht direkt etwas mit der Landschaft zu tun und eine Speisekarte kann nicht mit der Speise gleichgesetzt werden.
Bei Big Data handelt es ich immer noch um die gute alte Wahrscheinlichkeitsrechnung, die vielleicht schneller Daten verarbeiten kann und deswegen aber noch nicht eineindeutig die Welt erklären kann. Das diskutierten wir mit Joachim Graf von iBusiness für unser Un-Buch-Kapitel „Die Vermessenheit der Big Data-Weltvermesser“. Hier recherchieren wir in Hangout on Air-Runden ein Thema für das Opus „Die Streaming Revolution“.
Auswertung des Werkstattgespräches folgt dann in einem größeren Zusammenhang in einer Version für das Un-Buch.
„Es ist schwierig, aus ihnen zu lernen und noch schwieriger, das Gelernte umzusetzen.“
Gute Manager müssten in der Lage sein, das Modell zu hinterfragen, das der Analyse zugrunde liegt.
„Zaubertricks, die wir nicht durchschauen, sind sympathisch – im Varieté. Im Business nicht“, erklärt Bissantz.
Big Data sei ein Sammelbegriff für mehrere Phänomene und gleichzeitig ein verkäuferischer Geniestreich. Im Moment werde mehr Zeit in die Speicherung als in die Analyse von Daten gesteckt.
„Viele Kandidaten auf dem Personalmarkt, die aus dem Vertrieb oder der Beratung kommen, positionieren sich für Big Data-Stellenangebote, ohne genau zu wissen, was sie dabei erwartet. Ein Manager aus dem Verkauf, der in ein Unternehmen gewechselt ist, um Big Data abzudecken, stellte fest, dass er etwas zu euphorisch war und die internen Voraussetzungen beim neuen Arbeitgeber alles andere als positiv waren. Es gab noch keine Kunden und man arbeitete hoch defizitär“, so Berge.
So heißt zumindest mein kleiner Beitrag zur Frühjahrsausgabe der Schweizer Zeitschrift GDI-Impuls mit dem Schwerpunkt Big Data. Ankündigung des Verlags:
„Die immensen Datenmengen, die Menschen, Maschinen und Geräte ständig produzieren, lassen die einen von einem Himmelreich der Planbarkeit träumen, die anderen vom Ende des selbstbestimmten Lebens alpträumen – doch wo bleiben die brauchbaren Produkten? GDI Impuls fühlt den Daten auf den Zahn und analysiert, wo sich aus dem scheinbar unüberschaubaren Input ein brauchbarer Output generieren lässt; und wo eben nicht.“
Mein Beitrag eröffnet den Artikel-Reigen über Big Data. Dann folgt Alexander Ross mit „DIE DATEN BLEIBEN SCHEU UND GRAUSAM – Datamining-Veteran Nicolas Bissantz über die Differenz zwischen Goldgrube und Grubenunglück“. Anja Dilk und Heike Littger setzen sich mit „DATENVERKEHR“ auseinander. „Ob Auto, Bahn, Taxi oder Rad – aus Bewegungsdaten lassen sich faszinierende Services erstellen. Wenn man sie kombinieren kann. Und da beginnt das Problem.“
Lasst Euch nicht vom Preis einer Ausgabe abschrecken. 27 Euro sind für eine Vierteljahresschrift mit 120 Seiten sicherlich kein Pappenstiel. Aber wer sich zu Big Data umfassend informieren will, kommt auf seine Kosten… Man kann sich ja das Opus zu Ostern wünschen 🙂 An Hauptbahnhöfen und Flughäfen müsste die Zeitschrift erhältlich sein. Der Bonner Hauptbahnhof hat das jedenfalls im Sortiment. Ansonsten eben direkt über die Website ordern.
Immer, wenn es um Zukunftsprognosen geht, steigt die Fehlerquote der Rechenmethoden. Auch wenn man schmutziges Big Data zum Einsatz bringt und einfach nur Muster aus der amorphen Datenmasse herausschält. Man operiert mit Annahmen und Hypothesen, die mehr über das mechanistische Menschenbild der Analysten als über die untersuchten Personen aussagen – auch wenn das die zumeist naturwissenschaftlich geprägten Big Data-Gurus anders sehen. Wenn fehleranfällige Maschinen Entscheidungen über einzelne Menschen treffen, etwa bei der Verweigerung von Krediten, hört der Spaß auf.
„Die Faktoren, die in die Berechnung der Prognose einfließen, müssen transparent sein, und es muss Regeln geben, wie der Betroffene das Ergebnis widerlegen kann.“
Umgekehrt wird ein Schuh draus, Meister Mayer-Schönberger. Die Beweislast muss beim Big Data-Anwender liegen. Wenn er mich ohne meine Zustimmung und ohne Offenlegung der Berechnungsmethoden als kriminellen und nicht zahlungsfähigen Alkoholiker einstuft, kann ich das betreffende Unternehmen oder die Organisation als „Datenverbrecher“ anzeigen und strafrechtlich belangen.
„Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk müssen in meiner Hand liegen. Sozusagen ein Recht auf virtuelle Selbstbestimmung. Die Nutzung dieser Daten kann ich den Big Data-Systemen zu jeder Zeit wieder wegnehmen“, so Unternehmensberater Bernhard Steimel, nachzulesen in meinem Beitrag für die Frühjahrsausgabe der Zeitschrift GDI-Impuls.
Wir sollten uns im netzpolitischen Diskurs nicht länger mit personalisierter Werbung aufhalten, die über Big Data im Internet eingeblendet wird. Ich lasse mich von den blöden Anzeigen nicht zum willenlosen konsumsüchtigen Käufer degradieren.
Anders sieht es mit Entscheidungshilfen von Maschinen aus, die mein Leben beeinflussen und hinter meinem Rücken ablaufen. Deshalb fordern wir (also Bloggercamp-Kollege Hannes Schleeh und ich) die Big Data-Vielschwätzer heraus, in unserer Schreibwerkstatt für das Crowdfunding-Buch „Die Streaming Revolution“ den Giftschrank ihrer Systeme zu öffnen und die Treffsicherheit der Prognosen nachzuweisen. Live und ohne doppelten Boden. Das Ganze fließt ein in das Kapitel „Die Vermessenheit der Big Data-Weltvermesser – Ein Crowdsourcing-Experiment mit Hangout on Air“.
Ansonsten klassifiziere ich die Big-Data-Gichtlinge weiterhin nach der Devise von Hoffmann von Fallersleben:
„Der größte Lump im ganzen Land, das ist und bleibt der Denunziant.“
Würde ich dann eher als Frage formulieren. Wenn Beckmann in seiner Talkshow aus der Anzeige eines Big Data-Anbieters zitiert und sich danach alle Gäste in Horrorszenarien ergehen, darf doch noch die Frage erlaubt sein, wie gut die Analyse-Systeme wirklich sind. Jedenfalls werde ich das Thema bis Ende April für unser Streaming Revolutionsbuch recherchieren.
Kapitelüberschrift: Die Vermessenheit der Big Data-Weltvermesser – Ein Crowdsourcing-Experiment mit Hangout on Air. Und damit die Übertreibungen der Beckmann-Diskussion nicht im Nirwana der De-Publizierung landen, haben wir das in unserer Schreibwerkstatt für die Ewigkeit festgehalten. Als erste Wegmarke für weitere Interviews.
Am Mittwoch werde ich das noch einmal in meiner The European-Kolumne etwas ausführlicher beschreiben, um was es mir geht.
„Big Data greift meist auf Bestandsdaten zurück, die zu einem ganz anderen Zweck erhoben wurden (Tracking, Suchabfragen, Mobiltelefonzellenortung, medizinische Daten, etc.) und korreliert sie mit anderen Datensätzen. Das erlaubt verblüffende Erkenntnisse“, schreibt Kontrollverlust-Blogger Michael Seemann.
Aber wie belastbar sind diese Erkenntnisse, Michael? Darüber würde ich gerne mit Michael und anderen Interessierten in Hangout on Air-Sessions reden.
Morgen geht es auf der Call Center World in einer Paneldiskussion von Genesys um Kundenbedürnisse. Wie gut kann man die denn antizipieren? Neudeutsch: Customer Experience Management. Passt ja zu Big Data. Das Ganze wird von mir moderiert und via Hangout on Air live ins Netz übertragen. Hashtag für Twitter-Zwischenrufe #genesysccw
Start wahrscheinlich so gegen 19,30 Uhr. Vielleicht auch etwas später.
Bin bis Donnerstag also in Bärlin. Am Mittwoch gibt es eine Bloggercamp-Schreibwerkstatt aus drei Städten: Berlin, Barcelona und Nürnberg.
Der Datenbestand in Westeuropa verdoppelt sich alle zweieinhalb Jahre und wird bis 2020 auf fünf Zetabyte wachsen. Das berichtet IT-Business:
„Die Zahlen gehen aus der Digital-Universe-Studie von IDC hervor. Um eine anschauliche Vorstellung vom explosionsartigen Datenwachstum zu vermitteln, helfen nur Vergleiche: Für das gesamte Datenvolumen, das bis 2020 in Westeuropas entstanden sein wird, bräuchte jeder Bewohner rund 12.000 USB-Sticks mit einem Gigabyte Kapazität. Bis dahin wird sich die gesamte Datenmenge laut der Digital-Universe-Studie von IDC von 538 Exabyte im Jahr 2012 auf fünf Zetabyte erhöhen.“
Aktuell werden 58 Prozent der Daten durch Privatpersonen erzeugt.
„Allerdings tragen Unternehmen für 80 Prozent aller digitalen Informationen Verantwortung. Der Grund für das scheinbare Paradoxon liegt darin, dass auch privat erzeugte Dateien im Laufe ihres Lebenszyklus‘ häufig in Unternehmensnetze gelangen, beispielsweise Fotos oder Videos, wenn sie in einem Portal hochgeladen oder einem Cloud-Speicher abgelegt werden“, so IT-Business.
Hohe Daten-Wachstumsraten in den nächsten vier bis fünf Jahren erwartet das IT-Beratungshaus Harvey Nash bei der Kommunikation zwischen Maschinen in allen seinen Ausprägungen. Also die automatische Kommunikation zwischen Komponenten, weitestgehend ohne menschlichen Einfluss.
Harvey Nash-Chef Udo Nadolski sieht hier die nächste Welle von Datenvolumina, die auf die Netze zurollen. Das Problem sei die Kumulation der Datenmengen.
„Und die betrifft auch die letzte Meile der Netze, weil immer mehr auch der private Nutzer eingebunden wird. Das betrifft Angaben zum Energieverbrauch, die Vernetzung des kompletten Haushalts und dergleichen mehr. Hier brauchen wir dingend Lösungen. Ich nenne nur das Stichwort ‚Breitband auf der letzten Meile’“, resümiert Nadolski im ichsagmal-Interview.
„Das ist zwar schwer und alle Entwicklungen laufen dagegen, aber die Bedrohung von Engpässen des Netzes, die sogar zu einem Kollaps führen können, ist nicht von der Hand zu weisen. Die Netzbetreiber befinden sich nach wie vor in einer Deadlock-Situation. Es sind also dringend Investitionen in die Infrastruktur notwendig. Dazu beigetragen hat besonders die Flatrate-Manie in Kombination mit einer zu kurz gedachten Umsatzstrategie“, kritisiert der Düsseldorfer IT-Fachmann Nadolski.
Ob das Angebot von bevorzugten Datentransporten das Umsatzproblem der Branche für Telekommunikation löst, ist nach Ansicht von Nadolski noch unklar.
„Man muss abwarten, wie der Markt das akzeptiert. Wir kennen Unternehmen, die für einen schnelleren und bevorzugten Datentransport kein Geld ausgeben werden. In der Automobilindustrie sieht das anders aus. Hier ist man durchaus bereit, höhere Preise für den Transport von Daten zu bezahlen, wenn beispielsweise Stauwarnungen schneller in Premium-Fahrzeugen angkommen würden.“
Wie die IT-Manager mit diesen Problemen umgehen, will Harvey Nash in seiner diesjährigen CIO-Umfrage herausfinden. An der Online-Befragung können sich Führungskräfte aus der Informationstechnologie, der Telekommunikation und auch Berater aus diesen Branchen beteiligen. Die Anbieter von IT- und TK-Systemen sollen ebenfalls angesprochen werden. Bis zum 7. März ist das unter folgender Website noch möglich: alturl.com/93o4n
Aus gutem Grund klagt Mirowski über einen Mangel an Folgen:
„Verändert hat sich nur, dass viel mehr Leute keine Arbeit haben und Regierungen zugeben mussten, dass ihre Haushalte außer Kontrolle geraten sind. Was alles sehr seltsam ist, wenn man die Wucht und Reichweite der Krise in Betracht zieht.“
Und was noch kritikwürdiger ist: Die Gier der Casino-Kapitalisten wird als Betriebsunfall oder Störfall abgetan, Für diejenigen, die gerne spielen, ist es immer besser zu überprüfen online casino nj anstatt zu einem eigentlichen Casino zu gehen.
Und das ist selbst bei den härtesten Kritikern des Finanzkapitalismus zu finden:
„Lesen Sie nur David Graebers Buch ‚Schulden‘, in dem er über fünfzehnhundert Jahre zurückblickt und dauernd enorme Schuldenzyklen ausfindig macht. Eine verständliche Reaktion, aber dass so viele Leute daran glauben, finde ich etwas merkwürdig. Denn die Krise hat ein paar ganz spezielle Aspekte zu bieten. Zuallererst den, dass die Leute es vorziehen, lediglich eine Makrokrise zu sehen, und das ist sie ohne Zweifel nicht. Paul Krugman etwa will nur die Makroökonomie verändern und glaubt, dann sei alles beherrschbar. Aber das ist nicht wahr“, so Mirowski.
Es reicht also nicht aus, sich die Köpfe über makroökonomische Steuerungsfragen heiß zu reden und auf Wunder über Veränderungen von fiskal- oder geldpolitischen Stellschrauben zu hoffen. Das ist politisch naiv und für die Gesellschaft sowie für die Realwirtschaft höchst gefährlich. Für die Makroökonomen ist das ja auch recht bequem. Man disputiert selbstreferentiell über die Frage, ob mehr oder weniger Schulden für die Gesundung von Volkswirtschaften notwendig sind. Ökonomen würden sich ja die Hände schmutzig machen, wenn sie die Motorhaube ihrer Formelwelt aufklappen und die Ölspuren der eigenen Homunculus-Ideologie wahrnehmen müssten. Sie würden dann beispielsweise die schmutzigen Tricks der Eigenkapitalräuber erkennen – also die Raubzüge der Private Equity-Gesellschaften.
Da müsste man schon eine große Portion Staatskunst mitbringen, um mit klugen gesetzlichen Maßnahmen diesen Sumpf trockenzulegen. Ceteris paribus-Modellrechnungen helfen da nicht weiter.
Dabei könnte man das Heuschreckentum relativ gut recherchieren und an die Öffentlichkeit bringen. Wäre eine schöne Aufgabe für die Datenjournalisten.
Zunächst gründen die Käufer eine neue Gesellschaft. Die nimmt ein Darlehen auf und erwirbt damit ein bislang rentabel arbeitendes Unternehmen. Anschließend werden beide Gesellschaften miteinander verschmolzen. Die Darlehensschulden liegen nun beim aufgekauften Unternehmen. Dann wird das ganze Konglomerat in eine GmbH umgewandelt – wegen der geringeren Veröffentlichungspflichten. Das liquide Vermögen wird dann bis zur Grenze des rechtlich Zulässigen an die neuen Gesellschafter ausgezahlt – so etwas nennt man in Branchenkreise „Recap“. Das übernommene Unternehmen wird also nach dem Wieselprinzip wie ein Ei ausgesaugt und danach an einen weiteren Finanzinvestor weitergereicht, der die Reste aufsammelt und verscherbelt. Neudeutsch bezeichnet man das als „secondary buyout“.
Bis ein Unternehmen von den Firmenjägern wieder verkauft wird, müssen darüber hinaus die Schulden zurückgezahlt werden: „Bootstrapping“ also Stiefelschnüren wird diese Technik in der Private-Equity-Szene genannt.
Manche Übernahme-Kandidaten werden auch an die Börse gebracht – das passiert ziemlich selten. Dann haben die neuen Aktionäre das Problem. Am Schluss wartet das Insolvenzverfahren.
Die Private-Equity-Gesellschaften vernebeln ihre Methoden in der Öffentlichkeit und reden lieber von der Notwendigkeit der Restrukturierung, Rekapitalisierung und Wiederbelebung des Übernahmekandidaten. Man wolle Firmen wieder ertüchtigen. In Wahrheit geht es um krumme Geschäfte für Anleger, denen man Erträge von 25, 30 oder gar 40 Prozent verspricht. Die Anleger sind entweder Einzelpersonen – teilweise aus dem Dunstkreis des übernommenen Unternehmens – oder Institutionen. Und die zeichnen die Private Equity-Fonds auf den Cayman Islands. Für diese halbseidenen Geschäfte müssen die „Investoren“ weniger Formulare ausfüllen als bei der Führerscheinprüfung in Deutschland. Die Namen der Aas-Geier werden natürlich nicht preisgegeben. Für alle Akteure auf den Kapitalmärkten der OECD sollten zumindest Offenlegungspflichten gelten, um den Insidergeschäften der Firmenjäger auf die Spur zu kommen:
„Es darf nicht sein, dass Fonds, die auf den Cayman-Inseln registriert sind und so gut wie keine Informationen über ihre Eigentümer oder ihre Geschäftspraktiken herausrücken, zentralen Einfluss darauf nehmen können, wie große und größte Unternehmungen in Deutschland und in anderen Industriestaaten geführt werden“, kritisiert der ehemalige Deutsche-Börse-Chef Werner Seifert.
Das Mindeste, was man von diesen Anteileignern verlangen müsse, sei die Offenlegung ihrer Beteiligungen. Am Beispiel des DSD-Müllkonzerns hätte es wohl einige böse Überraschungen gegeben. Politisch wäre es für die beteiligten „honorigen“ Persönlichkeiten nicht möglich gewesen, ihren Hals aus der Schlinge zu ziehen – da bin ich mir sicher. In Ansätzen hat das Wolfgang Huhn aufgedeckt in einer Reportage über den Grüne Punkt-Müllkonzern DSD. Die Spuren auf den Cayman-Inseln konnten leider nicht aufgedeckt werden – da wäre sonst der eine oder andere Name einer hochstehenden Persönlichkeit der Deutschland AG zum Vorschein gekommen. Hier ein kurzer Ausschnitt des Wolfgang Huhn-Films für die Sendung „die story“:
Mit Offenlegungspflichten wäre es Wolfgang Huhn in den rund 12 Monaten, die er mit Unterbrechungen für die Recherche benötigte, mit Sicherheit gelungen, die Verbündeten im Deal der Firmenjäger ans Tageslicht zu bringen. Das DSD ist übrigens von KKR in einem so genannten Management-Buy-out-Verfahren weiter verkauft worden. Neuer Eigentümer sind der DSD-Vorstandschef Stefan Schreitet und sein Managementteam. Das Management wurde bei der Übernahme von einer Gruppe „privater und institutioneller Investoren unterstützt“, heißt es in einer Presseverlautbarung. Dazu zählte Philippe von Stauffenberg von Solidus Partners, eine Private Equity-Firma mit Sitz in London….
Aber das ist nur ein Aspekt der zerstörerischen Wirkung des Raubtier-Kapitalismus.
Um das Problem an den Wurzeln zu packen, fordert Mirowski den Rückbau des Schattenbankensektors.
Ebenso wichtig ist es, sich mit dem ideologischen Überbau der finanzkapitalistischen Räuber zu beschäftigen. Warum hat sich das Vampir-System so epidemisch ausgebreitet? Einen Ursprung sieht der FAZ-Herausgeber Frank Schirrmacher in den spieltheoretisch fundierten Mathematikern und Physikern, die sich als Strategen des Kalten Krieges in Szene setzten und nach dem Niedergang des Sowjetimperiums an der Wallstreet als Finanzakrobaten verdingen. Es geht um das Ideenfundament der Homunculus-Ökonomie, in der Menschen zu Automaten degradiert werden.
Und noch penetranter. Im Zentrum der Analysen von Schirrmacher, die er in seinem neuen Buch „Ego“ ausbreitet, steht die RAND Corporation und ihre Arbeit für das Militär. Gespickt mit Wissenschaftlern, die der neoklassischen Schule entstammen.
„Ihre zündende Idee: Sie fragten nicht mehr, wie der Mensch tickt. Sie fragten, wie der Mensch ticken müsste, damit ihre Formeln funktionieren.“
Dieses Abbild eines Menschen geistert als Doppelgänger, Dummy oder ökonomischer Agent durch die Modellrechnungen. Etwa in dem Grundlagenwerk „Spieltheorie und ökonomische Verhalten“ des Universalgenies John von Neumann und seines Kollegen Oskar Morgenstern. Zu den RAND-Vordenkern zählt auch der paranoide und schizophrene Mathematiker John Nash, bekannt geworden durch die Kinoverfilmung „A Beautiful Mind“ mit Russell Crowe in der Hauptrolle. Die politische Tragweite des theoretischen Konstruktes von Nash fielen dabei unter dem Tisch. Beim Glamour-Betrieb in Hollywood ist das nicht verwunderlich. Aber was trieb das Nobelpreiskomitee in Stockholm, Nash im Jahre 1994 mit dem Nobelpreis für Wirtschaftswissenschaften auszuzeichnen?
Nash war es, „der mit anscheinend unumstößlicher Logik bewies, dass das Spiel des Lebens nur dann rational gespielt werden konnte, wenn jeder Spieler vom absoluten Eigennutz und einem abgrundtiefen Misstrauen gegenüber der anderen Seite getrieben war“, schreibt Schirrmacher in seinem Opus „Ego“. Es geht also um das berühmte Nash-Gleichgwicht, dass sich heute in Börsenalgorithmen von Hedgefonds, in Auktionsplattformen, in den mächtigsten Werbealgorithmen der Welt befindet und wohl auch in sozialen Netzwerken. Der große Ego-Automat unserer Systeme, von dem übrigens auch der Google-Chefökonom Hal Varian beseelt ist. Er zählt nach Angaben von Schirrmacher zu Entwicklern der spieltheoretischen Modelle für Google Adwords.
„Damals spielten menschliche und künstliche Hirne millionenfach alle erdenklichen Szenarien durch, die den Feind manipulieren, austricksen, verwirren, motivieren, erschrecken, lähmen und zu Handlungen verführen sollen. Heute geht es darum, mit den Modellen das Verhalten egoistischer Mitspieler vorherzusagen“, so Schirrmacher.
Vielleicht waren Nash und Konsorten auch nur ängstliche Kinder, die sich von allem und jedem bedroht fühlten. So war es jedenfalls beim Ernstfall-Theoretiker Carl Schmitt und beim Untergangspropheten Oswald Spengler. Kleine Hosenscheißer, die im Erwachsenenalter ihre Paranoia auf die Gesamtheit projizieren und sich kein anderes Leben denken können als das Freund-Feind-Schema im Schützengraben. Die Schriften der zu kurz gekommenen Herrenmenschen sind noch heute ein unverzichtbarer Pornographie-Ersatz für Sandkastenspieler. So sah der junge Carl Schmitt sein Dasein als eine Kette von Demütigungen.
„O Gott, was soll aus mir werden? Wovon soll ich leben? Ich armer Junge, der Zielpunkt der Pfeile des Schicksals, ich vielgeschlagener Unglücksrabe.” Er fühlt sich von der ganzen Welt betrogen, sogar von seinen Zimmerwirtinnen, die angeblich falsche Rechnungen schreiben oder Sachen unterschlagen. „Die Wäsche kam, es fehlte wieder ein Hemd. Ich wurde rasend und geriet in Wut; Ernährungssorgen, Verzweiflung, kleinmütig.”
Das Ganze sagt also mehr über das Menschenbild der Gesellschaftskonstrukteure aus und wenig über die Menschheit – wer kann sich auch anmaßen, über die Gesamtheit aller Menschen zu urteilen.
Problematisch an diesen egozentrischen Theorien ist nicht nur der deskriptive, der beschreibende und erzählerische Teil. Sie postulieren nicht nur Egoisten, sie produzieren sie, kritisiert der FAZ-Herausgeber.
In dieser Schützengraben-Ideologie entsteht vernünftiges Verhalten nicht durch vernünftige Argumente oder einem Streit der Meinungen, sondern durch Drohungen und Angst vor Vernichtung. Diese Rationalität wird auch auf dem Finanzparkett durchgespielt – aufgeladen mit der Kriegsrhetorik der Spekulanten, die von „skalpieren“, „killen“ und „ausblasen“ sprechen und jede Kurs- oder Zinsänderung mit Schlachtgeräuschen über Lautsprecher jagen. Wie beim Drohneneinsatz sehen Trader keine menschlichen Gestalten mehr. Es sind nur noch Lichtpunkte in Form von Zahlen. Sie starren wie bei einer militärischen Operation auf Monitore und verorten die Einschläge, die über Sieg und Niederlage entscheiden. Das Vokabular stammt aus der Zeit der gegenseitigen atomaren Abschreckung:
„Jetzt drohen spieltheoretisch versierte Banken damit, dass ihr Untergang, wenn sie nicht ‚gerettet‘ werden, zum Untergang des gesamten Finanzsystems wird. Die Botschaft lautet in einer atemberaubenden Umkehrung moralischer Verantwortlichkeit: Rettet uns, damit ihr euch nutzt“, führt Schirrmacher aus.
Also die perfide Logik der Too-big-to-fail-Strategen. Es gibt einen einfachen Satz, mit dem man nach Ansicht des Ego-Autors „die unbarmherzige Logik einer automatisierten Gesellschaft und Ökonomie lahmlegen und neue Freiheiten schaffen kann, ganz gleich, ob es sich um todsichere Spekulationen auf die Zukunft von Märkten und ihre Leidenschaften handelt. Der Satz, um die Marionette zu töten, lautet: Die Antwort war falsch.“ Oder eben, die Antwort lautet 42….
Big Data und sonstige Automaten-Regime tötet man auch durch Open Data. Es muss nur deutlich werden, dass diese Algorithmen-Götzen unsere eine Welt vorgaukeln wie beim Märchen „Des Kaisers neue Kleider“. Wäre doch eine nette Idee für eine Plattform zur Entlarvung der Nash-Ideologen.
Da schreibe ich gerade an einem etwas längeren Big Data-Opus mit folgenden Sätzen: Wenn Big Data-Algorithmen ohne meine Zustimmung anfangen, mich zu klassifizieren und zu stigmatisieren, automatisch meine Bonität herabstufen, einen Wechsel der Krankenversicherung wegen meines vermeintlich exakt berechneten Gesundheitszustandes verhindern oder Personalberatern die Abweisung meiner Stellenbewerbung empfehlen, dürfte es zu heftigen Gegenreaktionen der Netzgesellschaft kommen.
„Das wird noch eine Weile beobachtet und irgendwann reagiert die Gesellschaft“, meint der Systemtheoretiker Dr. Gerhard Wohland im ichsagmal-Interview.
Es folgen Störungen des Systems, die bis zu Boykott und Ausstieg reichen können. Man merkt es an der sinkenden Akzeptanz von Facebook und Google. Der Machtwille der Netzgiganten werde immer sichtbarer – auch ihre Manipulation von Algorithmen und ihre Bereitschaft zur Überwachung, bemerkt die amerikanische Ökonomin Shoshana Zuboff im Gespräch mit der FAZ.
Man fühle sich bloßgestellt. Jeder Nutzer von Internet-Diensten sei bereit, für Dinge zu zahlen oder Daten bereitzustellen, die sein Leben besser machen.
In jedem Augenblick, in dem die Web-Konzerne das Vertrauen des Individuums enttäuschen, geht ihnen hoffentlich irgendwann Geld verloren. Im Wettbewerb von personalisierten und vernetzten Angeboten werden nur jene überleben, die einen Vertrauenspakt mit ihren Kunden eingehen, ist sich der Düsseldorfer Unternehmensberater und Smart Service-Blogger Bernhard Steimel sicher.
Es wird Zeit, dass sich Unternehmen in dieser Form profilieren und sich von Facebook und Co. distanzieren.
Nicht alles, was technisch machbar sei, ist auch kulturell mehrheitsfähig.
„Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk müssen in meiner Hand liegen. Sozusagen ein Recht auf virtuelle Selbstbestimmung“, verkündet Steimel.
Soweit ein kleiner Auszug meiner Big Data-Story.
Schaut man sich die Lobby-Agitation gegen die EU-Datenschutzreform von Amazon, eBay und Co. an, wird es Zeit, die Störungen gegen die Machtanmaßung der Netz-Giganten endlich zu organisieren. Einen wichtigen Baustein bietet jetzt die von Marco Maas, Sebastian Vollnhals und Richard Gutjahr ins Leben gerufene Crowdsourcing-Plattform lobbyplag.eu ins Leben gerufen. Gute Arbeit!
„Ob Mensch oder Smartphone, Auto oder Industriesensor: Sie alle produzieren ständig Daten. In einer Welt, in der bald jeder Kühlschrank Internetzugang hat, wachsen die Datenberge in schwindelerregende Höhen. Das IT-Unternehmen IBM hat geschätzt, dass wir täglich 2,5 Quintillionen Bytes neuer Daten produzieren, das gesamte Informationsvolumen verdoppelt sich alle zwei Jahre. Immer mehr mobile Endgeräte, 500 Millionen Tweets am Tag, ungezählte Petabyte Daten aus den Windkanal-Tests der Autoindustrie: Längst gelten Daten als das neue Öl und Daten-Wissenschaftler als Zahlenzauberer und Gurus. Aber so einfach lassen sich der so genannten ‚Big Data‘ ihre Geheimnisse nicht entlocken.“
Und die Erkenntnisse, die in der Sendung präsentiert wurden, sind nicht sehr beeindruckend. Stauinformationen, Bewegungsprofile, Ex-post-Analysen der Aufschrei-Debatte, Verfeinerung der personalisierten Werbung. Konkrete Beispiele sind immer noch Mangelware. Insofern liegt der Datenwissenschaftler DJ Patil gar nicht so falsch, wenn er seinen Kollegen Dan Ariely zitiert:
„Big Data ist wie Teenagersex: Jeder spricht darüber. Keiner weiß wirklich, wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut.”
Mein heutiger Gesprächspartner Dr. Gerhard Wohland bürstet wohl aus gutem Grund gegen den Strich:
Sympathisch pragmatisch auch Smart Service-Blogger Bernhard Steimel: