Datenökonomie und herrschaftsfreier Dialog

Wenn Technokraten über Zukunft reden, kommen in der Regel irgendwelche Leerformeln heraus, die sich in Zahlen, Effizienz und Effektivität suhlen. Alles wird besser. Kaum einer formuliert, wie und was wirklich besser werden soll. Welche Ziele, welche Werte und welche Ethik werden angestrebt? Die Silicon-Valley-Himmelsstürmer und die Copy-Cat-Abziehbilder in Deutschland erstreben die Weltherrschaft, verweigern aber den normativen Diskurs. Man will besser werden, neue Horizonte erstreben, Vergangenheit zurücklassen, beginnt Sätze mit dem Adverb „beyond“ und verharrt in Zwischenorten, Zwischenzeiten und in Wartesälen des Denkens. „Bei Intellektuellen wie Politikern im Westen scheint heute Stillstand im Fortschritt zu herrschen, jeglicher Richtungssinn verloren gegangen zu sein …“ , schreibt Günter Blamberger im Band „Möglichkeitsdenken – Utopie und Dystopie in der Gegenwart“ , erschienen im Wilhelm-Fink-Verlag. Es dominiert selbst bei den digitalen Vordenkern eine Trägheit des Kopfes, weil man dem kritisierten Bestehenden weder praktisch noch theoretisch etwas entgegenzusetzen hat. Kein futuristisches Denken, keine Utopien und keine Phantasien.

„Die Human Resources programmieren die Employer Branding Maschine rasch noch auf die Kohorte der so genannten ‚Millennials‘, während männliche Mittfünfziger in den Chefetagen der Konzerne digitale Phrasen dreschen. Kaum einer weiß, was er da redet, geschweige denn, wie er seine Organisation und seine Mitarbeiter dorthin bekommt. Und in einer solchen Situation lässt sich vortrefflich Geld verdienen. So planen die meisten ihren nächsten Karriereschritt hin zur sich bereits andeutenden Vollendung des beruflichen Lebenswerks. Nach mir die Sintflut. Analog oder digital? Mir doch egal“, so  Robert Franken in seinem Blog „Digitale Tanzformation“.

Graf Zahl an der Unternehmensspitze

Graf Zahl steuert die Unternehmensgeschicke und vielleicht noch Daniel Düsentrieb, der Vorhandenes etwas besser macht: Blinklicht-Innovationen, die Professor Lutz Becker im Utopie-Podcast #KönigvonDeutschland im Gespräch mit dem Zukunftsforscher  Sven Gabor Janszky  angeschnitten hat. Es fehlen leidenschaftliche Zukunftsbilder, meint Janszky. Es mangelt an Regelbrechern, die die geschriebenen und ungeschriebenen Gesetze in Frage stellen. Wir können noch so viele Digital Hubs gründen und Fördermittel herauspusten, letztlich konzentrieren wir uns auf Tätigkeiten, die die vorhandenen Technologien etwas besser machen. Das große Gemälde für gesellschaftliche Utopien sucht man vergeblich. „Unternehmen haben heute in den allermeisten Fällen nicht einmal mehr das kleine Einmaleins der Beziehungsarbeit zu ihrer Belegschaft drauf. Sie stiften statt Sinn nur Angst und Verwirrung, wenn sie jedes Individualschicksal der großen Optimierungsmaschine unterwerfen“ , führt Franken aus.

Humankapital wird abgebaut

Humankapital eben. Stellenabbau, permanente Befristung und prekäre Lohnsituation mag kurzfristig dem Shareholder Value dienen – langfristig führt es in die Sackgasse. Das sollte die SPD thematisieren und nicht die industriepolitischen Gesänge der 70er Jahre trällern. Statt mutig Neues zuzulassen und alte Systeme auf den Kopf zu stellen, läuft das Möglichkeitsdenken auf Sparflamme. Dabei gibt es keinen Determinismus, der uns vorschreibt, wie wir die Zukunft gestalten. Etwa die Rolle von wenigen Super-Computern, die nur von wenigen Menschen beherrscht werden. Gibt es wirklich nur eine Handvoll Götter, die dem Rest der Menschheit diktiert, wie wir leben sollen?

Neue Regeln denken

Wir könnten ja über neue Systeme nachdenken, die eine demokratische Gewaltenteilung für die Maschinenwelt ermöglicht, schlägt Janszky vor. Also neue Regeln, um den Machtmissbrauch von Künstlicher Intelligenz zu verhindern. Algorithmen programmieren, die dezentral, offen und kollaborativ ausgerichtet sind. Szenarien beschreiben und dann Impulse zur Realisierung bieten. Sich nicht mehr als der allwissende Experte inszenieren, sondern als Erster unter den Lernenden neue Möglichkeitsräume erarbeiten. Nicht konstruierten ökonomischen Sachzwängen hinterherlaufen, sondern lebenswerte Zukunftsentwürfe diskutieren. Wir sollten eine Kritische Theorie der Künstlichen Intelligenz entwerfen und aufdecken, wie viele Vorurteile in Daten stecken. Also Vorurteile, die wir alle in die Daten stecken. Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden. „Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so KI-Kenner Stefan Holtel. Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene ein. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden. „Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss”, fordert Holtel. Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation. „Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben – mit fatalen Folgen für ganze Volkswirtschaften in Europa. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel: „Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Kritischer Diskurs über Künstliche Intelligenz

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden. „Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel. Man sollte Gegen-Narrative in die Organisationen bringen. Die alten Eliten sind von einer Blase der Ja-Sager umgeben. Wie wäre es mit einer subversiven Injektion für kritisches Denken? Das gelingt schon durch Gespräche mit den Mächtigen. So pflegte der Philosoph Karl Popper eine sehr intensive Beziehung zum Altkanzler Helmut Schmidt. Das habe den früheren Regierungschef in seinem politischen Denken sehr stark geprägt. Popper war indirekt ein Hacker der politischen Elite.

Zudem könnte sollte man die Demokratie digital upgraden. Das schlägt Professor Dirk Helbing vor. Er würde gerne einen digitalen Katalysator bauen, der uns alle befähigt, bessere Entscheidungen zu
treffen, kreativer und innovativer zu sein, sowie die Koordination untereinander auf eine höhere Qualitätsstufe zu stellen. Co-Kreation, kollektive Intelligenz und Co-Evolution sind die Stichworte, die der Professor für Computational Social Science an der ETH Zürich beim netzökonomischen Diskurs der D2030-Initiative thematisierte. Um das zu erreichen, braucht man Plattformen und digitale Assistenten, die sich in den Dienst der res publica stellen und nicht von einzelnen Unternehmen dominiert werden. „Wir können die Demokratie digital upgraden“ , so Helbing. Damit meint er nicht die Projekte in Bund, Ländern und Kommunen unter der Überschrift E-Government: Statt intelligente Plattformen zu schaffen, wurde nach dem Prinzip „Bürokratie im Netz“ die Flut von Formularen und Anordnungen einfach online abgebildet. Das Ganze wird zu Tode verwaltet. „Wir benötigen die Kombination von smarten Technologien mit smarten Bürgerinnen und Bürgern. So etwas kann man der Politik nicht alleine überlassen. Für so etwas brauchen wir Investitionen, Kooperationen und eine breite Beteiligung der Bevölkerung“ , betont Helbing.

Res publica-Supercomputer

Wie könnte die Kombinatorik von kollektiver Intelligenz, Big Data und so eine Art res publica-Supercomputer aussehen? Helbing schweben dezentral organisierte MOODs vor – also Massive Open Online Deliberation Platforms. Virtuelle Verhandlungstische für Politik, Wirtschaft und Gesellschaft. MOODs könnten genutzt werden, um innovativere Politikansätze auszuarbeiten, die über das einfache Mehrheitsprinzip hinausgehen. Es sollen verschiedene Perspektiven integriert werden, die nicht auf der Interessen- und Umverteilungspolitik von minimalen Mehrheiten basieren „Bei den verschiedensten komplexen Herausforderungen wurde schon oftmals gezeigt, dass in der Kombination von Ideen und in der Interaktion zwischen Menschen sowie von Menschen und Maschinen die besten Resultate erzielt werden können. Ein solcher Ansatz kann nicht nur die Entfaltungsmöglichkeiten vieler Bevölkerungsgruppen und kombinatorische Innovation fördern, sondern auch für eine möglichst große Chancengleichheit und eine ausgeglichene Zufriedenheit unter den Bevölkerungsgruppen sorgen“ , so Helbing.

Komplexe gesellschaftliche Strukturen benötigen Ideenpluralismus und kombinatorische Innovation

Dazu brauche man allerdings die Wissenschaft. Die Komplexität der Welt wachse schneller als die Rechnerleistungen. „Wir brauchen einen anderen Steuerungsansatz mit verteilter Kontrolle und mehr Partizipation. Nur eine pluralistische Gesellschaft ist wandlungsfähig, resilienter und entwickelt mehr kollektive Intelligenz“, sagt Helbing. Digitale Demokratie sei dann erfolgreich, wenn es gelingt, die digitalen Möglichkeiten so zu nutzen, dass die Ideen von Habermas oder Fishkin zur deliberativen Demokratie umgesetzt werden. Statt einer datengetriebenen Politik basierend auf zentraler Top-Down-Kontrolle und globalen Einheitslösungen plädiert Helbing für einen Weg, der die Komplexität und Vielfalt zu unseren Gunsten nutzen kann – durch den Aufbau von dezentralisierten Kooperationsnetzwerken.

Diskursmöglichkeiten in polarisierten Gesellschaften

In jüngster Zeit wurde mehrfach hervorgehoben, dass in polarisierten Gesellschaften die Suche 51 Prozent-Mehrheiten keine geeignete Lösung darstellt, da sie zu einer Diktatur der Mehrheit über die Minderheit führen kann. „Zusätzlich haben besonders knappe Resultate – man nehme die Abstimmung zum Brexit oder zur Masseneinwanderungsinitiative in der Schweiz – zu Protesten geführt, weil man die Aussagekraft der Resultate und die Fairness des politischen Prozesses anzweifelt. Heute können die Bürgerinnen und Bürger zu einer komplexen, vielschichtigen Frage meist nur ‚Ja‘ oder ‚Nein‘ sagen. Ja oder Nein reicht jedoch oft nicht“ , führt der ETH-Professor aus. Mit digitalen Plattformen könnten sich die Menschen mit der Komplexität ihres Staates von Politik auseinandersetzen und verstehen eher die Notwendigkeit von diversifizierten Politikansätzen. Am Ende eines Deliberationsprozesses kann es immer noch einer Mehrheitswahl bedürfen. Aber zu diesem Zeitpunkt enthielte der Lösungsansatz bereits einen substantiellen Anteil an Ideen und Präferenzen der Bürgerinnen und Bürger und es käme daher viel seltener zu polarisierten Ergebnissen.

„MOODs haben einen weiteren, gewichtigen Einfluss auf die Modernisierung der Politik. Sie erlauben es, den Puls der Zeit viel schneller aufzunehmen und so rasch auf neue Herausforderungen einzugehen. Die technologische Entwicklung ist heute mitunter rasant und die Politik hinkt oft hinterher. Mittels MOODs wird der Austausch der Technologie Avantgarde mit Politik und Verwaltung vereinfacht und institutionalisiert“, erläutert Helbing, Mitglied des D2030-Fachbeirats.

Fakten-Checks mit Künstlicher Intelligenz

MOODs sollten moderiert werden durch von der Gemeinschaft gewählte Moderatorinnen und Moderatoren, um faire und konstruktive Diskussionen zu ermöglichen. Künstliche Intelligenz könne dazu genutzt werden, auffällige Aktivitäten zu erkennen und damit Chat-Roboter und Ghostwriter zu enttarnen. Künstliche Intelligenz könnte zudem die verschiedenen Argumente in einer Diskussion sortieren und organisieren und so zu einer ausgewogenen und übersichtlichen Diskussion beitragen. Also Fakten-Checks, die nicht willkürlich von staatlichen oder privaten Organisationen betrieben werden. Digitale Demokratie könnte nach Ansicht von Helbing einige der wichtigsten Errungenschaften unserer Gesellschaft wiederbeleben: Selbstbestimmung, Freiheit, Gewaltenteilung, Chancengleichheit, soziale Partizipation und Mitbestimmung sowie Diversität und gesellschaftliche Resilienz. Das öffentliche Aushandeln von Positionen ist das Herz der res publica. Weise und kluge Organisationen in Wirtschaft und Politik setzen auf offene Verfahren, so Internet-Governance-Experte Professor Wolfgang Kleinwächter. Solche Prozesse seien zweitaufwändig, aber die Ergebnisse sind nachhaltiger. „90 Prozent der Themen, die in den Handelsabkommen TTIP und CETA verhandelt wurden, betreffen öffentliche Interessen und sollten deswegen auch öffentlich besprochen werden“, fordert Kleinwächter. Wer die Zivilgesellschaft zum Zaungast degradiert, fördert Ressentiments und radikale Gruppierungen. „Wenn Big Business und Big Goverment zusammengehen, dann ist das kein Multi-Stakeholder-Modell. So etwas führt nur zu einer Tyrannei der Mächtigen“, warnt Kleinwächter. Nur im herrschaftsfreien Dialog gewinnt man das Vertrauen von breiten Bevölkerungskreisen in die Digitalisierung und in die Datenökonomie. Die Autoren Scherer, Palazzo und Butz subsumieren das unter dem Begriff „Global Governance“. Es müssen neue Formen der politischen Steuerung gefunden werden, um die politische Ordnung mittels neuer demokratischer Institutionen und Verfahren wieder herzustellen. Das sei nicht nur eine Angelegenheit der nationalen Regierungen und internationalen Institutionen, sondern auch eine Sache der privaten Akteure wie Nichtregierungsorganisationen, zivilgesellschaftlichen Gruppen, Konsumenten, Arbeitnehmer und eben auch Unternehmen. Runde Tische sollten im Lichte der Öffentlichkeit Standards für Arbeitsleben, Menschenrechte, Korruptionsbekämpfung, Gesundheitswesen, Umweltschutz und Bildung entwickeln. Im transnationalen Diskurs kann man sich dann nicht mehr mit netten PR-Sprüchen, CSR-Hochglanzbroschüren und semantischen Nebelkerzen über Wasser halten. In diesem Demokratiemodell sind Unternehmen dann Gegenstand demokratischer Mitentscheidung und Kontrolle. Genau das wollen die CETA- und TTIP-Konstrukteure vermeiden. Zumindest die Wirtschaftstheorie sollte verstärkt die Legitimität unternehmerischen Handelns im Geiste des Pflichtethikers Immanuel Kant auf die Tagesordnung setzen. Von Unterhändlern, die im Hinterzimmer an den transatlantischen Freihandelsabkommen feilen, ist das nicht zu erwarten.

Soweit der etwas gekürzte Essay, der in einem Sammelband zur Datenökonomie erschienen ist. Wollte Euch das nicht vorenthalten.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.