
Neue Techniken sollen nach einem Bericht der Süddeutschen Zeitung künftig politische Probleme vorhersagen und selbstständig Lösungen entwickeln. Regieren werde so zum reinen Prozessmanagement.
“In zahlreichen Ländern setzen Polizeibehörden sogenannte Predictive-Policing-Software ein, die aus Daten eine Wahrscheinlichkeit für Verbrechen in der Zukunft vorhersagt. In den USA hat die Stadt Chicago einen Algorithmus entwickelt, um Hygieneverstöße in Restaurants vorherzusagen. In Großbritannien versuchen Behörden mit Big-Data-Analysen Missbrauchsfälle von Kindern zu prognostizieren. Und in Deutschland will die Bundeswehr mithilfe eines KI-Systems ‘potenzielle’ Krisen noch vor ihrer Entstehung vorhersagen”, berichtet die SZ.
Das Bemerkenswerte an diesem neuen Politikmodus sei nicht nur, dass Herrschaft auf eine neue Legitimationsgrundlage (nämlich Daten) gestellt wird, sondern dass über die deterministischen Formeln auch neue Regeln festgesetzt werden.
“Denn was als krisenhaft gilt, definieren ja nicht mehr der Entscheider oder der politische Souverän, sondern die Entwickler der Software”, schreibt die SZ. Diese Privatisierung und Technisierung des Politischen sei die Fortsetzung libertärer Staatsutopien, deren Vordenker schon vor Jahrzehnten von “marktförmigen” Regierungsstrukturen redeten.
Das Ganze fußt auf einer kybernetischen Steuerungshybris: Man will den Staat wie ein Thermostat steuern und auf eine allgemein akzeptierte Wohlfühltemperatur ausrichten.
Da wird an Apparaturen wie aus einem Science Fiction-Roman gebastelt. Es seien die ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi. Weltsimulatoren sollen durch Echtzeitanalyse den epidemischen Weg von Schweinegrippen-Viren vorausberechnen. Es sollen Empfehlungen zur Bewältigung des Klimawandels und Frühwarnungen ausgespuckt werden – selbst Befunde zur Bewältigung von Finanzkrisen stellen die Konstrukteure von Simulationsrechnern in Aussicht. Ein Wunschbild für die Apologeten des perfekten politischen Controllings – maschinengesteuerte Entscheidungen auf dem Fundament der Ratio. Sozusagen das der Planbarkeit.
Häufig handelt es sich bei diesen Controlling-Freaks um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und dies ist kein Zufall. Schaut man in ihren Zauberkasten hinein, findet man recht simple Formeln. So hat Professor Michael Feindt den so genannten NeuroBayes-Algorithmus erfunden. Sein Ziel war es, ein Werkzeug für exakte Prognosen zu schaffen – sowohl für die wissenschaftliche Forschung als auch für unterschiedliche Wirtschaftszweige und deren Entscheidungsprobleme in Unternehmen (was ist nur daraus geworden??????).
Das Feindt-Szenario klingt so: Man hat beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode. „Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.
Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.
Feindt würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine agiert. Aber was steckt tatsächlich hinter den Durchschnittswerten, die ermittelt werden?
Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Irre führen oder miese Entscheidungen verschleiern.
Politische Welterklärungsmaschinen sind ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige. Sie können ihre schmutzigen Entscheidungen auf die Algorithmen schieben. Darauf verweist PWC-Analyst Stefan Holtel. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene.
Es gibt immer wieder Modewellen, die die Analysierbarkeit komplexer Systeme versprechen. Von der Hirnforschung, über die Formelwelt der Finanzbranche bis zu den Supercomputern mit ihren Echtzeitanalysen. In diesem Diskurs schwingt der monokausale Glaube mit, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat. „Wenn ich die Vergangenheit umfangreich und schnell genug auswerte, weiß ich, was die Zukunft bringt. Und genau das ist die Illusion. Das ist zwar möglich. Aber ich muss dann für sehr triviale Strukturen sorgen. In der Physik nennt man das Labor. Die Welt, wie sie ist, wird ausgeblendet. Mit den wenigen Wirkungszusammenhängen, die übrig bleiben, entwickelt man Gesetzmäßigkeiten. Für soziale Systeme ist das aber albern“, sagt Dr. Gerhard Wohland vom Institut für dynamikrobuste Höchstleister.
Ein Modell müsse einfacher sein als das, was es modelliert. Wenn das nicht so wäre, könnte man ja direkt den Untersuchungsgegenstand heranziehen. Modelle müssen also immer simplifizieren. Aspekte der Wirklichkeit werden ausgeblendet. Das gelingt aber nur, wenn zwischen wichtig und unwichtig unterschieden wird. Komplexe Systeme, also auch die menschliche Gesellschaft, kennen aber diese Unterscheidung überhaupt nicht. „Welches Ereignis nun eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen“, betont der Organisationswissenschaftler Wohland. Die kleinsten Ursachen, die von Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig.
Insofern sei es fragwürdig, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben. Im politischen Kontext ist es sogar gefährlich: “Was an diesem datengetriebenen, deterministischen Governance-Modellen irritiert, ist ja nicht nur die materielle Aushöhlung des Politischen und Ausschaltung diskursiver Verfahren, sondern auch, dass die Zukunft nicht mehr als gestaltbarer Möglichkeitsraum begriffen wird, sondern als latente Bedrohung, ein Risiko, das es zu ‘managen’ gilt – mit der bitteren Pointe, dass Utopien unter dem Datenregime unter Ideologieverdacht stehen, weil sie nicht berechenbar sind”, resümiert die SZ. Sehe ich auch so.