Im Internet der Dinge infiltriert Software heute jede fast jede Maschine:
„Das Universum kommunizierender Objekte expandiert weiter. Und damit werden unehrliche Menschen und korrupte Organisationen mehr denn je versucht sein, ihre Produkte nach eigenen Wünschen zu impfen. Nennen wir das einfach mal ‘Lügen zweiter Ordnung’. Und Benutzer können das nicht mehr erkennen. Denn leider wächst den Maschinen keine lange Nase. So wird Wahrheit oder Lüge plötzlich ein Schlüsselfaktor in der Mensch-Maschine-Interaktion. Und es taucht schlagartig die Frage auf, ob und wie man Maschinen ethisches Verhalten beibringen könnte. Ein sehr verzwicktes Problem. Und es führt zu Verwicklungen, für die wir heute noch nicht mal Denkfiguren haben. Es wird Zeit, die zu entdecken”, so Brightone-Analyst Stefan Holtel im Gespräch mit dem Soziopod-Blogger Patrick Breitenbach auf der Next Economy Open in Bonn.
Wenn Konzerne wie Psychopathen agieren
Beim VW-Skandal ist dieser Teufelspakt zwischen lügenden Maschinen und Maschinisten im Brennglas zu beobachten. Beim Wolfsburger Autogiganten ist es eine Kombination von autoritären Kommandostrukturen, Erfolgsdruck und Hörigkeit. Nur so können teuflische Effekte entstehen, die kaum noch unter Kontrolle zu bringen sind. Mit gesundem Menschenverstand könne man das Verhalten der VW-Topmanager nicht begründen, so Holtel. Bei VW handelt man total irrational, da es höchst naiv sei, bei Manipulationen in Millionen Fahrzeugen nicht mit der Aufdeckung zu rechnen. Jetzt ist der Schaden maximal.
Die Ursachen für den Diesel-Gate basieren auf den Organisationsstrukturen, die sich in fast allen Weltkonzernen finden lassen: Geschlossene und egozentrische Einheiten agieren wie ein Psychopath: Unberechenbar, unkontrolliert und beziehungsunfähig. Das Fundament sind autokratische Top-Manager, die mit emotionalen Ausbrüchen ihre Belegschaft zu Ja-Sagern degradieren. Ein Konzern sei nichts anderes als ein Psychopath, bemerkt Holtel in dem Fachgespräch im Rheinischen Landesmuseum. Diese Erkenntnis hilft vor allem dem gemobbten Mitarbeiter weiter, weil er Abstand finden kann zwischen sich und der Konzernstruktur.
„Mit Psychopathen zu interagieren ist schwierig. Man kann keine Vertrauensbasis aufbauen, man weiß nie, was im nächsten Augenblick passiert“, sagt der Brightone-Spezialist für Künstliche Intelligenz.
Mythos der Unfehlbarkeit: Maschinen als symbolisches Kapital
Für die Überlebensstrategie innerhalb des Konzerns mag diese Erkenntnis hilfreich sein, auch wenn eine Portion Fatalismus dabei herausspringt oder die innere Kündigung. In den Machtbeziehungen zur Außenwelt ist diese Konstellation äußerst problematisch. Patrick Breitenbach warnte vor einer Akkumulation von Macht, die von psychopathischen Organisationen ausgeht. Konzerne akkumulieren nicht nur ökonomisches Kapital, sondern soziales Kapital über Beziehungen, Netzwerke und Eliten, kulturelles Kapital über Informationsvorsprünge und symbolisches Kapitel über Expertentum und Maschinen. Gefährlich sei vor allem die Anhäufung von symbolischem Kapital über Maschinen, die wir für wahrhaftig und präzise halten.
Wir schreiben den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zu.
„Das speist sich unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen“, erklärt Holtel.
Mit den Fähigkeiten von kognitiven Maschinen wie IBM Watson sei es für Menschen schwer, auf Augenhöhe zu interagieren. Das wertet der Brightons-Analyst als Bedrohung. IBM und Co. verkaufen uns das mit Narrativen der Weltverbesserung und stellen sich kaum den kritischen Fragen. Sie wollen neue Märkte erobern und damit Milliarden machen. Aus wirtschaftlichen Gründen sei das nachvollziehbar, aus politischer, gesellschaftlicher und psychologischer Sicht ist das hoch brisant.
Warum wir IBM-Watson und Co. dekonstruieren müssen
„Wir werden von Systemen ummantelt, die immer mehr Fähigkeiten haben, von denen wir nicht mehr wissen, was sie mit uns tun. Digitale Assistenten, wie die Spracherkennungs-Software Siri sind erst der stümperhafte Anfang von dem, was noch kommen wird“, warnt Holtel.
So werde IBM-Watson in einer verbesserten Version in sieben oder acht Jahren auf unseren Smartphones passen und uns durchs Leben dirigieren. Wir haben dem nichts entgegenzusetzen, weil uns schlichtweg die Fähigkeiten in Schulen und Hochschulen nicht vermittelt werden, um Big Data-Anwendungen und diskriminierende Algorithmen, die beispielsweise unsere Kreditwürdigkeit herunterstufen oder Prämien für Krankenversicherungen hoch stufen, forensisch unter die Lupe zu nehmen. Die Politik müsste ein Checks-and-Balance-Regelwerk schaffen, um zwischen Mensch und Maschine einen Machtausgleich herzustellen und den Machteliten einen Missbrauch der Maschinen-Intelligenz zu erschweren, fordert Breitenbach.
Wir sollten zudem die Übertreibungen von Extremisten der Künstlichen Intelligenz im öffentlichen Diskurs dekonstruieren. Mit der Verteufelung von Technik kommt man dabei nicht weit. Was denkbar ist, wird umgesetzt. Und Macht ist eine Konstante in unserem Leben. Wer das ignoriert, dem wird es schwerfallen, eine Rezeptur im politischen Diskurs hervorzuzaubern. Gefragt seien vor allem Gegen-Narrative zur Entlarvung der wahren Absichten der manipulativen Maschinisten.
Der entmündigte Bürger
Es sei völlig inakzeptabel, diese Technologien zum Entmündigen des Bürgers zu nutzen, proklamieren die Digital Manifest-Autoren in einem Beitrag für Spektrum Wissenschaft.
„Big Nudging und Citizen Scores missbrauchen zentral gesammelte persönliche Daten für eine Verhaltenskontrolle, die totalitäre Züge trägt. Dies ist nicht nur unvereinbar mit Menschenrechten und demokratischen Prinzipien, sondern auch ungeeignet, eine moderne, innovative Gesellschaft zu managen. Um die eigentlichen Probleme zu lösen, sind vielmehr bessere Informationen und Risikokompetenz gefragt.“
Für persönliche Daten, die über uns gesammelt werden, sollte es ein Recht auf Kopie geben, liebwerteste Gichtlinge von Schufa und Konsorten.
„Es sollte gesetzlich geregelt sein, dass diese Kopie in einem standardisierten Format automatisch an eine persönliche Datenmailbox gesandt wird, über die jeder Einzelne die Verwendung der Daten steuern kann. Für einen besseren Schutz der Privatsphäre und um Diskriminierung zu vermeiden, wäre eine unautorisierte Verwendung der Daten unter Strafe zu stellen. So könnte man selbst entscheiden, wer welche Informationen für welchen Zweck wie lange nutzen darf.“
Wenn der Bundesgerichtshof aber die Offenlegung dieser Daten und die undurchsichtigen Algorithmen als Geschäftsgeheimnis einstuft, wie beim Schufa-Urteil, wird es schwerfallen, auch nur annähernd für Klarheit zu sorgen, wenn Maschinen lügen, denunzieren und Existenzen ruinieren. Die juristischen Fakultäten sollten daher überlegen, Informatik und Big Data-Forensik als Pflichtfach einzuführen, damit solche Urteile bald der Vergangenheit angehören.