Algorithmen als Instanz für Ethik und Moral? Ein weiterer Beitrag zur Filterblasen-Debatte

Auch die Wochenzeitungen „Die Zeit“ setzt sich in ihrer aktuellen Ausgabe mit Fluch und Segen der Personalisierung von Web-Diensten auseinander. Unstrittig ist sicherlich die Notwendigkeit von Filtertechnologien, Sortiermöglichkeiten und Netzintelligenz, um sich im Wust der Daten des Internets nicht zu verlieren. Jeder hat auch schon im analogen Zeitalter Dinge geordnet, mit Zettelkasten, Ordnern oder sonstigen Sortiersystemen gearbeitet, um die Arbeitsorganisation zu verbessern. Auch bei der heutigen Zeit-Lektüre schaue ich mir erst das Inhaltsverzeichnis durch und lese nur das, was ich mich auch wirklich interessiert – wie eben der Beitrag „Automatisch vorsortiert“, der mittlerweile auch online abrufbar ist.

Gleiches gilt für personalisierte Werbung im Netz. In einer Kolumne für „The European“ habe ich das ja bereits aufgegriffen: Hört man Datenschützern zu, könnte man meinen, der Teufel selbst habe personalisierte Werbung als Geißel der Menschheit erfunden. Doch jeder von normaler Massenwerbung malträtierte Konsument weiß es natürlich besser, denn ohne Pinkelpause macht der schönste Fernsehfilm keinen Spaß. So die Einleitung meines Beitrages. Wer also einen Artikel über „Mausefallen“ im Web recherchiert, wird bei Google dann eben im Werbeblock mit Angeboten für den Fang von Nagetieren berieselt. Das kann man sicherlich noch verkraften. Was aber passiert, wenn Filtertechnologien immer stärker auch die normalen Suchergebnisse beeinflussen? Die Frage hat ja bereits Frank Schirrmacher in seinem Buch „Payback“ aufgeworfen. Werden wir immer stärker von Algorithmen beherrscht, wie es der FAZ-Herausgeber befürchtet (der gleichzeitig auch die Datenflut beklagt)? Können wir die intelligenten Assistenten abschalten, wenn wir keine Lust auf sie haben? Und wie sieht es mit dem Recht auf die Abschaltung solcher Dienste aus, wenn wir Persönlichkeitsrechte und die Privatsphäre in Gefahr sehen (siehe auch: Data-Economy oder Algorithmen-Diktatur? Wie wir die Datenflut überwinden können)?

Aber ein Experiment, dass in dem Zeit-Artikel erwähnt wird, macht zumindest klar, dass wir es nicht mit einer „Schweigespirale“ zu tun haben, sondern jeder von uns über Filteralgorithmen höchst unterschiedliche Ergebnisse über Google, Bing, Facebook und Co. bekommt. „Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder, Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren“, schreibt die Zeit.

In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. „Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen“, wird Stalder von der Zeit zitiert. Eine Gefahr besteht dann allerdings nicht, die von Massenmedien sehr wohl ausgeht, die Entstehung eines einheitlichen Meinungsklimas. Zudem nutze ich ja nicht nur Google, Facebook oder Twitter für meine Recherchen, sondern auch andere Quellen wie Blogs, Bücher, Interviews, Expertengespräche, Vorträge oder persönliche Erfahrungen. Die Zeit zitiert dann eine Forderung des Filter-Bubble-Kritikers Eli Pariser, die ich für viel problematischer halte und die teilweise ja schon Realität ist: Da die algorithmischen Vorsortierer über keine eingebaute Ethik verfügen, sollten beispielsweise die Google-Gründer Larry Page und Sergey Bring dafür sorgen, dass fortan „bürgerliche Verantwortung“ in die Codezeilen neuer Sortiersoftware einfließen zu lassen. Unstrittig ist sicherlich die Forderung, die Kriterien der Filterung offenzulegen. „Wer Relevanz definiert, muss es erläutern. Wer weglässt, muss darauf hinweisen“, so die Zeit.

Aber was ist mit den Kategorien Ethik und bürgerliche Verantwortung?

Algorithmen werden von Menschen programmiert. Auch das Adwords- und Adsense-Programm von Google wird von Menschen organisiert. Was passiert, wenn beispielsweise Werbekunden zensiert werden und mit einer Kündigung ihres Kontos bedroht werden, obwohl sie nicht gegen Wettbewerbsrecht verstoßen? Google oder Apple können sich doch nicht zur richterlichen Instanz aufschwingen und entscheiden, was richtig und falsch im öffentlichen Leben ist? Für welche Produkte geworben werden darf oder welche Nacktfotos über Apps auf Smartphones erscheinen dürfen? Richard Gutjahr hat im vergangenen Jahr dazu entsprechendes erlebt (siehe: Google-Robots als Sittenwächter: „Sie haben drei Werktage Zeit, gutjahr.biz zu ändern“).

Systeme, Geräte oder Suchmaschinen dürften nicht darüber entscheiden, was richtig und was falsch für uns sei und unser Verhalten einschränken oder sogar sanktionieren. Sonst würde der Mensch zum Sklaven der Technik. Eine Automaten-Diktatur könnte sich nachhaltiger auswirken als das paternalistische Verhalten unter Menschen, warnen die Wissenschaftler Sarah Spiekermann und Frank Pallas in einem Beitrag für das Fachbuch „Die Informatisierung des Alltags“ (Hrsg. Friedemann Mattern, Springer-Verlag): „Zum einen reagieren Maschinen automatisch und autonom und lassen den Betroffenen damit nur wenig Möglichkeit zur Antizipation oder Reaktion. Zum anderen ist Technik absolut. Hat beispielsweise ein Fahrer Alkohol in der Atemluft, so ist es ihm gänzlich unmöglich, das entsprechende Auto zu starten – auch in Notfällen, in denen das Fahren unter Alkoholeinfluss üblicherweise akzeptiert würde“.

Ethische Algorithmen wird es also nie geben können. Viel wichtiger ist eine Pluralität der Informationsquellen und mehr Wettbewerb im Internet. Google, Apple oder Facebook bleiben nur dann harmlos, wenn es Alternativen gibt. Ich möchte mir jedenfalls nicht von Steve Jobs vorschreiben lassen, was moralisch akzeptabel ist und was nicht – auch nicht über Apps.

General Stumm, Schirrmacher und der Mann ohne Eigenschaften: Über das Problem der Kultur und Unendlichkeit

Debattendompteur Frank Schirrmacher fürchtet sich vor den geheimnisvollen Algorithmen des Netzes: „Wir werden das selbstständige Denken verlernen und wir werden uns in fast allen Bereichen der autoritären Herrschaft der Maschinen unterwerfen.“ Der Grund ist die schiere Menge der im Netz verfügbaren Daten, die unsere Aufmerksamkeitsressourcen heillos überfordern – weswegen wir uns auf die Softwareagenten und digitalen Roboter der Ordnungsprogramme des Internets verlassen müssen. Damit aber erleben wir eine Externalisierung des Denkens, dass sich fortan außerhalb unseres Gehirns als algorithmengesteuerter Prozess in der Cloud abspielt. Diese Thesen leiert der FAZ-Herausgeber in seiner Reden-Tournee durch Deutschland als semantische Endlosschleife herunter. Al-Khwarizmi hätte wohl nie gedacht, dass seine algebraischen Denkanstöße zu so weitreichenden Folgen führen könnten. Meint Schirrmacher eigentlich Algorithmen mit polynomialer oder mit exponentieller Laufzeit? Kann der Feuilletonist eine Lösung für das Boole’sche Erfüllbarkeitsproblem präsentieren?

Höre ich mit dem Denken auf, wenn meine schlauen kleinen elektronischen Assistenten mir jeden Tag Informationen über Themen abliefern, die ich über smarte Softwareprogramme abrufe? Schrumpft mein Hirn, wenn mir Amazon automatisch Buchempfehlungen zuschickt, die sich an meinen bisherigen Suchanfragen und Online-Einkäufen orientieren? Auch meine sehr freundliche Kioskverkäuferin kennt meine bevorzugte Zigarettenmarke und weiß, welche Zeitungen und Zeitschriften ich ab und zu kaufe, damit die Printindustrie nicht völlig zusammenbricht. Die Personalisierung im guten, alten Tante Emma-Laden empfinden die meisten Menschen als sympathisch. In meinem Lieblingskiosk bin ich namentlich bekannt, werde freundlich begrüßt und vieles läuft automatisch ab.

Sind es Empfehlungen, hinter denen Algorithmen stecken, wird das Ganze zur monströsen Datenkrake. Das mag in Ansätzen stimmen und es gibt wohl jeden Tag üble Verstöße gegen den Datenschutz. Von staatlichen und privaten Institutionen. Unser Gehirn verändert sich dadurch nicht. Mein freigeistiges Köpfchen erreichen die Algorithmen auch nicht. Denken, reflektieren, lesen, schreiben und disputieren muss ich immer noch selber. Das können meine elektronischen Assistenten nicht – dafür sind die viel zu blöd. Sie können die Komplexität der Datenflut, die es nicht erst seit der Erfindung des Internets gibt, reduzieren und für mich etwas erträglicher machen. Bewältigen kann man die weltweit kursierenden Informationen nie.

Ein wenig erinnert mich Schirrmacher mit seinen Komplexitätsklagen an die Hampelmänner in dem Roman „Der Mann ohne Eigenschaften“ von Robert Musil. Und hier besonders an General Stumm, der auf der Suche nach dem erlösenden Gedanken ist: „‚Du erinnerst Dich‘, sagte er, ‚dass ich mir in den Kopf gesetzt habe, den erlösenden Gedanken, den Diotima sucht, ihr zu Füßen zu legen. Es gibt, wie sich zeigt, sehr viele bedeutende Gedanken, aber einer muss schließlich der bedeutendste sein; das ist doch nur logisch? Es handelt sich also bloß darum, Ordnung in sie zu bringen.'“

Wenig vertraut mit Gedanken und ihrer Handhabung, noch weniger mit der Technik, neue zu entwickeln, beschließt General Stumm, sich in die Hofbibliothek zu begeben, ein grundsätzlich idealer Ort, um sich mit ungewöhnlichen Gedanken auszustatten, wo er sich „über die Stärke des Gegners Klarheit zu verschaffen“ und auf eine möglichst organisierte Weise zu der originellen Idee zu gelangen hofft, nach der er sucht. Der Besuch in der Bibliothek versetzt den General allerdings in große Angst (lieber Herr Schirrmacher), da er mit einem Wissen konfrontiert wird, das ihm keinerlei Orientierung bietet und über das er nicht die vollständige Befehlsgewalt hat, die er als Militär oder Zeitungsherausgeber gewohnt ist:

„Wir sind den kolossalen Bücherschatz abgeschritten, und ich kann sagen, es hat mich weiter nicht erschüttert, diese Bücherreihen sind nicht schlimmer als eine Garnisonsparade. Nur habe ich nach einer Weile anfangen müssen, im Kopf zu rechnen, und das hatte ein unerwartetes Ergebnis. Siehst du, ich hatte mir vorher gedacht, wenn ich jeden Tag da ein Buch lese, so müsste das zwar sehr anstrengend sein, aber irgendwann müsste ich damit zu Ende kommen und dürfte dann eine gewisse Position im Geistesleben beanspruchen, selbst wenn ich das ein oder das andere auslasse. Aber was glaubst du, antwortet mir der Bibliothekar, wie unser Spaziergang kein Ende nimmt und ich ihn frage, wieviel Bände denn eigentlich diese verrückte Bibliothek enthält? Dreieinhalb Millionen Bände, antwortet er! Wir sind da, wie er das sagte, ungefähr beim siebenhunderttausendsten Buch gewesen, aber ich habe von dem Augenblick an ununterbrochen gerechnet (Google oder Wolfram Alpha könnten das in einer Nanosekunde ausspucken); ich will es dir ersparen, ich habe es im Ministerium noch einmal mit Bleistift und Papier nachgerechnet: Zehntausend Jahre würde ich auf diese Weise gebraucht haben, um mich mit meinem Vorsatz durchzusetzen!“

Die Unendlichkeit der Lektüremöglichkeit ist also kein Problem der Internetzeit. Jeder Leser ist eben auch ein Nicht-Leser. Es ist das alte Problem von Kultur und Unendlichkeit, die auch mit Boole’scher Mathematik nicht in den Griff zu kriegen ist. Das wäre auch anmaßend.

Gegen die mathematischen Angstzustände empfehle ich Schirrmacher den Zahlenteufel von Enzensberger. Siehe Buchcover.

Siehe auch:
Netznavigator: Herder statt Schirrmacher.