Auch die Wochenzeitungen “Die Zeit” setzt sich in ihrer aktuellen Ausgabe mit Fluch und Segen der Personalisierung von Web-Diensten auseinander. Unstrittig ist sicherlich die Notwendigkeit von Filtertechnologien, Sortiermöglichkeiten und Netzintelligenz, um sich im Wust der Daten des Internets nicht zu verlieren. Jeder hat auch schon im analogen Zeitalter Dinge geordnet, mit Zettelkasten, Ordnern oder sonstigen Sortiersystemen gearbeitet, um die Arbeitsorganisation zu verbessern. Auch bei der heutigen Zeit-Lektüre schaue ich mir erst das Inhaltsverzeichnis durch und lese nur das, was ich mich auch wirklich interessiert – wie eben der Beitrag “Automatisch vorsortiert”, der mittlerweile auch online abrufbar ist.
Gleiches gilt für personalisierte Werbung im Netz. In einer Kolumne für “The European” habe ich das ja bereits aufgegriffen: Hört man Datenschützern zu, könnte man meinen, der Teufel selbst habe personalisierte Werbung als Geißel der Menschheit erfunden. Doch jeder von normaler Massenwerbung malträtierte Konsument weiß es natürlich besser, denn ohne Pinkelpause macht der schönste Fernsehfilm keinen Spaß. So die Einleitung meines Beitrages. Wer also einen Artikel über “Mausefallen” im Web recherchiert, wird bei Google dann eben im Werbeblock mit Angeboten für den Fang von Nagetieren berieselt. Das kann man sicherlich noch verkraften. Was aber passiert, wenn Filtertechnologien immer stärker auch die normalen Suchergebnisse beeinflussen? Die Frage hat ja bereits Frank Schirrmacher in seinem Buch “Payback” aufgeworfen. Werden wir immer stärker von Algorithmen beherrscht, wie es der FAZ-Herausgeber befürchtet (der gleichzeitig auch die Datenflut beklagt)? Können wir die intelligenten Assistenten abschalten, wenn wir keine Lust auf sie haben? Und wie sieht es mit dem Recht auf die Abschaltung solcher Dienste aus, wenn wir Persönlichkeitsrechte und die Privatsphäre in Gefahr sehen (siehe auch: Data-Economy oder Algorithmen-Diktatur? Wie wir die Datenflut überwinden können)?
Aber ein Experiment, dass in dem Zeit-Artikel erwähnt wird, macht zumindest klar, dass wir es nicht mit einer “Schweigespirale” zu tun haben, sondern jeder von uns über Filteralgorithmen höchst unterschiedliche Ergebnisse über Google, Bing, Facebook und Co. bekommt. “Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder, Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren”, schreibt die Zeit.
In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. “Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen”, wird Stalder von der Zeit zitiert. Eine Gefahr besteht dann allerdings nicht, die von Massenmedien sehr wohl ausgeht, die Entstehung eines einheitlichen Meinungsklimas. Zudem nutze ich ja nicht nur Google, Facebook oder Twitter für meine Recherchen, sondern auch andere Quellen wie Blogs, Bücher, Interviews, Expertengespräche, Vorträge oder persönliche Erfahrungen. Die Zeit zitiert dann eine Forderung des Filter-Bubble-Kritikers Eli Pariser, die ich für viel problematischer halte und die teilweise ja schon Realität ist: Da die algorithmischen Vorsortierer über keine eingebaute Ethik verfügen, sollten beispielsweise die Google-Gründer Larry Page und Sergey Bring dafür sorgen, dass fortan “bürgerliche Verantwortung” in die Codezeilen neuer Sortiersoftware einfließen zu lassen. Unstrittig ist sicherlich die Forderung, die Kriterien der Filterung offenzulegen. “Wer Relevanz definiert, muss es erläutern. Wer weglässt, muss darauf hinweisen”, so die Zeit.
Aber was ist mit den Kategorien Ethik und bürgerliche Verantwortung?
Algorithmen werden von Menschen programmiert. Auch das Adwords- und Adsense-Programm von Google wird von Menschen organisiert. Was passiert, wenn beispielsweise Werbekunden zensiert werden und mit einer Kündigung ihres Kontos bedroht werden, obwohl sie nicht gegen Wettbewerbsrecht verstoßen? Google oder Apple können sich doch nicht zur richterlichen Instanz aufschwingen und entscheiden, was richtig und falsch im öffentlichen Leben ist? Für welche Produkte geworben werden darf oder welche Nacktfotos über Apps auf Smartphones erscheinen dürfen? Richard Gutjahr hat im vergangenen Jahr dazu entsprechendes erlebt (siehe: Google-Robots als Sittenwächter: „Sie haben drei Werktage Zeit, gutjahr.biz zu ändern“).
Systeme, Geräte oder Suchmaschinen dürften nicht darüber entscheiden, was richtig und was falsch für uns sei und unser Verhalten einschränken oder sogar sanktionieren. Sonst würde der Mensch zum Sklaven der Technik. Eine Automaten-Diktatur könnte sich nachhaltiger auswirken als das paternalistische Verhalten unter Menschen, warnen die Wissenschaftler Sarah Spiekermann und Frank Pallas in einem Beitrag für das Fachbuch „Die Informatisierung des Alltags“ (Hrsg. Friedemann Mattern, Springer-Verlag): „Zum einen reagieren Maschinen automatisch und autonom und lassen den Betroffenen damit nur wenig Möglichkeit zur Antizipation oder Reaktion. Zum anderen ist Technik absolut. Hat beispielsweise ein Fahrer Alkohol in der Atemluft, so ist es ihm gänzlich unmöglich, das entsprechende Auto zu starten – auch in Notfällen, in denen das Fahren unter Alkoholeinfluss üblicherweise akzeptiert würde“.
Ethische Algorithmen wird es also nie geben können. Viel wichtiger ist eine Pluralität der Informationsquellen und mehr Wettbewerb im Internet. Google, Apple oder Facebook bleiben nur dann harmlos, wenn es Alternativen gibt. Ich möchte mir jedenfalls nicht von Steve Jobs vorschreiben lassen, was moralisch akzeptabel ist und was nicht – auch nicht über Apps.
Siehe auch:
http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles.html