Vom unerträglichen Dasein in der Filterblase

Allein in der Filterblase - Foto von Gerhard Schröder beim StreamCamp-Aufbautag in Kölle
Allein in der Filterblase – Foto von Gerhard Schröder beim StreamCamp-Aufbautag in Kölle

Kurz vor Weihnachten muss ich ein Bekenntnis ablegen – ähnlich wie Nico Lumma. Es ist einfach nicht mehr zu ertragen, wie wir im Netzzeitalter kommunizieren. Ständig bilden wir Stereotypen, ständig nehmen wir radikale Vereinfachungen vor, ständig neigen wir zu rigorosen Bewertungen, was gut und was böse ist.

Die Netzwelt ist zu groß, zu weit, zu komplex, um als Ganzes verstanden zu werden. Die Wirklichkeit geht an uns vorbei. Wir basteln uns „Pseudowelten“. Originalwahrnehmungen, die ein Mensch eigentlich machen kann, sind in den Plastikwelten von Twitter und Co. einfach nicht mehr möglich. Ein Dasein aus zweiter Hand. Die Welt, mit der wir es in politischer Hinsicht zu tun haben, liegt außer Reichweite, außer Sicht, außerhalb unseres Geistes.

Aber Halt, bevor mein Jammer jetzt ausufert, muss ich noch ein Bekenntnis abgeben. Was ich gerade geschrieben habe, stammt gar nicht aus meiner Feder. Ich habe es aus dem Werk „Public Opinion“ von Walter Lippmann geklaut. Seine Forschungsarbeit ist 1922 erschienen und bezieht sich natürlich nicht auf die Filterblase im Netz, was für eine überraschende Erkenntnis, sondern auf die Gatekeeper-Funktion der klassischen Medien.

„Jede Zeitung, wenn sie den Leser erreicht, ist das Ergebnis einer ganzen Serie von Selektionen“, so der Medienkritiker Lippmann.

Die Umstände zwingen dazu, ein scharfer Mangel an Zeit und Aufmerksamkeit. Und was lassen die Journalisten als „news values“ passieren? Den klaren Sachverhalt, der sich widerspruchsfrei mitteilen lässt, Superlative, Konflikte, Überraschungen, Krisen. Die Auswahlkriterien der gatekeeper erzeugen bewusst oder unbewusst eine Vereinheitlichung der Berichterstattung. Indem so die Auswahlregeln weitgehend übereinstimmen, kommt eine Konsonanz zustande, die auf das Publikum wie eine Bestätigung wirkt.

Für die Beeinflussung der öffentlichen Meinung über Nachrichtenselektion reichen Bild, BamS und Glotze nicht mehr aus. So funktionierten noch die Leitplanken von Altkanzler Gerhard Schröder. Die Willensbildung ist durch das Internet schwieriger und unübersichtlicher geworden.

„Wir erleben ein Ende der Leitmedien“, so der Medienwissenschaftler Bernhard Pörksen im Interview mit WDR 2.

Ein Medium wie Bild könne einen Politiker wie Guttenberg in einer linearen Weise nicht mehr durchsetzen oder halten. Die massive Positivkampagne des größten Boulevardblattes für den baronesken Welterlöser war nicht von Erfolg gekrönt, da man die sich selbst organisierende Web-Öffentlichkeit nicht mehr unter Kontrolle bringt.

„Die Schwarmintelligenz im Netz benötigte gut zwei Tage, um Guttenbergs Dissertation bis auf die Knochen abzunagen. Wie Piranhas“, schreibt Volker Zastrow in einem opulenten und höchst lesenswerten Beitrag für die Frankfurter Allgemeine Sonntagszeitung.

Die blitzschnelle Recherche des GuttenPlag Wikis habe auch die Qualitätsmedien des Landes beeindruckt, sie mit Material und der nötigen Entschiedenheit versorgt, meint Pörksen. Und nicht zuletzt die Wissenschaftscommunity auf die Barrikaden gebracht.

Vox populi bekommt ganz andere Entfaltungsmöglichkeiten.

„Das Internet ändert die Strukturen unserer Öffentlichkeiten, es ändert die Funktionsweisen politischer und gesellschaftlicher Kommunikationsprozesse, es macht es einzelnen einfacher, sich in politische Debatten einzumischen, es macht institutionelle Grenzen durchlässiger und Entscheidungsprozesse transparenter, es ist anders als Massenmedien interaktiv und wird so auch genutzt. Das Internet hat das technische Potenzial für eine demokratische, partizipatorische Mediennutzung“, schreibt Stefan Münker in seinem Buch „Emergenz digitaler Öffentlichkeiten“ und verweist auf Jürgen Habermas, der fest davon überzeugt ist, dass das World Wide Web die Schwächen des anonymen und asymmetrischen Charakters der Massenmedien ausgleiche.

Für Michel Foucault waren die Ausschlussmechanismen der Massenmedien nicht die Ausnahme, sondern die Regel. Diese Spielregeln werden vom Web 2.0 ausgehebelt.

An der Uni Leipzig ist zu diesem Themenkomplex eine interessante Arbeit angefertigt worden. Grundthese: Die zunehmende Fragmentierung der Medienwelt und damit auch der Verlust der gemeinsamen Informationsbasis führen auch zu einem Verlust einer gemeinsamen öffentlichen Meinung. Ist das schlecht? Überhaupt nicht. Es erschwert das Geschäft der Meinungsmanipulatoren. Deshalb kann ich das Leiden von Nico Lumma an seiner Filterblase nicht nachvollziehen. Jeder hat heute wohl eine andere Filterblase, die sich aber nicht mehr massenmedial von Gatekeepern steuern lässt.

Ohne Auswahlkriterien funktioniert die Nachrichtenwahrnehmung auch heute nicht – sonst würde ich wohl im Wahnsinn enden. Meine News-Aggregatoren – etwa via Flipboard – bereichern jeden Tag meine Themenrecherchen. Über die App-Economy, über Künstliche Intelligenz, Netzpolitik, Literatur, Tech-Trends, Debatten, Studien, Filme, Musik, Soziologie, Philosophie, Sport oder Konferenzen. Meine Filterblase ist noch nicht kaputt.

Facebook und die Like-Konditionierung

Die von Mark Zuckerberg auf der f8-Konferenz vorgestellten Neuerungen erinnern den FAZ-Redakteur Holger Schmidt etwas an Facebook Beacon, das Facebook nach kräftigen Nutzerprotesten allerdings wieder eingestellt hat.

„Per Beacon sollten die Nutzer ihren Freunden mitteilen, welche Produkte sie gerade auf Drittseiten gekauft haben. Das wollten die Nutzer damals nicht haben. Aber dies ist wieder ein Schritt in diese Richtung, zwar nur für Musik, Filme, Nachrichten und Spiele, aber weitere Produkte könnten noch kommen. Dann werden Empfehlungen auf Facebook als Kriterium für den E- oder besser F-Commerce an Gewicht gewinnen“, so der FAZ-Netzökonom.

„Liken“ sei dabei nicht flexibel genug.

„Um mehr Möglichkeiten zu geben, können die Nutzer ihren Freunden im Ticker mitteilen, dass sie zum Beispiel ein Buch gelesen, einen Film geschaut oder eine Nachricht in einer der Apps gesehen haben. Die Übertragung der Information, einen Artikel gelesen oder ein Musikstück gehört zu haben, geschieht automatisch. Ein Klick ist nicht mehr nötig. Allerdings muss ein Nutzer diesen Automatismus zuvor aktiviert haben. Diese Funktion finden sicher nicht alle gut.“

Optisch haben mir die neuen Profilseiten gut gefallen. Ob auch der Selektionsalgorithmus geändert wurde, entzieht sich meiner Kenntnis. Jedenfalls stößt das alte Modell auf berechtigte Kritik:

„Das ist ein sehr einfaches behavioristisches Modell, mit dem der Mark Zuckerberg-Konzern arbeitet. Ich kann die Aufregung von Geisteswissenschaftler verstehen, wenn Technologen simple Modelle von menschlichem Verhalten in die Welt setzen. Das ist in der Tat bedenklich. Hier modelliert man den Menschen als Objekt der Maschine. So wird man der Komplexität seines Verhaltens und Denkens nicht gerecht. Hier liegt Facebook falsch mit der Frage, ob man aus dem Maß der Interaktion mit anderen Personen schließen kann, welche Statusmeldungen angezeigt werden. Wenn ich etwas schweigend zur Kenntnis nehme, ist das ja kein Beleg für Unwichtigkeit. Auf dieser Grundlage gibt es keine Rechtfertigung für das Ausblenden von Informationen“, sagte mir Christoph Kappes in einem Telefoninterview.

Das ändere allerdings nichts an der Notwendigkeit von Selektionsmechanismen in einer Welt, die immer komplexer wird. Und hier sind wir dann beim Kern des Gespräches mit Kappes. Es geht um die prosaischen Gedankenflüge von Miriam Meckel, die sie in ihrem neuen Buch „Next – Erinnerungen an eine Zukunft ohne uns“ ausbreitet. Die Kommunikations-, Politik-, Rechts- und Chinawissenschaftlerin wandelt auf den Spuren des Filterblasen-Diskurses, den der Online-Pionier Eli Pariser in seinem Opus „The Filter Bubble“ ausgelöst hat. Auch er wählt als Ausgangspunkt für seine steilen Thesen einer drohenden Maschinen-Gatekeeper-Herrschaft den Dezember 2009: In diesem Monat änderte Google seinen Suchalgorithmus und läutete eine neue Ära der Personalisierung ein. Eine Zeitenwende. In der feuilletonistischen Variante von Frau Meckel sterben wir nun den Tod der virtuellen Berechenbarkeit. Wie Kappes das sieht, kann man meiner Freitagskolumne entnehmen: Meckel und die Algorithmen-Märchen: Sterben wir den Tod der virtuellen Berechenbarkeit?

Siehe auch den Beitrag von Christoph Kappes in der FAZ: Intransparenz des Nicht-Wissens: Zur Theorie von der „Filter Bubble“

Das Netz und die apokalyptischen Streiter

Jeden Tag wird eine neue Sau durchs virtuelle Dorf getrieben: Tratsch, Klatsch, Alarmismus, Affären, Warnungen, Prognosen, Sensationen, Innovationen, Werbung, Entdeckungen, Debatten, Bekenntnisse, Erkenntnisse, Schuld, Sühne, Sex und Kriminalität. Das alles kennen wir aus der analogen Welt. Im digitalen Kosmos steigert sich das Ganze noch in der Lust zum Diskurs über den Internet-Diskurs, so meine Einleitung für Service Insiders.

Netzexperten zelebrieren Hypothesen über das Netz und über andere Netzexperten, die sich wiederum über das Netz auslassen und damit eine Endlosschleife auslösen. Jüngstes Beispiel ist die Blasentheorie über Filter und Algorithmen. Sie stammt nicht vom großen Blasen-Philosophen Peter Sloterdijk, sondern vom Filter-Bubble-Autor Eli Pariser, der vor der Gefahr eines Algorithmen-Totalitarismus warnt. Er meint damit vor allen Dingen Personalisierungsmaschinen im Web, die unsere Spuren analysieren und uns mundgerechte Portionen zum Konsum servieren. Kürzlich noch zeichneten Berufsapokalyptiker wie Frank Schirrmacher, Jaron Lanier oder Nicholas Carr ein psycho-soziales Horrorbild der Reizüberflutung im Cyberspace an die Wand, die zu neuronalen Dauerschäden der Internet-Rezipienten führen.
Und nun steht auch der Antipode im Kampf gegen den Informationsdschungel in der Schusslinie: Das personalisierte Web macht uns zu Lemuren unserer eigenen Datensauce. Auf die Spitze getrieben werden die Eli Pariser-Behauptungen in einem Beitrag des „Elektrischen Reporters“. In Zukunft werde jeder Mensch in einer abgeschlossenen Meinungs- und Medienblase herumdümpeln. Der Meinungspluralismus wandelt sich in Autismus. Man spiegelt im Netz nur seine eigenen Vorurteile, Meinungen und Vorlieben. Konträres werde ausgeblendet. Am Ende entsteht so etwas wie ein Algorithmen-Volksempfänger. Was hier als kritischer Blick in die Zukunft gesehen wird, werteten die Kybernetik-Wissenschaftler der DDR völlig anders. Die Forscher der Mathematik, Informationstheorie und der algorithmischen Sprache hatten einen Parteiauftrag: Das Gedankengut der Kybernetik sollte mit der marxistisch-leninistischen Weltanschauung durchdrungen werden: Es handelt sich um einen zentralen Gegenstand des ideologischen Klassenkampfes, schreibt Heinz Liebscher im Vorwort des Wörterbuches der Kybernetik, in der vierten Auflage 1976 erschienen.

Welchen Parteiauftrag nun Google und Facebook haben, ist nicht ganz so einfach zu beantworten. Aber auch sie wollen uns angeblich manipulieren. Etwa bei der Einblendung von „maßgeschneiderten Kaufinformationen“, wie es der „Elektrische Reporter“ ausdrückte. Und beim Medienkonsum filtern wir uns zu Opfern unserer eigenen Blödmaschinen. Nach dem Zeitalter der Massenmedien, kommt jetzt die Epoche der Selbsttäuschung. Wo doch schon die Massenmedien als Konformitätsschmiede galten. „Grundsätzlich gilt: Jede Form der Filterung scheint problematisch, vielleicht sogar manipulativ. Bei Licht betrachtet ist sie aber das Normalste der Welt. Denn genau so funktioniert der Mensch: Er ist nicht in der Lage, die tatsächlichen Dinge zu begreifen. Er ist verdammt dazu, ständig zu filtern. Und erst die Filterung erzeugt seine eigene Wirklichkeit“, erklärt Mirko Lange von der Agentur Talkabout in München. Es gebe nur einen Ausweg und der gilt für Menschen ebenso wie für Netzwerke: „Man muss sich des Filterns bewusst sein. Denn es ist egal, wessen Opfer man ist, der seiner eigenen Konditionierungen oder derer der Netzwerke. Man ist in beiden Fällen Opfer. Und man kann und muss sich immer die Alternativen offen halten: Im Freundeskreis sind das die Menschen mit anderer Meinung und in den Netzwerken die alternativen Methoden: Selbst zusammengestellte ‚Circles‘, die ‚Hauptmeldungen‘ bei Facebook und die frei verfügbaren Apps bei Apple“, meint der Web 2.0-Spezialist Lange.

Anstatt zu lamentieren, sollte jeder ein Stückchen selbstkritischer werden. Unter dem Strich mache es keinen Unterscheid, ob ein Mensch nun geistig verarmt, weil er aufgrund von Verbohrtheit nur sieht, was er will, oder weil Google ihm nur bestimmte Ergebnisse zeigt. Vielleicht sollte man sich völlig chaotische und anarchistische Filtersysteme zulegen. An der Frage der Auswahlkriterien führt kein Weg vorbei. „Das menschliche Gehirn hat nur eine begrenzte Kapazität zur Verarbeitung von Informationen. Es werden nur winzige Bruchteile aller Informationen wahrgenommen. In der virtuellen Welt übernehmen die Suchalgorithmen und Filterblasen diese Funktion. Im Ergebnis können sowohl positive als auch negative Effekte entstehen“, sagt die Marketingprofessorin Heike Simmet. Man müsse wie früher genau selektieren, welche Informationen durchkommen dürfen und welche nicht, erläutert Peter B. Záboji, Chairman des Afters Sales-Spezialisten Bitronic: „Beim traditionellen Briefverkehr waren es die Vorzimmer im Unternehmen, die eine Auswahl vorgenommen haben. Heute sind es elektronische Filter und virtuelle Assistenzsysteme. Man sollte die Technik nur geschickt einsetzen und darf sich nicht von ihr dominieren lassen“.

Subtile Begegnung bei der Beschäftigung mit Blödmaschinen

Heute Vormittag war ich so sehr mit dem Schreiben eines Beitrages über „das Netz und die apokalyptischen Streiter: Macht uns das Internet und die personalisierte Datensauce blöd?“ für den Fachdienst Service Insiders beschäftigt, dass ich überhaupt nicht bemerkte, in welcher netten Gesellschaft ich mich befinde.

Ich lese zwar gerade das schöne Buch „Erinnerungen eines Insektenforschers“ von Jean-Henri Fabre (erschienen im Matthes & Seitz Verlag), kann aber den rosa gefärbten Flattermann überhaupt nicht zuordnen.

Egal. Er lebte noch und ich schenkte ihm die Freiheit.

Algorithmen als Instanz für Ethik und Moral? Ein weiterer Beitrag zur Filterblasen-Debatte

Auch die Wochenzeitungen „Die Zeit“ setzt sich in ihrer aktuellen Ausgabe mit Fluch und Segen der Personalisierung von Web-Diensten auseinander. Unstrittig ist sicherlich die Notwendigkeit von Filtertechnologien, Sortiermöglichkeiten und Netzintelligenz, um sich im Wust der Daten des Internets nicht zu verlieren. Jeder hat auch schon im analogen Zeitalter Dinge geordnet, mit Zettelkasten, Ordnern oder sonstigen Sortiersystemen gearbeitet, um die Arbeitsorganisation zu verbessern. Auch bei der heutigen Zeit-Lektüre schaue ich mir erst das Inhaltsverzeichnis durch und lese nur das, was ich mich auch wirklich interessiert – wie eben der Beitrag „Automatisch vorsortiert“, der mittlerweile auch online abrufbar ist.

Gleiches gilt für personalisierte Werbung im Netz. In einer Kolumne für „The European“ habe ich das ja bereits aufgegriffen: Hört man Datenschützern zu, könnte man meinen, der Teufel selbst habe personalisierte Werbung als Geißel der Menschheit erfunden. Doch jeder von normaler Massenwerbung malträtierte Konsument weiß es natürlich besser, denn ohne Pinkelpause macht der schönste Fernsehfilm keinen Spaß. So die Einleitung meines Beitrages. Wer also einen Artikel über „Mausefallen“ im Web recherchiert, wird bei Google dann eben im Werbeblock mit Angeboten für den Fang von Nagetieren berieselt. Das kann man sicherlich noch verkraften. Was aber passiert, wenn Filtertechnologien immer stärker auch die normalen Suchergebnisse beeinflussen? Die Frage hat ja bereits Frank Schirrmacher in seinem Buch „Payback“ aufgeworfen. Werden wir immer stärker von Algorithmen beherrscht, wie es der FAZ-Herausgeber befürchtet (der gleichzeitig auch die Datenflut beklagt)? Können wir die intelligenten Assistenten abschalten, wenn wir keine Lust auf sie haben? Und wie sieht es mit dem Recht auf die Abschaltung solcher Dienste aus, wenn wir Persönlichkeitsrechte und die Privatsphäre in Gefahr sehen (siehe auch: Data-Economy oder Algorithmen-Diktatur? Wie wir die Datenflut überwinden können)?

Aber ein Experiment, dass in dem Zeit-Artikel erwähnt wird, macht zumindest klar, dass wir es nicht mit einer „Schweigespirale“ zu tun haben, sondern jeder von uns über Filteralgorithmen höchst unterschiedliche Ergebnisse über Google, Bing, Facebook und Co. bekommt. „Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder, Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren“, schreibt die Zeit.

In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. „Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen“, wird Stalder von der Zeit zitiert. Eine Gefahr besteht dann allerdings nicht, die von Massenmedien sehr wohl ausgeht, die Entstehung eines einheitlichen Meinungsklimas. Zudem nutze ich ja nicht nur Google, Facebook oder Twitter für meine Recherchen, sondern auch andere Quellen wie Blogs, Bücher, Interviews, Expertengespräche, Vorträge oder persönliche Erfahrungen. Die Zeit zitiert dann eine Forderung des Filter-Bubble-Kritikers Eli Pariser, die ich für viel problematischer halte und die teilweise ja schon Realität ist: Da die algorithmischen Vorsortierer über keine eingebaute Ethik verfügen, sollten beispielsweise die Google-Gründer Larry Page und Sergey Bring dafür sorgen, dass fortan „bürgerliche Verantwortung“ in die Codezeilen neuer Sortiersoftware einfließen zu lassen. Unstrittig ist sicherlich die Forderung, die Kriterien der Filterung offenzulegen. „Wer Relevanz definiert, muss es erläutern. Wer weglässt, muss darauf hinweisen“, so die Zeit.

Aber was ist mit den Kategorien Ethik und bürgerliche Verantwortung?

Algorithmen werden von Menschen programmiert. Auch das Adwords- und Adsense-Programm von Google wird von Menschen organisiert. Was passiert, wenn beispielsweise Werbekunden zensiert werden und mit einer Kündigung ihres Kontos bedroht werden, obwohl sie nicht gegen Wettbewerbsrecht verstoßen? Google oder Apple können sich doch nicht zur richterlichen Instanz aufschwingen und entscheiden, was richtig und falsch im öffentlichen Leben ist? Für welche Produkte geworben werden darf oder welche Nacktfotos über Apps auf Smartphones erscheinen dürfen? Richard Gutjahr hat im vergangenen Jahr dazu entsprechendes erlebt (siehe: Google-Robots als Sittenwächter: „Sie haben drei Werktage Zeit, gutjahr.biz zu ändern“).

Systeme, Geräte oder Suchmaschinen dürften nicht darüber entscheiden, was richtig und was falsch für uns sei und unser Verhalten einschränken oder sogar sanktionieren. Sonst würde der Mensch zum Sklaven der Technik. Eine Automaten-Diktatur könnte sich nachhaltiger auswirken als das paternalistische Verhalten unter Menschen, warnen die Wissenschaftler Sarah Spiekermann und Frank Pallas in einem Beitrag für das Fachbuch „Die Informatisierung des Alltags“ (Hrsg. Friedemann Mattern, Springer-Verlag): „Zum einen reagieren Maschinen automatisch und autonom und lassen den Betroffenen damit nur wenig Möglichkeit zur Antizipation oder Reaktion. Zum anderen ist Technik absolut. Hat beispielsweise ein Fahrer Alkohol in der Atemluft, so ist es ihm gänzlich unmöglich, das entsprechende Auto zu starten – auch in Notfällen, in denen das Fahren unter Alkoholeinfluss üblicherweise akzeptiert würde“.

Ethische Algorithmen wird es also nie geben können. Viel wichtiger ist eine Pluralität der Informationsquellen und mehr Wettbewerb im Internet. Google, Apple oder Facebook bleiben nur dann harmlos, wenn es Alternativen gibt. Ich möchte mir jedenfalls nicht von Steve Jobs vorschreiben lassen, was moralisch akzeptabel ist und was nicht – auch nicht über Apps.