Auf#Regener des Tages: Bubble-Rhetoren unterschätzen Kompetenz der vernetzten Verbraucher

Mein Aufreger des Tages für die absatzwirtschaft: Filterbubble-Theorie – Werden Konsumenten durch Suchmaschinen und Filterfunktionen der sozialen Medien entmündigt? Hier ein Auszug: Im Diskurs über die vermeintliche Diktatur von Filterblasen, Algorithmen und personalisierten Diensten wird der Eindruck erweckt, dass sich Mensch und Maschine in einem Teufelspakt gegenüberstehen. Zu den prominentesten Vertretern der Jammerathleten, Klagegenies und Kassandren vom Dienst zählt der Filterbubble-Autor Eli Pariser. Angeblich werden wir durch Personalisierungsfunktionen des Netzes sukzessive entmündigt. Das selbstbestimmt Ich erlebt eine Umformung zu einem fremdbestimmten Werbemedium. Im Klagechor der digitalen Skeptiker wird davor gewarnt, sich den Einflüsterungen der Reklame willenlos zu ergeben. Am Ende sei es nicht mehr möglich, freie Entscheidungen zu fällen.

Sollten wir als Alternative weiter auf die Alzheimer-Dienste von Call Center-Anbietern oder pauschale Werbe-Berieselung setzen?

Jeder Mensch filtert und vergisst Informationen – ansonsten würden wir im Wahnsinn enden. Jeder konstruiert seine eigene Wirklichkeit, konsumiert, liest und liebt nach bestimmten Mustern und Lebenserfahrungen. Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Niemand ist diesen Diensten willenlos ausgesetzt.

„Die meisten Diskussionen zur Rolle von Filtern haben den Fehler, dass sie von Information als etwas Gegebenem ausgehen“, schreibt der Berater Christoph Kappes in einem Beitrag für die Zeitschrift „Merkur“. Im Hinblick auf Neues sei die Theorie von der Filterbubble sogar fachlich falsch: „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärte Kappes in einem Telefoninterview mit mir.

Es ist ein simpler Trick der Bubble-Fraktion, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben, um entsprechend kritischer den Diskurs vorantreiben zu können. Es könnte sich natürlich auch um ein psychologisches Syndrom handeln:

„Wir nennen das die Animation des Toten. Menschen gehen offensichtlich viel lieber und leichter mit Lebendigen um als mit Toten. Wenn ich mir meinen Dosenöffner, der gerade abgerutscht ist und mich verletzt hat, als beseelt denke, kann ich ihn beschimpfen. ‚Du blöder Dosenöffner. Irgendwann schmeiß ich Dich in den Müll‘. Das macht man mit seinem Laptop, mit seinem Auto und generell mit Technik. Dabei weiß jeder, dass die toten Dinge mich gar nicht verstehen können“, so Dr. Gehard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung.

„Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Maschinen, Algorithmen und Software sind aber keine Personen. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt. Niemand kann mich daran hindern, einen Algorithmus zu programmieren, der vielleicht besser ist als das, was Google und Facebook auf den Markt bringen. Das ist ein sinnvoller Standpunkt“, so Wohland.

Wer von bösen, manipulativen und bedrohlichen Technologien redet, stehe sich selber im Weg, zu klaren Erkenntnissen zu kommen. Es komme nur Unsinn heraus. Eine Simplifizierung der Maschinenwelt bringe uns nicht weiter.

Social Web straft inhaltsleeres Marketing-Geträller ab

Die Bubble-Rhetoren unterschätzen die Kompetenz der vernetzten Verbraucher. „Nutzer teilen Inhalte nicht, wenn sie ihnen nicht vertrauen“, schreibt Salima Richard in dem Beitrag „Psychologische Studie: Warum wir Inhalte im Netz teilen“.

Einen zweiten Aufreger habe ich für Service Insiders recherchiert: Neues Kreislaufwirtschaftsgesetz missachtet EU-Recht: Müllverbrennung und Recycling gleichgestellt – Mittelständische Recyclingwirtschaft gefährdet.

Aufregener ist ja tatsächlich der Auf#Regener. So schreibt Netzpolitik.org vollkommen richtig:

Wenn ich früher an Element of Crime dachte, wäre mir dazu ein Begriff wie Ignoranz als einer der letzten eingefallen. Seit gestern ist das anders, seit Sven Regener, Frontmann der fast schon legendären Band, bei Zündfunk auf Bayern 2 einen so unfassbar ignoranten Rant abgelassen hat, dass sogar Jan Delays Lapsus in Sachen Abmahn-Einnahmen dagegen fast noch putzig wirkt.

Ich schmeiße wohl meine mp3-Regener-Platten weg.

Aber Sveni-Boy verdient mildernde Umstände: Finger weg von seiner Paranoia

Das Netz und die apokalyptischen Streiter

Jeden Tag wird eine neue Sau durchs virtuelle Dorf getrieben: Tratsch, Klatsch, Alarmismus, Affären, Warnungen, Prognosen, Sensationen, Innovationen, Werbung, Entdeckungen, Debatten, Bekenntnisse, Erkenntnisse, Schuld, Sühne, Sex und Kriminalität. Das alles kennen wir aus der analogen Welt. Im digitalen Kosmos steigert sich das Ganze noch in der Lust zum Diskurs über den Internet-Diskurs, so meine Einleitung für Service Insiders.

Netzexperten zelebrieren Hypothesen über das Netz und über andere Netzexperten, die sich wiederum über das Netz auslassen und damit eine Endlosschleife auslösen. Jüngstes Beispiel ist die Blasentheorie über Filter und Algorithmen. Sie stammt nicht vom großen Blasen-Philosophen Peter Sloterdijk, sondern vom Filter-Bubble-Autor Eli Pariser, der vor der Gefahr eines Algorithmen-Totalitarismus warnt. Er meint damit vor allen Dingen Personalisierungsmaschinen im Web, die unsere Spuren analysieren und uns mundgerechte Portionen zum Konsum servieren. Kürzlich noch zeichneten Berufsapokalyptiker wie Frank Schirrmacher, Jaron Lanier oder Nicholas Carr ein psycho-soziales Horrorbild der Reizüberflutung im Cyberspace an die Wand, die zu neuronalen Dauerschäden der Internet-Rezipienten führen.
Und nun steht auch der Antipode im Kampf gegen den Informationsdschungel in der Schusslinie: Das personalisierte Web macht uns zu Lemuren unserer eigenen Datensauce. Auf die Spitze getrieben werden die Eli Pariser-Behauptungen in einem Beitrag des „Elektrischen Reporters“. In Zukunft werde jeder Mensch in einer abgeschlossenen Meinungs- und Medienblase herumdümpeln. Der Meinungspluralismus wandelt sich in Autismus. Man spiegelt im Netz nur seine eigenen Vorurteile, Meinungen und Vorlieben. Konträres werde ausgeblendet. Am Ende entsteht so etwas wie ein Algorithmen-Volksempfänger. Was hier als kritischer Blick in die Zukunft gesehen wird, werteten die Kybernetik-Wissenschaftler der DDR völlig anders. Die Forscher der Mathematik, Informationstheorie und der algorithmischen Sprache hatten einen Parteiauftrag: Das Gedankengut der Kybernetik sollte mit der marxistisch-leninistischen Weltanschauung durchdrungen werden: Es handelt sich um einen zentralen Gegenstand des ideologischen Klassenkampfes, schreibt Heinz Liebscher im Vorwort des Wörterbuches der Kybernetik, in der vierten Auflage 1976 erschienen.

Welchen Parteiauftrag nun Google und Facebook haben, ist nicht ganz so einfach zu beantworten. Aber auch sie wollen uns angeblich manipulieren. Etwa bei der Einblendung von „maßgeschneiderten Kaufinformationen“, wie es der „Elektrische Reporter“ ausdrückte. Und beim Medienkonsum filtern wir uns zu Opfern unserer eigenen Blödmaschinen. Nach dem Zeitalter der Massenmedien, kommt jetzt die Epoche der Selbsttäuschung. Wo doch schon die Massenmedien als Konformitätsschmiede galten. „Grundsätzlich gilt: Jede Form der Filterung scheint problematisch, vielleicht sogar manipulativ. Bei Licht betrachtet ist sie aber das Normalste der Welt. Denn genau so funktioniert der Mensch: Er ist nicht in der Lage, die tatsächlichen Dinge zu begreifen. Er ist verdammt dazu, ständig zu filtern. Und erst die Filterung erzeugt seine eigene Wirklichkeit“, erklärt Mirko Lange von der Agentur Talkabout in München. Es gebe nur einen Ausweg und der gilt für Menschen ebenso wie für Netzwerke: „Man muss sich des Filterns bewusst sein. Denn es ist egal, wessen Opfer man ist, der seiner eigenen Konditionierungen oder derer der Netzwerke. Man ist in beiden Fällen Opfer. Und man kann und muss sich immer die Alternativen offen halten: Im Freundeskreis sind das die Menschen mit anderer Meinung und in den Netzwerken die alternativen Methoden: Selbst zusammengestellte ‚Circles‘, die ‚Hauptmeldungen‘ bei Facebook und die frei verfügbaren Apps bei Apple“, meint der Web 2.0-Spezialist Lange.

Anstatt zu lamentieren, sollte jeder ein Stückchen selbstkritischer werden. Unter dem Strich mache es keinen Unterscheid, ob ein Mensch nun geistig verarmt, weil er aufgrund von Verbohrtheit nur sieht, was er will, oder weil Google ihm nur bestimmte Ergebnisse zeigt. Vielleicht sollte man sich völlig chaotische und anarchistische Filtersysteme zulegen. An der Frage der Auswahlkriterien führt kein Weg vorbei. „Das menschliche Gehirn hat nur eine begrenzte Kapazität zur Verarbeitung von Informationen. Es werden nur winzige Bruchteile aller Informationen wahrgenommen. In der virtuellen Welt übernehmen die Suchalgorithmen und Filterblasen diese Funktion. Im Ergebnis können sowohl positive als auch negative Effekte entstehen“, sagt die Marketingprofessorin Heike Simmet. Man müsse wie früher genau selektieren, welche Informationen durchkommen dürfen und welche nicht, erläutert Peter B. Záboji, Chairman des Afters Sales-Spezialisten Bitronic: „Beim traditionellen Briefverkehr waren es die Vorzimmer im Unternehmen, die eine Auswahl vorgenommen haben. Heute sind es elektronische Filter und virtuelle Assistenzsysteme. Man sollte die Technik nur geschickt einsetzen und darf sich nicht von ihr dominieren lassen“.

Subtile Begegnung bei der Beschäftigung mit Blödmaschinen

Heute Vormittag war ich so sehr mit dem Schreiben eines Beitrages über „das Netz und die apokalyptischen Streiter: Macht uns das Internet und die personalisierte Datensauce blöd?“ für den Fachdienst Service Insiders beschäftigt, dass ich überhaupt nicht bemerkte, in welcher netten Gesellschaft ich mich befinde.

Ich lese zwar gerade das schöne Buch „Erinnerungen eines Insektenforschers“ von Jean-Henri Fabre (erschienen im Matthes & Seitz Verlag), kann aber den rosa gefärbten Flattermann überhaupt nicht zuordnen.

Egal. Er lebte noch und ich schenkte ihm die Freiheit.

Blasen über Filterblasen und überflüssige Kommandostrukturen in Organisationen


Nun hat sich auch Dirk von Gehlen in der Süddeutschen zu Wort gemeldet und ist auf die verzerrte Wirklichkeit eingegangen, die angeblich über Filtersysteme und Algorithmen zur Personalisierung von Suchergebnissen und Empfehlungen führen: Der amerikanische Autor Eli Pariser verwendet das Bild der Filterblasen, um zu beschreiben, was es bedeuten kann, in einer durch die Algorithmen der großen Netzfirmen bestimmten Öffentlichkeit zu leben, die sich nicht mehr vor dem gemeinsamen Lagerfeuer aller, sondern in den personalisierten Interessensräumen des Einzelnen bildet. „Eine Öffentlichkeit also, die aus vielen kleinen Filter-Blasen besteht. Unter diesem Titel („Filter Bubble“) beschreibt Pariser in seinem dieser Tage in Amerika veröffentlichten Buch, wie die Gefällt-mir-Ökonomie des Netzes die Vorstellung von Relevanz neu definiert und so die gelernten Begriffe von Öffentlichkeit und Demokratie zu verschieben droht“, schreibt von Gehlen. Ähnliches stand ja auch in der Zeit und im Spiegel. Zu den Thesen von Pariser bin ich ja etwas ausführlicher eingegangen. Siehe: Algorithmen als Instanz für Ethik und Moral? Ein weiterer Beitrag zur Filterblasen-Debatte. Jeder Mensch verkürzt und konstruiert Realitäten. Jeder benutzt unterschiedliche Filtersysteme. Selbst beim Durchblättern einer Zeitung oder Zeitschrift, beim Spaziergang durch Onlinemagazine, beim Durchstöbern meiner Bibliothek oder bei den subtilen Jagden im Antiquariat habe ich ein natürliches Filtersystem in meinem Hirn.

Wenn man das Ganze demokratietheoretisch betrachtet, wie Pariser es tut, muss man der Frage nachgehen, wie manipulativ die Filtersysteme im Netz vorgehen. Werden Nachrichten und Meinungen unterdrückt? Gibt es eine zentralistische Instanz, die über Gut und Böse entscheidet? Wirken die Filtersysteme wie ein Gatekeeper und erzeugen ein einheitliches Meinungsklima? Befördern die Algorithmen eine Schweigespirale? Ich habe das Buch von Pariser noch nicht gelesen, was ich in den nächsten Wochen noch nachholen werde, aber so beim Lesen der Filterblasen-Berichte kommen bei mir Zweifel an den Thesen auf. Wie ist Eure Meinung? Ich werde das in den nächsten Wochen etwas ausführlicher in Berichten aufgreifen. Eure Expertenmeinung interessiert mich.

Wie gestern bereits angekündigt, hier das Opus über: Social Media und die Technologie der Torheit – Warum sich Hierarchien in Organisationen auflösen (müssen).