Auf#Regener des Tages: Bubble-Rhetoren unterschätzen Kompetenz der vernetzten Verbraucher

Mein Aufreger des Tages für die absatzwirtschaft: Filterbubble-Theorie – Werden Konsumenten durch Suchmaschinen und Filterfunktionen der sozialen Medien entmündigt? Hier ein Auszug: Im Diskurs über die vermeintliche Diktatur von Filterblasen, Algorithmen und personalisierten Diensten wird der Eindruck erweckt, dass sich Mensch und Maschine in einem Teufelspakt gegenüberstehen. Zu den prominentesten Vertretern der Jammerathleten, Klagegenies und Kassandren vom Dienst zählt der Filterbubble-Autor Eli Pariser. Angeblich werden wir durch Personalisierungsfunktionen des Netzes sukzessive entmündigt. Das selbstbestimmt Ich erlebt eine Umformung zu einem fremdbestimmten Werbemedium. Im Klagechor der digitalen Skeptiker wird davor gewarnt, sich den Einflüsterungen der Reklame willenlos zu ergeben. Am Ende sei es nicht mehr möglich, freie Entscheidungen zu fällen.

Sollten wir als Alternative weiter auf die Alzheimer-Dienste von Call Center-Anbietern oder pauschale Werbe-Berieselung setzen?

Jeder Mensch filtert und vergisst Informationen – ansonsten würden wir im Wahnsinn enden. Jeder konstruiert seine eigene Wirklichkeit, konsumiert, liest und liebt nach bestimmten Mustern und Lebenserfahrungen. Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Niemand ist diesen Diensten willenlos ausgesetzt.

„Die meisten Diskussionen zur Rolle von Filtern haben den Fehler, dass sie von Information als etwas Gegebenem ausgehen“, schreibt der Berater Christoph Kappes in einem Beitrag für die Zeitschrift „Merkur“. Im Hinblick auf Neues sei die Theorie von der Filterbubble sogar fachlich falsch: „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärte Kappes in einem Telefoninterview mit mir.

Es ist ein simpler Trick der Bubble-Fraktion, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben, um entsprechend kritischer den Diskurs vorantreiben zu können. Es könnte sich natürlich auch um ein psychologisches Syndrom handeln:

„Wir nennen das die Animation des Toten. Menschen gehen offensichtlich viel lieber und leichter mit Lebendigen um als mit Toten. Wenn ich mir meinen Dosenöffner, der gerade abgerutscht ist und mich verletzt hat, als beseelt denke, kann ich ihn beschimpfen. ‚Du blöder Dosenöffner. Irgendwann schmeiß ich Dich in den Müll‘. Das macht man mit seinem Laptop, mit seinem Auto und generell mit Technik. Dabei weiß jeder, dass die toten Dinge mich gar nicht verstehen können“, so Dr. Gehard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung.

„Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Maschinen, Algorithmen und Software sind aber keine Personen. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt. Niemand kann mich daran hindern, einen Algorithmus zu programmieren, der vielleicht besser ist als das, was Google und Facebook auf den Markt bringen. Das ist ein sinnvoller Standpunkt“, so Wohland.

Wer von bösen, manipulativen und bedrohlichen Technologien redet, stehe sich selber im Weg, zu klaren Erkenntnissen zu kommen. Es komme nur Unsinn heraus. Eine Simplifizierung der Maschinenwelt bringe uns nicht weiter.

Social Web straft inhaltsleeres Marketing-Geträller ab

Die Bubble-Rhetoren unterschätzen die Kompetenz der vernetzten Verbraucher. „Nutzer teilen Inhalte nicht, wenn sie ihnen nicht vertrauen“, schreibt Salima Richard in dem Beitrag „Psychologische Studie: Warum wir Inhalte im Netz teilen“.

Einen zweiten Aufreger habe ich für Service Insiders recherchiert: Neues Kreislaufwirtschaftsgesetz missachtet EU-Recht: Müllverbrennung und Recycling gleichgestellt – Mittelständische Recyclingwirtschaft gefährdet.

Aufregener ist ja tatsächlich der Auf#Regener. So schreibt Netzpolitik.org vollkommen richtig:

Wenn ich früher an Element of Crime dachte, wäre mir dazu ein Begriff wie Ignoranz als einer der letzten eingefallen. Seit gestern ist das anders, seit Sven Regener, Frontmann der fast schon legendären Band, bei Zündfunk auf Bayern 2 einen so unfassbar ignoranten Rant abgelassen hat, dass sogar Jan Delays Lapsus in Sachen Abmahn-Einnahmen dagegen fast noch putzig wirkt.

Ich schmeiße wohl meine mp3-Regener-Platten weg.

Aber Sveni-Boy verdient mildernde Umstände: Finger weg von seiner Paranoia

Ich sag mal-Bibliotheksgespräch: Diskurs über dumme Organisationen und überschätzte Technik

Hier ist es nun, das erste Bibliotheksgespräch des Ich-sag-mal-Blogs, wie ich es vor ein paar Tagen angekündigt habe. Mein Gesprächspartner Gerhard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung, äußerte sich sich über die Sprache der Technik, mystifizierte Algorithmen und Maschinen, über Dummheiten in der Unternehmenssteuerung und die Grenzen der Beratung. Ein ausführlicher Bericht wird morgen im Fachdienst „Service Insiders“ erscheinen. Das knapp einstündige Stück habe ich für die Videoversion auf ein Drittel reduziert. Die komplette Diskussion liegt aber als Audioaufzeichnung vor.

Die Video-Datei habe ich mal auf Youtube und identisch auf WordPress hochgeladen, um die Qualität vergleichen zu können. Mein erster Eindruck. WordPress ist besser. Wer Lust und Zeit hat, kann das ja mal selber überprüfen.

Weitere Gespräche werden folgen. Vorschläge immer willkommen. Wer den beschwerlichen Weg nach Bonn-Duisdorf auf sich nehmen möchte, ist herzlich eingeladen 🙂

Algorithmen und das mechanistische Weltbild ihrer Kritiker und Anwender

Kathrin Passig setzt sich in der Süddeutschen mit der im vergangenen Jahr um sich greifenden Kritik an einer vermeintlichen Algorithmen-Diktatur auseinander (Zur Kritik an Algorithmen: Warum wurde mir ausgerechnet das empfohlen?). Vor allen Dingen Miriam Meckel hatte sich ja mit Horrorszenarien hervorgetan. Passig schreibt:

„Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen – und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen – nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.“

Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruhe auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion „Genius“. Genius erzeuge automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt:

„Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.“

Genius aber könne dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet.

„Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können“, so Passig.

In der FAZ legte Meckel dann noch weitere Argumente vor:

„Alle Unbekannten in dieser Gleichung werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt.“

Dazu Passig: „Abgesehen davon, dass die ‚Unbekannten in dieser Gleichung‘, die ‚von vornherein herausgerechnet werden‘, nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.“

Ich selbst hatte mich im September 2011 mit den Thesen von Meckel beschäftigt und dazu Internet-Experten Christoph Kappes interviewt: Sterben wir den Tod der virtuellen Berechenbarkeit?

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die auf absehbare Zeit keine Ergebnisse zeitigen wird.“

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes. Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte. „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen. „Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Algorithmen sind also nicht allwissend und versagen bei der Prognose von Verhaltensmustern in der Zukunft. Kappes hat in dem Interview eine Frage aufgeworfen, die viel spannender ist und die ich in meiner nächsten Kolumne aufgreifen möchte? Mit welchem Weltbild agieren Konzerne wie Google und Facebook bei der Programmierung von Algorithmen? So operiere Facebook mit einem sehr einfachen behavioristischen.

„Ich kann die Aufregung von Geisteswissenschaftler verstehen, wenn Technologen simple Modelle von menschlichem Verhalten in die Welt setzen. Das ist in der Tat bedenklich. Hier modelliert man den Menschen als Objekt der Maschine. So wird man der Komplexität seines Verhaltens und Denkens nicht gerecht. Hier liegt Facebook falsch mit der Frage, ob man aus dem Maß der Interaktion mit anderen Personen schließen kann, welche Statusmeldungen angezeigt werden. Wenn ich etwas schweigend zur Kenntnis nehme, ist das ja kein Beleg für Unwichtigkeit. Auf dieser Grundlage gibt es keine Rechtfertigung für das Ausblenden von Informationen.“

Aber nicht nur Facebook wenden solche simplifizierenden Verfahren an. Auch die Sozialwissenschaften – besonders die Politikberater in den Wirtschaftsforschungsinstituten – vertreten eine mechanistische Weltsicht, kritisiert Wolfgang Streeck, Direktor am Max-Planck-Institut für Gesellschaftsforschung in Köln. Sie blenden den Faktor Ungewissheit aus. Warum das bei den Konjunkturprognosen regelmäßig in die Hosen geht, habe ich bereits ausführlich in diesem Blog dargelegt. Streeck liefert dafür weitere Argumente:

„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen. Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat (Kappes spricht von Singularität, gs), für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“, schreibt Streeck in dem Sammelband „Wissenschaftliche Politikberatung“, erschienen im Wallstein Verlag).

Trotzdem versuchen natürlich Politiker und auch Marketing-Gurus, unser Handeln zu beeinflussen oder sogar zu steuern. Wenn Menschen das durchschauen, passiert sogar das Gegenteil. Solche Dinge bleiben eben nicht geheim. Instrumente zur Verhaltenskontrolle oder Verhaltensmanipulation werden über kurz oder lang bemerkt. Man erkennt die Absichten und verhält sich absichtsvoll anders. Streeck verweist auf die Hawthorne-Experimente (1924 bis 1932). Forscher wollten herausgefunden haben, dass Arbeiterinnen auch ohne Lohnerhöhung schneller und besser arbeiten, wenn man freundlich zu ihnen ist (wie großzügig, gs) und die Wände gelb anstreicht.

„Aber nachdem sich unter den Beschäftigten herumgesprochen hatte, dass das Management mit seinen guten Worten und der gelben Farbe nur Geld sparen sollte, kam es zu Lohnforderungen und einem Streik“, führt Streeck aus.

Die Geltung derartiger Modelle und Theorien könne durch ihr Bekanntwerden schnell wieder außer Kraft gesetzt werden!

In meiner Freitagskolumne möchte ich genau diesen Aspekt aufgreifen. Meinungsäußerungen und Tipps bitte bis Donnerstagabend hier als Kommentar posten oder mir direkt wieder per E-Mail senden an: gunnareriksohn@googlemail.com

Dumme Facebook-Nutzer und die Heuchelei der Staatsfürsorge: Das Schlusswort hat Red Robo

Nun ist es also soweit. Die Schlacht kann beginnen. So schreibt das tn3-Magazin: Like-Button-Streit eskaliert: Datenschützer mahnt ab.

„Im Streit um die Verwendung des Facebook Like-Buttons wird es ernst in Schleswig-Holstein. Der Leiter des Unabhängigen Landeszentrums für Datenschutz (ULD), Thilo Weichert, mahnt Staatskanzlei, Wirtschaftsministerium und Privatwirtschaft deshalb ab. Aufgrund der „unsicheren Rechtslage“ werde die IHK Schleswig-Holstein einen Musterprozess anstrengen, schreiben die Lübecker Nachrichten. Auch die Behörden zeigen kein Einverständnis.“

Mit Einsicht der Betroffenen könne der Datenschutz-Deichgraf nicht rechnen. Warum auch:

„Die Staatskanzlei erklärt in Person von Regierungssprecher Knut Peters, das soziale Netzwerk habe sich besonders in Krisenzeiten bewährt. Als Beispiele nennt er die Bekanntmachung von winterbedingten Schulausfällen und die Verbreitung von Informationen über das EHEC-Virus. Auch Ministerpräsident Peter Harry Carstensen macht seinen Standpunkt im Bezug auf das Gebaren des ULD gegenüber dem Schleswig-Holsteiner Zeitungsverlag unmissverständlich deutlich: ‚Drohgebärden sind nicht nur kontraproduktiv, sie sind auch rechtlich fragwürdig.‘ Die IHK Schleswig-Holstein signalisiert, sie werde im Disput um die Verwendung des Like-Buttons nicht nachgeben und auch ein Verfahren nicht scheuen“, bericht tn3.

Ich hoffe, dass es zu diesem Musterprozess kommen wird, um endlich Rechtsklarheit zu schaffen und der antizipierten Verwaltungspraxis von Weichert die Grundlage zu entziehen. Mit den Gesetzen steht das nach meiner Auffassung nicht im Einklang. Der ganze Streit wird dominiert von Internet-Blindfischen, die über einen Sachverhalt urteilen, den sie aus eigener Erfahrung wenig oder gar nicht kennen. Zudem sind den Facebook-Kritikern die Interessen der Nutzer anscheinend wurscht. Ähnlich sieht das der Zeit-Redakteur Ijoma Mangold: „Die Sorge um Seelenheil ist bei denen am größten, die noch nie einen Schritt in Richtung Facebook getan haben. Das Bild, das sie dabei von den Usern entwerfen, ist von verächtlicher Abwehr gezeichnet: digitaler Plebs, der die bürgerliche Unterscheidung zwischen privat und öffentlich verlernt habe.“ Oder eben in den Worten von staatlichen Datenschützern, dumme Menschen, die es nicht besser verdient haben und nun von ihnen in Schutzhaft genommen werden. Das ist auch das Thema meiner heutigen Freitagskolumne für Service Insiders: Zufall nach Plan? Facebook und der Laplacesche Geist omnipotenter Berechenbarkeit. Hier ein Auszug:

Auffällig an dem gesamten Diskurs über den Niedergang der Selbstbestimmtheit im Netz ist das Menschenbild der Internet-Kritiker. Wie weit können Algorithmen wirklich das Leben bestimmen und voraussagen? „Die Kulturkritiker fallen ein wenig ins 18. und 19. Jahrhundert auf das Niveau des Mathematikers und Philosophen Pierre-Simon Laplace zurück. Seine Sichtweise war sehr eng und deterministisch. Er predigte die Fiktion, dass die Natur vollständig berechenbar sei. Wir sehen ja an den Formelkönigen der Börsen und Wirtschaftsforschungsinstitute, wo das hinführt. Was dort in die mathematischen Berechnungen einfließt hat sehr viel mit der Vergangenheit und nur wenig mit der Zukunft zu tun. Es sind Ex-post-Prognostiker, die sich einen wissenschaftlichen Anstrich geben und mit ihren Vorhersagen eine Treffsicherheit wie beim Lotto erzielen“, kritisiert der IT-Experte Udo Nadolski, Geschäftsführer des Beratungshauses Harvey Nash.

Um die Natur zu berechnen, wie es Laplace vorschwebte, benötige man Hardware, die umfangreicher als unser Weltall sein müsste, erklärt Georg Brunold in seinem Buch „Fortuna auf Triumphzug“ (Verlag Galiani Berlin). Die erforderliche Informationsmenge sei so groß, dass sie durch die Wirklichkeit prinzipiell gar nicht dargestellt werden könnte.

Merkwürdig an der Algorithmen-Furcht ist die ambivalente Haltung der Bedenkenträger. Sie klagen über Datenfluten, Kontrollverlust, Burnout und mentaler Überforderung. Gleichzeitig betrachten sie das Internet wie eine Maschine, die nach einem Plan zusammen gesetzt sei und fordern die Rückkehr des Zufalls. Der Kern des Sozialen bestehe gerade nicht im totalen Erfasssenkönnen, meint Nina Pauer in ihrer Facebook-Abhandlung. „Also in dem, was jede Situation an Überraschendem, Unplanbarem, Ungesagtem, Angedeutetem birgt.“

Die Medienwissenschaftlerin Miriam Meckel fordert sogar einen planerischen Eingriff ins Internet, um wieder mehr Zufallselemente in die Algorithmen einzubauen. Zufall nach Plan? Algorithmen können doch nur Verhaltenswahrscheinlichkeiten ausrechnen und sind nie in der Lage, die Komplexität des Lebens und der Natur vollständig zu erfassen. Das wird auch Mark Zuckerberg nicht ändern. Sollte er anders denken, wird er von der Realität zu einer Ethik der Bescheidenheit gebracht. „Es gibt keinen Laplaceschen Geist omnipotenter Berechenbarkeit“, sagt der Wissenschaftstheoretiker Professor Klaus Mainzer. Auch unsere Einfälle, unser Denken, menschliche Kreativität und Innovationen seien zufällig, spontan und unberechenbar. „Ohne Zufall entsteht nichts Neues“, betont Mainzer. Der unerschütterliche Glaube an Kausalzusammenhänge ist wohl der Knackpunkt im Netzdiskurs über die Frage der virtuellen Berechenbarkeit des Internet-Nutzers.

Und was sagt mein Algorithmus-Freund Red Robo zu dem ganzen Theater?

Das Netz und die apokalyptischen Streiter

Jeden Tag wird eine neue Sau durchs virtuelle Dorf getrieben: Tratsch, Klatsch, Alarmismus, Affären, Warnungen, Prognosen, Sensationen, Innovationen, Werbung, Entdeckungen, Debatten, Bekenntnisse, Erkenntnisse, Schuld, Sühne, Sex und Kriminalität. Das alles kennen wir aus der analogen Welt. Im digitalen Kosmos steigert sich das Ganze noch in der Lust zum Diskurs über den Internet-Diskurs, so meine Einleitung für Service Insiders.

Netzexperten zelebrieren Hypothesen über das Netz und über andere Netzexperten, die sich wiederum über das Netz auslassen und damit eine Endlosschleife auslösen. Jüngstes Beispiel ist die Blasentheorie über Filter und Algorithmen. Sie stammt nicht vom großen Blasen-Philosophen Peter Sloterdijk, sondern vom Filter-Bubble-Autor Eli Pariser, der vor der Gefahr eines Algorithmen-Totalitarismus warnt. Er meint damit vor allen Dingen Personalisierungsmaschinen im Web, die unsere Spuren analysieren und uns mundgerechte Portionen zum Konsum servieren. Kürzlich noch zeichneten Berufsapokalyptiker wie Frank Schirrmacher, Jaron Lanier oder Nicholas Carr ein psycho-soziales Horrorbild der Reizüberflutung im Cyberspace an die Wand, die zu neuronalen Dauerschäden der Internet-Rezipienten führen.
Und nun steht auch der Antipode im Kampf gegen den Informationsdschungel in der Schusslinie: Das personalisierte Web macht uns zu Lemuren unserer eigenen Datensauce. Auf die Spitze getrieben werden die Eli Pariser-Behauptungen in einem Beitrag des „Elektrischen Reporters“. In Zukunft werde jeder Mensch in einer abgeschlossenen Meinungs- und Medienblase herumdümpeln. Der Meinungspluralismus wandelt sich in Autismus. Man spiegelt im Netz nur seine eigenen Vorurteile, Meinungen und Vorlieben. Konträres werde ausgeblendet. Am Ende entsteht so etwas wie ein Algorithmen-Volksempfänger. Was hier als kritischer Blick in die Zukunft gesehen wird, werteten die Kybernetik-Wissenschaftler der DDR völlig anders. Die Forscher der Mathematik, Informationstheorie und der algorithmischen Sprache hatten einen Parteiauftrag: Das Gedankengut der Kybernetik sollte mit der marxistisch-leninistischen Weltanschauung durchdrungen werden: Es handelt sich um einen zentralen Gegenstand des ideologischen Klassenkampfes, schreibt Heinz Liebscher im Vorwort des Wörterbuches der Kybernetik, in der vierten Auflage 1976 erschienen.

Welchen Parteiauftrag nun Google und Facebook haben, ist nicht ganz so einfach zu beantworten. Aber auch sie wollen uns angeblich manipulieren. Etwa bei der Einblendung von „maßgeschneiderten Kaufinformationen“, wie es der „Elektrische Reporter“ ausdrückte. Und beim Medienkonsum filtern wir uns zu Opfern unserer eigenen Blödmaschinen. Nach dem Zeitalter der Massenmedien, kommt jetzt die Epoche der Selbsttäuschung. Wo doch schon die Massenmedien als Konformitätsschmiede galten. „Grundsätzlich gilt: Jede Form der Filterung scheint problematisch, vielleicht sogar manipulativ. Bei Licht betrachtet ist sie aber das Normalste der Welt. Denn genau so funktioniert der Mensch: Er ist nicht in der Lage, die tatsächlichen Dinge zu begreifen. Er ist verdammt dazu, ständig zu filtern. Und erst die Filterung erzeugt seine eigene Wirklichkeit“, erklärt Mirko Lange von der Agentur Talkabout in München. Es gebe nur einen Ausweg und der gilt für Menschen ebenso wie für Netzwerke: „Man muss sich des Filterns bewusst sein. Denn es ist egal, wessen Opfer man ist, der seiner eigenen Konditionierungen oder derer der Netzwerke. Man ist in beiden Fällen Opfer. Und man kann und muss sich immer die Alternativen offen halten: Im Freundeskreis sind das die Menschen mit anderer Meinung und in den Netzwerken die alternativen Methoden: Selbst zusammengestellte ‚Circles‘, die ‚Hauptmeldungen‘ bei Facebook und die frei verfügbaren Apps bei Apple“, meint der Web 2.0-Spezialist Lange.

Anstatt zu lamentieren, sollte jeder ein Stückchen selbstkritischer werden. Unter dem Strich mache es keinen Unterscheid, ob ein Mensch nun geistig verarmt, weil er aufgrund von Verbohrtheit nur sieht, was er will, oder weil Google ihm nur bestimmte Ergebnisse zeigt. Vielleicht sollte man sich völlig chaotische und anarchistische Filtersysteme zulegen. An der Frage der Auswahlkriterien führt kein Weg vorbei. „Das menschliche Gehirn hat nur eine begrenzte Kapazität zur Verarbeitung von Informationen. Es werden nur winzige Bruchteile aller Informationen wahrgenommen. In der virtuellen Welt übernehmen die Suchalgorithmen und Filterblasen diese Funktion. Im Ergebnis können sowohl positive als auch negative Effekte entstehen“, sagt die Marketingprofessorin Heike Simmet. Man müsse wie früher genau selektieren, welche Informationen durchkommen dürfen und welche nicht, erläutert Peter B. Záboji, Chairman des Afters Sales-Spezialisten Bitronic: „Beim traditionellen Briefverkehr waren es die Vorzimmer im Unternehmen, die eine Auswahl vorgenommen haben. Heute sind es elektronische Filter und virtuelle Assistenzsysteme. Man sollte die Technik nur geschickt einsetzen und darf sich nicht von ihr dominieren lassen“.