Gegen das Sakrale hilft nur Aufklärung – Erinnerung an eine Disputation mit Frank Schirrmacher

Schirrmacher 001

Christoph Kappes hat den FAZ-Herausgeber Frank Schirrmacher in einem lesenswerten Nachruf als Großmeister der Debatten bezeichnet. Über die Wesenszüge von Schirrmacher kann ich nichts schreiben. Ich habe ihn leider nie persönlich kennengelernt. Nur ein einziges Mal kreuzten wir auf Google Plus kurz die Klingen, als auf dieser Plattform noch geistreiche Disputationen geführt wurden. Das war damals wohl der Charme des Neuen, der zu ungewöhnlichen virtuellen Begegnungen führte. So war ich sehr überrascht, als Schirrmacher auf meine Postings reagierte:

Es ging um die Frage, ob uns das Internet dümmer oder schlauer macht, ob die Dominanz des Digitalen zu negativen neuronalen Effekten führt oder nicht? Seine Thesen über bevorstehende Gedächtnis-Deformationen durch die Alleinherrschaft des Suchmaschinen-Giganten Google wertete ich als Fortsetzung der Thesen von Schirrmacher, die er in seinem Buch „Payback“ ausgebreitet hat: Es ging um die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es war die Unterwelt der Benutzeroberfläche, die Schirrmacher umtrieb: Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. In dem interessanten Google Plus-Gespräch ist Schirrmacher dann noch etwas deutlicher geworden.

„Gunnar Sohn et al, leider in Eile: 1. Wir wissen nicht was Google weiß. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe? Das aber ist das Wissen des 21.Jahrhunderts. 2. ‚Alles‘ ist nicht zu lesen, zu kennen, zu wissen‘. Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, dass der imaginäre Vertrag, an den alle glauben, besagt, dass ‚alles‘ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man existiert nicht, wenn man nicht im Netz existiert, hieß das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteilungen entsenden.“

Er verwies auf einen Wissenschaftsbeitrag im Wall Street Journal, der dokumentiert, wie perfekt unsere digitalen Lebensspuren schon heute analysiert werden können. Wenn das schon möglich sei, ohne verbale Kommunikation und bei nur 2000 Menschen, was sei dann heute insgesamt möglich?

“Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.” Und da stoßen wir wohl zum Kern der Schirrmacher-Thesen: „Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörter gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das Ganze dann als sein Privateigentum weiterverkauft hätte.“

Seine Einwände konnte ich nicht teilen, aber sie waren stets eine Herausforderung für den eigenen Intellekt. Man musste sich zusammenreißen, um in solchen Kontroversen nicht unterzugehen.

Meine Replik veröffentlichte ich im Debattenmagazin „The European“: Ob sich unser Bewusstsein verändert und wir zu Abziehbildern von Computerprogrammen degradiert werden, ist ein höchst unterhaltsamer Ansatz für Kinofilme. Das hat eher den Charakter eines „Wrestling-Events“, wie es der Soziologe Gerhard Schulze ausdrückte. Statt Inhalten werden nur Etikettierungen ausgetauscht. Die einen sind Panikmacher, die anderen Zyniker. Man geht zur Tagesordnung über und sucht sich einen neuen Spielplatz, um „Alarm, Alarm“ zu brüllen.

„Es ist ja nicht zu bestreiten, dass die Maschinen in vielen Teildisziplinen stärker und besser sind als Menschen. Angefangen bei der Muskelkraft. Heute käme niemand auf den Gedanken, mit einem Industrie-Roboter sich im Armdrücken zu messen.“ So zitierte ich den Systemingenieur Bernd Stahl von Nash Technologies.

Beim Schach oder bei Quizsendungen würde es ähnlich aussehen. Gegen IBM-Watson sei kein Kraut gewachsen.

„Eins darf allerdings in der Schirrmacher-Debatte aber nicht verdrängt werden. Die Petabytes lösen nicht das semantische Problem, sondern sind nur die Hardware-Basis-Voraussetzungen. Kann ein Computer prinzipiell zur Sprache kommen, oder bleibt er nur bestenfalls ein semantischer Blechtrottel? Ob das Internet vergesslich oder dumm macht, hängt nicht mit dem Internet zusammen, sondern liegt an dem, der es benutzt. Hier wabert viel Spekulatives und man begibt sich auf wackeligen Grund. Was allerdings wichtig ist, sind dezentrale Lösungen im Netz. Vielleicht braucht man eine Gewaltenteilung des Wissens, so wie wir es aus der Demokratietheorie kennen und umsetzen“, erläutert der Netzwerkexperte Stahl.

Notwendiger wäre eine breitere Debatte über die politische Netzneutralität von Infrastrukturanbietern wie Google, Apple oder Facebook. Also nicht die Frage nach dem gleichberechtigten Transport von Datenpaketen, sondern die Zurückhaltung von Konzernen in politischen, moralischen und ethischen Angelegenheiten. Was passiert, wenn digitale Existenzen von Google und Co. einfach ausgelöscht werden?

Hier lag Schirrmacher richtig:

„Man existiert nicht, wenn man nicht im Netz existiert“.

Seine intellektuellen Einwürfe werden mir fehlen, denn er animierte mich zur Klarheit im Denken – auch oder besonders in der Formulierung einer Gegenposition.

Siehe auch:

Zum Tode von Frank Schirrmacher: Neuland.

Grundversorgungsauftrag für schnelles Internet: Der Staat und die #Drosselkom

Heinrich von Stephan

Die berechtigte Aufregung über die Drossel-Politik der Telekom – getrieben von kurzsichtigen Shareholder Value-Prinzipien – zeigt eindrücklich, warum wir uns in Deutschland intensiver Gedanken machen müssen über die Rolle des Staats beim Aufbau einer modernen Infrastruktur für die Vernetzung von Wirtschaft, Gesellschaft, Schulen, Universitäten und Politik.

Der Telekom sollte man diese Aufgabe entziehen. An dieser Stelle halte ich den Grundgedanken von Christoph Kappes eines politischen Internet-Masterplans für essentiell. Ein Code for Germany jenseits von Markt und Staat. Allerdings sollten keine steuerfinanzierten Projektchen angestoßen werden mit einem Investitionsvolumen von einer Milliarde Euro auf drei Jahre verteilt – es muss ein großes Projekt im Vordergrund stehen: Schnelles Internet. Historische Vorbilder gibt es besonders in der Telekommunikation.

Heinrich-von-Stephan

Es war Reichpostmeister Heinrich von Stephan unter Reichkanzler Otto von Bismarck, der den Bau eines unterirdischen Telegraphennetzes veranlasste nach den verheerenden Stürmen im Jahr 1876. Mit einer Reichsanleihe wurde innerhalb von sechs Jahren die technisch beste und modernste Telegraphen-Anlage der Welt gebaut. Schon am 26. Juni 1881 konnte Kaiser Wilhelm die Fertigstellung eines Leitungsnetzes mit 37.373 Kilometern verkündet werden. Eine ähnliche Meisterleistung vollbrachte Stephan bei der Einführung der Telefonie und des internationalen Postverkehrs mit Frachtdampferverbindungen. Nur mit diesen infrastrukturellen Weichenstellungen konnte sich die Industrialisierung entfalten. Siehe: Heinrich von Stephan, DeTeWe und die Technikrevolutionen in Berlin.

Breitband-Status wird schön gerechnet

Die digitale Infrastruktur wird über Sieg und Niederlage einer vernetzten Ökonomie entscheiden. Dazu gehört ein ehrlicher Kassensturz. Zur Zeit definiert sich die Bundesregierung den Breitband-Status schön. Ein Megabit pro Sekunde (Mbit/s) ist schon so etwas wie eine Breitbandverbindung. Legt man diesen humoresken Wert zugrunde, sind 98,7 Prozent der Haushalte mit einer Breitbandverbindung ausgestattet.
Dass man sich mit diesen willkürlichen Festlegungen selbst in die Tasche lügt, ist wohl auch dem Bundeswirtschaftsministerium bewusst. Und was machte Wirtschaftsminister Rösler? Richtig. Wenn ich nicht mehr weiter weiß, gründe ich einen Arbeitskreis oder im Politiker-Neusprech ausgedrückt, einen Breitbandgipfel. So entstehen aber keine Ideen und Visionen. Kein Heinrich von Stephan in Sicht.

„Dieser Mann hatte Visionen. Die sehe ich bei den politischen Akteuren in Deutschland heute nicht. Es wäre an der Zeit für ein Bekenntnis, die fortschrittlichste, modernste und beste Infrastruktur für Hightech-Kommunikation in unserem Land zu schaffen. Das ist eine nationale Aufgabe. Solange diese Einsicht fehlt, wird nicht viel passieren“, kritisiert Bernd Stahl vom Netzwerkspezialisten Nash Technologies.

Kompromissloser Ausbau wie beim Autobahnnetz

Auch Buchautor Gunter Dueck spricht von der Notwendigkeit einer „strukturkultivierenden Marktwirtschaft“. Der Staat müsse die Infrastrukturen auf die Zukunft ausrichten. Zu einem solchen Schritt würde sich aber niemand entschließen. Ein superschnelles Internet sei für die Wirtschaft und für die Transformation zur Wissensgesellschaft unabdingbar.

„Dieselben Leute, die die 60 Milliarden für die Zukunft nicht geben wollen, argumentieren wie selbstverständlich, dass der entscheidende Anstoß zu Deutschlands Wirtschaftswunder der energische und kompromisslose Ausbau des Autobahnnetzes in den 1960er-Jahren war, der für Deutschland eine moderne Infrastruktur schuf.“

infografik_1064_Top_10_Laender_mit_dem_schnellsten_Internetzugang_n

Öffentlicher Wille für Breitbandausbau

Es fehlt bislang der öffentliche Wille, den Staat stärker in die Verantwortung zu nehmen, moniert der Branchenexperte Roman Friedrich vom Beratungshaus Booz & Co. im ichsagmal-Interview:

„In vielen asiatischen Ländern investiert der Staat und erlässt sogar verfassungsrechtliche Grundlagen für die Notwendigkeit eines schnellen Internets.“ Auch wirtschaftspolitisch sollte die öffentliche Hand ihrer Verantwortung nachkommen, denn es gebe eine positive Korrelation zwischen Digitalisierung, Netzausbau und Arbeitsplätzen, so Friedrich. „Wenn man diese Auswirkungen sieht, muss sich der Staat die Frage stellen, ob er sich nicht stärker engagieren sollte.“

Allerdings nicht als Betreiber. Schwarzweiß-Denken helfe nicht weiter. Es seien viele Varianten für staatliche Initiativen möglich: Public-Private-Partnership, Konzessions- oder Lizenzmodelle, genossenschaftliche Initiativen.

Im Bloggercamp werden wir demnächst eine Heinrich von Stephan-Diskussionsrunde starten. So eine Art Ideen-Workshop für die digitale Transformation. Wer mitmachen möchte, sollte sich bei mir oder Hannes Schleeh melden.

Siehe auch:

DSL-Tarife: Regierung warnt Telekom vor Flatrate-Bremse (die Regierung sollte nicht nur warnen, sondern mit Taten glänzen).

DSL-Drossel: Router-Anbieter wirft Telekom Lüge vor.

Telekom: Erdrosseln was verbindet.

Telekom: Deutschlands Internetvorräte sind ohne Drosselung bis 2016 erschöpft.

„Das Kartellamt sollte den Telekom-Fall prüfen“

Netzpolitik jenseits von Markt und Staat: Kappes, Röpke und der Code for Gemany

Christoph Kappes

Philip Banse und Jürgen Kuri diskutierten im c’t Online-Talk von Deutschlandradio Wissen mit Christoph Kappes und Falk Steiner über den Stand der Netzpolitik. Ein Spannungsbogen vom Klagelied der Alpha-Tiere der Netzgemeinde über das eigene Scheitern beim Widerstand gegen das Leistungschutzgesetz bis zum Plädoyer für einen neuen Realismus bei der Durchsetzung von politischen Zielen der Netzbewegung.

Internetunternehmer Christoph Kappes konkretisierte im letzten Teil der Diskussionsrunde seine programmatische Schrift „Code for Germany“ und profiliert sich so langsam zum Wilhelm Röpke der Netzbewegung.

Exzellentes Buch über Röpke

Er will mit kleinen Schritten die Möglichkeiten der digitalen Transformation stärker an die Lebensrealität der Menschen bringen.

Nicht die Antwort auf die großen Fragen im netzpolitischen Diskurs seien entscheidend, nicht die Abstraktion und nicht der theoretische Überbau, sondern das konkrete Handeln.

„Warum muss es immer ‚Wir‘ sein, Prozesse oder Parteien. Lass doch die Leute verteilt arbeiten. Die einen bauen Spendenportale mit einem bestimmten Payment-Mechanismus. Die anderen kümmern sich um Alternativen zu den großen sozialen Netzwerken oder programmieren Systeme für Dienstleistungen in der Nachbarschaft zur Kinderbetreuung.“

In den vergangenen Jahre habe es bei Kappes eine Drehung gegeben. Man sollte nicht nur theoretisieren, sondern auch mehr „machen“. Impulse sollte man jenseits vom öffentlich-rechtlichen und privaten Eigentum setzen. Als dritte Variante favorisiert Kappes die Form des Gemeingutes. Allen sollte die Möglichkeit geboten werden, digitale Güter zu nutzen. Anders als bei physischen Gütern müsse man sich auf diesem Feld nicht mit dem Problem der Übernutzung herumschlagen. Kappes brachte das Beispiel der Weide, die irgendwann von Kühen leergefressen wird.

„Das ist bei digitalen Gütern strukturell nicht möglich. Sie können beliebig häufig kopiert werden und das Original bleibt trotzdem erhalten.“

Das sei ein großer Vorteil für digitale Gemeingüter. Er fordert ein nationales Programm, um solche Aktivitäten zu entfalten und vor allem hieraus neue Software-Komponenten oder kulturelle Techniken zu entwickeln, die im nächsten Schritt dann wiederum allen zugute kommen: Einzelpersonen, der „Netzgemeinde“, aber auch Unternehmen, NGOs und dem (e)-Government.

„Ich hätte angesichts der Beträge, welche die Gemeinschaft für Unterhaltung und physische Infrastruktur aufwendet, überhaupt keine Hemmungen, für ‚Code for Germany‘ eine Milliarde Euro für den Zeitraum von drei Jahren anzusetzen“, so Kappes.

Aber woher kommt die Kohle und wer entscheidet über digitale Projekte? Da sind wir dann wieder mitten in haushaltspolitischen Machtkämpfen und der Bedienung von Klientel-Interessen. Das sollte allerdings kein Hinderungsgrund sein, das politische Personal zu fordern, um vernünftige und zukunftsfähige Konzepte für eine vernetzte Gesellschaft und Ökonomie anzustoßen, statt auf IT-Gipfeln sich jovial auf die Schenkel zu klopfen und das Versauern als Megabit-Gesellschaft mit rhetorischen Leerformeln zu überspielen.

Jeder sollte mit kleinen Schritten vorangehen. Nicht nur kritisieren, sondern Projekte anstoßen. Es müssen ja nicht immer staatliche Haushaltsmittel sein, die in solche Gemeingut-Initiativen gesteckt werden. In Deutschland gibt es eine breite Genossenschaftsbewegung, die man für digitale Initiativen aktivieren könnte. Oder über Crowdfunding, was ich viel sympathischer finde.

Als kleinen netzpolitischen Erfolg könnte man auch unsere Konfrontation mit dem Kanzleramt werten, die zumindest die Aufseher in den Landesmedienanstalten dazu gebracht hat, Live-Hangouts von Bloggern, Vereinen, Initiativen und Unternehmen nicht mehr mit dem Rundfunkstaatsvertrag zu traktieren und einfach in Ruhe zu lassen. Hier haben wir das Umfeld von Merkel mit der eigenen alternativlosen Parole „Das Internet darf kein rechtsfreier Raum sein“ in Verlegenheit gebracht.

Das Ergebnis kommentierte dpa mit den Worten:

„Im Gegensatz zur Kanzlerin musste sich Obama keine Minute lang mit der Frage beschäftigen, ob der Auftritt bei Google nicht als ein (verbotener) Staatsfunk oder eine lizenzpflichtige Rundfunksendung zu betrachten ist. Diese Frage hatte der Bonner Blogger Gunnar Sohn aufgeworfen, nachdem die Bundesregierung den Google Hangout angekündigt hatte. Doch die Kommission für Zulassung und Aufsicht (ZAK) und die Direktoren der Landesmedienanstalten sahen keinen Handlungsbedarf.“

Auch kleine Blogger wie Hannes Schleeh und meine Wenigkeit können ein wenig an den netzpolitischen Stellschrauben drehen. Man muss nur energisch genug sein. Es ist das Ergebnis einer Arbeit, die sich über acht Monate erstreckte. Und das Ergebnis ist für die Hangout-Community sehr zufriedenstellend.

Bei diesen Formaten, die live ins Netz übertragen werden, handele es sich eher um Abrufdienste, ließ ZAK-Chef Jürgen Brautmeier den Blogger wissen, obwohl der Chat auch live übertragen wird.

Die Analogie zum Ökonomen Wilhelm Röpke klärt sich durch die Lektüre meines folgenden Beitrages: Jenseits von Angebot und Nachfrage: Warum die Ökonomenzunft politischer werden muss.

Michael Seemann plädierte im ichsagmal-Interview für eine Anstalt des öffentlichen Rechts, um Netzprojekte zu finanzieren:

„Wir müssen jetzt an die Ressourcen ran. Wir sehen das im Werbemarkt, der sich immer mehr ins Internet verlagert. Das ist ein natürlicher und guter Prozess. Warum verschieben sich dann nicht auch die Ressourcen in den öffentlich-rechtlichen Kategorien ins Netz? Die Rundfunkgebühren überschreiten in diesem Jahr die Schwelle von zehn Milliarden Euro. Da könnte man überlegen, was man von diesem Geld für den Ausbau von Infrastrukturen, für neue journalistische Konzepte oder für offene Strukturen im Internet ausgeben könnte. Man könnte eine Anstalt des öffentlichen Rechts gründen, die nichts anderes macht als Open-Source-Projekte zu finanzieren.“

Dafür würde ja schon eine Milliarde Euro pro Jahr ausreichen. Wenn der Markt nicht für freie Web-Strukturen sorgt, müssten eben größere Anstrengungen mit öffentlich-rechtlichen Instrumenten an den Tag gelegt werden.

Sag es einfach: Im Journalismus und auch anderswo

Einfachheit klingt einfach, ist in Wahrheit aber ein schwerer Brocken des Alltags. Das fängt beim Umgang mit Produkten sowie Diensten an und hört im Journalismus nicht auf. Etwa bei der Vermittlung von sperrigen Themen. Das gemeinnützige New Yorker Recherchebüro Pro Publica experimentiert mit Songs, Musikvideos und Comics, um das zu ändern, berichtet die NZZ heute in ihrem Medienteil („What the frack is going on?“) der manchmal auch etwas sperrig rüberkommt, von mir aber jeden Dienstag zur wöchentlichen Lektüre zählt. Ich mag den Stil der NZZ. Zurück zur NZZ-Story:

„Für Pro Publica liegt das Kriterium für eine gute Geschichte in der Wirkung, die sie erzielt. Hat die Veröffentlichung Aufmerksamkeit für ein Problem geschaffen? Kann investigativer Journalismus das Leben verbessern?“

Der Journalist Paul Williams habe das Problem bereits vor dreissig Jahren in seinem Buch „Investigative Reporting and Editing“ thematisiert: Wenn eine Enthüllung folgenlos bleibe, dann liege das oft nicht an der Apathie der Leser, sondern am Versagen des Reporters. Eine Investigation sei gescheitert, wenn es der Journalist nicht verstehe, den Bürgern klarzumachen, worum es eigentlich gehe, schrieb Williams 1978.

„Pro Publica hat deshalb 2010 eine Kooperation mit der New York University (NYU) begonnen. Die Studenten sollten erkunden, wie Pro Publica vor allem junge Leute auf komplexe Geschichten aufmerksam machen kann. So kamen sie auf die Darstellung in Broadway-Songs, Musikvideos und Comics. ‚Time‘ bezeichnete das Musikvideo als eines der kreativsten des Jahres 2011″, schreibt der NZZ-Redaktor 🙂 Thomas Schuler.

Die besten Erklärstücke seien direkt, knapp und einfach zu verstehen, betonten die Studenten in einem Statement.

„Auf investigativen Journalismus trifft selten eine dieser Beschreibungen zu. Stattdessen spiegelt er die Unordnung des wahren Lebens wider. Deshalb stellt das Erklärstück nur den Beginn dar, ein Tor in die Tiefe, für die man Pro Publica schätzt und respektiert. Der Song verstehe sich nicht als Ersatz für die Enthüllungen. Er sei als Anreiz gedacht, tiefer einzusteigen“, so Schuler.

Pro Publica vereinfacht die Themen auf wenige Zeilen, die zudem gesungen sind. Etwa der Refrain: „What the frack is going on?“ und „My water is on fire tonight“.

Ein Broadway-Song und ein Comic über toxische Finanzpapiere seien weitere ungewöhnliche Beispiele dafür, wie investigative Journalisten mit ihren Enthüllungen Aufmerksamkeit suchen. Angeboten wird das Ganze kostenlos.

„Fast 50 Millionen Dollar (!) hat Pro Publica bisher ausgegeben – das meiste Geld kam vom kalifornischen Unternehmerpaar Herbert und Marion Sandler, ohne das es Pro Publica nicht gäbe. Von Beginn an begleitete Pro Publica die Sorge, vom Geld der Sandlers abhängig zu sein. 2009 konnte Pro Publica eine Million Dollar von 1000 Spendern einwerben, 2010 immerhin 3,5 Millionen von 1300 Spendern und 2011 5 Millionen Dollar von 2600 Spendern. In diesem Jahr will Pro Publica 6 der 10 Millionen Dollar des Jahresbudgets von anderen Stiftungen (Gates, Ford, Knight, Open Society und andere) und Privatleuten einwerben, so dass die Sandlers nurmehr 4 Millionen Dollar dazugeben“, führt Schuler weiter aus.

Cooles Modell. Vielleicht auch ein geeigneter Weg, um für Frische in den bildungsbürgerlichen Feuilleton-Stuben zu sorgen. Christoph Kappes hat in einem Beitrag für das Debattenmagazin „The European“ ein paar Ideen zusammengetragen – aber bestimmt nicht an Comics und lustige Filmchen gedacht. Das Feuilleton habe aber nicht zu unterschätzendes Privileg:

„Es muss seine Beobachtungen nicht wie seine Schwester-Ressorts an den Zielen Macht und Geld messen (und ihren heutigen Vorbedingungen Meinung und Leistungsaustausch). Kultur hat kein eindeutiges Referenzsystem zum Maß der Antworten, sie hält sich an sich selbst. Die Chance: Vielfalt der Positionen, Blickwinkel und Perspektiven. Erlaubt ist, was Resonanz findet. Glänzend auch die Zufallsfunde, die man wie Kastanien horten und nach Hause tragen kann.“

Denn die guten Fragen sterben nicht aus, da gebe ich Christoph recht.

„Wie wollen wir leben? Wo finden wir Sinn? Was sich hingegen ändern kann, ist der Antwort-Modus: Statt in Weihrauch herabgelassene Dekaloge und kraftstrotzende Paukenschläge (wen er da wohl meint….,gs), befördert der Frage-und-Tast-Modus einen Anschluss-Prozess, für den das Internet als Prozessmaschine die neuen Formen gerade gebiert. Vielleicht macht ja nicht die Publikation allein, sondern der Prozess (aus Publikationen) unseren Fortschritt. Das Feuilleton kann auch mit der Form spielen, intervenierend, flüssig bis zur Trollerei. Der fließende Prozess der vielen Formen als Gegenstück zum Buch als leuchtender Diskurs-Solitär.“

Sei Denglisch auf Facebook okayer als sonst? Was bedeutet queer?

„Wo Institutionen ihre Leitwirkung verlieren – von Brockhaus, Knigge, Kirche bis Schule – muss das Feuilleton ins Leben herabsteigen. Wir brauchen die Verhandlung der richtigen sozialen Praxis, weil es knirscht und kracht, wenn sich Menschen in beschleunigten Zeiten orientierungslos auf die Füße treten. Das Feuilleton ist dann der Ort, an dem Menschen das Verhandeln lernen und so ihre Positionen finden können. Dies kann nur im Netz erfolgen, wo Redaktionen auch den Pluralismus moderieren können“, erläutert Kappes.

Das Feuilleton müsse Information viel stärker als bisher ordnen und Ankerpunkte bieten, weil die alte Ordnung von Hierarchien in Bibliotheken, Büchern und Alphabet durch mehrdimensionale digitale Zugangswege abgelöst werden.

„Es muss Muster sozialer Interaktion dort aufdecken, wo viele Akteure in unübersichtlichen Formationen wirken. Es muss diesen folgen, sie kommentiert retweeten und sie entfolgen“, meint Kappes.

Ein einzelner Feuilleton-Gott kann da wohl nicht mehr den Takt vorgeben – auch nicht in Frankfurt am Main 😉

Oder wie Per Johansson (oder SZ-Feuilletonchef Thomas Steinfeld als Co-Autor) in dem Roman „Der Sturm“ schreibt: „Christian Meier sei auf der Flucht gewesen, lautete ein in Deutschland offenbar immer populärer werdendes Gerücht. In der Vergangenheit habe er so viele große Theorien in die Welt gesetzt, so viele weltumspannende Phantasien über die Macht der Netzwerke, die Zukunft der Roboter und die Allmacht der Gentechnik.“  

Letztlich ging es immer nur um die nächste große Verschwörungstheorie. Die Leute hörten dem Meier aber nicht mehr so gebannt zu. Er schien an die Seite zu rutschen, und es wirkte fast komisch, wenn er wieder einmal den Untergang der Welt beschwor. Eine Prognose, die auch wirklich schwer zu erfüllen ist. Von der Unmöglichkeit eines Berichtes über den eingetretenen Untergang mal ganz abgesehen.

Jetzt wird mein Blogpost aber wieder sehr sperrig. Deshalb will ich künftig stärker der Recherche- und Lektüre-Methode des Religionsphilosophen Jakob Taubes folgen, der ein wichtiges Werk und eine zentrale Botschaft schon durch Handauflegen erkannte. Es war seine Art, die für ihn wichtigen Werke zu lesen. Er war ein Jäger des einen Satzes oder Wortes, in dem sich das Wesentliche des Geschriebenen kondensierte. Überhaupt nicht einfach. Da mache ich jetzt einfach mal eine Lektüreempfehlung:

Für den Comic-Band „Showman-Killer“ von Jodorowsky und Fructus, der mich auch fotografisch inspirierte.

Und dann noch ein Hinweis auf das Blogger Camp „Einfachheit“ am Mittwoch, den 28. November, die erste Session von 18,30 bis 19,00 Uhr.

Oder wir sehen und hören uns einfach schon morgen, beim Blogger Camp über Auto-Apps und der zerstörerischen Kraft der digitalen Dauerdisruption.

Update:

Als Einstieg in meine sperrigen Storys über die vernetzte Service-Ökonomie verweise ich auf den Buchbinder-Wanninger-feat.-Chuck-Norris-Der Hotline-Digitale-Demenz-Song.

Auf#Regener des Tages: Bubble-Rhetoren unterschätzen Kompetenz der vernetzten Verbraucher

Mein Aufreger des Tages für die absatzwirtschaft: Filterbubble-Theorie – Werden Konsumenten durch Suchmaschinen und Filterfunktionen der sozialen Medien entmündigt? Hier ein Auszug: Im Diskurs über die vermeintliche Diktatur von Filterblasen, Algorithmen und personalisierten Diensten wird der Eindruck erweckt, dass sich Mensch und Maschine in einem Teufelspakt gegenüberstehen. Zu den prominentesten Vertretern der Jammerathleten, Klagegenies und Kassandren vom Dienst zählt der Filterbubble-Autor Eli Pariser. Angeblich werden wir durch Personalisierungsfunktionen des Netzes sukzessive entmündigt. Das selbstbestimmt Ich erlebt eine Umformung zu einem fremdbestimmten Werbemedium. Im Klagechor der digitalen Skeptiker wird davor gewarnt, sich den Einflüsterungen der Reklame willenlos zu ergeben. Am Ende sei es nicht mehr möglich, freie Entscheidungen zu fällen.

Sollten wir als Alternative weiter auf die Alzheimer-Dienste von Call Center-Anbietern oder pauschale Werbe-Berieselung setzen?

Jeder Mensch filtert und vergisst Informationen – ansonsten würden wir im Wahnsinn enden. Jeder konstruiert seine eigene Wirklichkeit, konsumiert, liest und liebt nach bestimmten Mustern und Lebenserfahrungen. Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Niemand ist diesen Diensten willenlos ausgesetzt.

„Die meisten Diskussionen zur Rolle von Filtern haben den Fehler, dass sie von Information als etwas Gegebenem ausgehen“, schreibt der Berater Christoph Kappes in einem Beitrag für die Zeitschrift „Merkur“. Im Hinblick auf Neues sei die Theorie von der Filterbubble sogar fachlich falsch: „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärte Kappes in einem Telefoninterview mit mir.

Es ist ein simpler Trick der Bubble-Fraktion, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben, um entsprechend kritischer den Diskurs vorantreiben zu können. Es könnte sich natürlich auch um ein psychologisches Syndrom handeln:

„Wir nennen das die Animation des Toten. Menschen gehen offensichtlich viel lieber und leichter mit Lebendigen um als mit Toten. Wenn ich mir meinen Dosenöffner, der gerade abgerutscht ist und mich verletzt hat, als beseelt denke, kann ich ihn beschimpfen. ‚Du blöder Dosenöffner. Irgendwann schmeiß ich Dich in den Müll‘. Das macht man mit seinem Laptop, mit seinem Auto und generell mit Technik. Dabei weiß jeder, dass die toten Dinge mich gar nicht verstehen können“, so Dr. Gehard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung.

„Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Maschinen, Algorithmen und Software sind aber keine Personen. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt. Niemand kann mich daran hindern, einen Algorithmus zu programmieren, der vielleicht besser ist als das, was Google und Facebook auf den Markt bringen. Das ist ein sinnvoller Standpunkt“, so Wohland.

Wer von bösen, manipulativen und bedrohlichen Technologien redet, stehe sich selber im Weg, zu klaren Erkenntnissen zu kommen. Es komme nur Unsinn heraus. Eine Simplifizierung der Maschinenwelt bringe uns nicht weiter.

Social Web straft inhaltsleeres Marketing-Geträller ab

Die Bubble-Rhetoren unterschätzen die Kompetenz der vernetzten Verbraucher. „Nutzer teilen Inhalte nicht, wenn sie ihnen nicht vertrauen“, schreibt Salima Richard in dem Beitrag „Psychologische Studie: Warum wir Inhalte im Netz teilen“.

Einen zweiten Aufreger habe ich für Service Insiders recherchiert: Neues Kreislaufwirtschaftsgesetz missachtet EU-Recht: Müllverbrennung und Recycling gleichgestellt – Mittelständische Recyclingwirtschaft gefährdet.

Aufregener ist ja tatsächlich der Auf#Regener. So schreibt Netzpolitik.org vollkommen richtig:

Wenn ich früher an Element of Crime dachte, wäre mir dazu ein Begriff wie Ignoranz als einer der letzten eingefallen. Seit gestern ist das anders, seit Sven Regener, Frontmann der fast schon legendären Band, bei Zündfunk auf Bayern 2 einen so unfassbar ignoranten Rant abgelassen hat, dass sogar Jan Delays Lapsus in Sachen Abmahn-Einnahmen dagegen fast noch putzig wirkt.

Ich schmeiße wohl meine mp3-Regener-Platten weg.

Aber Sveni-Boy verdient mildernde Umstände: Finger weg von seiner Paranoia

Technik im Embryonenzustand und Agora 2.0: Das Kappes-Papier

Christoph Kappes hat für die Enquete-Kommission “Internet und digitale Gesellschaft” des Deutschen Bundestages als Sachverständiger Fragen zum Thema “Strukturwandel der politischen Kommunikation und Partizipation” beantwortet. Einiges davon ist nicht nur für den netzpolitischen Diskurs relevant, sondern generell für die Umwälzungen, die durch die Digitalisierung ausgelöst werden. Etwa die Kommunikation unter Abwesenden, die jede Organisation ändern wird:

„Durch das Internet können mittlere Organisationsebenen schwächer werden oder entfallen, es kommt zugleich (!) zu einer Konzentration auf kleine und große geographische Einheiten. An einem Ende steht vermutlich eine Stärkung der örtlichen Gemeinschaft, wie sie dem Idealbild des Kommunalrechtes entspricht (und dem Subsidiaritätsprinzip), während am anderen Ende ein übernationaler Sprach- und Kulturraum wie ein (Kern-) Europa steht.“

„Klassische Massenmedien werden zwar auch im digitalen Zeitalter weiter existieren, weil sie soziale Zwecke erfüllen: Sie erfüllen ein Bedürfnis nach sozialer Realitätskonstruktion, stellen ein Minimum an kultureller Gemeinsamkeit her und versorgen alle anderen Teilsysteme der Gesellschaft mit Information. Klassische Massenmedien verlieren aber ihre starke Torwächter-Funktion aus mehreren Gründen:
1. wird ihre Wertschöpfungskette entbündelt,
2. sind neue Torwächter (insbesondere Suchmaschinen und Aggregatoren) auf den Plan getreten,
3. entstehen im Publikum neue „Mega-Hubs“ (frühe Beispiele sind z.B. Sascha Lobo oder Youtube-Blogger)
4. entstehen neue, losere Strukturen von Inhalte-Erstellern, weil im digitalen Zeitalter die Kommunikation unter räumlich Anwesenden an Bedeutung verliert, die Bepreisung und Abrechnung dynamisch von Maschinen erledigt wird und dies zur Entbündelung von Inhalte-Produkten führt,
5. können einzelne Journalisten „Stars“ werden, die bisher hinter einer Medienmarke kaum sichtbar waren.“

„Dem vielzitierten Satz eines Studenten ‚Ist die Nachricht wichtig, wird sie mich finden‘ nachempfunden, lautet das politische Motto in Zeiten von Social Media: ‚Ist die Empörung wichtig, wird sie mich finden‘.“

„Die ‚Agora 2.0‘ ist ein großer, aber dezentraler Kommunikationsraum, der durch neue Sichten auf Kommunikationsakte zugänglich gemacht wird. Die ‚Agora 2.0‘ ist gewissermaßen eine Über-Stadt, die aus Städten mit ihren Gängen, Straßen, Kreuzungen, Plätzen und Stadien besteht, nur mit dem Unterschied, dass jedermann sich per Klick in die dortige Kommunikation einschalten kann.“

„Social Media ist also nicht ‚Twitter‘, das Social Internet ändert die Ordnung der Information, ihre Verfügbarkeit, ihre Dauer, unseren Zugang. Das ist so fundamental, dass es sogar von vielen Experten noch nicht verstanden ist.“

Vergleicht man die Netz-Öffentlichkeit in einem Satz mit der klassischen Öffentlichkeit,

„so ist sie diverser, regelfreier, pulsierender, unübersichtlicher, überraschender, lebhafter. Der Grund dafür ist, dass die meisten Beteiligten ohne Geschäftsmodell operieren, rein ‚immateriell‘-gesteuert sind (im positiven Sinne, zweckfrei ihre Meinung zu sagen, sich zu erproben, ein soziales Umfeld zu beeinflussen etc.), nie in festen Strukturen arbeiten, kaum auf inhaltliche Rahmen Rücksicht nehmen müssen.“

Einen wichtigen Aspekt hat Kappes am Anfang seines Papiers auf Seite 3 geschrieben:

„…was wir beobachten, ist aus verschiedenen Gründen als noch sehr frisch anzusehen. Es sind mindestens die folgenden fünf Dimensionen, in denen die Technik und ihre Nutzung sich noch weiter entwickeln werden:
1. Dimension ‚Leistung‘: Computer und Internet sind zwar nicht mehr neu und die öffentliche many-to-many-Kommunikation existiert seit 30 Jahren (Usenet, Newsgroups), doch ist das Social Web in der Endkunden-Form nicht älter als fünf
Jahre: die flüssige Kommunikation in losen und netzartigen Inhalts-Strukturen, das unadressierte Senden, Folger-Strukturen und Mikrokommunikation (wie bei Twitter), vorgefertigte Instant-Kommunikationsakte (wie das „Gefällt mir“ bei Facebook). Wir sehen am eher inhaltezentrierten Konzept von Google Plus im letzten Jahr, an Fehlschlägen wie Ping, an den wöchentlichen Änderungen bei Facebook und Neueinsteigern wie Tumblr, Path und Pinterest, daß die Konzepte der Technik noch volatil sind.“

Und der zweite Punkt (die anderen bitte im Kappes-Papier nachlesen):

„Vergleicht man den Lebenszyklus mit anderen Techniken, befinden wir uns in einem vermutlich noch sehr unausgereiften Stadium. Zehn Jahre nach Erfindung der Radiowellen gab es noch sogenannte ‚Knallfunkensender‘, die ohrenbetäubenden Lärm machten und nur wenige Kilometer Reichweite hatten. Der elektrische Strom kam erst in den 1930er Jahren in deutsche Haushalte, 60 Jahre nach der Erfindung des Dynamos durch Siemens und 250 Jahre nach der Entdeckung elektrischer Ladung. Die Automobilindustrie macht auch seit 1970 noch gewaltige Fortschritte bei der Sicherheit, sogar die Schifffahrt wird in den letzten 40 Jahren durch Containerschifffahrt enorm verbessert. Kurz: Wenn das Internet eine neue Technik ist, so betrachten wir gerade eine Technik im Embryonenzustand.“

Soweit ein paar Auszüge aus dem 25seitigen Kappes-Opus, die mich interessieren und die ich bestimmt in der einen oder anderen Form weiter thematisieren werde.

Algorithmen und das mechanistische Weltbild ihrer Kritiker und Anwender

Kathrin Passig setzt sich in der Süddeutschen mit der im vergangenen Jahr um sich greifenden Kritik an einer vermeintlichen Algorithmen-Diktatur auseinander (Zur Kritik an Algorithmen: Warum wurde mir ausgerechnet das empfohlen?). Vor allen Dingen Miriam Meckel hatte sich ja mit Horrorszenarien hervorgetan. Passig schreibt:

„Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen – und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen – nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.“

Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruhe auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion „Genius“. Genius erzeuge automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt:

„Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.“

Genius aber könne dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet.

„Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können“, so Passig.

In der FAZ legte Meckel dann noch weitere Argumente vor:

„Alle Unbekannten in dieser Gleichung werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt.“

Dazu Passig: „Abgesehen davon, dass die ‚Unbekannten in dieser Gleichung‘, die ‚von vornherein herausgerechnet werden‘, nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.“

Ich selbst hatte mich im September 2011 mit den Thesen von Meckel beschäftigt und dazu Internet-Experten Christoph Kappes interviewt: Sterben wir den Tod der virtuellen Berechenbarkeit?

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die auf absehbare Zeit keine Ergebnisse zeitigen wird.“

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes. Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte. „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen. „Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Algorithmen sind also nicht allwissend und versagen bei der Prognose von Verhaltensmustern in der Zukunft. Kappes hat in dem Interview eine Frage aufgeworfen, die viel spannender ist und die ich in meiner nächsten Kolumne aufgreifen möchte? Mit welchem Weltbild agieren Konzerne wie Google und Facebook bei der Programmierung von Algorithmen? So operiere Facebook mit einem sehr einfachen behavioristischen.

„Ich kann die Aufregung von Geisteswissenschaftler verstehen, wenn Technologen simple Modelle von menschlichem Verhalten in die Welt setzen. Das ist in der Tat bedenklich. Hier modelliert man den Menschen als Objekt der Maschine. So wird man der Komplexität seines Verhaltens und Denkens nicht gerecht. Hier liegt Facebook falsch mit der Frage, ob man aus dem Maß der Interaktion mit anderen Personen schließen kann, welche Statusmeldungen angezeigt werden. Wenn ich etwas schweigend zur Kenntnis nehme, ist das ja kein Beleg für Unwichtigkeit. Auf dieser Grundlage gibt es keine Rechtfertigung für das Ausblenden von Informationen.“

Aber nicht nur Facebook wenden solche simplifizierenden Verfahren an. Auch die Sozialwissenschaften – besonders die Politikberater in den Wirtschaftsforschungsinstituten – vertreten eine mechanistische Weltsicht, kritisiert Wolfgang Streeck, Direktor am Max-Planck-Institut für Gesellschaftsforschung in Köln. Sie blenden den Faktor Ungewissheit aus. Warum das bei den Konjunkturprognosen regelmäßig in die Hosen geht, habe ich bereits ausführlich in diesem Blog dargelegt. Streeck liefert dafür weitere Argumente:

„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen. Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat (Kappes spricht von Singularität, gs), für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“, schreibt Streeck in dem Sammelband „Wissenschaftliche Politikberatung“, erschienen im Wallstein Verlag).

Trotzdem versuchen natürlich Politiker und auch Marketing-Gurus, unser Handeln zu beeinflussen oder sogar zu steuern. Wenn Menschen das durchschauen, passiert sogar das Gegenteil. Solche Dinge bleiben eben nicht geheim. Instrumente zur Verhaltenskontrolle oder Verhaltensmanipulation werden über kurz oder lang bemerkt. Man erkennt die Absichten und verhält sich absichtsvoll anders. Streeck verweist auf die Hawthorne-Experimente (1924 bis 1932). Forscher wollten herausgefunden haben, dass Arbeiterinnen auch ohne Lohnerhöhung schneller und besser arbeiten, wenn man freundlich zu ihnen ist (wie großzügig, gs) und die Wände gelb anstreicht.

„Aber nachdem sich unter den Beschäftigten herumgesprochen hatte, dass das Management mit seinen guten Worten und der gelben Farbe nur Geld sparen sollte, kam es zu Lohnforderungen und einem Streik“, führt Streeck aus.

Die Geltung derartiger Modelle und Theorien könne durch ihr Bekanntwerden schnell wieder außer Kraft gesetzt werden!

In meiner Freitagskolumne möchte ich genau diesen Aspekt aufgreifen. Meinungsäußerungen und Tipps bitte bis Donnerstagabend hier als Kommentar posten oder mir direkt wieder per E-Mail senden an: gunnareriksohn@googlemail.com

Verlage wollen Aufmerksamkeit und satte Renditen: Nur die Google-Apple-Facebook-Konkurrenz stört ein wenig

Facebook, Google und Apple, diese schlimmen amerikanischen Internet-Giganten, wollen doch nur das Eine: uns, die Nutzer. So jedenfalls tönt es in einem Beitrag der Süddeutschen Zeitung, den der Blogger Christoph Kappes in einer herrlichen Replik zerlegt hat. „Halten wir uns gar nicht erst mit einer Kritik der Rhetorik auf, bei der Selbstaufgabe, Einverleibung und Verschlungenwerden – der Verlust des Ich! – mitschwingen, sondern kommen gleich zum Thema: Ist irgendetwas wundersam oder gar verwerflich daran, dass ein Unternehmen Nutzer will? Möchten Verlage keine Leser? Wenn doch, ist das gut, oder irgendetwas hieran schlecht? ‚Die drei Unternehmen arbeiten sich dabei von unterschiedlichen Seiten an uns heran und locken mit der Einlösung von Verheißungen…'(SZ-Artikel). Ja, Entschuldigung, was machen denn Verlage jede Woche an meiner Straßenecke, wenn sie mich mit Studenten zur Abo-Gewinnung ansprechen? Was ist denn ein Probe-Abo, kein ‚Heranarbeiten‘ an den Kunden? Und wenn Google mit der Verheißung der ‚Orientierung‘ lockt – wo ist der Unterschied zur Verheißung der Qualitätspresse? Wohlgemerkt: Ich beschwere mich darüber nicht. So funktioniert Wirtschaft und Kundengewinnung ist ein legitimes Ziel. Warum also diese Kritik? Vielleicht doch eine subkutane Haltung aus dem Autoren-Mandelkern, daß Wirtschaft keine legitimen Ziele verfolgt“, fragt sich Kappes und zitiert den SZ-Artikel: „Apple, ein ehemals siecher Hardware-Hersteller, der vor etwas mehr als 10 Jahren seine auch damals schon sehr schönen Produkte kaum an den Mann zu bringen wusste, treibt inzwischen mit jedem Quartal Umsatz und Gewinn in die Höhe.“ Bei Apple und Google seien „schon diese Margen … mythisch“.

Seien 25 Prozent Umsatzrendite viel – oder vielleicht das Ziel vieler Unternehmen, von deutschen Banken bis Werbeholdings? Was sei eigentlich das Renditeziel der Südwestdeutschen Medienholding (SWMH), die 2002 immerhin knapp 20 Prozent erzielte und wie muss man die EBITDA-Rendite Axel Springers in Höhe von 26,3 Prozent im Segment Zeitungen national attributieren? Berechtigte Fragen. Wie alle Unternehmen, wollen auch die Verlage Aufmerksamkeit und Rendite erreichen. Facebook ist in diesem Punkt allerdings den klassischen Medien haushoch überlegen, wie ich in einem Beitrag für Service Insiders geschrieben habe. Die Zeiten sind aber vorbei, in denen die Printmedien noch Apothekenpreise für Anzeigen kassieren konnten.

Journalismus-Professor Stephan Ruß-Mohl hat diesen Tatbestand auf den Punkt gebracht: „Die Verlagsmanager haben sich an entscheidenden Stellen verkalkuliert. In der ‘guten, alten’ Zeit hatten die meisten Blätter regionale oder lokale Oligopole oder Monopole, also eine marktbeherrschende Stellung. Damit konnten sie bei den Anzeigenpreisen kräftig zulangen. Über Jahrzehnte hinweg erzielten sie Traumrenditen, von denen nicht nur viele Verleger, sondern auch so manche Redakteure in ihren Nischen wie die Maden im Speck lebten. Im Internet herrscht dagegen Wettbewerb. Der Konkurrent, der auf dieselben Anzeigenkunden hofft, ist nur einen Mausklick entfernt. Deshalb schrumpfen bei den Werbeumsätzen die Margen, aus denen sich früher Redaktionen großzügig finanzieren ließen“, so Ruß-Mohl. Für die Werbetreibenden seien das paradiesische Zustände. Sie könnten ihre Zielgruppen ohne allzu große Streuverluste über das Internet sehr viel besser erreichen und müssten das Geld nicht mehr zum Fenster rausfeuern. Und noch ein Trend schröpft die Verlage: Wer nach einer neuen Freundin Ausschau hält oder sein Auto zum Verkauf anbietet, kann online inzwischen gratis oder für wenig Geld seine Ziele erreichen. Hier hilft die Silo-Taktik der Verlagsmanager nicht weiter. Die entsprechenden Portale laufen auch ohne Nachrichten-Content!

Und genau deshalb sehnt sich ein Verleger wie Hubert Burda nach den alten Zeiten zurück, wo die Verlage ihre Dominanz als Einweg-Kommunikatoren in Rendite ummünzen konnten. Blöd ist es ja, dass die Verlage nicht auch im Internet ihre hohen Anzeigenpreise an den Mann bringen: „Das fing ganz langsam an mit dem Thema Cost per Click. Ich weiß noch, wie mich Christoph Schuh (Vorstand der Tomorrow Focus AG, Anm. der Red.) anrief und sagte: Bei Focus Online haben wir einen Anzeigenpreis von 12.000 Euro für die Festplatzierung und bei Abrechnung nach marktüblichen Suchmaschinen-CPC´s sind es gerade einmal 380 Euro. Die CPC-Abrechnung und das Überinventar durch Communities haben die Preise kaputt gemacht und die Brandingleistung nicht vergütet. Am Ende blieben eben die Pennies hängen – bis auf wenige große Redaktionsmarken: für Google vielleicht Milliarden Mal. Für uns: vielleicht eine Million. Und eine Million mal 30 Cent sind eben nur 300.000. Die Redaktionskosten blieben die gleichen, Google nahm die Inhalte dankend ab und sagte uns, schauen Sie mal, wie wir Ihnen Traffic bringen“, so Burda im Interview mit Meedia.

Er glaube nicht, dass Search bei Google fair ist. Denn Google lege ja die Kriterien der Suche nicht offen. „Und es gibt auch keinen Fair Share an den Vermarktungserlösen, denn jeder muss damit zufrieden sein, was Google gibt. Wir haben das CPC-Modell für Google-Anzeigen akzeptiert, weil wir uns auf ihre Währung eingelassen haben. Und dann kamen noch die Werbekunden, die sagten: Endlich haben wir ein Modell, wo wir die Response auf eine Kampagne genau messen können“, erläutert Burda.

Und dann sagt er aber ganz ehrlich, um was es geht und bestätigt damit die Position von Kappes: „Wir generieren in der Werbung vier Dinge: Aufmerksamkeit, Interesse, einen Wunsch (Desire), und im letzten Punkt Aktion, also: ich greife zu. Bei Google bleibt uns nur der vierte Punkt. Im Netz wird ja weitgehend nicht für die ersten Bereiche bezahlt, sondern erst, wenn geklickt wird. Wir bekommen nur ein Bruchteil dessen vergütet, was an Clicks auf unserer Seite landet. Die Medien stellen die Aufmerksamkeit her für das, was die Leute interessiert. Wir schaffen den täglichen Gesprächsstoff, doch nicht Google“, glaubt Burda.

Wenn sich allerdings die Internetwelt immer mehr in Richtung des universalen Aufmerksamkeitsverteilers Facebook dreht, dann würde selbst ein neues Sharing-Modell mit Google sehr schnell obsolet sein. Denn die Aufmerksamkeit entsteht nicht durch Algorithmen, wie bei Google, sondern durch uns, die Facebook-Nutzer. Für das Social Media-Marketing wird also eine neue Währung gebraucht, nicht mehr Klickzahlen, sondern Reichweite und Einfluss. Siehe auch: Die Kunst des Zuhörens in Zeiten des Kontrollverlustes – Studie beleuchtet Leistungen von Social Media-Analysetools.

Als wichtig erachten die Autoren der Studie „Social Media Monitoring – Erst zuhören, dann mitreden in den Mitmachmedien“ die Messung der Reichweite von Social Media-Beiträgen – Klickraten sind weniger aussagekräftig. Um die Erkenntnis stabil und über die Zeit vergleichbar zu machen, müssen Kenngrößen durch einen Index normiert, katalogisiert und historisiert werden, damit sie als Key Performance Indikatoren herangezogen werden können. „Mithilfe des so genannten Social Media Relevanz Index lässt sich zum Beispiel die Reichweite eines Postings in einem Forum bestimmen. Forschungen der Fachhochschule Köln und der Universität Düsseldorf zeigen hier gute Ansätze. Insbesondere können diese Index-Werte den Entscheidern einen weiteren Hinweis für die Relevanz unterschiedlicher Plattformen geben“, schreiben die Studienautoren.

Nur wer auch in der Community als wertvolle Quelle für andere Nutzer identifizierbar sei, besitzt auch tatsächlich das Potential, ein wertvoller Multiplikator oder gar eine Bedrohung für die Reputation des Unternehmens zu sein oder zu werden, so Rolf Lohrmann, Geschäftsführer von qualitycube in Hamburg. Hier bestehe allerdings noch einiger Forschungsbedarf, um eindeutige Identifikationen dieser relevanten Multiplikatoren zu erreichen. „Zudem muss man eruieren, ob die alte Pareto-Verteilung in sozialen Netzwerken noch gilt. Wenn wir uns die Long Tail-Effekte im Netz anschauen, gibt es sehr viele Nischen mit 80/20-Verteilungen. In der einen ist man der ‚Star‘ und in der anderen mehr oder weniger der stumme Konsument und Beobachter“, erklärt Peter B. Záboji, Chairman des Frankfurter After Sales-Dienstleisters Bitronic.

Hubert Burda hat sich vielleicht mit Google den falschen Gegner ausgesucht. Facebook zeigt, wo es lang geht: „Nirgendwo verbringen die Menschen beim Surfen mehr Zeit, und je mehr Zeit sie dort verbringen, desto mehr Werbegeld fließt“, schreibt Zeit-Redakteur Götz Hamann. Und verbringe ich dort die Zeit wegen Focus Online, Herr Burda? Mitnichten.

Hier noch einmal der Beitrag von Kappes.

„Datenkrake“ Google mit dem Rundfunkstaatsvertrag bändigen?

Christoph Kappes von der Agentur Fructus hat sich heute in einem FAZ-Gastbeitrag (natürlich im Feuilleton von Herrn Schirrmacher) kritisch mit der Datengier von Google auseinandergesetzt. Dabei demontiert er die irrige Vorstellung (die bei mir nie existierte), dass der Mountain View-Konzern eine Suchmaschine mit ein paar Gratisdiensten wäre. Das Geschäftsmodell von Google beruhe darauf, dass Nutzer seine Produkte akzeptieren, die entweder Werbeplätze sind oder die Effizienz der Werbung steigern. „Der Erfolg beruht dabei auf den Werbesystemen AdWords und AdSense. Mit ihnen erlöst das Unternehmen 97 Prozent seines Jahresumsatzes von knapp 24 Milliarden Dollar, indem es Anzeigen zu zwei Dritteln auf eigenen Produkten und zu einem Drittel auf Fremdprodukten plaziert: Die Suchmaschine wird erweitert (etwa um die Funktion Street View), um den Markt der lokalen Anzeigen zu erschließen. Bücher erhöhen die Abrufzahlen der Suchmaschine. Das Mobiltelefon Nexus soll zusammen mit dem Betriebssystem Android den stark wachsenden Werbemarkt auf webbasierten Smartphones erschließen, bislang die Domäne von Apples iPhone“, schreibt Kappes. Kritisch sei die Datensammlung für Nutzer eines Google-Kontos, bei dem eine Registrierung mit expliziten Daten wie Klarname und Adresse erfolgt.

Google besitze danach nicht nur diese Daten, sondern nutze sie auch, um Werbung individuell zu optimieren, indem von Nutzern erstellte Inhalte wie etwa Mails maschinell nach Indizien für Interessen durchsucht werden. Ja und? Wenn ich Textwerbung erhalte, die sich an meinen Suchabfragen oder an meinen persönlichen Interessen orientiert, ist das immer noch besser, als die dümmliche Pauschalberieselungswerbung, die mir täglich über klassische Medien an den Kopf geballert wird. In beiden Fällen sind mir diese Reklameorgien in der Regel wurscht. Wenn ich zufällig nach einer Waschmaschine oder Sportartikel suche, kann es sogar passieren, dass ich auf eine Textanzeige klicke und mir das Angebot anschaue. Wird die Google-Werbung jetzt noch intelligenter und präsentiert mir Angebote, die mich wirklich begeistern, könnte das häufiger vorkommen. Von 100 Fällen neige ich dann vielleicht ein einziges Mal dazu, einen Kauf des Angebotes in Erwägung zu ziehen.

In der Einkaufsstraße meines Wohnortes funktioniert die personalisierte Werbung nicht anders. Dort kennen einige Verkäufer meinen Namen, wissen wo ich wohne, merken sich meine Kaufgewohnheiten, greifen automatisch zu meiner bevorzugten Zigarettenmarke, packen mir ohne Rücksprache fünf Brötchen in die Tüte, weisen mich auf Sonderangebote hin, erkundigen sich nach dem Wohlergehen meiner Familie, plaudern über Urlaubserlebnisse, geben mir Produktproben und drücken mir einen Prospekt in die Hand. So etwas nennt man in der realen Wirtschaftwelt Kundenservice oder auch etwas hochgestochen One-to-One-Marketing. Als Stammkunde erwartet man ja auch einen freundlichen, vorausschauenden und perfekten Kundendienst. Sobald er über Algorithmen und intelligente Maschinen abläuft, brennen in Deutschland die Sicherungen durch.

FAZ-Gastautor Kappes befürchtet, dass die kommerziellen Interessen von Google die Unabhängigkeit der Suchmaschine in Frage stellen könnten. Eigenen Content bietet Google in der Regel ja nicht an. Der Weg zu einen redaktionellen Online-Angebot führe in bis zu dreißig Prozent der Fälle über eine Suchmaschine. „Daher sollte schon heute politisch diskutiert werden, eine neutrale und diskriminierungsfreie Suche auch medienrechtlich zu verankern“, fordert Kappes und bringt allen Ernstes den Rundfunkstaatsvertrag ins Spiel. Das Gesetz würde ja schließlich auch eine Plattformregulierung für Set-Top-Boxen und elektronische Programmführer beinhalten. „Warum also sollte man nicht auch Aggregatoren wie Google auf eine unmanipulierte Auswahl von Internetinhalten verpflichten und ihnen nur unter Auflagen erlauben, selbst im Inhaltegeschäft tätig zu werden“, fragt sich Kappes. Glaubt der Autor wirklich, dass die politischen Spielchen der Landesmedienanstalten als Hüter des Rundfunkstaatsvertrages neutral und diskriminierungsfrei ablaufen?

Hat er sich mal mit den Personen und Karrieren dieser Behördenmitarbeiter beschäftigt? Bei der Lizenzierung privater Hörfunk- und TV-Veranstalter und der Vergabe der entsprechenden Frequenzen und Kabelkapazitäten wird kräftig nach parteipolitischen Gesichtspunkten geschachert. So konnte manch ein altgedienter Parteifunktionär mit einer Hörfunk- oder TV-Lizenz eine nette zweite Karriere starten. Selbst in den Landesmedienanstalten wimmelt es von Apparatschicks, die für treue Parteidienste in öffentliche Ämter gehoben wurden (beliebt sind ja auch die staatlichen Lotterien, Verkehrsbetriebe, Wasserwerke, kommunale Wohnungsbaugesellschaften etc.). Da wird dann in der Ständigen Vertretung in Berlin beim zehnten Bier herzhaft gelacht über Gerhard oder Helmut, die man immer wieder gerne auf Parteitagen trifft und auf die Schulter klopft für die personalpolitischen Klüngeldienste.

Ich brauche diese medienpolitischen Hausmeister nicht, um zu entscheiden, was mich gut oder schlecht ist. Da zitiere ich mit großem Entzücken immer wieder den Soziologen Wolgang Sofsky: „Der Staat ist weder ein Hort der Sittlichkeit noch eine moralische Anstalt. Er hütet kein Gemeinwohl und ist auch keine Quelle väterlicher Geborgenheit. Der Staat ist eine Einrichtung zur Beherrschung der Bürger“. Die Textanzeigen von Google sind kein paternalistisches Instrument. Die Kontrollwut staatlicher Einrichtungen schränkt die Meinungsfreiheit ein, nicht Google oder Facebook. Deshalb sind die angeblichen Datenschutzsorgen der CSU-Politikerin und Ministerin Ilse Aigner so unfassbar heuchlerisch. Als Repräsentantin einer Partei des starken Staates sollte sie erst einmal vor der eigenen Türe kehren.

Am Ende seines Artikels stellt Kappes eine sehr interessante Frage: Es sei an der Zeit, nach den Ursachen zu fragen, warum heute drei Viertel der Internettechnologie aus den Vereinigten Staaten kommen, obwohl der erste programmierbare Computer von Konrad Zuse gebaute wurde. Die Antwort sollte er bei Frank Schirrmacher suchen…..

Als Moderator (nicht als Veranstalter!) der Kölner AdWords Days werde ich die Einwände von Kappes gerne aufgreifen und mit den Experten diskutieren.

Siehe auch:

Wider die Hausmeister des öffentlichen Diskurses – Zur Zeit-Debatte über das Internet.

Exkurs zur Glühbirne – Gutgemeinte Verbote und die Gefahr eines paternalistischen Staates.

Foucault, der Blogger.