Der Journalismus braucht keinen Gegner: „Die schlagen den Sargnagel selbst ein“ @klauseck @VBanholzer

Professor Lutz Frühbrodt sieht Content Marketing als weiteren Sargnagel des Journalismus. Er hat das ausführlich auf dem Besser Online-Kongress in Köln erläutert.

Fragt sich nur, wer dafür verantwortlich ist. Klaus Eck von der Agentur d.Tales sieht die Schuld nicht bei den Unternehmen. Firmen wollen unabhängig von den journalistischen Gatekeepern agieren. Das sei aber keine Umgehungsstrategie.

„In manchen Branchen sind diese Gatekeeper gar nicht mehr vorhanden. Etwa in der IT-Industrie. Wie viele Zeitschriften gibt es da noch? Man möchte als Kommunikator gerne mit Medien zusammenarbeiten. Es fehlen aber die Anschlussstellen“, sagt Eck.

Der Journalismus brauche keinen Gegner.

„Die schlagen den Sargnagel selbst ein. Ich finde es schade, dass Medien viele Themen nicht mehr aufgreifen – beispielsweise im Lokaljournalismus. Mit den radikal ausgedünnten Redaktionen kann man nicht mehr umfassend berichten“, erläutert Eck.

Noch trüber sieht es im Fachjournalismus aus. Im Durchschnitt werden dort die Publikationen von 1,5 Personen gemacht. Ein Chefredakteur und vielleicht noch eine halbe Schreibkraft. Das wird dann kompensiert mit vielen „freien“ Autoren.

„Die kommen überwiegend von Unternehmen, die in den Fachmedien ihre Artikel ‚platzieren’. Die Content-Produktion wird ausgelagert“, weiß Eck.

Folge: Auch Fachmedien machen sich überflüssig, weil Unternehmen auf die Idee kommen, solche Formate selbst auf die Beine zu stellen. Die Kompetenzen, die Unternehmen bei Fachthemen haben, gehen viel tiefer. Es sei leichter, meint Eck, aus einer fachlichen Kompetenz eine journalistische Kompetenz zu machen als umgekehrt.

Marken werden also zunehmend zu Sendern, weil sie mit ihren Botschaften bei den etablierten Medien nicht mehr durchdringen. Als integrative Kraft spielt der Journalismus in der Netzwerkgesellschaft eine immer geringere Rolle.

Nach Analysen von Volker Banholzer, Professor für Technikjournalismus und Technik-PR, fehlen Konzepte für eine fragmental differenzierte Gesellschaft. Im Internet dominieren privatisierte Öffentlichkeiten. Der Journalismus müsste Konzepte für diese Netzwerke entwickeln.

„Das tut er aber nicht“, kritisiert Banholzer.

Wenn Unternehmen zu wenig in der veröffentlichten Meinung vorkommen, entwickeln sie eigene Konzepte. Indirekt ist das ein Angriff auf das Deutungsmonopol der Medien.

Öffentliche Meinung und die digitale „Verhaltensmodifikation“ aus den Silicon Valley-Laboren

Ich lese gerade das spannende Arbeitspapier der Bertelsmann-Stiftung „Digitale Öffentlichkeit – Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen“ von Konrad Lischka und Christian Stöcker.

Die Analyse der beiden Autoren beschäftigt sich mit einem Aspekt, der mich nun schon seit ein paar Jahren umtreibt. Wie verändern Facebook und Co. die öffentliche Meinung? Wie verändert sich die Willensbildung der Menschen? Welchen Stellenwert haben noch die klassischen Medien?

So schreiben Lischka und Stücker:

„Algorithmische Prozesse von sozialen Netzwerken und Suchmaschinen beeinflussen für mehr als die Hälfte aller Onliner in Deutschland, wie und welche Angebote redaktioneller Medien sie in der digitalen Sphäre wahrnehmen.“

Immer mehr gibt es eine Zweiteilung der Informationsvermittlung:

Redaktionell kuratierte Medien (Spiegel Online etc. – also das klassische Nachrichtengeschäft) und algorithmisch strukturierte Intermediäre (Facebook, Google und Co.).

Wie uns die Plattformen lenken in unserer Rezeption von Informationen, ist uns wahrscheinlich gar nicht so bewusst. Im Arbeitspapier ist das ausführlich dargelegt:

„Schon seit 15 Jahren beschäftigt sich ein neuer Zweig der Psychologie der Mensch-Maschine-Interaktion mit der Frage, wie digitale Technik menschliches Verhalten beeinflussen helfen kann. Ihr geistiger Vater, B.J. Fogg, hat diese Disziplin Captology getauft (als Kurzform von Computers as Persuasive Technologies).“

Fogg zeige, wie klassische lerntheoretische Konzepte und Verfahren aus Behaviorismus und Verhaltenstherapie mithilfe digitaler Systeme auf das Verhalten von Menschen einwirken können.

„Als Foggs Buch erschien, existierten weder Facebook noch Instagram, und das Smartphone, wie wir es heute kennen, war noch nicht erfunden. Doch zahlreiche spätere Gründer und Mitarbeiter diverser Giganten des Silicon Valley durchliefen seine Kurse an der University of Stanford, darunter beispielsweise einer der Gründer von Instagram, Mike Krieger. Krieger entwickelte in Foggs Kurs gemeinsam mit einem Kommilitonen sogar eine auf Foggs Ideen basierende Anwendung zum Teilen von Fotos (Leslie 2016). Die von Fogg entwickelten Methoden werden heute von nahezu allen Entwicklern von Endkunden-Softwareprodukten selbstverständlich angewendet“, so Lischka und Stöcker.

Zu den Fogg-Jüngern zählt Nir Eyal, Autor des Buches „Hooked: How to build habit-forming products“. Der Begriff Habit könne im Englischen sowohl für „Angewohnheit“ als auch für „Sucht“ stehen. Gefeiert werde Eyal vor allem von Investoren, Start-up-Gründern und Vertretern der Werbe- und Marketingbranche, weniger von Wissenschaftlern. Seine angewandte Wissenschaft der digitalen Verhaltensmodifikation sei auf eine Art und Weise erfolgreich, die seinen Lehrer Fogg heute sehr beunruhigt:

„I look at some of my former students and I wonder if they’re really trying to make the world better, or just make money.“

„Captology betrachtet aus klassischen Lerntheorien bekannte Komponenten wie Auslösereize (trigger), Verhalten (action), Belohnung (reward) und Gewohnheit (habit), differenziert sie aus und überträgt sie in konkrete Anwendungsszenarien innerhalb digitaler Anwendungen“, schreiben die Studienautoren.

Ein zentrales Ziel der Optimierungsbemühungen der Captologen sei es, Hindernisse zwischen dem Nutzer und einem bestimmten Verhalten zu beseitigen. Vor dem Hintergrund der von Kahneman (2012) und anderen postulierten distinkten kognitiven Verarbeitungssysteme System 1 (schnell, intuitiv, automatisch, nicht anstrengend, anfällig für Fehler und Manipulation) und System 2 (langsam, deliberativ, geordnet, mit Anstrengung verbunden) sei dieses Gestaltungsziel erhellend:

„Ein zentrales Designprinzip der wissenschaftlichen Vordenker des Silicon Valley betrifft explizit die Erleichterung von System-1-Kognition und die aktive Umgehung von System-2-Kognition“, erläutern Lischka und Stöcker.

Das habe vorteilhafte Folgen, wenn man als Erfolgskriterien Messwerte wie Klick-, Teil- oder Like-Raten, Publikationsfrequenz oder andere quantitative Maße des Nutzerverhaltens heranzieht. Legte man andere Kriterien, wie tiefe Verarbeitung wahrgenommener Inhalte, Verständnis oder die Qualität geteilter Inhalte an, käme man wohl zu anderen Designentscheidungen.

Hypothesen, die sich aus solchen lerntheoretischen Grundlagen ableiten lassen, werden von den Plattform-Giganten permanent untersucht. Manche dieser Experimente, dienten der
Optimierung kurzfristiger Ergebnisse, während andere die Basis für langfristige Designentscheidungen bildeten. Auch von Google sei bekannt, dass schon kleinste Änderungen an der Benutzeroberfläche mit aufwendigen Experimenten im Livebetrieb und mit realen Nutzern vorbereitet werden – etwa, wenn es um die Frage geht, in welchem Blauton die Buchstaben von Textanzeigen gehalten werden sollen. Eine solche Farbänderung brachte dem Konzern 2014 Medienberichten zufolge ein Umsatzplus von 200 Millionen Dollar ein (Hern 2014).

Die Frage ist, ob wir in der Meinungsbildung und in der politischen Willensbildung nicht schon längst Produkte der Sozialingenieure in Kalifornien sind? Die Nachrichtenauslese der klassischen Medien ist das Werk von Menschen und kann mit ein wenig Aufwand herausgearbeitet werden.

Welche Wirkung auf die öffentliche Meinung haben nun die algorithmisch strukturierten Plattformen?

Was Lischka und Stöcker vorgelegt haben, ist ein spannendes Forschungsthema. Da sollten jetzt die universitären Institute nachlegen.

Siehe auch: Warum Daten-Forensik im Politik-Betrieb relevanter wird – Von der Unberechenbarkeit der öffentlichen Meinung

Political Data Science und die Suche nach der öffentlichen Meinung #YouGov

Die zunehmende Fragmentierung der Medienwelt und damit auch der Verlust der gemeinsamen Informationsbasis führen zu einem Verlust einer gemeinsamen öffentlichen Meinung. Die traditionellen Meinungsforschungsinstitute und auch die Kommunikationswissenschaften haben das noch nicht vollumfänglich erforscht. Das konnte man bei der britischen Unterhauswahl wieder gut beobachten. Kaum ein Umfrage-Institut hatte die herbe Niederlage von Tory-Chefin Theresa May und den Überraschungserfolg von Labour-Spitzenkandidat Jeremy Corbyn auf der Rechnung – außer YouGov.

Zu einem Zeitpunkt, als alle anderen Umfragen noch von einer satten Mehrheit für die Tories ausgingen, sagte YouGov als erstes Institut einen Verlust der absoluten Mehrheit der Konservativen voraus.

Daraufhin griffen Experten und Politikberater die neue Analysemethode öffentlich an. Jim Messina, Berater der Tories, bezeichnete die YouGov-Methode gar als „idiotic“.

„Die Wahlergebnisse vom 8. Juni waren folglich nicht nur ein Erdbeben für die Konservativen in Großbritannien, sondern auch für die klassische politische Meinungsforschung. YouGov errechnete mit seinem neuen Modell für 632 Wahlkreise im Vereinigten Königreicht – ohne die 18 Wahlkreise für Nord-Irland – eine eigene Schätzung für jeden Wahlkreis. Für 93 Prozent dieser Wahlkreise sagte das Modell den tatsächlichen Gewinner richtig voraus. Darüber hinaus prophezeite YouGov, dass die Konservativen den Wahlkreis Canterbury an Labour verlieren würden. Das war eine Sensation, denn die Tories hatten hier seit 1918 bisher jede Wahl gewonnen“, teilt YouGov in einer Presseverlautbarung mit.

Das eingesetzte Berechnungs- und Analysemodell von YouGov verwendet Daten aus kontinuierlichen Befragungen und kombiniert diese entsprechend eines Big-Data-Ansatzes mit weiteren Informationen aus verschiedenen Quellen. Ergänzt um demographische und psychografische Informationen konnten so Schätzungen für die jeweiligen Wahlkreise errechnet werden.

„Die Kombination dieser Daten ermöglichte YouGov die außergewöhnlich gute Vorhersage des Wahlausgangs“, teilt das Unternehmen mit.

Und das umfasst eben auch das Meinungsbild im Internet.

Social Media-Kampagne von Labour

Früher rühmten sich wie in Deutschland die auflagenstarken Printmedien, Wahlen entschieden zu haben.

„Diesmal hatte der Versuch des Boulevards, Corbyn als Terroristen-Freund und marxistischen Extremisten zu entsorgen, keinen durchschlagenden Erfolg. Im Netz machte man sich nach der Wahl über die Zeitungen lustig“, berichtet das ZDF-Auslandsjournal.

Etwa John Niven.

https://twitter.com/NivenJ1/status/872700815869448192

„This morning I reignited the British spirit with the newsagents entire stock of Suns and Daily Mails.“

Seine Botschaft fand auf Twitter mit rund 11.000 Retweets und 31.000 Gefällt mir-Bekundungen einen riesigen Anklang. Ein Faktor für den Erfolg von Labour lag an der Social Media-Kampagne, so die Süddeutsche Zeitung:

„Das eindeutige Vorbild für die Wahlkampagne von Jeremy Corbyn ist der Wahlkampf von Bernie Sanders in den USA – und hier spielt Social Media eine große Rolle. Corbyn sieht sich als Anführer einer Bewegung, an deren Spitze er steht, und seine Anhänger posten auf Facebook und Twitter im Minutentakt kurze Videos über ihren Helden Corbyn. Das Internet wurde nicht nur genutzt, um Spenden zu sammeln – online wurden auch die Aktivisten rekrutiert und geschult, die für den 68-jährigen Corbyn trommelten.“

Dank Youtube konnte jeder sehen, wie der bärtige Abgeordnete Corbyn 1990 die damalige Premierministerin Thatcher attackierte und die herrschende Armut im Königreich als „nationale Schande“ bezeichnete – oder wie er 2003 vor den Folgen der Invasion in den Irak warnte und sich damit gegen den Parteifreund Tony Blair stellte.

„Der war damals Premierminister – und hatte bei seinen Wahlsiegen 1997 und 2001 mit 43 beziehungsweise 40,3 Prozent ähnliche hohe Stimmenanteile erreicht“, so die SZ.

Die David-gegen-Goliath-Story war damit rund. Mit kleinem Budget und einer enthusiastischen Fan-Gemeinde im Netz erzielte Labour mehr Wirkung als die staatstragende Kampagne der Tories.

Wo ist nur die repräsentative Stichprobe geblieben?

Mit den klassischen Instrumenten der Wahlforschung lassen sich diese Effekte wohl nicht mehr messen. Gemeint sind damit nicht die Hochrechnungen an den Wahlabenden, sondern die Telefonumfragen im Vorfeld der Wahlen.

„In den 1990er Jahren war es relativ einfach, über Telefonumfragen mit zufällig generierten Festnetznummern repräsentative Stichproben zu ziehen für die Grundgesamtheit, die man untersuchen wollte“, erläutert Johannes Mirus von Bonn.digital: „Das Smartphone ist zwar personalisiert und beseitigt die Herausforderung, die richtige Zielperson ans Telefon zu bekommen. Die Mobilfunk-Nummern sind aber schwerer zu erfassen. Zudem ist eine örtliche Eingrenzung für die Stichprobe nicht möglich.“

Gefragt sind eher Ansätze wie von Professor Simon Hegelich von der TU-München. Er verbindet in seiner Forschung Politikwissenschaft und Computerwissenschaft zu Political Data Science. Dabei geht es sowohl um Themen der Digitalisierung, deren politische Relevanz untersucht wird, als auch um klassische politikwissenschaftliche Fragen, die mit Methoden wie maschinellem Lernen, Data Mining, Computer Vision oder Simulationen bearbeitet werden.

Folgende Fragen sind dabei interessant: Welchen Einfluss haben Bots auf die politische Willensbildung? Wie agieren kleine und besonders aktive Gruppen im Social Web und welche Netzwerkeffekte erzielen sie? Welche Rolle spielen Fake News? Wie oft werden Inhalte von klassischen Medien rezipiert und welchen Stellenwert haben Quellen jenseits des Journalismus? Wie groß ist die Relevanz von digitalen Diensten – also News Aggregatoren, Suchmaschinen, Bewertungsplattformen?

Das Notiz-Amt empfiehlt den Politik-Analysten in Medien, Wissenschaft und Denkfabriken, schleunigst Kompetenzen in der Daten-Forensik aufzubauen. Ansonsten wird man eben weitere Überraschungen im Polit-Geschehen erleben. Ausführlich nachzulesen in meiner Notiz-Amt-Kolumne für die Netzpiloten.

Siehe auch:

Invasion der Meinungs-Roboter.

„Es handelt sich um Missbrauch der Deutungshoheit“ – zur Rolle der Tagesschau. Haben die Autoren die Deutungsmacht empirisch untersucht? Wohl nicht. Es mag ja sein, dass da kräftig selektiert und manipuliert wird. Aber welche Rolle spielt die Tagesschau noch für die politische Willensbildung?

Altpapier des Tages: Wir sollten den Forsa-Chef einfach vergessen – Über die Partikular-Interessen eines „Meinungsforschers“

Die neuen Meinungsbildner
Die neuen Meinungsbildner

Ich weiß nicht, welchen Clown der Forsa-Chef Manfred Güllner zum Frühstück verspeist hat, aber mit seinen Rundumschlägen gegen die öffentliche Meinung des Netzes beweist der „Demoskop“ seine Inkompetenz bei der Beurteilung der Meinungsbildung, die nun nicht mehr von Massenmedien bestimmt wird. Es ist wohl kein Zufall, dass seine Warnungen in den gedruckten Ausgaben von Lokalzeitungen erscheinen und online bislang nicht zum Abruf bereitgestellt wurden. Stefan Niggemeier hat sich der Anstrengung unterzogen, die Offline-Ergüsse von Güllner netzöffentlich zu machen:

„Der Forsa-Chef wettert gegen ‚das Netz‘ und vor allem gegen das Missverständnis, dass es sich bei der großen Zahl von Bloggern, Kommentatoren, ‚Followern‘ und ‚Freunden‘ um einen ‚auch nur annähernd repräsentativen Querschnitt des gesamten Volkes‘ halte: Die angeblich den gesellschaftlichen Zusammenhalt stärkenden ‚Communities‘ bestehen überwiegend aus Vertretern von Partikular-Interessen — die ja durchaus legitim sein mögen -, meist aber aus Extremisten jedweder Couleur, Querulanten, in der Gesellschaft zu kurz Gekommenen — wie jenes ‚Medienjournalisten‘ (wer da wohl gemeint ist? gs), bei dem es zu einem ordentlichen Journalisten nicht gereicht hat — oder selbst ernannten Advokaten, die unter dem Deckmantel ‚hehrer Ziele‘ nur ihre ideologischen oder persönlichen Süppchen kochen wollen — zum Beispiel solch undurchsichtigen Gebilden wie ‚Lobby-Control‘ (die haben es gewagt, Forsa zu kritisieren – billige Retourkutsche, gs), etc..“

Das Volk von Herrn Güllner

Die im Netz vorzufindenden Äußerungen und Kommentare werden nach Ansicht von Güllner von politischen und gesellschaftlichen Eliten als Meinung „des Volkes“ missinterpretiert, obwohl es sich ja in der Regel nur um völlig abwegige Artikulationen von Minderheiten handelt. Wer in erster Linie auf das „Netz“ höre, verliert schnell das Gespür dafür, was „das Volk“ insgesamt wirklich umtreibt, bewegt, besorgt oder beunruhigt. Damit aber verärgere man die große Mehrheit des Volkes nachhaltig.

„Zu Recht beklagen ja die immer zahlreicher werdenden Nichtwähler, dass die politischen Akteure sich zu sehr an den Meinungen und Interessen von Minoritäten orientieren, die Interessen der großen Mehrheit des Volkes aber unberücksichtigt lassen.“

Die Motivation für diesen Rant halte ich für profan: Der Forsa-Chef fürchtet wohl eher um seine eigene Deutungsmacht gegenüber den Auftraggebern aus Politik und Wirtschaft. Die Aufmerksamkeitsregeln waren vor dem Aufkommen des Social Webs recht übersichtlich, so der Soziologe Niklas Luhmann: „Was wir über die Welt wissen, das wissen wir durch die Massenmedien.“ Die als „thematische Struktur öffentlicher Kommunikation“ bezeichnete öffentliche Meinung ist deshalb wesentlich das Ergebnis von Selektion auf der Basis von „Aufmerksamkeitsregeln“.

Und dieser Nachrichten-Flaschenhals wurde von bestimmten Auswahlkriterien geprägt, die bewusst oder unbewusst zu einer Vereinheitlichung des Medientenors führten – in der empirischen Sozialforschung spricht man von Konsonanz.

Die Vorahnungen der Kanzlerin

Medientenor und öffentliche Meinung sind nur selten auseinander gefallen. Aber selbst Bundeskanzlerin Angela Merkel ahnte schon vor einigen Jahren, dass sich die Theorie der öffentlichen Meinung wandelt und die alten Eliten in Politik, Wirtschaft und Verlagswesen ihre Deutungsmacht im massenmedialen Zirkus verlieren. Güllner sollte dringend das Gespräch mit der Regierungschefin suchen.

Durch diesen „sehr großen technischen Wandel“ sei es schwerer geworden, „alle Menschen, alle Generationen zu erreichen, denn diese nutzen die einzelnen Medien mittlerweile sehr unterschiedlich“. Erkenntnis der CDU-Politikerin:

„Es gibt nicht mehr nur eine Öffentlichkeit, sondern viele Öffentlichkeiten, die ganz verschieden angesprochen werden müssen.“

In der empirischen Sozialforschung machte man bislang um dieses Phänomen einen großen Bogen. Schließlich geht es um eine neue Theorie der öffentlichen Meinung, die über die Arbeiten von Luhmann, Noelle-Neumann, Kepplinger & Co. hinausgehen. Jan Schmidt erwähnt zwar in seinem Opus „Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0.“ den Begriff „persönliche Öffentlichkeiten“, legt aber keine empirischen Befunde vor. Etwas ergiebiger ist die Schrift „Digitalkompakt“ der Landesanstalt für Medien NRW (LfM). Die Vorahnungen der Kanzlerin finden hier eine erste Bestätigung.

Die etablierten Player der Öffentlichkeit, allen voran Journalisten und Politiker, seien durch die rasante Verbreitung sozialer Netzwerke in Zugzwang geraten:

„Wenn Medienkonsumenten und Wahlbürger sich zunehmend in ihren ‚persönlichen Öffentlichkeiten‘ aufhalten und sich dort so viel Zeit und Energie konzentriert, muss jeder, der ihre Aufmerksamkeit erringen möchte, auch dort Präsenz zeigen“, so die LfM.

Die Metamorphosen der öffentlichen Sphäre

Aber das ist dann eher die Perspektive der etablierten Medien, um wieder Bodenhaftung zu bekommen. Soziale Netzwerke stehen vor allem für eine fundamentale Veränderung der öffentlichen Sphäre. Öffentliche und individuelle Kommunikation verschwimmen. Und ob ich nun mit meiner eigenen Teilöffentlichkeit wenige oder sehr viele Menschen erreiche oder nicht, vorher war es schlicht unmöglich, ohne großen Aufwand eine eigene Öffentlichkeit herzustellen, die über den Nachbarzaun reichte.

Die neuen Beteiligungs- und Vernetzungsmöglichkeiten verändern die Bildung öffentlicher Meinung, konstatiert die LfM und fragt sich, wie eine Gesellschaft angesichts der Inflation persönlicher Öffentlichkeiten noch zu kollektiv verbindlichen Entscheidungen kommen könne.

Ohne die Gatekeeper in den Massenmedien gibt es also keine verbindlichen Entscheidungen mehr? Wie oft rauscht der einheitliche Medientenor an der Wahrheit vorbei? Wie oft lassen sich die etablierten Medien an der Nase herumführen, etwa bei der vermeintlichen Karstadt-Rettung durch den selbst ernannten weißen Ritter Nicolas Berggruen? Oder bei der Kriegspropaganda von NATO und Bundesregierung Ende der 1990er-Jahre? Es gab schon häufig ein kollektives Versagen der klassischen Medien.

Wenn also Mediennutzer autonomer durch den Nachrichtenstrom surfen, kann das für die Meinungspluralität nur nützlich sein.

„Sie werden zunehmend selbst zum ‚Gatekeeper‘ von Informationen, selektieren und empfehlen Informationen aktiv weiter und orientieren sich auch bei ihrem Medienkonsum am Verhalten und den Hinweisen befreundeter Nutzer. Damit verändert sich die Verbreitungsdynamik von Nachrichten in der Gesellschaft, Freunde und Bekannte bekommen mehr Einfluss auf die Wahrnehmung der Welt als früher und laufen klassischen Autoritäten der öffentlichen Sphäre möglicherweise den Rang ab“, schreibt die LfM.

Immer relevanter für die Bildung von öffentlicher Meinung wird das Verhalten der Social-Web-Nutzer beim Kommentieren, Weiterleiten und Empfehlen von Nachrichten. Die Rezeption von Nachrichten ändert sich und geht weit über das hinaus, was der Forsa-Chef als Majestätsbeleidigung im Netz wahrnimmt.

„Der Wiener Kommunikationsforscher Axel Maireder untersuchte 2011 den deutschsprachigen Twitter-Raum und fand heraus, dass von allen Tweets mit einem Link auf einen Medienbeitrag über die Hälfte einen individuellen Kommentar oder eine Wertung enthielt“, schreibt die LfM.

Weniger Meinungs-Einheitsbrei

Die Nutzer seien also keineswegs neutrale „Transmissions-Riemen“ für journalistische Produkte, sondern liefern ihrem Publikum auch individuelle Schemata für die Deutung der Beiträge. Das war allerdings schon vorher so. Nur beschränkte sich die Multiplikator-Funktion auf Arbeitskollegen, Familie und Freunde.

Es sei durchaus möglich, dass in den persönlichen Öffentlichkeiten der Netzwerke strittige Themen anders bewertet und gedeutet werden als in den Massenmedien oder im Bundestag. Das von der Demoskopin Noelle-Neumann beobachtete „doppelte Meinungsklima“ – also das Auseinanderdriften von Bevölkerungsmeinung und Medientenor – kommt immer häufiger vor. Mehr Pluralität und weniger Meinungs-Einheitsbrei sind die Folgen.

„Die Dynamik in sozialen Netzwerken ist nicht so sehr geprägt von tradierten Hierarchien und Jahrzehnte alten Rollenmustern, sondern von den kurzfristig aufsummierten Handlungen vieler Menschen“, so Maireder.

Damit fallen allerdings die alten Machtstrukturen und Meinungsmacher nicht unter den Tisch.

„Die Potenziale, Deutungsmacht zu erlangen, sind sehr viel breiter verteilt als früher, nicht nur auf klassische Öffentlichkeitsberufe wie Journalisten und Politiker“, bemerkt Maireder.

Wie sich öffentliche Meinung in sozialen Netzwerken bildet, sollte von Demoskopen untersucht werden. Die Abrechnungen von Güllner kann man getrost ins Altpapier schmeißen, da landen die betreffenden Lokalzeitungen ohnehin.