Überlegungen zu einer neuen Theorie der öffentlichen Meinung – Kölner Soziologe @KlausMJan an der @hs_fresenius

Hashtag-Soziologie

Hier der Gastauftritt des Kölner Soziologen Klaus Janowitz an der Hochschule Fresenius in Köln:

Der Journalismus braucht keinen Gegner: „Die schlagen den Sargnagel selbst ein“ @klauseck @VBanholzer

Professor Lutz Frühbrodt sieht Content Marketing als weiteren Sargnagel des Journalismus. Er hat das ausführlich auf dem Besser Online-Kongress in Köln erläutert.

Fragt sich nur, wer dafür verantwortlich ist. Klaus Eck von der Agentur d.Tales sieht die Schuld nicht bei den Unternehmen. Firmen wollen unabhängig von den journalistischen Gatekeepern agieren. Das sei aber keine Umgehungsstrategie.

„In manchen Branchen sind diese Gatekeeper gar nicht mehr vorhanden. Etwa in der IT-Industrie. Wie viele Zeitschriften gibt es da noch? Man möchte als Kommunikator gerne mit Medien zusammenarbeiten. Es fehlen aber die Anschlussstellen“, sagt Eck.

Der Journalismus brauche keinen Gegner.

„Die schlagen den Sargnagel selbst ein. Ich finde es schade, dass Medien viele Themen nicht mehr aufgreifen – beispielsweise im Lokaljournalismus. Mit den radikal ausgedünnten Redaktionen kann man nicht mehr umfassend berichten“, erläutert Eck.

Noch trüber sieht es im Fachjournalismus aus. Im Durchschnitt werden dort die Publikationen von 1,5 Personen gemacht. Ein Chefredakteur und vielleicht noch eine halbe Schreibkraft. Das wird dann kompensiert mit vielen „freien“ Autoren.

„Die kommen überwiegend von Unternehmen, die in den Fachmedien ihre Artikel ‚platzieren’. Die Content-Produktion wird ausgelagert“, weiß Eck.

Folge: Auch Fachmedien machen sich überflüssig, weil Unternehmen auf die Idee kommen, solche Formate selbst auf die Beine zu stellen. Die Kompetenzen, die Unternehmen bei Fachthemen haben, gehen viel tiefer. Es sei leichter, meint Eck, aus einer fachlichen Kompetenz eine journalistische Kompetenz zu machen als umgekehrt.

Marken werden also zunehmend zu Sendern, weil sie mit ihren Botschaften bei den etablierten Medien nicht mehr durchdringen. Als integrative Kraft spielt der Journalismus in der Netzwerkgesellschaft eine immer geringere Rolle.

Nach Analysen von Volker Banholzer, Professor für Technikjournalismus und Technik-PR, fehlen Konzepte für eine fragmental differenzierte Gesellschaft. Im Internet dominieren privatisierte Öffentlichkeiten. Der Journalismus müsste Konzepte für diese Netzwerke entwickeln.

„Das tut er aber nicht“, kritisiert Banholzer.

Wenn Unternehmen zu wenig in der veröffentlichten Meinung vorkommen, entwickeln sie eigene Konzepte. Indirekt ist das ein Angriff auf das Deutungsmonopol der Medien.

Öffentliche Meinung und die digitale „Verhaltensmodifikation“ aus den Silicon Valley-Laboren

Ich lese gerade das spannende Arbeitspapier der Bertelsmann-Stiftung „Digitale Öffentlichkeit – Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen“ von Konrad Lischka und Christian Stöcker.

Die Analyse der beiden Autoren beschäftigt sich mit einem Aspekt, der mich nun schon seit ein paar Jahren umtreibt. Wie verändern Facebook und Co. die öffentliche Meinung? Wie verändert sich die Willensbildung der Menschen? Welchen Stellenwert haben noch die klassischen Medien?

So schreiben Lischka und Stücker:

„Algorithmische Prozesse von sozialen Netzwerken und Suchmaschinen beeinflussen für mehr als die Hälfte aller Onliner in Deutschland, wie und welche Angebote redaktioneller Medien sie in der digitalen Sphäre wahrnehmen.“

Immer mehr gibt es eine Zweiteilung der Informationsvermittlung:

Redaktionell kuratierte Medien (Spiegel Online etc. – also das klassische Nachrichtengeschäft) und algorithmisch strukturierte Intermediäre (Facebook, Google und Co.).

Wie uns die Plattformen lenken in unserer Rezeption von Informationen, ist uns wahrscheinlich gar nicht so bewusst. Im Arbeitspapier ist das ausführlich dargelegt:

„Schon seit 15 Jahren beschäftigt sich ein neuer Zweig der Psychologie der Mensch-Maschine-Interaktion mit der Frage, wie digitale Technik menschliches Verhalten beeinflussen helfen kann. Ihr geistiger Vater, B.J. Fogg, hat diese Disziplin Captology getauft (als Kurzform von Computers as Persuasive Technologies).“

Fogg zeige, wie klassische lerntheoretische Konzepte und Verfahren aus Behaviorismus und Verhaltenstherapie mithilfe digitaler Systeme auf das Verhalten von Menschen einwirken können.

„Als Foggs Buch erschien, existierten weder Facebook noch Instagram, und das Smartphone, wie wir es heute kennen, war noch nicht erfunden. Doch zahlreiche spätere Gründer und Mitarbeiter diverser Giganten des Silicon Valley durchliefen seine Kurse an der University of Stanford, darunter beispielsweise einer der Gründer von Instagram, Mike Krieger. Krieger entwickelte in Foggs Kurs gemeinsam mit einem Kommilitonen sogar eine auf Foggs Ideen basierende Anwendung zum Teilen von Fotos (Leslie 2016). Die von Fogg entwickelten Methoden werden heute von nahezu allen Entwicklern von Endkunden-Softwareprodukten selbstverständlich angewendet“, so Lischka und Stöcker.

Zu den Fogg-Jüngern zählt Nir Eyal, Autor des Buches „Hooked: How to build habit-forming products“. Der Begriff Habit könne im Englischen sowohl für „Angewohnheit“ als auch für „Sucht“ stehen. Gefeiert werde Eyal vor allem von Investoren, Start-up-Gründern und Vertretern der Werbe- und Marketingbranche, weniger von Wissenschaftlern. Seine angewandte Wissenschaft der digitalen Verhaltensmodifikation sei auf eine Art und Weise erfolgreich, die seinen Lehrer Fogg heute sehr beunruhigt:

„I look at some of my former students and I wonder if they’re really trying to make the world better, or just make money.“

„Captology betrachtet aus klassischen Lerntheorien bekannte Komponenten wie Auslösereize (trigger), Verhalten (action), Belohnung (reward) und Gewohnheit (habit), differenziert sie aus und überträgt sie in konkrete Anwendungsszenarien innerhalb digitaler Anwendungen“, schreiben die Studienautoren.

Ein zentrales Ziel der Optimierungsbemühungen der Captologen sei es, Hindernisse zwischen dem Nutzer und einem bestimmten Verhalten zu beseitigen. Vor dem Hintergrund der von Kahneman (2012) und anderen postulierten distinkten kognitiven Verarbeitungssysteme System 1 (schnell, intuitiv, automatisch, nicht anstrengend, anfällig für Fehler und Manipulation) und System 2 (langsam, deliberativ, geordnet, mit Anstrengung verbunden) sei dieses Gestaltungsziel erhellend:

„Ein zentrales Designprinzip der wissenschaftlichen Vordenker des Silicon Valley betrifft explizit die Erleichterung von System-1-Kognition und die aktive Umgehung von System-2-Kognition“, erläutern Lischka und Stöcker.

Das habe vorteilhafte Folgen, wenn man als Erfolgskriterien Messwerte wie Klick-, Teil- oder Like-Raten, Publikationsfrequenz oder andere quantitative Maße des Nutzerverhaltens heranzieht. Legte man andere Kriterien, wie tiefe Verarbeitung wahrgenommener Inhalte, Verständnis oder die Qualität geteilter Inhalte an, käme man wohl zu anderen Designentscheidungen.

Hypothesen, die sich aus solchen lerntheoretischen Grundlagen ableiten lassen, werden von den Plattform-Giganten permanent untersucht. Manche dieser Experimente, dienten der
Optimierung kurzfristiger Ergebnisse, während andere die Basis für langfristige Designentscheidungen bildeten. Auch von Google sei bekannt, dass schon kleinste Änderungen an der Benutzeroberfläche mit aufwendigen Experimenten im Livebetrieb und mit realen Nutzern vorbereitet werden – etwa, wenn es um die Frage geht, in welchem Blauton die Buchstaben von Textanzeigen gehalten werden sollen. Eine solche Farbänderung brachte dem Konzern 2014 Medienberichten zufolge ein Umsatzplus von 200 Millionen Dollar ein (Hern 2014).

Die Frage ist, ob wir in der Meinungsbildung und in der politischen Willensbildung nicht schon längst Produkte der Sozialingenieure in Kalifornien sind? Die Nachrichtenauslese der klassischen Medien ist das Werk von Menschen und kann mit ein wenig Aufwand herausgearbeitet werden.

Welche Wirkung auf die öffentliche Meinung haben nun die algorithmisch strukturierten Plattformen?

Was Lischka und Stöcker vorgelegt haben, ist ein spannendes Forschungsthema. Da sollten jetzt die universitären Institute nachlegen.

Siehe auch: Warum Daten-Forensik im Politik-Betrieb relevanter wird – Von der Unberechenbarkeit der öffentlichen Meinung

Political Data Science und die Suche nach der öffentlichen Meinung #YouGov

Die zunehmende Fragmentierung der Medienwelt und damit auch der Verlust der gemeinsamen Informationsbasis führen zu einem Verlust einer gemeinsamen öffentlichen Meinung. Die traditionellen Meinungsforschungsinstitute und auch die Kommunikationswissenschaften haben das noch nicht vollumfänglich erforscht. Das konnte man bei der britischen Unterhauswahl wieder gut beobachten. Kaum ein Umfrage-Institut hatte die herbe Niederlage von Tory-Chefin Theresa May und den Überraschungserfolg von Labour-Spitzenkandidat Jeremy Corbyn auf der Rechnung – außer YouGov.

Zu einem Zeitpunkt, als alle anderen Umfragen noch von einer satten Mehrheit für die Tories ausgingen, sagte YouGov als erstes Institut einen Verlust der absoluten Mehrheit der Konservativen voraus.

Daraufhin griffen Experten und Politikberater die neue Analysemethode öffentlich an. Jim Messina, Berater der Tories, bezeichnete die YouGov-Methode gar als „idiotic“.

„Die Wahlergebnisse vom 8. Juni waren folglich nicht nur ein Erdbeben für die Konservativen in Großbritannien, sondern auch für die klassische politische Meinungsforschung. YouGov errechnete mit seinem neuen Modell für 632 Wahlkreise im Vereinigten Königreicht – ohne die 18 Wahlkreise für Nord-Irland – eine eigene Schätzung für jeden Wahlkreis. Für 93 Prozent dieser Wahlkreise sagte das Modell den tatsächlichen Gewinner richtig voraus. Darüber hinaus prophezeite YouGov, dass die Konservativen den Wahlkreis Canterbury an Labour verlieren würden. Das war eine Sensation, denn die Tories hatten hier seit 1918 bisher jede Wahl gewonnen“, teilt YouGov in einer Presseverlautbarung mit.

Das eingesetzte Berechnungs- und Analysemodell von YouGov verwendet Daten aus kontinuierlichen Befragungen und kombiniert diese entsprechend eines Big-Data-Ansatzes mit weiteren Informationen aus verschiedenen Quellen. Ergänzt um demographische und psychografische Informationen konnten so Schätzungen für die jeweiligen Wahlkreise errechnet werden.

„Die Kombination dieser Daten ermöglichte YouGov die außergewöhnlich gute Vorhersage des Wahlausgangs“, teilt das Unternehmen mit.

Und das umfasst eben auch das Meinungsbild im Internet.

Social Media-Kampagne von Labour

Früher rühmten sich wie in Deutschland die auflagenstarken Printmedien, Wahlen entschieden zu haben.

„Diesmal hatte der Versuch des Boulevards, Corbyn als Terroristen-Freund und marxistischen Extremisten zu entsorgen, keinen durchschlagenden Erfolg. Im Netz machte man sich nach der Wahl über die Zeitungen lustig“, berichtet das ZDF-Auslandsjournal.

Etwa John Niven.

https://twitter.com/NivenJ1/status/872700815869448192

„This morning I reignited the British spirit with the newsagents entire stock of Suns and Daily Mails.“

Seine Botschaft fand auf Twitter mit rund 11.000 Retweets und 31.000 Gefällt mir-Bekundungen einen riesigen Anklang. Ein Faktor für den Erfolg von Labour lag an der Social Media-Kampagne, so die Süddeutsche Zeitung:

„Das eindeutige Vorbild für die Wahlkampagne von Jeremy Corbyn ist der Wahlkampf von Bernie Sanders in den USA – und hier spielt Social Media eine große Rolle. Corbyn sieht sich als Anführer einer Bewegung, an deren Spitze er steht, und seine Anhänger posten auf Facebook und Twitter im Minutentakt kurze Videos über ihren Helden Corbyn. Das Internet wurde nicht nur genutzt, um Spenden zu sammeln – online wurden auch die Aktivisten rekrutiert und geschult, die für den 68-jährigen Corbyn trommelten.“

Dank Youtube konnte jeder sehen, wie der bärtige Abgeordnete Corbyn 1990 die damalige Premierministerin Thatcher attackierte und die herrschende Armut im Königreich als „nationale Schande“ bezeichnete – oder wie er 2003 vor den Folgen der Invasion in den Irak warnte und sich damit gegen den Parteifreund Tony Blair stellte.

„Der war damals Premierminister – und hatte bei seinen Wahlsiegen 1997 und 2001 mit 43 beziehungsweise 40,3 Prozent ähnliche hohe Stimmenanteile erreicht“, so die SZ.

Die David-gegen-Goliath-Story war damit rund. Mit kleinem Budget und einer enthusiastischen Fan-Gemeinde im Netz erzielte Labour mehr Wirkung als die staatstragende Kampagne der Tories.

Wo ist nur die repräsentative Stichprobe geblieben?

Mit den klassischen Instrumenten der Wahlforschung lassen sich diese Effekte wohl nicht mehr messen. Gemeint sind damit nicht die Hochrechnungen an den Wahlabenden, sondern die Telefonumfragen im Vorfeld der Wahlen.

„In den 1990er Jahren war es relativ einfach, über Telefonumfragen mit zufällig generierten Festnetznummern repräsentative Stichproben zu ziehen für die Grundgesamtheit, die man untersuchen wollte“, erläutert Johannes Mirus von Bonn.digital: „Das Smartphone ist zwar personalisiert und beseitigt die Herausforderung, die richtige Zielperson ans Telefon zu bekommen. Die Mobilfunk-Nummern sind aber schwerer zu erfassen. Zudem ist eine örtliche Eingrenzung für die Stichprobe nicht möglich.“

Gefragt sind eher Ansätze wie von Professor Simon Hegelich von der TU-München. Er verbindet in seiner Forschung Politikwissenschaft und Computerwissenschaft zu Political Data Science. Dabei geht es sowohl um Themen der Digitalisierung, deren politische Relevanz untersucht wird, als auch um klassische politikwissenschaftliche Fragen, die mit Methoden wie maschinellem Lernen, Data Mining, Computer Vision oder Simulationen bearbeitet werden.

Folgende Fragen sind dabei interessant: Welchen Einfluss haben Bots auf die politische Willensbildung? Wie agieren kleine und besonders aktive Gruppen im Social Web und welche Netzwerkeffekte erzielen sie? Welche Rolle spielen Fake News? Wie oft werden Inhalte von klassischen Medien rezipiert und welchen Stellenwert haben Quellen jenseits des Journalismus? Wie groß ist die Relevanz von digitalen Diensten – also News Aggregatoren, Suchmaschinen, Bewertungsplattformen?

Das Notiz-Amt empfiehlt den Politik-Analysten in Medien, Wissenschaft und Denkfabriken, schleunigst Kompetenzen in der Daten-Forensik aufzubauen. Ansonsten wird man eben weitere Überraschungen im Polit-Geschehen erleben. Ausführlich nachzulesen in meiner Notiz-Amt-Kolumne für die Netzpiloten.

Siehe auch:

Invasion der Meinungs-Roboter.

„Es handelt sich um Missbrauch der Deutungshoheit“ – zur Rolle der Tagesschau. Haben die Autoren die Deutungsmacht empirisch untersucht? Wohl nicht. Es mag ja sein, dass da kräftig selektiert und manipuliert wird. Aber welche Rolle spielt die Tagesschau noch für die politische Willensbildung?

Altpapier des Tages: Wir sollten den Forsa-Chef einfach vergessen – Über die Partikular-Interessen eines „Meinungsforschers“

Die neuen Meinungsbildner
Die neuen Meinungsbildner

Ich weiß nicht, welchen Clown der Forsa-Chef Manfred Güllner zum Frühstück verspeist hat, aber mit seinen Rundumschlägen gegen die öffentliche Meinung des Netzes beweist der „Demoskop“ seine Inkompetenz bei der Beurteilung der Meinungsbildung, die nun nicht mehr von Massenmedien bestimmt wird. Es ist wohl kein Zufall, dass seine Warnungen in den gedruckten Ausgaben von Lokalzeitungen erscheinen und online bislang nicht zum Abruf bereitgestellt wurden. Stefan Niggemeier hat sich der Anstrengung unterzogen, die Offline-Ergüsse von Güllner netzöffentlich zu machen:

„Der Forsa-Chef wettert gegen ‚das Netz‘ und vor allem gegen das Missverständnis, dass es sich bei der großen Zahl von Bloggern, Kommentatoren, ‚Followern‘ und ‚Freunden‘ um einen ‚auch nur annähernd repräsentativen Querschnitt des gesamten Volkes‘ halte: Die angeblich den gesellschaftlichen Zusammenhalt stärkenden ‚Communities‘ bestehen überwiegend aus Vertretern von Partikular-Interessen — die ja durchaus legitim sein mögen -, meist aber aus Extremisten jedweder Couleur, Querulanten, in der Gesellschaft zu kurz Gekommenen — wie jenes ‚Medienjournalisten‘ (wer da wohl gemeint ist? gs), bei dem es zu einem ordentlichen Journalisten nicht gereicht hat — oder selbst ernannten Advokaten, die unter dem Deckmantel ‚hehrer Ziele‘ nur ihre ideologischen oder persönlichen Süppchen kochen wollen — zum Beispiel solch undurchsichtigen Gebilden wie ‚Lobby-Control‘ (die haben es gewagt, Forsa zu kritisieren – billige Retourkutsche, gs), etc..“

Das Volk von Herrn Güllner

Die im Netz vorzufindenden Äußerungen und Kommentare werden nach Ansicht von Güllner von politischen und gesellschaftlichen Eliten als Meinung „des Volkes“ missinterpretiert, obwohl es sich ja in der Regel nur um völlig abwegige Artikulationen von Minderheiten handelt. Wer in erster Linie auf das „Netz“ höre, verliert schnell das Gespür dafür, was „das Volk“ insgesamt wirklich umtreibt, bewegt, besorgt oder beunruhigt. Damit aber verärgere man die große Mehrheit des Volkes nachhaltig.

„Zu Recht beklagen ja die immer zahlreicher werdenden Nichtwähler, dass die politischen Akteure sich zu sehr an den Meinungen und Interessen von Minoritäten orientieren, die Interessen der großen Mehrheit des Volkes aber unberücksichtigt lassen.“

Die Motivation für diesen Rant halte ich für profan: Der Forsa-Chef fürchtet wohl eher um seine eigene Deutungsmacht gegenüber den Auftraggebern aus Politik und Wirtschaft. Die Aufmerksamkeitsregeln waren vor dem Aufkommen des Social Webs recht übersichtlich, so der Soziologe Niklas Luhmann: „Was wir über die Welt wissen, das wissen wir durch die Massenmedien.“ Die als „thematische Struktur öffentlicher Kommunikation“ bezeichnete öffentliche Meinung ist deshalb wesentlich das Ergebnis von Selektion auf der Basis von „Aufmerksamkeitsregeln“.

Und dieser Nachrichten-Flaschenhals wurde von bestimmten Auswahlkriterien geprägt, die bewusst oder unbewusst zu einer Vereinheitlichung des Medientenors führten – in der empirischen Sozialforschung spricht man von Konsonanz.

Die Vorahnungen der Kanzlerin

Medientenor und öffentliche Meinung sind nur selten auseinander gefallen. Aber selbst Bundeskanzlerin Angela Merkel ahnte schon vor einigen Jahren, dass sich die Theorie der öffentlichen Meinung wandelt und die alten Eliten in Politik, Wirtschaft und Verlagswesen ihre Deutungsmacht im massenmedialen Zirkus verlieren. Güllner sollte dringend das Gespräch mit der Regierungschefin suchen.

Durch diesen „sehr großen technischen Wandel“ sei es schwerer geworden, „alle Menschen, alle Generationen zu erreichen, denn diese nutzen die einzelnen Medien mittlerweile sehr unterschiedlich“. Erkenntnis der CDU-Politikerin:

„Es gibt nicht mehr nur eine Öffentlichkeit, sondern viele Öffentlichkeiten, die ganz verschieden angesprochen werden müssen.“

In der empirischen Sozialforschung machte man bislang um dieses Phänomen einen großen Bogen. Schließlich geht es um eine neue Theorie der öffentlichen Meinung, die über die Arbeiten von Luhmann, Noelle-Neumann, Kepplinger & Co. hinausgehen. Jan Schmidt erwähnt zwar in seinem Opus „Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0.“ den Begriff „persönliche Öffentlichkeiten“, legt aber keine empirischen Befunde vor. Etwas ergiebiger ist die Schrift „Digitalkompakt“ der Landesanstalt für Medien NRW (LfM). Die Vorahnungen der Kanzlerin finden hier eine erste Bestätigung.

Die etablierten Player der Öffentlichkeit, allen voran Journalisten und Politiker, seien durch die rasante Verbreitung sozialer Netzwerke in Zugzwang geraten:

„Wenn Medienkonsumenten und Wahlbürger sich zunehmend in ihren ‚persönlichen Öffentlichkeiten‘ aufhalten und sich dort so viel Zeit und Energie konzentriert, muss jeder, der ihre Aufmerksamkeit erringen möchte, auch dort Präsenz zeigen“, so die LfM.

Die Metamorphosen der öffentlichen Sphäre

Aber das ist dann eher die Perspektive der etablierten Medien, um wieder Bodenhaftung zu bekommen. Soziale Netzwerke stehen vor allem für eine fundamentale Veränderung der öffentlichen Sphäre. Öffentliche und individuelle Kommunikation verschwimmen. Und ob ich nun mit meiner eigenen Teilöffentlichkeit wenige oder sehr viele Menschen erreiche oder nicht, vorher war es schlicht unmöglich, ohne großen Aufwand eine eigene Öffentlichkeit herzustellen, die über den Nachbarzaun reichte.

Die neuen Beteiligungs- und Vernetzungsmöglichkeiten verändern die Bildung öffentlicher Meinung, konstatiert die LfM und fragt sich, wie eine Gesellschaft angesichts der Inflation persönlicher Öffentlichkeiten noch zu kollektiv verbindlichen Entscheidungen kommen könne.

Ohne die Gatekeeper in den Massenmedien gibt es also keine verbindlichen Entscheidungen mehr? Wie oft rauscht der einheitliche Medientenor an der Wahrheit vorbei? Wie oft lassen sich die etablierten Medien an der Nase herumführen, etwa bei der vermeintlichen Karstadt-Rettung durch den selbst ernannten weißen Ritter Nicolas Berggruen? Oder bei der Kriegspropaganda von NATO und Bundesregierung Ende der 1990er-Jahre? Es gab schon häufig ein kollektives Versagen der klassischen Medien.

Wenn also Mediennutzer autonomer durch den Nachrichtenstrom surfen, kann das für die Meinungspluralität nur nützlich sein.

„Sie werden zunehmend selbst zum ‚Gatekeeper‘ von Informationen, selektieren und empfehlen Informationen aktiv weiter und orientieren sich auch bei ihrem Medienkonsum am Verhalten und den Hinweisen befreundeter Nutzer. Damit verändert sich die Verbreitungsdynamik von Nachrichten in der Gesellschaft, Freunde und Bekannte bekommen mehr Einfluss auf die Wahrnehmung der Welt als früher und laufen klassischen Autoritäten der öffentlichen Sphäre möglicherweise den Rang ab“, schreibt die LfM.

Immer relevanter für die Bildung von öffentlicher Meinung wird das Verhalten der Social-Web-Nutzer beim Kommentieren, Weiterleiten und Empfehlen von Nachrichten. Die Rezeption von Nachrichten ändert sich und geht weit über das hinaus, was der Forsa-Chef als Majestätsbeleidigung im Netz wahrnimmt.

„Der Wiener Kommunikationsforscher Axel Maireder untersuchte 2011 den deutschsprachigen Twitter-Raum und fand heraus, dass von allen Tweets mit einem Link auf einen Medienbeitrag über die Hälfte einen individuellen Kommentar oder eine Wertung enthielt“, schreibt die LfM.

Weniger Meinungs-Einheitsbrei

Die Nutzer seien also keineswegs neutrale „Transmissions-Riemen“ für journalistische Produkte, sondern liefern ihrem Publikum auch individuelle Schemata für die Deutung der Beiträge. Das war allerdings schon vorher so. Nur beschränkte sich die Multiplikator-Funktion auf Arbeitskollegen, Familie und Freunde.

Es sei durchaus möglich, dass in den persönlichen Öffentlichkeiten der Netzwerke strittige Themen anders bewertet und gedeutet werden als in den Massenmedien oder im Bundestag. Das von der Demoskopin Noelle-Neumann beobachtete „doppelte Meinungsklima“ – also das Auseinanderdriften von Bevölkerungsmeinung und Medientenor – kommt immer häufiger vor. Mehr Pluralität und weniger Meinungs-Einheitsbrei sind die Folgen.

„Die Dynamik in sozialen Netzwerken ist nicht so sehr geprägt von tradierten Hierarchien und Jahrzehnte alten Rollenmustern, sondern von den kurzfristig aufsummierten Handlungen vieler Menschen“, so Maireder.

Damit fallen allerdings die alten Machtstrukturen und Meinungsmacher nicht unter den Tisch.

„Die Potenziale, Deutungsmacht zu erlangen, sind sehr viel breiter verteilt als früher, nicht nur auf klassische Öffentlichkeitsberufe wie Journalisten und Politiker“, bemerkt Maireder.

Wie sich öffentliche Meinung in sozialen Netzwerken bildet, sollte von Demoskopen untersucht werden. Die Abrechnungen von Güllner kann man getrost ins Altpapier schmeißen, da landen die betreffenden Lokalzeitungen ohnehin.

Precht, der Schleimer

Ob nun der Modephilosoph Richard David Precht den Daumen über Facebook senkt oder nicht, ist mir eigentlich schnurz. Und wie er bei der Grossotagung in Baden-Baden den Printmedien in den Allerwertesten kriecht, ist Beleg für seine Dünnbrettbohrer-Thesen im Allgemeinen und hier im Speziellen. So glänzte er wohl mit einem leidenschaftlichen Plädoyer für die Holzfraktion und einer Philippika gegen die „Pöbelkultur“ im Internet, berichtet W & V. Er balsamierte förmlich die geschundenen Seelen der anwesenden Grossisten und Verleger. Sozusagen eine Rede im Schleim-Modus. Da darf das Märchen nicht fehlen, dass es ja die Aufgabe von Massenmedien sei, nicht in erster Linie zu informieren und zu unterhalten, sondern „Öffentlichkeit über relevante Themen herzustellen“ und so als „sozialer Kitt“ zu wirken. Dies könnten Printmedien besser leisten als das Internet. Das Netz stelle zwar ein unglaubliches Verfügungswissen auf Knopfruck zur Verfügung. Doch wer helfe einem, zu unterscheiden was relevant sei und was nicht? Richard David Prechts These: Trotz vieler intelligenter Blogs, die es im Internet gebe, brauche es Print zum Eintrainieren von Orientierungswissen.

Wer so häufig in Massenmedien auftritt und hofiert wird, scheint wohl selbst die Orientierung verloren zu haben. Wie oft wird das Stück Print versus Netz eigentlich noch aufgeführt? Es ist wenig unterhaltsam. Dabei braucht sich Klein-Precht doch nur ein wenig interdisziplinär umzuschauen, um zu erkennen, dass seine Thesen zwar ausreichen, um den Medienmachern den Hintern zu wischen, ansonsten aber Schrott sind.

So hat Demoskopin Noelle-Neumann die Medienwirkung das relativ gut erforscht in ihrem Buch „Öffentliche Meinung“. Kurzgefasst kann man sagen, dass die Massenmedien die treibende Kraft bei der Bildung von öffentlicher Meinung waren. In der Regel folgte das Meinungsklima dem Medientenor. Nur in Ausnahmefällen wich die Mehrheitsmeinung der Bevölkerung vom Medientenor ab: Noelle-Neumann bezeichnet das als doppeltes Meinungsklima.

Prägend für das Meinungsklima waren die Journalisten in ihrer Funktion als “gatekeeper” – ein Ausdruck des Sozialpsychologen Kurt Lewin. Die gatekeeper entscheiden: was wird in die Öffentlichkeit weiterbefördert, was wird zurückgehalten. “Jede Zeitung, wenn sie den Leser erreicht, ist das Ergebnis einer ganzen Serie von Selektionen”, bestätigte der Medienkritiker Walter Lippmann in seinem Buch “Public Opinion”. Die Umstände zwingen dazu, ein scharfer Mangel an Zeit und Aufmerksamkeit. Und was lassen die Journalisten als “news values” passieren? Den klaren Sachverhalt, der sich widerspruchsfrei mitteilen lässt, Superlative, Konflikte, Überraschungen, Krisen. Die Auswahlkriterien der gatekeeper erzeugen bewusst oder unbewusst eine Vereinheitlichung der Berichterstattung. Indem so die Auswahlregeln weitgehend übereinstimmen, kommt eine Konsonanz zustande, die auf das Publikum wie eine Bestätigung wirkte.

Dazu gab es einen kleinen Witz, der in einer amerikanischen Zeitung erschien.

“Vater, wenn ein Baum im Wald umstürzt, aber die Massenmedien sind nicht dabei, um zu berichten – ist der Baum dann wirklich umgestürzt?”

Der Soziologe Niklas Luhmann spricht von Aufmerksamkeitsregeln. Er vermutet, dass das politische System, soweit es auf öffentlicher Meinung beruht, gar nicht über Entscheidungsregeln, sondern über Aufmerksamkeitsregeln integriert wird, durch die Regeln also, die bestimmen, was auf den Tisch kommt und was nicht. Die Strukturierung der Aufmerksamkeit erfolge durch die Massenmedien. Thematisierung im Prozess der öffentlichen Meinung vollzog sich nach der Agenda-Setting-Funktion der klassischen Medien.

Die Meinungsmacher spüren, dass diese alten Regeln nicht mehr gelten. Das doppelte Meinungsklima wird wohl bald die Regel und nicht mehr die Ausnahme sein. Die digitale Öffentlichkeit kennt keine Leser, Hörer oder Zuschauer, die von ihr zu unterscheiden wären – siehe das sehr lesenswerte Büchlein von Stefan Münker: Emergenz digitaler Öffentlichkeiten. Hier sind die Medien, dort die Menschen – diese Differenz kann man nicht mehr ziehen.

„Die Angebote im Web 2.0 sind digitale Netzmedien, deren gemeinschaftlicher Gebrauch sie als brauchbare Medien erst erzeugt“, so Münker.

Die Inhalte werden von vielen Millionen Nutzern in der ganzen Welt zusammengetragen, bewertet und geordnet. Das Internet ist eben das, was seine Nutzer aus ihm machen. Klassische Medien produzieren etwas, ohne die Rezipienten zu fragen. Sie senden und drucken, egal ob wir uns das anschauen oder lesen. Youtube sendet nur, wenn ich klicke und auch nur das, womit Nutzer die Seite bestücken.

„Wie im berühmten Schachautomaten des 18. Jahrhunderts (Wolfgang von Kempelen!) ist die Schaltzentrale des Web 2.0 der Mensch”, so Münker. Vox populi bekommt eine ganz andere Entfaltungsmöglichkeit. “Das Internet ändert die Strukturen unserer Öffentlichkeiten, es ändert die Funktionsweisen politischer und gesellschaftlicher Kommunikationsprozesse, es macht es einzelnen einfacher, sich in politische Debatten einzumischen, es macht institutionelle Grenzen durchlässiger und Entscheidungsprozesse transparenter, es ist anders als Massenmedien interaktiv und wird so auch genutzt. Das Internet hat das technische Potenzial für eine demokratische, partizipatorische Mediennutzung”, führt Münker aus und verweist auf Jürgen Habermas, der fest davon überzeugt ist, dass das World Wide Web die Schwächen des anonymen und asymmetrischen Charakters der Massenmedien ausgleiche.

Für Michel Foucault waren die Ausschlussmechanismen der Massenmedien nicht die Ausnahme, sondern die Regel. Diese Spielregeln werden vom Web 2.0 ausgehebelt. Das gilt natürlich auch für die Dünnbrettbohrer-Weisheiten von Precht, die er in seiner massenmedialen Dauerpräsenz aussendet.

Sparda und Co.: Die große Blamage für Bankberater beim Finanztest

Selbst ein Jahr nach der Lehman-Pleite bleibt die Bankberatung so schlecht wie ihr Ruf. Zu diesem Befund kommt die Zeitschrift Finanztest in ihrer Januar-Ausgabe. Damit werden die Ergebnisse des Wiso-Finanztestes vor einigen Monaten bestätigt.

Finanztest führte ein Jahr nach dem Zusammenbruch der US-Großbank 147 Beratungsgespräche. „Schockiert hat uns die nach wie vor laxe Auffassung der Berater davon, was ’sicher‘ bedeutet. Und das obwohl sie zigtausende von Kunden, die ihr Geld sicher anlegen wollen, schon einmal um ihre Ersparnisse gebracht haben – und Besserung schworen. Der zweite Hammer, den sich die Institute leisten, wiegt ähnlich schwer. Ihre Mitarbeiter stellen den Kunden nicht einmal die elementaren Fragen, die das Wertpapierhandelsgesetz vorschreibt. Wer nicht weiß, wie es um die finanziellen Verhältnisse seines Kunden steht und welche Kenntnisse er hat, dessen Empfehlung kann nur Zufall sein“, schreiben die Finanztest-Autoren.

Da stellt sich natürlich die Frage, was die Gesetze denn taugen, wenn die Aufsichtsbehörden beim Vollzug versagen. Wenn man sich die zahnlosen Bubis der Bafin anschaut, kann das allerdings nicht verwundern. Im nächsten Jahr werde ich das Finanzministerium und die Bafin zu diesem Thema befragen!

Selbst die Testsieger Commerzbank und Kreissparkasse Köln kommen gerade mal auf ein schlechtes „Befriedigend“. „Unsere Testkunden wollten, was die Mehrzahl der Anleger will: ihr Geld sicher anlegen. 30.000 Euro hatten sie zur Verfügung, als sie im Sommer loszogen. Sie wollten ihr Geld für fünf Jahre festlegen und wünschten sich eine Rendite von vier Prozent pro Jahr. An dieser Stelle hatten wir eine kleine Hürde für die Berater eingebaut: Für sicher Geldanlagen gab es in diesem Sommer keine vier Prozent, es sei denn für Sonderaktionen oder Lockzinsangebote“, so Finanztest.

Die Gier nach Provisionen wie bei Drückerkolonnen

Frech sei, was die Ostsächsische Sparkasse sowie die beiden Sparda-Banken West und Berlin den Testkunden anboten. Dort wollten die Berater doch tatsächlich private Rentenversicherungen verkaufen! „Da war ihnen wohl die schnell verdiente Provision wichtiger als ein zufriedener Kunden. Rentenversicherungen gibt es nicht nur gegen Raten, sondern auch gegen Zahlung eines einmaligen Beitrags. Vereinbart war, dass der Anleger am Ende der Laufzeit sein Geld auf einen Schlag bekommt“, schreibt Finanztest. Rentabel seien diese Verträge über fünf Jahre nicht, denn vom 2,25-prozentigen Garantiezins habe der Kunde nur wenig. Verzinst werde der Sparbetrag und nicht der Teil der Einzahlung, der für Kosten und Provisionen draufgeht. Unterm Strich bringe der Vertrag magere ein Prozent pro Jahr – da kann ich ja mein Geld gleich aufs Sparbuch packen. Mit hohen Überschüssen kann nach fünf Jahren nicht gerechnet werden.

Auch beim Wiso-Test bot die Sparda-Bank in Köln für einen abzulösenden Kredit (in vier Jahren) und dem Wunsch, ein Auto zu kaufen (in sechs Jahren), kurz laufende Rentenversicherungen an. Dabei wurden Renditen von rund drei Prozent pro Jahr in Aussicht gestellt, nicht aber garantiert. Für Arno Gottschalk von der Verbraucherzentrale Bremen ist die Empfehlung von Rentenversicherungen kein Wunder, denn hier werden hohe Provisionen gezahlt. Finanzexperten sehen die Provisionsgeschäfte als Grundübel der aktuellen Krise. Kunden würden nach dem LEO-Prinzip gewonnen: „Leicht erreichbare Opfer“. Die Bankberater sollten daher persönlich haften für falsche „Empfehlungen“.

Wer den Verdacht hat, von der Bank seines „Vertrauens“ falsch beraten worden zu sein, sollte sich zunächst bei der zuständigen Filiale beschweren. Hilft das nicht, so die Empfehlung von Finanztest, kann sich an die Schlichtungsstelle oder dem Ombudsmann der Bank wenden. Bleibt das ohne Erfolg, könne die Verbraucherzentrale eingeschaltet werden und natürlich ein Anwalt. Öffentlichkeit über die Social Media-Kanäle herzustellen, ist generell eine höchst erzieherische Maßnahme. Denn die konservativen Nadelstreifen-Manager scheuen die Macht der öffentlichen Meinung!