Twitch und der Kampf für sauberes Livestreaming

Livestreaming mit Alkohol
Livestreaming mit Alkohol

Twitch kämpft mit Bekleidungsregeln für sauberes und moralisch einwandfreies Livestreaming.

Folgende Punkte sollten die Gaming-Moralhüter, die Richter und Staatsanwalt in Personalunion spielen, in ihre AGBs aufnehmen: Nicht mehr toleriert werden,

Stinkefüße und übel riechende Socken (hygienische Zumutung);

leise Fürze – gemeint sind rückwärtige Ausdünstungen durch eine verschämte Gesäßanhebung – im Volksmund auch “einen fahren lassen” genannt (gravierende Methan-Emissionen mit nicht kalkulierbaren Folgen für die Erderwärmung);

öffentlicher Hangout-Konsum von Mettbröttchen oder noch schlimmer von Mettigeln (Provokation für Vegetarier sowie Veganer und seelische Grausamkeit gegenüber Netzmenschen, die mit ihren Bloggerbäuchen hadern – also ich);

Livesendungen mit süß anmutenden Winkekatzen – die via Twitter mit dem Hashtag ‪#‎katzenlivestream‬ verbreitet werden. Noch ablehnungswürdiger sind jene Web-Zeitgenossen, die einen Blogbeitrag schreiben und dabei einen #katzenlivestream mit einer fetten und winkenden Glückskatze live übertragen (Tierquälerei und Propagierung von sinnlosem Glücks–Aberglauben, der in der Glücks-Themenwoche der ARD uns jeden Tag um die Ohren gehauen wurde);

Husten ins Mikrofon (Virenschleuder mit Pandemiepotenzial);
Interviews mit meinem Bloggercamp.tv-Kollegen Hannes Schleeh, die ihn als Henning oder Hans titulieren (üble Verleumdung).

Fallen Euch noch weitere Punkte ein, die man Twitch mit auf den Weg geben sollte?

Ärzte warnen: Virtuelles Passivrauchen gefährdet Livestreaming

Im Kreis der anonymen Raucher und Yps-Leser
Im Kreis der anonymen Raucher und Yps-Leser

In einer Google Plus-Community gab es heute früh eine sehr zerknirschte Warnmeldung für die Hangout on Air-Szene, die mich in tiefe Depressionen gestürzt hat. Bei vielen Livesendungen läuft wohl einiges aus dem Ruder, so dass der eine oder andere Operator nur noch mit den geschnittenen – also bereinigten – Versionen ruhig schlafen kann. Deshalb gab es freundliche Ermahnungen, was es künftig in den Hangouts nicht mehr geben darf (verlinken geht leider nicht mehr, weil der Beitrag wohl nicht mehr auffindbar ist). An erster Stelle steht, wie kann es anders sein,

ein R A U C H V E R B O T.

Daraufhin musste ich mich selbstkritisch und mit Schuldgefühlen getränkt aus dieser Hangout-Community verabschieden, da ich keine Belastung für dortige Gesprächsrunden sein möchte.

Man darf das Problem des virtuellen Passivrauchens nicht klein reden. Schön, dass so viele wohlmeinende Pädagogen in dieser Community mich in meiner rauchenden Lebenskrise therapeutisch begleiten:

„Ich denke, keiner verbietet das Rauchen an sich, du könntest im Hangout z. B. auch einfach die Kamera ausmachen, eine Raucherpause machen und danach wieder mit Kamerabild mitmachen…“

Was machen wir nun aber mit den vielen Videos auf Youtube, bei denen man vor lauter nikotingetränkter Nebelschwaden kaum die Gesprächsteilnehmer erkennen kann, wie etwa beim Internationalen Frühschoppen von Werner Höfer oder den Talkshows in den 70er Jahren?

Man könnte diese Filme ex post verpixeln, löschen, Warnschilder einblenden oder zumindest den Yps-Balken nachträglich installieren via Mashup-Video-Neuproduktion.

Wie gehen wir mit den alten Sherlock Holmes-Filmen um, mit einem bekennenden Drogenabhängigen als Hauptperson? Wie können wir den kettenrauchenden Lucky Luke aus den Comics verbannen? Was machen wir mit dem Lehrer Lämpel bei Max und Moritz? Oder der trunksüchtigen Großmutter, die ihr Enkelkind mit dem roten Käppchen für den Nachschub an Rotwein instrumentalisiert?

Das alles muss im Livestreaming endlich ein Ende haben. Deshalb schlage ich folgende Verbotsliste vor, um endlich moralisch vollkommene Sendungen hinzubekommen:

Nicht mehr toleriert werden,

Stinkefüße und übel riechende Socken (hygienische Zumutung);

leise Fürze – gemeint sind rückwärtige Ausdünstungen durch eine verschämte Gesäßanhebung – im Volksmund auch „einen fahren lassen“ genannt (gravierende Emissionswirkung von Methan mit nicht kalkulierbaren Folgen für die Erderwärmung);

öffentlicher Hangout-Konsum von Mettbröttchen oder noch schlimmer von Mettigeln (Provokation für Vegetarier und seelische Grausamkeit gegenüber Netzmenschen, die mit ihren Bloggerbäuchen hadern – also ich);

Livesendungen mit süß anmutenden Winkekatzen – die via Twitter mit dem Hashtag #katzenlivestream verbreitet werden. Noch ablehnungswürdiger sind jene Web-Zeitgenossen, die einen Blogbeitrag schreiben und dabei einen #katzenlivestream mit einer fetten und winkenden Glückskatze live übertragen (Tierquälerei und Propagierung von sinnlosem Glücks–Aberglauben, der zur Zeit in der Glücks-Themenwoche der ARD uns jeden Tag um die Ohren gehauen wird);

Husten ins Mikrofon (Virenschleuder mit Pandemiepotenzial);

Interviews mit meinem Bloggercamp.tv-Kollegen Hannes Schleeh, die ihn als Henning oder Hans titulieren (üble Verleumdung).

Ja, ich bin schuldig
Ja, ich bin schuldig

Diese Liste ist aus dem Geist für hygienisch und aseptisch unbedenkliches Livestreaming geboren. Sie ist mit Sicherheit völlig lückenhaft und unvollkommen. Ich wäre Euch sehr dankbar, wenn Ihr mir bei der ganzheitlichen Suche nach dem heiligen Gral für das Arbeiten vor und hinter der Kamera helfen könntet. Bitte vervollständigt mich in meiner Unvollständigkeit.

P.S. Ich bin Yps so dankbar, meine Sucht in der Öffentlichkeit wenigstens anonym ausleben zu können.

Siehe auch:

DER MORAL-SPIESSER ALS ZENSOR.

Algorithmen als Instanz für Ethik und Moral? Ein weiterer Beitrag zur Filterblasen-Debatte

Auch die Wochenzeitungen „Die Zeit“ setzt sich in ihrer aktuellen Ausgabe mit Fluch und Segen der Personalisierung von Web-Diensten auseinander. Unstrittig ist sicherlich die Notwendigkeit von Filtertechnologien, Sortiermöglichkeiten und Netzintelligenz, um sich im Wust der Daten des Internets nicht zu verlieren. Jeder hat auch schon im analogen Zeitalter Dinge geordnet, mit Zettelkasten, Ordnern oder sonstigen Sortiersystemen gearbeitet, um die Arbeitsorganisation zu verbessern. Auch bei der heutigen Zeit-Lektüre schaue ich mir erst das Inhaltsverzeichnis durch und lese nur das, was ich mich auch wirklich interessiert – wie eben der Beitrag „Automatisch vorsortiert“, der mittlerweile auch online abrufbar ist.

Gleiches gilt für personalisierte Werbung im Netz. In einer Kolumne für „The European“ habe ich das ja bereits aufgegriffen: Hört man Datenschützern zu, könnte man meinen, der Teufel selbst habe personalisierte Werbung als Geißel der Menschheit erfunden. Doch jeder von normaler Massenwerbung malträtierte Konsument weiß es natürlich besser, denn ohne Pinkelpause macht der schönste Fernsehfilm keinen Spaß. So die Einleitung meines Beitrages. Wer also einen Artikel über „Mausefallen“ im Web recherchiert, wird bei Google dann eben im Werbeblock mit Angeboten für den Fang von Nagetieren berieselt. Das kann man sicherlich noch verkraften. Was aber passiert, wenn Filtertechnologien immer stärker auch die normalen Suchergebnisse beeinflussen? Die Frage hat ja bereits Frank Schirrmacher in seinem Buch „Payback“ aufgeworfen. Werden wir immer stärker von Algorithmen beherrscht, wie es der FAZ-Herausgeber befürchtet (der gleichzeitig auch die Datenflut beklagt)? Können wir die intelligenten Assistenten abschalten, wenn wir keine Lust auf sie haben? Und wie sieht es mit dem Recht auf die Abschaltung solcher Dienste aus, wenn wir Persönlichkeitsrechte und die Privatsphäre in Gefahr sehen (siehe auch: Data-Economy oder Algorithmen-Diktatur? Wie wir die Datenflut überwinden können)?

Aber ein Experiment, dass in dem Zeit-Artikel erwähnt wird, macht zumindest klar, dass wir es nicht mit einer „Schweigespirale“ zu tun haben, sondern jeder von uns über Filteralgorithmen höchst unterschiedliche Ergebnisse über Google, Bing, Facebook und Co. bekommt. „Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder, Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren“, schreibt die Zeit.

In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. „Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen“, wird Stalder von der Zeit zitiert. Eine Gefahr besteht dann allerdings nicht, die von Massenmedien sehr wohl ausgeht, die Entstehung eines einheitlichen Meinungsklimas. Zudem nutze ich ja nicht nur Google, Facebook oder Twitter für meine Recherchen, sondern auch andere Quellen wie Blogs, Bücher, Interviews, Expertengespräche, Vorträge oder persönliche Erfahrungen. Die Zeit zitiert dann eine Forderung des Filter-Bubble-Kritikers Eli Pariser, die ich für viel problematischer halte und die teilweise ja schon Realität ist: Da die algorithmischen Vorsortierer über keine eingebaute Ethik verfügen, sollten beispielsweise die Google-Gründer Larry Page und Sergey Bring dafür sorgen, dass fortan „bürgerliche Verantwortung“ in die Codezeilen neuer Sortiersoftware einfließen zu lassen. Unstrittig ist sicherlich die Forderung, die Kriterien der Filterung offenzulegen. „Wer Relevanz definiert, muss es erläutern. Wer weglässt, muss darauf hinweisen“, so die Zeit.

Aber was ist mit den Kategorien Ethik und bürgerliche Verantwortung?

Algorithmen werden von Menschen programmiert. Auch das Adwords- und Adsense-Programm von Google wird von Menschen organisiert. Was passiert, wenn beispielsweise Werbekunden zensiert werden und mit einer Kündigung ihres Kontos bedroht werden, obwohl sie nicht gegen Wettbewerbsrecht verstoßen? Google oder Apple können sich doch nicht zur richterlichen Instanz aufschwingen und entscheiden, was richtig und falsch im öffentlichen Leben ist? Für welche Produkte geworben werden darf oder welche Nacktfotos über Apps auf Smartphones erscheinen dürfen? Richard Gutjahr hat im vergangenen Jahr dazu entsprechendes erlebt (siehe: Google-Robots als Sittenwächter: „Sie haben drei Werktage Zeit, gutjahr.biz zu ändern“).

Systeme, Geräte oder Suchmaschinen dürften nicht darüber entscheiden, was richtig und was falsch für uns sei und unser Verhalten einschränken oder sogar sanktionieren. Sonst würde der Mensch zum Sklaven der Technik. Eine Automaten-Diktatur könnte sich nachhaltiger auswirken als das paternalistische Verhalten unter Menschen, warnen die Wissenschaftler Sarah Spiekermann und Frank Pallas in einem Beitrag für das Fachbuch „Die Informatisierung des Alltags“ (Hrsg. Friedemann Mattern, Springer-Verlag): „Zum einen reagieren Maschinen automatisch und autonom und lassen den Betroffenen damit nur wenig Möglichkeit zur Antizipation oder Reaktion. Zum anderen ist Technik absolut. Hat beispielsweise ein Fahrer Alkohol in der Atemluft, so ist es ihm gänzlich unmöglich, das entsprechende Auto zu starten – auch in Notfällen, in denen das Fahren unter Alkoholeinfluss üblicherweise akzeptiert würde“.

Ethische Algorithmen wird es also nie geben können. Viel wichtiger ist eine Pluralität der Informationsquellen und mehr Wettbewerb im Internet. Google, Apple oder Facebook bleiben nur dann harmlos, wenn es Alternativen gibt. Ich möchte mir jedenfalls nicht von Steve Jobs vorschreiben lassen, was moralisch akzeptabel ist und was nicht – auch nicht über Apps.