Gamification der Politik – aber ohne Game Master!

Verblöden uns Games?

Nach dem postideologischen Kater der Systemkrise namens Finanzkapitalismus und dem Einsturz des Utopieglaubens bleibt nach Auffassung von Frank Rieger und Fefe nur noch Zynismus und Gamification übrig. Das äußerten sie in einem gut zweitstündigen Gespräch mit dem FAZ-Herausgeber Frank Schirrmacher. Abzuhören in ihrer Alternativlos-Podcast-Reihe.

Digitale Artefakte werden benutzt, um unsere Soziotope zu gestalten, wenn es etwa um Reputation oder Wissensmanagement geht. „Dabei müssen wir darauf achten, nicht mehr die Rolle eines Game Masters hinzunehmen wie bei Google, der die Regeln bestimmt. Wir müssen verstehen, wie diese Regeln funktionieren“, so Rieger. Und ich würde ergänzen, wie man sie brechen kann.

Als besonders fragwürdig werden in dem Podcast Regeln gewertet, die von Algorithmen bestimmt werden wie beim Google-Spiel Ingress, das zumindest von Frank Rieger bis zum finalen Level 8 durchgespielt wurde.

Es heißt nur, hier hast Du das Programm, viel Spaß dabei. „Regeländerungen kommen ausschließlich über Software Updates und plötzlich funktioniert Deine Welt anders“, stellt Rieger fest.

Er wertet das als Vorboten für soziale Interaktion und Politikgestaltung. Wenn von der Gamification der realen Welt gesprochen werde, könnte man von der „fucking“ Software Version abhängig werden.

Auf der Strecke bleiben Möglichkeiten der Selbstorganisation, die es allerdings im klassischen Industriekapitalismus nie gab, wie Wolf Lotter sehr eindrucksvoll auf der republica skizzierte.

Fefe machte dann einen recht altväterlichen Einwurf über „die“ Jugend und über „die“ Kinder, die mit Computerspielen aufgewachsen seien, die ihnen vorschreiben, was sie tun dürfen und was nicht. Gamification mache die Masse träge und würde sie indoktrinieren (klingt ein wenig nach Manfred Spitzer). Und die nachwachsende Generation sei eben nach diesen Maßstäben sozialisiert worden. Klingt ein wenig nach Verschwörungstheorie – aber das ist ja das Spezialgebiet von Fefe.

Für wichtig halte ich die Forderung von Rieger, dieses Prinzip des Game Masters, der die Regeln setzt und quasi Gott spielt, zu durchbrechen.

Was haltet ihr von diesen Thesen? Mit der „nachwachsenden“ Generation werde ich noch eine gesonderte Hangout-Runde machen über die Vorhaltungen von Fefe. Spätestens auf der Gamescom in Köln.

Was ich übrigens nach meiner Rückkehr von der republica in Berlin immer schon mal sagen wollte:

Tegel erhalten!

Müssen Roboter für unsere Rente schuften? Frank Rieger und die Automatisierungsdividende

Frank Rieger vom Chaos Computer Club hat in einem Gastbeitrag für die FAZ über die leise rollenden Technologiewellen geschrieben, die unsere gesellschaftlichen Grundfesten erschüttern werden. In Expertenkreisen stoßen seine Thesen auf ein breites Echo.

In meiner Kolumne für den Fachdienst Service Insiders habe ich die Reaktionen ausführlich aufgegriffen. Die wird wohl morgen erscheinen. Hier die komplette Kolumne 🙂

Hier schon mal ein Vorgeschmack: Es sei nicht eine einzelne Technologie, so Rieger, die zu den Umwälzungen beiträgt, sondern die Kombination und gegenseitige Potenzierung paralleler Entwicklungen. Dieser digitale Tsunami könnte ganze Branchen umpflügen und selbst qualifizierte Berufe wegspülen:

„Es sind nicht länger nur die Fließbandarbeiter, deren Job durch einen Roboter ersetzt werden kann. Es sind auch Buchhalter, Anwälte, Personalentwickler, Marketingmitarbeiter, sogar Journalisten und Wissensvermittler, also Lehrer und Professoren, die sich Sorgen um ihr berufliches Arbeitsfeld machen müssen. Diese Veränderungen sind nicht nur rein technischer Natur, die Kombination von Vernetzung, Computerleistung und einer Umgewöhnung der Kunden schafft einen qualitativen Sprung, und das kann sehr schnell dramatische Auswirkungen haben – wie etwa das Beispiel der verschwindenden Reisebüros zeigt“, erläutert Rieger.

Eine Verbrauchssteuer für Algorithmen?

Wie könnten also Wirtschaft und Gesellschaft weiter funktionieren, wenn immer weniger Menschen noch eine dauerhafte Arbeit haben, die gut genug entlohnt wird, dass davon Steuern, Sozialversicherungs-, Renten- und Krankenkassenbeiträge gezahlt werden können? Der Vorschlag des Chaos Computer Club-Sprechers klingt auf den ersten Blick logisch: Ein schrittweiser, aber grundlegender Umbau der Sozial- und Steuersysteme hin zur indirekten Besteuerung von nichtmenschlicher Arbeit und damit zu einer Vergesellschaftung der Automatisierungsdividende.

Was heißt das konkret?

Eine Steuer auf den Konsum von Künstlicher Intelligenz, eine Luxusabgabe für den Einsatz von besonders leistungsfähiger Software oder eine höhere Mehrwertsteuer für Algorithmen? Bei indirekten Steuern wird die Steuer über den Preis einer Ware oder Dienstleistung erhoben. Problem: Jeder Verbraucher wird unabhängig von der Höhe seines Einkommens mit einem annähernd gleichen indirekten Steuerbetrag belastet wird – das Prinzip der Leistungsfähigkeit bleibt auf der Strecke.

An dieser Stelle muss Rieger etwas konkreter werden und sich mal äußern zur Frage der Steuergerechtigkeit.

Rieger-Manifest ohne empirisches Fundament

Aber nicht nur an dieser Stelle gibt es Klärungsbedarf über das Manifest für eine Sozialisierung der Automatisierungsdividende:

„Es ist richtig, dass wir Fortschritte in der IT haben – auch in der Automatisierung. Die Diskussion ist aber viel älter als es scheint. Es geht schon los in der Science Fiction von 1842, wo darüber spekuliert wird, dass Maschinen die menschliche Arbeit übernehmen und die der Einsatz von Menschen nur noch eine Option sei. Und wir finden das auch in der klassischen marxistischen Lehre, der die Welt in Proletarier und Bourgeoisie einteilt, wo das Innehaben von Produktionsmitteln zu einem Mehrwert führt. Das kann man analog zur Dividendentheorie von Rieger betrachten. Der Computer als Produktionsmittel erzeugt einen Mehrwert, der den Kapitalisten zufällt. Dieses Gedankengut ist 150 Jahre alt. Danach hatten wir ähnliche Diskussionen in den 1970er Jahren über Rationalisierung und Humanisierung der Arbeitswelt. Da hat man schon versucht, die tayloristischen Prozesse in den Fabriken menschenfreundlicher zu gestalten und das hat ja zu Dingen wie das Betriebsverfassungsgesetz, der Arbeitsstätten-Verordnung, Gesundheitsregeln und kollektiven Arbeitszeitregeln geführt. Was wir jetzt im Zusammenhang mit Computern diskutieren, hat bereits mit dem Beginn der Industrialisierung angefangen“, so der Internet-Berater Christoph Kappes im Gespräch mit Service Insiders.

Leider bleibe Rieger bei seinen Thesen auf einem feuilletonistischen Niveau, ohne empirische Belege zu liefern. Wenn es beispielsweise um maschinelle Textgenierung gehe, beschäftigt man sich in der Regel mit Daten, denen keine weiteren Informationen hinzugefügt werden.

Rieger sage einfach nur, Maschinen machen Arbeiten, die bislang von Menschen erledigt wurden, also werden die Menschen arbeitslos: Das sei falsch. Die gesamte Geschichte der technischen Industrialisierung belege das Gegenteil. In Dienstleistungsberufen arbeiten heute rund 70 Prozent der Beschäftigten. Das hätte Karl Marx nie für möglich gehalten. Arbeit wurde nur in industriellen Kategorien gedacht. Selbst der geistige Vater der Marktwirtschaft, Adam Smith, wertete die Arbeit von Kirchenmännern, Anwälten und Ärzten als „unproduktiv und ohne Wert“.

„Die geschichtliche Evidenz steht im Widerspruch zu den Thesen von Rieger. Müssen sich nun Professoren, Lehrer und Marketingmanager Sorgen um ihre Zukunft machen? Das Internet bietet Informationen, die vorher so nicht verfügbar waren. Aber das heißt ja noch lange nicht, dass diese Informationen in Wissen transformiert werden. Beim Wissen geht es um tiefes Verstehen, um Ad-hoc-Nutzen, um Anwendungsorientierung und um die Entwicklung von Intuition. Da geht es um menschliches Wissen und nicht nur um maschinelle Informationen. Hier wirkt sich das Internet nicht als negativer Indikator aus. Wir haben Datenrohmaterial und müssen das in Wissen ummünzen. Es gibt sicherlich Fortschritte beim E-Learning. So findet man alle Vorlesungen des MIT auf Youtube. Bestimmte Frontalvorlesungen werden nicht mehr belegt. Es kommt darauf an, wie soziale Systeme auf diese Entwicklungen reagieren. Es muss ja nicht zu einer Reduktion der Professorenstellen führen. Spitzenvorlesungen kann man heute im Netz abrufen. Man könnte jetzt die Anforderungen erhöhen, die Professoren erfüllen müssen. Professoren können mehr forschen und in den direkten Dialog mit Studenten treten. Das führt zu einer Beschleunigung der Wissensaufnahme. Dieser Effekt ist sehr positiv. Die Entscheidung über einen Stellenabbau liegt bei uns. Deshalb verstehe ich die Maschinenlogik von Frank Rieger nicht. Unser Anspruch wird sein, dass noch mehr Wissen in die Köpfe kommt. Es ist zum Teil gar nicht belegbar, ob Maschinen wirklich zu einer Steigerung der Produktivität beitragen“, erläutert Kappes.

Steigert Informationstechnologie die Produktivität?

Erinnert sei an das Paradoxon der Informationstechnologie.

„Bis zum Jahr 2000 gab es keine belastbaren Studien, die den Produktivitätsfortschritt durch den Einsatz der IT untermauern. Wenn in Konzernen bei einem IT-Kostenanteil von 50 Prozent eine Fehlallokation auftritt, müssen die IT-Investitionen in die Tonne getreten werden. Macht man alles richtig, können die 50 Prozent IT-Kosten sich als hervorragender Hebel erweisen. So einfach ist das alles nicht. Selbst wenn man davon ausgeht, dass Informationstechnologie immer zu einem Produktivitätsfortschritt führt, treten Kompensationseffekte auf. Es fallen die Preise und auf der Kundenseite steigt das Realeinkommen. Das sehen wir bei ja bei Software. Da hat Rieger wirtschaftlich überhaupt nicht nachgedacht. Es gibt immer zwei Möglichkeiten: Sinkende Priese führen zu einem höheren Realeinkommen und Wohlstand der Verbraucher. Oder der Preis bleibt gleich und es steigt die Leistungen, wie man es bei PCs beobachten kann. Die Theorie, dass die Maschinen-Dividende beim Unternehmen bleibt, halte ich für Unsinn“, so das harte Urteil von Kappes.

Zwei Bergsteiger auf dem Weg zum Mond und der Nutzen marxistischer Ökonomie

Ebenso skeptisch beurteilt Dr. Gerhard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung, die Weissagungen von Rieger:

„Aussagen über die Zukunft haben eines gemeinsam, sie sind nur zufällig richtig. Die Welt ist keine Maschine, bei der sich die Zukunft aus der Vergangenheit ergibt. Die Zukunft der Welt ist grundsätzlich offen.“

Auch Wohland sieht die Analogien zu Karl Marx.

„Das ist löblich, aber selbst dieser große Denker konnte die Zukunft nur durch ein Schlüsselloch sehen. Auch machen es die vielen Geister im Text schwer zu ergründen, was der Autor eigentlich meint. Wer zum Beispiel ist ‚Wir‘? Die Profiteure, die Leidenden, der Autor und ich als Leser, oder alle zusammen? Wer ist ‚der Mensch‘? Es hat den Anschein, es ist eine Person, die handelt und denkt und sich an Kommunikation beteiligt. Hat ihn, ‚den Menschen‘, schon jemand gesehen? Nein, es sind Geister“, erwidert Wohland vom Ityx-Thingtank.

An der Diskussion, ob „der Computer“ „den Menschen“ eines Tages überflügeln werde, möchte Wohland sich nicht beteiligen. Denn sie sei ähnlich spannend wie die Diskussion zweier Bergsteiger auf dem Weg zum Gipfel über die Frage, ob man gerade auf dem Weg zum Monde sei.

Wohland empfiehlt weiteres Nachdenken:

„Eine vollautomatische Produktion kann keinen ökonomischen Wert erzeugen und damit auch keinen Profit. Beispiel: die Produktion des allgemein zugänglichen Luftsauerstoffs. Kein Wert, kein Preis, kein Profit. Profit wird also immer von Menschen produziert. Maschinen schaffen keinen Wert, sie übertragen ihn nur auf Produkte. Deshalb hilft gegen die Verelendung der Produzenten nur deren Organisierung. Wenn ein ‚Wir‘ entsteht, kann die Herstellung von Profit verweigert werden. Diese Gewalt kann Interessen durchsetzen. Ich hätte nicht gedacht, dass ich meine verstaubten Kenntnisse der marxistischen Ökonomie nochmal brauchen könnte.“

Nach Ansicht von Reinhard Karger, Unternehmenssprecher des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), sollte die zunehmende Konkurrenz von Algorithmen und Robotern nicht instrumentalisiert werden, Ängste zu schüren und Innovationen zu bremsen. Seine Hoffnung:

„Je höher der Bildungsgrad der durch Echtzeitalgorithmen ersetzbaren Berufsstände, desto größer die Einsicht in die offensichtliche Eigendynamik der Innovationsintensität, hoffentlich verbunden mit energetischen Initiativen, die die notwendigen Veränderungen des Steuersystems mit Verve und Expertise voran treiben.“

Entscheidend sei jetzt die breite und vorausschauende öffentliche Diskussion über einen finanzierbaren und wünschenswerten Gesellschaftsentwurf, in dem Kreativität, soziales Engagement und familiäre Sorge eine überraschende neue Aufwertung erfahren könnten.

Unabhängig von den volkswirtschaftlichen Verwerfungen, die Frank Rieger nicht mit Fakten untermauert, rechnet auch Bernhard Steimel von der FutureManagementGroup mit gewaltigen Verschiebungen in Wirtschaft und Gesellschaft. Ein wichtiger Zukunftstrend sei die wachsende Autonomie der Verbraucher.

„Das Internet bietet heute schon dem vernetzten Kunden vielfältige Möglichkeiten, um Social Software und das Expertenwissen seiner Peers zu nutzen. Serviceautomatisierung und Selbstberatung sind aus meiner Sicht zwei Seiten der gleichen Medaille und haben die Tendenz, sich gegenseitig zu verstärken. Das wird von vielen Führungskräften in seinen Auswirkungen zuweilen unterschätzt. Oftmals befinden sie sich in der Kurzfrist-Falle und richten ihre Entscheidungen an den Erfordernissen des Tagesgeschäfts aus. Unsere Erfahrung zeigt, es lohnt sich, den Blick in die nächste Ära des eigenen Geschäfts zu richten, um Zukunftschancen frühzeitig zu nutzen, bevor krisenhafte Entwicklungen wie bei Videotheken oder Reisebüros eintreten, die nur noch wenig Handlungsspielraum bieten“, rät Steimel.

Hörfunkjournalist und Blogger Heinrich Rudolf Bruns hält eine Maschinensteuer in Kombination mit dem bedingungslosen Grundeinkommen für diskutabel. „Wer durch eine Maschine ersetzt wird und keine Angst mehr haben muss, dass er darbt, weil die Besteuerung der Maschine seinen Lebensunterhalt sichert, der kann sich auf Neues einlassen.“

Soweit die die unterschiedlichen Reaktionen auf den sehr sinnvollen Debattenbeitrag von Frank Rieger. Das Thema wird uns mit Sicherheit weiter beschäftigen. Vielleicht auch auf unserem Blogger Camp, dass wir (Heinrich Bruns, Hannes Schleeh, Bernd Stahl und icke) für den September planen. Näheres folgt in den nächsten Wochen.

Wer schon jetzt Lust verspürt, sich an den Vorbereitungen zu beschäftigen, kann sich direkt bei mir melden. Hier einfach einen kurzen Kommentar hinterlassen.

Mist, Facebook will bestimmen, welche Badehose ich demnächst kaufe #Timeline #Open-Graph

Das nenne ich mal sportlich. Am Donnerstag präsentierte Mark Zuckerberg das „neue“ Facebook mit den belanglosen Namen „Timeline“ und „Open Graph“, schon folgt vom Chaos Computer Club-Sprecher Frank Rieger in der heutigen FAZ die Fundamentalkritik an dem Vorhaben des amerikanischen Internet-Riesen. Da sein Elaborat in der Printausgabe erschienen ist, musste Rieger sicherlich spätestens Sonntag den Artikel einreichen – wahrscheinlich sogar noch früher (das Schriftwerk ist jetzt auch online abrufbar). Also standen gerade mal schlappe ein oder zwei Tage zur Verfügung, um die Facebook-Pläne kritisch zu durchleuchten. Das Fazit von Rieger steht schon am Anfang seiner Analyse:

„Das ganze Leben wird zur Online-Show – Facebooks ‚Open Graph‘ ist der beängstigende Versuch, ein Netz im Netz zu schaffen. Wer es betritt, braucht es nie wieder zu verlassen: ein gläserner Käfig für die Nutzer und das Paradies für die Werbewirtschaft.“

Bislang sind das ja nur die Ankündigungen von Marki-Boy, die vom Otto-Normal-Facebook-Nutzer noch gar nicht abgetestet werden können, es sei denn, man folgt den Bastelanleitungen einiger Blogger und erstellt irgendeine Dummy-App. Reine Zeitverschwendung. Ich warte auf den Start des Re-Designs. Ob Rieger schon das neue Profil am Wochenende testen konnte, entzieht sich meiner Kenntnis. Facebook halten Rieger und Constanz Kurz generell für eine Erfindung von dunklen Mächten, die uns entmündigen und mit subtilen Werbebotschaften zu willenlosen Dummchen im Cyberspace degradieren wollen (siehe das Büchlein „Die Datenfresser“, S. 256).

Deshalb will uns Facebook ja zu bequemlichen Internet-Couchpotatoes umerziehen. Der US-Bösewicht verfolgt das Ziel, dass seine Nutzer möglichst nirgendwo anders mehr hingehen sollen, weil es ja eigentlich alles, was man braucht, schon in Facebook gibt.

„Die Freunde sind dort, die Einladungen zu Veranstaltungen und Partys, die Bilder, der Chat, die E-Mail ersetzenden Nachrichten und nun bald auch alles andere. Und man braucht nichts dafür zu bezahlen, schließlich ist man selbst das Produkt. Das Konzept erinnert an die Stasi-Zentrale in der DDR. Es gab alles im eigenen Haus: Friseur, Läden, Bank, Schuster, Schneider und Ärzte.“

Mit der Umwandlung von Facebook in eine umfassende Alltagsdatenspeicherungsplattform erhöhe sich die „Klebrigkeit“ erheblich, kritisiert Rieger.

„Selbst an einem Button für Todesfälle in der Familie ist nun gedacht. Wer sein halbes Leben dort verewigt hat, viel Aufwand in das Sortieren und Präsentieren seiner Informationen gesteckt hat, wird nicht so schnell woandershin weiterziehen. Die Behauptung, man könne ja einfach zur Konkurrenz gehen, wenn die Nutzungsbedingungen oder Privatsphäreeinstellungen sich ins Unerträgliche wandeln, wird immer mehr zu einem schalen Selbstbetrug.“

Zu den heimlichen Sympathisanten der Facebook-Strategie zählt Rieger die Ermittlungsbehörden und Geheimdiensten. Sie könnten zukünftig mit geringen Hürden Zugriff auf wirklich umfangreiche Lebensprofile nehmen. Aber im Vordergrund stehen halt diesen widerlichen kommerzielle Interessen:

„Für diese aggressiv vorangetriebene Strategie, die Nutzer zum längeren Verweilen zu bewegen, gibt es handfeste wirtschaftliche Gründe. Facebook ist mitnichten ein ’soziales Netzwerk‘. Es ist ein Unternehmen, das eine Dienstleistung verkauft: gezielte, perfekt zugeschnittene Werbung. Der Börsenwert des Unternehmens wird folglich anhand der Anzahl, Verweildauer und Nutzungsintensität seiner Mitglieder errechnet. Jede Minute, die ein Nutzer nicht auf Facebook ist, wird als Verlust angesehen.“

Pfui. Wie kann man bloß für knapp eine Milliarde Menschen im Internet eine Plattform bereitstellen, in Programmierung, Design, neue Dienste, Personal und Server-Kapazitäten investieren und dann auch noch versuchen, das Investment über Werbung zu finanzieren. Die Zuckerberg-Truppe könnte sich doch weltweit an den Hauptbahnhöfen postieren und mit der Sammelbüchse um Spenden betteln, damit die Internet-Nutzer in den Genuss von kommerzfreien Angeboten kommen. Und immer wieder singen Rieger und Kurz das Lied von der apokalyptischen Wirkung der personalisierten Werbung. Die algorithmische Innovation konzentriere sich in erster Linie auf die Verbesserung der werblichen Zielgenauigkeit:

„Wie bei Google wird auch bei Facebook ein signifikanter Teil der geistigen Kapazität der Entwickler dafür verwendet, Nutzer immer treffsicherer zum Kauf von Waren und Dienstleistungen zu animieren. Mit den Informationen aus dem digitalen Lebensdatenstrom steht zu erwarten, dass die Werbung eine Qualität erreicht, die sie kaum noch von gutgemeinten algorithmischen Ratschlägen unterscheidbar macht.“

Die Frage ist nur, was ich mit der personalisierten Werbeeinblendung mache und wie treffsicher das Ganze wirklich ist. Der Amazon-Algorithmus ist beispielsweise noch ziemlich blöd. Interessiere ich mich für Fahrradkarten, um eine Tour in Holland vorzubereiten, bekomme ich haufenweise Angebote für Rad-Reiseführer, Rad-Zubehör, Holland-Produkten oder irgendetwas anderes, was mich nicht die Bohne interessiert, da ich ja nur an einem einzigen Wochenende einen kleinen Ausflug in die Gegend von Amsterdam gemacht habe – das wird aber in den nächsten 30 Jahren wohl nicht mehr vorkommen. Denn ich habe in den vergangenen 50 Lebensjahren gerade mal zwei Reisen mit dem Fahrrad gemacht. Was die Algorithmen wirklich können, sollte man doch an der Lebenswirklichkeit abtesten und nicht mit verschwörerischen Thesen unterlegen, wie es Rieger, Meckel und Co. tun. Am Freitag habe ich mich mit dieser Problematik auseinandergesetzt unter dem Titel: Sterben wir den Tod der virtuellen Berechenbarkeit? Im Vorfeld befragte ich den Juristen und Informatiker Christoph Kappes. Hier ein paar Statements:

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die auf absehbare Zeit keine Ergebnisse zeitigen wird“, erwidert er im Gespräch mit Service Insiders.

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes. Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte. „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien. Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen. „Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Das nun Facebook zum zentralen Knotenpunkt für vernetzte Applikationen und Geräte werden möchte, wie Frank Rieger schreibt, ist nichts Neues. Das wollen Google und Apple auch. Diese These hat Sascha Lobo schon vor zwei Jahren aufgebracht. Im November 2010 hatte ich das dann noch einmal aufgegriffen:

Bereits jetzt verlassen viele Nutzer den Facebook-Mikrokosmos nicht mehr. Der Blogger und Werbeberater Sascha Lobo spekulierte schon Anfang 2009 über den nächsten logischen Schritt von Facebook: Die Entwicklung eines echten eigenen Browsers, „der ganz nebenbei dazu führen würde, dass man die Community überhaupt nicht mehr verlässt”, erklärte Lobo damals. Aktuell sieht er Google und Facebook als Antipoden: „Google erobert das Internet technisch, also von außen – sie setzen immer neue Features auf und umzingeln damit den Nutzer. Facebook probiert das Gleiche von innen, will das Netz also sozial beherrschen. Der strategische Unterschied: Mit den Produkten von Google kommt man früher oder später auf andere Websites. Die Produkte von Facebook dringen in die Websites von innen ein – wie mit dem Like-Button – und führen hin zu Facebook. Damit es für die Seitenbetreiber attraktiv ist, Facebook in die eigene Seite einzubinden, müssen so viele Menschen wie möglich so oft wie möglich auf und in Facebook sein. So erklärt sich, warum Zuckerberg versucht, die Kommunikation insgesamt auf die eigenen Seiten zu bringen“, sagt Sascha Lobo. Für die logischen nächsten Schritte müsse man identifizieren, was die Nutzer machen, wenn sie nicht auf Facebook sind. „Diese Funktionen werden Schritt für Schritt integriert. Meine Vermutung: ein Bewertungssystem für buchstäblich alles, was im Netz ist – um gleichzeitig die Funktionen von Qype, Yelp und den vielen Bewertungscommunitys à la Holiday Check aufzusaugen“, so der Ausblick von Lobo.

Und in der Tat sind die Tendenzen zum Zentralismus fragwüdig. An diesem Punkt gebe ich Rieger recht. Ich bevorzuge allerdings einen Diskurs ohne die Attitüde der Dämonisierung. Der Spiegel-Redakteur Christian Stöcker hat das in seinem Buch „Nerd Attack“ ab Seite 236 thematisiert: Was bleibt von der kalifornischen Ideologie übrig: Die Anhänger der elektronischen Agora versprachen die Befreiung der Individuen von staatlichen Hierarchien und privaten Monopolen. Die Technologien der Freiheit würden sich aber immer mehr zu Maschinen der Herrschaft entwickeln. Dabei hatte 1994 Keven Kelly in seinem Buch „Out of Control“ postuliert, dass wir eine Ära der dezentralen Organisationen erleben werden. Auch der Futurologe Toffler irrte. Im Cyberspace werde ein Markt nach dem anderen von einem natürlichen Monopol in einen verwandelt, in dem Wettbewerb die Regel ist. Das Internet hat bis jetzt aber nur einen dominanten Einzelhändler: Amazon. Einen dominanten Markt für Musik und Filme: iTunes. Ein dominantes Auktionshaus: Ebay. Ein dominantes Social Networt: Facebook. Und eine dominante Suchmaschine: Google. Und nicht zu vergessen die Tochter Youtube als dominante Plattform für Videos. Ein freies und offenes Netz sieht anders aus. Und was passiert, wenn diese Monopolisten zu Erfüllungsgehilfen von staatlichen Überwachungs- und Konrollwünschen werden? Wie kann man also ein dezentrales, offenes und sicheres Internet schaffen unter Bewahrung der Netzneutralität?

Diese Fragen möchte ich in dieser Woche in einem Beitrag näher beleuchten: Konzepte für ein dezentrales Internet! Eure Meinung interessiert mich. Statements hier als Kommentar posten oder per Mail an: gunnareriksohn@googlemail.com.

Sympathisch unaufgeregt hat sich übrigens Richard Gutjahr mit dem Facebook-Imperium auseinandergesetzt:

„Die einen treten demonstrativ bei Facebook aus, die anderen resignieren und meinen, sie können ja ohnehin nichts bewirken. Ich bin anderer Meinung. Ich bin gerne bei Facebook – wünsche mir aber mehr Rechte im Umgang mit meinen eigenen Daten – vor allem, dass diese auch tatsächlich gelöscht werden, wenn ich das wünsche.“

Ein sehr wichtiger Punkt! Einen Lesetipp in eigener Sache: Mein Wort zum Montag: Die Oxymoron-Gesellschaft – Das Internet bedroht die deutsche Positionselite – und die reagiert vehement: Mit Verboten, Aversionen, Regulierung. Immer ängstlich, und immer an der Zeit vorbei. Passt ja auch irgendwie in die Facebook-Debatte 🙂

Auf netzpolitik.org empfiehlt man heute: Das neue Facebook: Nix wie raus hier

Die Staatstrojaner: Wo bleibt die Empörung der Datenschutz-Beamten?

Ich habe es hier ja mehrfach thematisiert: Bei der ganzen Aufregung über Datenschutzvergehen von Google, Facebook oder Apple und der Empörungsspirale der Staatsaufseher im Datenschutz sollten wir die Aktionen des Staates gegen seine Bürger nicht außen vor lassen. Wer schützt denn hier die Freiheitsrechte jedes Einzelnen? Wer schaut denn mal genauer hinter die Kulissen von BKA, LKAs und Co.? Warum betreiben die Staatsorgane so eine Geheimniskrämerei beim Einkauf ihrer Überwachungstechnik? Vielleicht wird schon mehr eingesetzt als in der Öffentlichkeit bekannt und nach der Gesetzeslage erlaubt ist? So hat die bayerische Polizei zwischen 2009 und 2010 den sogenannten Bayerntrojaner fünf Mal verwendet, erklärte das bayerische Justizministerium auf eine Anfrage der Grünen, berichtet der Fachdienst Golem und bezieht sich dabei auf den Spiegel.

Die umstrittene Spionagesoftware kam in den Städten Augsburg, Nürnberg, München und Landshut zum Einsatz. Die Polizei gab als Grund an, Straftaten wie Handel mit Betäubungs- und Arzneimitteln sowie banden- und gewerbsmäßigen Betrug aufklären zu wollen. „Mit der Spionagesoftware kann die Polizei im Grunde alle relevanten Aktivitäten auf dem Computer ausspionieren. Die Ermittlungsbehörden nutzten unterschiedliche Verfahren, um die Spionagesoftware auf einem zu untersuchenden Computer aufzuspielen. So wurde die Software unter anderem über eine Remote-Installation aufgespielt, ein anderes Mal wurde eine Hausdurchsuchung dazu missbraucht, den Bayerntrojaner zu installieren“, schreibt Golem. Dagegen ist doch Google Street View ein Kindergeburtstag.

Kürzlich hatte noch die Bundesregierung Angaben zu einer parlamentarischen Anfrage verweigert, ob der Bundestrojaner gegen Terrorverdächtige bereits eingesetzt wurde.

Wer weiß, was da jeden Tag schon praktiziert wird und erst im nachhinein durch Gestzesänderungen legitimiert werden soll.

Wir sollten uns also weniger mit den vermeintlichen Einflüsterungen personalisierter Werbung von Facebook oder Google herumschlagen, sondern mit der Bedrohung der Privatsphäre beschäftigen durch staatliches Handeln unter dem Deckmantel von Terrorgefahren und einem Cyberwar, der vor allen Dingen in den Spionage-Hirnen von Verkäufern von Sicherheitssoftware gedeiht. Glauben Contanze Kurz und Frank Rieger vom Chaos Computer Club, dass eine Stiftung Datenschutz, die sie in ihrem Buch „Die Datenfresser“ vorschlagen, hier mehr Schutz für die Gesellschaft bringt? Ist es nicht etwas kümmerlich, wenn diese Stiftung mehr Aufklärung bei den allgemeinen Geschäftsbedingungen und Datenschutzerklärungen bringt, wie es die Stiftung Warentest bei Babyschaukeln und Gartengeräten vormacht?

Wer schützt uns denn vor den illegalen Aktionen des Staates? Genau das ist der Ansatz der Post-Privacy-Debatte. Man sollte den Leuten nicht einreden, über Regeln, Gesetze und staatliche Datenschützer besser geschützt zu werden. Das ist ein trügerischer Glaube.
Das sollte man nicht gleichsetzen mit Defätismus oder Indifferenz gegenüber den Sauereien, die auch von Technologiekonzernen ausgehen. Es geht auch nicht um den Glaubenssatz: „Wenn wir alle transparent sind, wird alles schön“, so die etwas spöttische Bemerkung von Constanz Kurz in einem Interview. Das ist nicht der Punkt. Man sollte allerdings auch nicht Faktor Machbarkeit in seinen netzpolitischen Überlegungen ausklammern.

Eine Stiftung Datenschutz ist nun wirklich nur eine Beruhigungspille.

Zu den Hauptursachen für fremdschaminduzierenden und datenschutzhomöopathischen Aktionismus der sonst eher arbeits- oder erfolglosen Datenschützer ist folgender Beitrag lesenswert: IP-Adressen: Teufelszeug oder harmlos? Ein datenschutzkritischer Dreiteiler.