Das Ende von #GooglePlus: Erinnerung an eine Disputation mit Frank Schirrmacher #KarlssonvomDach – Was für eine schöne Diskussion @ChristophKappes @mspro

Fein, dass Christoph Kappes den Link zu einer legendären Disputation mit Frank Schirrmacher noch auf dem Schirm hatte.

In den Anfangstagen von Google Plus war das noch möglich. Und es war nicht nur der Reiz des Neuen und die überfällige Antwort des Suchmaschinen-Konzerns auf Facebook, die zu der Anfangseuphorie führte. Vieles im Design, im Aufbau und in der Funktionalität überzeugte mich über lange Zeit. Etwa Dienste wie Hangout on Air – also der erste Livestreaming-Dienst für Konferenzschaltungen und sehr coolen Apps, der Hannes Schleeh und mich zu unglaublich vielen Sendungen inspirierte.

In der von Christoph Kappes ausgelösten Debatte ging es um die Etablierung einer europäischen Suchmaschine, die von Schirrmacher gefordert wurde. Meine Antwort dazu kennt Ihr hier unter dem Hashtag #ChiracdesTages. Eine staatliche Initiative hielt ich damals und halte ich auch heute noch für zwecklos.

Und wie war das mit Frank Schirrmacher? Zu seinen Spitznamen zählte wohl Karlsson vom Dach, wenn die Darstellung von Michael Angele der Wahrheit entspricht. Aber so doof ist diese Analogie gar nicht. Er war nicht nur ein großer Geist, der Frank Schirrmacher, er tauchte wie Karlsson plötzlich auf und brachte Leben in die Bude. Schirrmacher war ein Meister der Debatten. Auch auf Google Plus. Hier ein kleiner Auszug der Disputation:

Gunnar Sohn
Eine Passage im Text von Schirrmacher ist doch höchst erfreulich: „Das Netz, das wird immer deutlicher, folgt den Regeln des talmudischen Kommentars, nicht denen des wissenschaftlichen. Offenbar nehmen wir Quellen, auch nachrichtliche, zunehmend als Glaubensinhalte wahr, nicht mehr als Fakten. Es könnte so sein, aber es könnte auch anders sein. Die alltägliche Wissenssozialisation beruht heute auf der Annahme: Die Fakten stimmen nicht mehr, jedenfalls stimmen sie nicht sehr lange – nicht deshalb, weil sie gelogen wären (auch das kommt vor), sondern weil sie schon in der nächsten Minute ganz anders sein können. Das Netz – in seinem gegenwärtigen Stadium – verhandelt deshalb vor allem das, was die Talmudisten ‚Lehrmeinungen‘ nannten – Meinungen, nicht Orthodoxien. Das führt allerdings oft dazu, dass sich auf den labyrinthischen Wegen der Deutungen, des unvollständigen Lesens (etwa der Pressemitteilung, wie im vorliegenden Fall, statt des Textes) die Ursprungsquelle bis zur Unkenntlichkeit entstellt.“ Die Schlussfolgerung im letzten Satz halte ich für falsch. Richtig beobachtet ist die sinkende Relevanz der Orthodoxien. Da braucht man nicht zum Talmud greifen. Niklas Luhmann reicht auch: Mit der Computerkommunikation, so Luhmann, wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert und ersetzt durch die Unbekanntheit der Quelle.

Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen. Die Art und Weise, wie Wissen in den Computer kommt, lässt sich zwar schwer überprüfen. Sie lässt sich aber jedenfalls nicht mehr in Autorität ummünzen. Und genau das treibt einige Denker, Einpeitscher und Debatten-Dompteure an die Decke. Man braucht das Internet nicht überhöhen oder kultisch in Web 2.0-Ideologie gießen. Man muss das Internet auch nicht heilig sprechen. Wo die kulturellen Katastrophen der Computer-Kommunikation enden werden, kann kaum jemand vorhersehen oder beeinflussen. Das macht das Ganze ja so reizvoll. Das Problem des unvollständigen oder kursorischen Lesens kann vom Luhmann-Szenario nicht abgeleitet werden. Das Problem hatte schon Herder. Jeder Leser ist eben auch ein Nicht-Leser. Herder beschreibt sich als trockener Gelehrter, als ein totes, künstliches System von Wissensbeständen. Er selbst sei „ein Tinenfaß von gelehrter Schriftstellerei“. Mit 24 ist Herder so angefüllt von Wissen, dass er dieses als Ballast beklagt.

Er entwickelt deshalb eine Kulturtechnik der kursorischen Lektüre. Er wird zum Läufer, zum Cursor, der im virtuellen Raum der Gelehrtenbibliothek zwischen Texten durcheilt und in dieser schnellen Bewegung neue Querverbindungen schafft. Es sei ein methodisches Verfahren, das ihm die Lizenz zum Flüchtigen gibt. In der so genannten „percursio“- im Durchlauf – darf aufgezählt und angehäuft werden, ohne dass es jeweils einer expliziten Behandlung der einzelnen Elemente bedarf. Herder praktiziert die gelehrte Lizenz, Materialmengen „aufs Geratewohl“ zu durcheilen. Die richtige Ordnung ist dabei zweitrangig. Die Sylvae wird definiert als Sammlung von schnell niedergeschriebenen Texten. Man schreibt nicht akademisch korrekt oder pedantisch genau, sondern aus dem Stegreif. Man formuliert aus dem Schwung heraus. Seine Lektüre ist nicht mehr festgelegt auf einen ursprünglichen oder autoritätsfixierten Wortlaut. Herders Suchläufe kennen keinen Abschluss. Das Universalarchiv ist uneinholbar. Eine beständige Lektüre der Menschheitsschriften ist unmöglich. „Alles“ ist nicht zu lesen, zu kennen, zu wissen. Es reicht nur zu Verweisen und Fundorten. Entscheidend ist die Zirkulation der Daten, der Datenstrom, der keinen Anfang und kein Ende hat, der neue Routen und Entdeckungen zulässt. Kanonische Wissensbestände müssen durch intelligente Suchroutinen ersetzt werden.

Und dann landen wir wieder bei Google und den Warnungen von Schirrmacher, die er schon in seinem Buch „Payback“ in etwas anderer Form artikuliert hat. Die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es ist die Unterwelt der Benutzeroberfläche, die den FAZ-Herausgeber wohl weiter umtreibt. Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. Am Ende mündet das Ganze in Maschinen-Paternalismus – das kann allerdings unter privater und auch staatlicher Regie eintreten. Selbst unter dem Regime einer europäischen Suchmaschine. Mich würde ein Blick in den Maschinenraum von Google auch brennend interessieren. Vielleicht eher eine Aufgabe für Wikileaks!

Frank Schirrmacher
Gunnar Sohn et al, leider in Eile:

  1. Wir wissen n i c h t was Google weiss. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe. Das aber ist das Wissen des 21.Jhrdts.
  2. „Alles“ ist nicht zu lesen, zu kennen, zu wissen.“ Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, das der imaginäre Vertrag, an den alle glauben, besagt das „alles“ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man exisitert nicht, wenn man nicht im Netz exisitert, hiess das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteiungen entsenden.

Gunnar Sohn
Frank Schirrmacher –

  1. Das ist doch profan. Natürlich wissen wir nicht, was die Mountain View-Boys wissen. Sonst könnten wir direkt morgen ein Google Plus Plus gründen. Die wären schön blöd, ihre Betriebsgeheimnisse zu lüften. Die Problematik entsteht in der Tat, wenn Menschen über Maschinen und Algorithmen anfangen, zwischen gut und böse, richtig und falsch zu befinden. 2. Ihre Gegenstrategie einer europäischen Suchmaschine kann genauso in die Hose gehen und zu Verwerfungen führen. Entscheidend ist die Vielfalt der Möglichkeiten, Wissen zu generieren und selber zu publizieren. Wenn Sie nun insinuieren, hier gäbe es nur drei amerikanische Konzerne, die das Netzgeschäft dominieren, dann müssen Sie aber auch erwähnen, dass die großen Drei sich bis auf das Messer bekämpfen. Da gibt es keinen Gleichklang. Im Social Web erschien bis vor drei Wochen Google noch als der große Verlierer und man sprach von der Dominanz des Social Graph, der wichtiger sei als die Maschinen-Intelligenz von Google. Zur Zeit schaut Zuckerberg ziemlich blöd aus der Wäsche. Alles kann sich sehr schnell drehen. Entscheidend ist wohl die Tatsache, dass sich im Netz dauerhaft kein Monolith etablieren kann.

Frank Schirrmacher
ad Gunnar Sohn – Nein, nicht profan, sondern, um im Bild zu bleiben, sakral. Sie reden vom materiellen Geschäftsgeheimnis von Google. In der Tat: wie wichtig das ist zeigt der Patentthriller um die Erfindung des Telefons. In der Tat: das ist profan.

Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörter gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das ganze dann als sein Privateigentum weiterverkauft hätte. Wenn das:

http://online.wsj.com/article/SB10001424052748704547604576263261679848814.html

schon möglich ist, ohne verbale Kommunikation und bei nur 2000 Menschen, was ist dann heute insgesamt möglich? Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.

Martin Lindner
zum nebenpunkt mit der europäischen suchmaschine: wenn ich +Frank Schirrmacher s kommentare hier richtig verstehe, will er gar nicht so sehr die eu-konkurrenz gegen us-google, sondern eine art CERN-forschungszentrum für semantische algorithmen, damit „wir“ (wer?) uns hier auch mit diesen großartigen weltwissenserkenntnissen beschäftigen können. das verstehe ich schon. es gibt bloß vermutlich keinen weg dahin zu kommen: jedenfalls ganz sicher nicht, indem die EU-forschungsgemeinde sich selbst noch ein monsterprojekt genehmigt. (und auch google entstand ja nicht, weil das pentagon große forschungsgelder investiert hat.)

Michael Seemann
Was für eine schöne Diskussion!

Mal jenseits des der politischen Frage, nach dem Besitz der Infrastruktur (dazu gleich), fehlt mir ein wesentlicher Aspekt bei der Frage nach dem Gedächtnisses: Warum tun wir das? Denn wir tun es ja ganz offensichtlich, also hat es ja einen gewissen Sinn, einen Nutzen.

Jan Assmann hatte für das kulturelle Gedächtnis bereits gezeigt, dass im Zuge der Erfindung der Schrift eine gewisse Liberalisierung des Umgangs der Kultur vollzogen hat. So war die kulturelle Identität der Juden recht früh „portabel“, weil sie in Schrift fixiert war und nicht mehr an rituelle Gedenkorte, wie noch bei den Ägyptern.

Groys wiederum zeigt, wie sich der Kunstbegriff im Laufe der Jahrhunderte von einem Reproduktiven, eng gefassten hin zu einem auf das Neue ausgerichteten entwickelt. Seine These: je besser wir Informationen und Wissen zugänglich halten (Mächtigkeit und Accessibility von Archivtechnik), desto mehr kapriziert sich Kultur auf die Erschaffung von neuem und dem Fortschritt – auf Irritation des Bestehenden, sozusagen.

Ich als neophiler Mensch begrüße das sich zum Allarchiv wandelnde Internet und weine den dadurch obsolet werdenden Stützen der repititiven – das heißt sich auf Tradition berufenden – Kulturtechniken des Archivierens keine Träne nach.

Natürlich ist es eine politische Frage, wer die Infrastruktur für diese Technik bereitstellt, das will ich gar nicht leugnen. Aber erstens sehe ich Googles Übermacht da nicht so extrem, sondern durchaus austauschbar und zweitens glaube ich, dass die konkurrierenden Strukturen (z.B. Staat) keinerlei vernünftige Alternative bereitstellt. Weder eine wünschenswerte aber vor allem aber keine effektive.

Es gibt viele Szenarien, wie sich das politisch austariert. Aber keines davon wird ein Staat vs. Google beinhalten, m.E.

Bis dahin halte ich es für wichtig den Infrastrukturanbietern so wenig exklusives Wissen wir möglich zu erlauben. Nur Wissen, das von allen indexierbar und analysierbar ist, sollten die großen Player bekommen. Das heißt: nieder mit den Privacyeinstellungen!

Christoph Kappes könnte doch die gesamte Debatte auf seinem Blog dokumentieren, sonst geht das verloren. Wäre schade.

Zu den Gründen für den Niedergang von Google Plus habe ich heute früh kurz mit Stefan Pfeiffer in unserem Format #9vor9 gesprochen:

Gegen das Sakrale hilft nur Aufklärung – Erinnerung an eine Disputation mit Frank Schirrmacher

Schirrmacher 001

Christoph Kappes hat den FAZ-Herausgeber Frank Schirrmacher in einem lesenswerten Nachruf als Großmeister der Debatten bezeichnet. Über die Wesenszüge von Schirrmacher kann ich nichts schreiben. Ich habe ihn leider nie persönlich kennengelernt. Nur ein einziges Mal kreuzten wir auf Google Plus kurz die Klingen, als auf dieser Plattform noch geistreiche Disputationen geführt wurden. Das war damals wohl der Charme des Neuen, der zu ungewöhnlichen virtuellen Begegnungen führte. So war ich sehr überrascht, als Schirrmacher auf meine Postings reagierte:

Es ging um die Frage, ob uns das Internet dümmer oder schlauer macht, ob die Dominanz des Digitalen zu negativen neuronalen Effekten führt oder nicht? Seine Thesen über bevorstehende Gedächtnis-Deformationen durch die Alleinherrschaft des Suchmaschinen-Giganten Google wertete ich als Fortsetzung der Thesen von Schirrmacher, die er in seinem Buch „Payback“ ausgebreitet hat: Es ging um die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es war die Unterwelt der Benutzeroberfläche, die Schirrmacher umtrieb: Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. In dem interessanten Google Plus-Gespräch ist Schirrmacher dann noch etwas deutlicher geworden.

„Gunnar Sohn et al, leider in Eile: 1. Wir wissen nicht was Google weiß. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe? Das aber ist das Wissen des 21.Jahrhunderts. 2. ‚Alles‘ ist nicht zu lesen, zu kennen, zu wissen‘. Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, dass der imaginäre Vertrag, an den alle glauben, besagt, dass ‚alles‘ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man existiert nicht, wenn man nicht im Netz existiert, hieß das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteilungen entsenden.“

Er verwies auf einen Wissenschaftsbeitrag im Wall Street Journal, der dokumentiert, wie perfekt unsere digitalen Lebensspuren schon heute analysiert werden können. Wenn das schon möglich sei, ohne verbale Kommunikation und bei nur 2000 Menschen, was sei dann heute insgesamt möglich?

“Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.” Und da stoßen wir wohl zum Kern der Schirrmacher-Thesen: „Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörter gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das Ganze dann als sein Privateigentum weiterverkauft hätte.“

Seine Einwände konnte ich nicht teilen, aber sie waren stets eine Herausforderung für den eigenen Intellekt. Man musste sich zusammenreißen, um in solchen Kontroversen nicht unterzugehen.

Meine Replik veröffentlichte ich im Debattenmagazin „The European“: Ob sich unser Bewusstsein verändert und wir zu Abziehbildern von Computerprogrammen degradiert werden, ist ein höchst unterhaltsamer Ansatz für Kinofilme. Das hat eher den Charakter eines „Wrestling-Events“, wie es der Soziologe Gerhard Schulze ausdrückte. Statt Inhalten werden nur Etikettierungen ausgetauscht. Die einen sind Panikmacher, die anderen Zyniker. Man geht zur Tagesordnung über und sucht sich einen neuen Spielplatz, um „Alarm, Alarm“ zu brüllen.

„Es ist ja nicht zu bestreiten, dass die Maschinen in vielen Teildisziplinen stärker und besser sind als Menschen. Angefangen bei der Muskelkraft. Heute käme niemand auf den Gedanken, mit einem Industrie-Roboter sich im Armdrücken zu messen.“ So zitierte ich den Systemingenieur Bernd Stahl von Nash Technologies.

Beim Schach oder bei Quizsendungen würde es ähnlich aussehen. Gegen IBM-Watson sei kein Kraut gewachsen.

„Eins darf allerdings in der Schirrmacher-Debatte aber nicht verdrängt werden. Die Petabytes lösen nicht das semantische Problem, sondern sind nur die Hardware-Basis-Voraussetzungen. Kann ein Computer prinzipiell zur Sprache kommen, oder bleibt er nur bestenfalls ein semantischer Blechtrottel? Ob das Internet vergesslich oder dumm macht, hängt nicht mit dem Internet zusammen, sondern liegt an dem, der es benutzt. Hier wabert viel Spekulatives und man begibt sich auf wackeligen Grund. Was allerdings wichtig ist, sind dezentrale Lösungen im Netz. Vielleicht braucht man eine Gewaltenteilung des Wissens, so wie wir es aus der Demokratietheorie kennen und umsetzen“, erläutert der Netzwerkexperte Stahl.

Notwendiger wäre eine breitere Debatte über die politische Netzneutralität von Infrastrukturanbietern wie Google, Apple oder Facebook. Also nicht die Frage nach dem gleichberechtigten Transport von Datenpaketen, sondern die Zurückhaltung von Konzernen in politischen, moralischen und ethischen Angelegenheiten. Was passiert, wenn digitale Existenzen von Google und Co. einfach ausgelöscht werden?

Hier lag Schirrmacher richtig:

„Man existiert nicht, wenn man nicht im Netz existiert“.

Seine intellektuellen Einwürfe werden mir fehlen, denn er animierte mich zur Klarheit im Denken – auch oder besonders in der Formulierung einer Gegenposition.

Siehe auch:

Zum Tode von Frank Schirrmacher: Neuland.

Wer zu Open Data nicht bereit ist, sollte von Big Data schweigen #Datability #Cebit #Systemtheorie #Schirrmacher

Automatisierte Kontrollgesellschaft?
Automatisierte Kontrollgesellschaft?

„We don’t know how the human brain works.“ Mit diesem Satz macht Patrick Breitenbach auf einen Artikel aufmerksam, der sich mit den Thesen von Kurzweil beschäftigt: „Why Ray Kurzweil is Wrong: Computers Won’t Be Smarter Than Us Anytime Soon“.

Es sind letztlich völlig überdrehte, anmaßende und werbegetriebene Thesen, die man mit Big Data, Künstliche Intelligenz und Neurowissenschaften verbindet. Das wirkt sich vielleicht positiv auf den Verkauf von Büchern über das Ende des Zufalls aus oder über Neuro-Leadership, Neuro-Marketing und Maschinen-Intelligenz. Es ist auch eine beliebte Methode, um milliardenschwere Forschungsbudgets und Beratungsaufträge zu kapern, wie beim Human Brain Project. Beim öffentlichen Diskurs sollte man die wirtschaftlichen Interessen dieser Akteure nicht aus den Augen verlieren. Siehe dazu auch: „Die große Neuro-Show – Was wurde aus den Verheißungen der Hirnforschung? Wissenschaftler ziehen Bilanz. Sie fällt dürftig aus“.

Die Systeme können nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, System-Ingenieurs, Mathematikers, Software-Entwicklers, Hirnforschers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck.

„Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert….also die Logik bringt ja gar nichts Neues….die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können.“ In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen.

Heinz von Foerster
Heinz von Foerster

Wenn sich auf diesem wackligen Fundament die Big Data-Neuroklecks-KI-Hohepriester aufschwingen, das Leben anderer Menschen zu beeinflussen, zu kontrollieren, zu steuern und zu bestimmen, müssen sie ihre Ableitungen offenlegen. An diesem Punkt stimme ich FAZ-Herausgeber Frank Schirrmacher zu, der fordert, dass die offene Gesellschaft neue Freunde braucht.

Er beschreibt in seinem FAZ-Leitartikel den Fall einer Amazon-Lageristin in Allentown, die nach mehreren 11-Stunden-Arbeitstagen eine automatisierte SMS des „employee-tagging“- Systems bekam. Botschaft: Sie sei „mehrere Minuten“ unproduktiv gewesen und wurde kurz darauf gefeuert. Droht hier ein neuer Optimierungswahn, der in den Pionierzeiten des Industriekapitalismus von Henry Ford etabliert wurde?

„Die Erkenntnis, dass die IT-Industrie Teil der wohl bedeutendsten gesellschaftlichen Debatte sein muss, nimmt auch die jetzt beginnende Cebit ernst, die weltgrößte Computermesse. Unter dem Titel ‚Datability‘ – dem ’nachhaltigen‘ Umgang mit Daten – will sie sich, aufgeschreckt vor allem durch die Snowden-Enthüllungen, an einem Diskurs beteiligen, der sich den Chancen und den Risiken der digitalen Moderne widmet. Schon das ist ein Fortschritt. Es signalisiert, dass die Branche verstanden hat, dass die Zeiten vorbei sind, in denen technische Geräte die entsprechenden Sozialtechniken gleichsam mitproduzieren und einfordern – unter Ausschaltung jeder politischen Willensbildung“, schreibt Schirrmacher.

Das sei eine politische Aufgabe, keine technologische. „Anders gesagt: man kann die Festlegung gesellschaftlicher und politischer Normen nicht einer Mathematik überlassen, die systematisch Kausalitäten und Korrelationen erzeugt, deren Effekte wir spüren, aber deren Zustandekommen wir nicht nachvollziehen können.“

Diesen Satz sollten sich die Richter des Bundesgerichtshofs hinter die Ohren kleben. Stichwort: Schufa-Urteil.

Wer eine falsche Stromrechnung bekomme, der rechnet nach. Wer eine falsche Rechnung über seine Lebens- und Karrierechancen, seine Talente, seine Effizienz und Kondition, seine Gesundheitsprognose oder seine Kreditwürdigkeit bekommt, der könne nur noch glauben.

„Heute gelten die Algorithmen, die beispielsweise die Reputation oder Kreditwürdigkeit von Menschen berechnen, als Geschäftsgeheimnis“, so Schirrmacher.

Wer nicht nur Stauwarnungen ausspricht, sondern auch das Wohl und Wehe von einzelnen Menschen beeinträchtigt und zu Open Data nicht bereit ist, sollte Big Data nicht anwenden dürfen. Die Entwickler von diesen Systemen werden ohne politische Regeln dazu nicht freiwillig bereit sein, wie mir ein Informatiker klar zu verstehen gab. Er habe eine Software für Kliniken entwickelt, um „gute“ von „schlechten“ Patienten zu trennen. Das Auswertungstool soll aufzeigen, wo Ärzte Geld verballern. Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern. Wenn dieser Mann dazu nicht bereit ist, muss er mit rechtsstaatlichen Mitteln dazu gezwungen werden, wenn die betroffenen Patienten es verlangen.

Siehe auch die Rede von Google-Manager Eric Schmidt auf der Tech-Konferenz SXSW und sein merkwürdiges Verständnis von Selbstzensur.

Entlarvung der Neo-Kybernetiker.

Liebwerteste Gichtlinge der Internet-Konzerne, wo bleibt der ehrliche Datenpakt mit der Netzgesellschaft?

Idioten-Systeme, Daten-Diät und vorauseilender Maschinen-Gehorsam

Menschliche Maschinen?
Menschliche Maschinen?

Bei den Debatten über die Verführungskraft von Algorithmen, Big Data und Neuro-Kleckskunde-Propaganda fällt mir immer wieder auf, dass Kritiker und Gurus im selben Teich der Übertreibungen schwimmen.

Dahinter stecken Träume, Horrorszenarien und schlichtweg Idiotie, wie bei den Pionieren der Künstlichen Intelligenz, die noch nicht einmal in der Lage sind, künstliche Gehirne von Kleinkrebsen nachzubauen oder gar zu verstehen. Biologen versuchen das nun seit 30 Jahren – ohne Erfolg. Das Keinstgehirn des Krabbeltierchens besteht gerade mal aus 30 Millionen Neuronen und kontrolliert den Verdauungstrakt. Man hat bis heute nicht verstanden, wie das funktioniert. Ähnliches werden wir wohl beim milliardenschweren Human Brain Projekt erleben. Humanoide Maschinen sind Hirngespinste von Science Fiction-Autoren, Wissenschaftlern und Journalisten, die einem mechanistischem Weltbild hinterherlaufen, so die Reaktion von Patrick Breitenbach auf die Vorschläge von Hans Magnus Enzensberger und FAZ-Herausgeber Frank Schirrmacher zur Daten-Diät im Internet. Sie bestätigen im Grunde die verkaufsfördernde These der Big Data-Gurus, der Mensch lasse sich zur Maschine degradieren und könne wie eine Maschine gesteuert werden. Bei Enzensberger werte ich die Intervention als humoreske Übertreibung, auch ohne die nachgeschobene Erläuterung von Schirrmacher.

In diesen Diskursen über die vermeintliche Diktatur von Algorithmen und Big Data-Systemen gibt es die Tendenz zur Personifizierung von Technik. Mensch und Maschine stehen sich in einem Teufelspakt gegenüber.

„Wir nennen das die Animation des Toten. Menschen gehen offensichtlich viel lieber und leichter mit Lebendigen um als mit Toten. Wenn ich mir meinen Dosenöffner, der gerade abgerutscht ist und mich verletzt hat, als beseelt denke, kann ich ihn beschimpfen. ‚Du blöder Dosenöffner. Irgendwann schmeiß ich Dich in den Müll‘. Das macht man mit seinem Laptop, mit seinem Auto und generell mit Technik. Dabei weiß jeder, dass die toten Dinge mich gar nicht verstehen können“, so der Organisationswissenschaftler Gehard Wohland.

In der Psychologie nennt man das Projektion. Die Maschinenwelt wird mit Seele aufgeladen, um sich emotional zu entlasten.

„Das ist eine enorme Fähigkeit von Menschen. Wenn man aber die tote Maschinenwelt verstehen will, wie sie zusammenhängt und funktioniert, dann darf man sie nicht beseelen. Sonst kommt im Wechselspiel von Mensch und Maschine zu viel Toleranz ins Spiel. Ich höre auf zu denken. Das gilt auch für die Moralisierer, die der Technik böse Absichten unterstellen. Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Die Maschine ist aber keine Person. Wenn ich den Stecker ziehe, tut sie gar nichts mehr. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt. Niemand kann mich daran hindern, einen Algorithmus zu programmieren, der vielleicht besser ist als das, was Google und Facebook auf den Markt bringen. Das ist ein sinnvoller Standpunkt. Wer von bösen, manipulativen und bedrohlichen Algorithmen redet, steht sich selber im Weg, zu klaren Erkenntnissen zu kommen“, sagt Wohland.

Eine Simplifizierung der Maschinenwelt bringe uns nicht weiter. Da komme nur Unsinn heraus. Generell sieht Wohland die Tendenz kritisch, Technik zu überhöhen – im negativen und positiven. Es gebe immer zwei Tendenzen:

„Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert der Experte für Systemtheorie.

Sein Rat: In jeder Organisation sollte man nach diesen Übertreibungen suchen. Wer sie findet, besitzt wertvolle Potenziale, um sich zu verbessern.

„Vom Controlling wird verlangt, eindeutige Prognosen für die Zukunft zu liefern. Mit einem Plan, einem Budget und allem, was damit zusammenhängt. Dann tun die Controller das, was man von ihnen erhofft. Aber die Controller nicht natürlich die ersten, die sehen, dass das alles nicht zusammenpasst. Kein Plan tritt tatsächlich ein. Die Zeiten sind längst vorbei, die komplexen Vorgänge in Wirtschaft und Gesellschaft prognostizieren zu können. Wir nennen das oft Basar- oder Theaterkommunikation. Jeder spielt eine Rolle. Jeder weiß, dass er eigentlich Unsinn redet. Und der Gesprächspartner weiß es auch. Also passiert nichts Besonderes. Es ist wie bei des Kaisers neuen Kleidern. Es darf keiner kommen und das Ganze tatsächlich so beschreiben, wie es ist – der fliegt in der Regel raus. Der stört das System“, weiß Wohland.

Wir sollten uns mehr mit den niederen Absichten der Daten-Clowns auseinandersetzen und politisch sowie juristisch beantworten, statt im voreilenden Gehorsam mit einer völlig abstrusen Daten-Askese zu reagieren. System-Störenfriede müssen massenweise Daten produzieren und die vermeintlich schlauen Analysten von NSA bis Schufa in den Wahnsinn treiben. Da wäre der großartige Autor Enzensberger gefragt – also seine anarchische Ader aus der Kursbuch-Zeit 🙂

Mehr dazu in meiner Mittwochskolumne für das Debattenmagazin „The European“.

Siehe auch:

Sammelt mehr Daten!

Die Absichten von Enzensberger wertet Don Dahlmann durchaus wohlwollend, kommt aber zu einer ähnlichen Analyse wie Wohland:

„Er macht es sich ein wenig einfach, wenn er die Schuld bei der Technologie sucht und nicht etwa im Versagen der Politik bzw. des Liberalismus, der Sozialdemokratie (damit meine ich nicht die Partei) und der ethischen Verantwortung der Wirtschaft. Er könnte auf Parteien, Wahlsysteme usw. einprügeln, aber er hat sich die Technologie ausgesucht.“

Und eine Analyse von Patrick Breitenbach: Enzensberger und Schirrmacher wider die selbstbestimmte Medienkompetenz.

Gamification der Politik – aber ohne Game Master!

Verblöden uns Games?

Nach dem postideologischen Kater der Systemkrise namens Finanzkapitalismus und dem Einsturz des Utopieglaubens bleibt nach Auffassung von Frank Rieger und Fefe nur noch Zynismus und Gamification übrig. Das äußerten sie in einem gut zweitstündigen Gespräch mit dem FAZ-Herausgeber Frank Schirrmacher. Abzuhören in ihrer Alternativlos-Podcast-Reihe.

Digitale Artefakte werden benutzt, um unsere Soziotope zu gestalten, wenn es etwa um Reputation oder Wissensmanagement geht. „Dabei müssen wir darauf achten, nicht mehr die Rolle eines Game Masters hinzunehmen wie bei Google, der die Regeln bestimmt. Wir müssen verstehen, wie diese Regeln funktionieren“, so Rieger. Und ich würde ergänzen, wie man sie brechen kann.

Als besonders fragwürdig werden in dem Podcast Regeln gewertet, die von Algorithmen bestimmt werden wie beim Google-Spiel Ingress, das zumindest von Frank Rieger bis zum finalen Level 8 durchgespielt wurde.

Es heißt nur, hier hast Du das Programm, viel Spaß dabei. „Regeländerungen kommen ausschließlich über Software Updates und plötzlich funktioniert Deine Welt anders“, stellt Rieger fest.

Er wertet das als Vorboten für soziale Interaktion und Politikgestaltung. Wenn von der Gamification der realen Welt gesprochen werde, könnte man von der „fucking“ Software Version abhängig werden.

Auf der Strecke bleiben Möglichkeiten der Selbstorganisation, die es allerdings im klassischen Industriekapitalismus nie gab, wie Wolf Lotter sehr eindrucksvoll auf der republica skizzierte.

Fefe machte dann einen recht altväterlichen Einwurf über „die“ Jugend und über „die“ Kinder, die mit Computerspielen aufgewachsen seien, die ihnen vorschreiben, was sie tun dürfen und was nicht. Gamification mache die Masse träge und würde sie indoktrinieren (klingt ein wenig nach Manfred Spitzer). Und die nachwachsende Generation sei eben nach diesen Maßstäben sozialisiert worden. Klingt ein wenig nach Verschwörungstheorie – aber das ist ja das Spezialgebiet von Fefe.

Für wichtig halte ich die Forderung von Rieger, dieses Prinzip des Game Masters, der die Regeln setzt und quasi Gott spielt, zu durchbrechen.

Was haltet ihr von diesen Thesen? Mit der „nachwachsenden“ Generation werde ich noch eine gesonderte Hangout-Runde machen über die Vorhaltungen von Fefe. Spätestens auf der Gamescom in Köln.

Was ich übrigens nach meiner Rückkehr von der republica in Berlin immer schon mal sagen wollte:

Tegel erhalten!