Wie unschuldig sind Algorithmen? #D2030 #FutureHubs @FuturICT

Sind Algorithmen unschuldig und neutral, fragen sich Anna-Verena Nosthoff und Felix Maschewski in einem Gastbeitrag für die NZZ und zitieren Mark Zuckerberg, der bei der Debatte über die Verbreitung von Fake News erklärte, es sei schlicht „verrückt“ anzunehmen, seine Firma Facebook habe die US-Wahl beeinflusst, sie stelle nur eine „neutrale Plattform“ dar:

„Auch der CEO der britischen Datenfirma Cambridge Analytica (CA), Alexander Nix, betont die Vorurteilslosigkeit der Technik – zuletzt in seinem Vortrag ‚From Mad Men to Math Men'“, schreiben die Autoren.

Erwähnt wird die These der Mathematikerin Cathy O’Neil: Algorithmen seien „in Code eingebettete Meinungen“. Sie repräsentierten die Werte ihrer Programmierer, operierten per se nicht neutral, würden daher häufig Vorurteile reproduzieren – schliesslich werden die ‚Problemlöser‘ selbst zum Problem.

Ähnlich sieht es der KI-Experte Stefan Holtel.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel.

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, fordert Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden.

„Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Auf der Berliner D2030 Zukunftskonferenz am 6. und 7. Juli wird dieser Aspekt sicherlich zur Sprache kommen.

Siehe auch: Sozialingenieure und ihre Steuerungsinstrumente für eine „wohlwollende“ Diktatur

@DirkHelbing über Datendiktatur oder Mitmachgesellschaft?

Flache Hierarchien ohne Freiheitsgewinn #AufstandderKreativen

Banner-Kreation von Isabel Morales Rey
Banner-Kreation von Isabel Morales Rey

Seit Jahrzehnten wird uns von Beratern sowie selbst ernannten Vordenkern aus Politik und Wirtschaft eingehämmert, dass wir in einer „nachindustriellen Gesellschaft“ leben. In den achtziger Jahren kam die „Informationsgesellschaft“ auf und seit den neunziger Jahren sprechen wir von der „Netzwerkgesellschaft“. So weit, so gut. Aber was steckt ideologisch dahinter? „Gerade in England und den USA wurde die ökonomische Transformation in den achtziger Jahren nachdrücklich und mit politischem Kalkül (Schwächung der Gewerkschaften) forciert„, schreibt Felix Stalder in seinem neuen Buch „Kultur der Digitalität“.

Was als emanzipative Bewegung begann, endete bei der Zerschlagung des Wohlfahrtsstaates

Was dann als Kritik am Wertesystem der bürokratisch-bürgerlichen Gesellschaft in den späten siebziger Jahren über die Neuen Sozialen Bewegungen forciert wurde, reduzierten neoliberale Strömungen auf eine Demontage des Wohlfahrtsstaates. „Mit völlig verschiedenen Motiven priesen beide Autonomie und Spontanität und lehnten die Disziplin in der hierarchischen Organisation ab. Anstatt Anpassung an vorgegebene Rollen verlangten sie Individualität und Diversität. Experimente, Offenheit für Neues, Flexibilität und Veränderung wurden nun als positiv besetzte Grundwerte etabliert. Beide Bewegungen operierten mit dem attraktiven Begriff der persönlichen Freiheit, wobei die Neuen Sozialen Bewegungen diesen in einem sozialen Sinn als Freiheit der Persönlichkeitsentfaltung und des Zusammenlebens verstanden, die neoliberale Politik ihn hingegen in einem ökonomischen Sinn als Freiheit des Marktes begriff“, so Stalder.

Ein Heer von Managementberatern, Umstrukturierungsexperten und neuen Unternehmern plädiert zwar für flache Hierarchien, Eigenverantwortlichkeit, Innovation und Flexibilität – ohne die Machtstatik auch nur in Ansätzen anzutasten.

„Größere Unternehmen wurden restrukturiert, so dass sich ganze Abteilungen als eigenständige ‚profit centers‘ wiederfanden. Dies geschah unter der Maßgabe, mehr Spielraum zu ermöglichen und den Unternehmergeist auf allen Ebenen zur Entfaltung zu bringen mit dem Ziel, die Wertschöpfung zu erhöhen und dem Management bessere Durchgriffsmöglichkeiten an die Hand zu geben“, schreibt Stalder.

Sozialstaatliche Absicherung Einzelner hält man für überholt. Kollektive Institutionen, die für eine gewisse Stabilität in der Lebensführung sorgen können, gelten als bürokratische Hindernisse. Um politische Freiheit, soziale Verantwortung und Autonomie geht es den Flexibilisierungsideologen ganz und gar nicht. Sie wollen mehr Spielraum für ihre Nasenring-Systeme bekommen.

Indirekte Steuerung

Sie wollen frei und anarchisch ihren Geschäften nachgehen, ohne von öffentlich dokumentierten Regeln, Gesetzen und demokratisch legitimierten Institutionen gestört zu werden. Sie wollen ihren kybernetischen Steuerungsobsessionen freien Lauf geben. Also das, was als digitaler Darwinismus durchs Netz wabert. Man konzipiert den Menschen – analog zu Tieren, Pflanzen und Maschinen – als einen Organismus, der auf Reize aus seiner Umwelt reagiert. Der Verstand spielt in diesem Modell keine Rolle, relevant ist einzig das Verhalten.

„Und dieses Verhalten, so die kybernetische Hypothese, kann programmiert werden. Nicht durch direkten Zugriff auf den Menschen (der wird als undruchdringbare Black Box konzipiert), sondern indirekt, durch die Veränderung der Umwelt, mit der Organismen und Maschinen via Feedback gekoppelt sind. Diese Eingriffe sind meist so subtil, dass sie für den Einzelnen nicht wahrnehmbar sind, weil es nirgends eine Grundlinie gibt, gegen die man die Neigung des ‚Bodens der Tatsachen‘ feststellen könnte“, erläutert Stalder.

Libertär ohne Liberalität

Für den Einzelnen und im Einzelfall seien die Effekte oft minimal. Aber aggregiert und über längere Zeiträume können die Effekte substantiell sein, ohne dass sie deswegen für den Einzelnen feststellbar wären. Es sind kaum bemerbare Anstubsverfahren, mit denen die Planungsfetischisten vorgehen. Dahinter steht ein libertärer Paternalismus, der die scheinbare individuelle Wahlfreiheit mit einer nicht sichtbaren Autoritätsfigur verbindet. Das Ideal ist die „freiheitliche Bevormundung“, die man im Arbeitsleben jeden Tag erlebt.

„Ganz im Geiste der Kybernetik und kompatibel mit den Strukturen der Postdemokratie sollen die Menschen über die Veränderung der Umgebung in die von Experten festgelegte Richtung bewegt werden, während sie gleichzeitig den Eindruck erhalten, frei und eigenverantwortlich zu handeln“, bemerkt Stalder.

Das wird mittlerweile auch in der Politik eingesetzt, etwa durch das von US-Präsident Obama geschaffene Office of Information and Regulatory Affairs unter der Leitung von Cass Sunstein. In Großbritannien nennt sich das Gremium „Behavioural Insights Team“. Durchbrechen kann man das nur durch die Offenlegung der Mechanismen und Ziele, die hinter den Nasenring-Systemen stecken.

All das wollen wir in einer netzökonomischen Runde am 8. August diskutieren.

Google und Facebook: Hört auf mit Eurer Friss-oder-stirb-Geschäftspolitik

Ich bin ja kein Freund der Kindermädchen-Ideologie unserer staatlichen Datenschützer, die mich ohne meine Zustimmung vor dem Datenausverkauf retten wollen und sich heldenhaft gegen Google, Facebook und Co. positionieren. Das ist die eine Seite der Medaille. Was ich aber vorgestern schon über die Vorteile eines sanften Paternalismus geschrieben habe, sollten sich auch die amerikanischen Internet-Größen an die Nase kleben. Es muss zumindest eine Opt out-Funktion geben. Wenn ich einer Sache widerspreche, muss das vom Anbieter respektiert werden und nicht mit Löschung oder Ignoranz bestraft werden. Friss oder stirb – so kann man mit den Nutzern nicht umgehen. Diese Mentalität spielt den Datenschützern in die Karten, mit härteren Interventionen zu reagieren. Besser wäre es, Abweichungen vom Standardprogramm einzuräumen. Das gilt beispielsweise für die neue Datenschutz-Erklärung von Google:

„Die neue Erklärung tritt am 1. März in Kraft. Ohne ihr zuzustimmen, wird man anmeldepflichtige Google-Dienste nicht mehr nutzen können. Die einzige Alternative ist, sie abzulehnen und sein Google-Konto zu löschen. Tritt ein oder geh, mehr Möglichkeiten gibt es nicht. Google legt damit seine gut 60 derzeitigen Datenschutzerklärungen zusammen und macht eine daraus. Lediglich der Browser Chrome, das Betriebssystem Chrome OS, Google Wallet und Google Books sind nicht davon betroffen. Google lobt die Vorteile des Ganzen, Kritiker monieren, Google sei böse geworden, jetzt ganz offiziell“, berichtet Basic Thinking.

Genauso idiotisch ist das Vorgehen von Facebook bei der Zwangseinführung von Timeline:

„In den kommenden Wochen wird die umstrittene Profilfunktion Timeline weltweit für alle Facebook-Nutzer bereitgestellt. Darauf weist Facebook nun in einem unauffälligen Update im Firmen-Blog hin. Danach bleiben den Betroffenen sieben Tage um zu verhindern, dass ungewollt alte Inhalte wieder ans Tageslicht gezerrt werden“, schreibt das Handelsblatt.

„Bei der Vorstellung des Services in 2011 hatte Facebook-Gründer Mark Zuckerberg bereits angedeutet, dass es einen Zwang zu Timeline geben werde: ‚Irgendwann wird es einen Zeitpunkt geben, an dem es sich nicht mehr lohnt, zwei verschiedene Profilseiten weiterzuentwickeln‘, erklärte er auf der Entwicklerkonferenz f8 in San Francisco. Der frühe Zeitpunkt überrascht allerdings“, führt das Handelsblatt weiter aus.

So gebärden sich eben nur Monopolisten, die auf ihre Kunden schei…Jetzt werde ich wieder Reaktionen ernten, dass es ja sowieso klar sei, dass Facebook und Google mich nicht wie einen Kunden behandeln, da wir ja nur das willige und dumme Beiwerk für die Werbemaschinerie sind. Und in der Tat kann dieser Eindruck entstehen, obwohl ich mich nicht den Datenschutz-Alarmisten anschließen möchte. Aber Freunde der amerikanischen Internet-Imperien, Eure Ignoranz wird sich irgendwann rächen, wenn die Nutzer mit den Füßen abstimmen und Konkurrenten auf den Markt kommen, die diesen Mist nicht praktizieren und vielleicht sogar leistungsfähiger sind. Es sind schon einige Kometen am digitalen Himmel verglüht. Nichts ist für die Ewigkeit. Vor ein paar Monaten schrieb ich:

Wir fluchen in der normalen Geschäftswelt über Servicebürokratie, über das Wanninger-Syndrom von Hotlines, über unkulantes Verhalten von Dienstleistern, nervige Werbeanrufe, unseriöse Vertriebspraktiken, ignorantes Verhalten von Konzernen und bejubeln die Ökonomie der Beteiligung, die neue Macht der Kunden in der Social Media-Welt und lassen uns aber von den Internet-Giganten wie Leibeigene behandeln. Da sollten wir dann mit gleicher Elle messen. Auch die Services von Google, Facebook und Co. sollten kritisch beleuchtet werden.

Siehe auch meine Kolumne: Internet-Konzerne dürfen nicht Staat spielen

„Shoot first, ask later“: Merkwürdiges Verständnis im Umgang mit Kunden – Über die Sperrung eines Google+-Accounts


Da habe ich ja was losgetreten. Heute früh habe ich noch überlegt, aus der Google+-Debatte über die Verzichtbarkeit von Telefonanrufen einen Blogpost zu schreiben. Gesagt, getan. Das Ganze spielte sich auf dem Google+-Account von Mirko Lange ab, der hinter dem Komma noch seinen Firmennamen angegeben hat (talkabout – was für ein Staatsverbrechen). Dabei fiel mir auf, dass das Konto von Mirko nicht mehr erreichbar war und ich keinen Link auf den Stream setzen konnte. Auf Nachfrage teilte mir Mirko mit, dass sein Account gesperrt wurde wegen der Erwähnung des Firmennamens. Dann fragte ich in meinem Google+-Stream beim Google-Sprecher Stefan Keuchel nach, ob man die Löschung denn nicht rückgängig machen könne. Und schon sind wir mittendrin in einer kontroversen Diskussion über Verhaltensweisen in sozialen Netzwerken. Nach meiner Meinung riecht die Vorgehensweise „Shoot first, ask later“ sehr stark nach Algorithmen-Gängelung. So kann man mit Social Media-Kunden nicht umgehen. Ohne unsere Präsenz in Google+ wäre das Projekt nicht machbar. Entsprechend höflich sollte also Google mit uns umgehen, sonst mündet das in Maschinen-Paternalismus. Oder wie Silvan Rehberger schrieb:

+Andreas Roedl: Mich interessiert auch nur (noch) die grundsätzliche Frage daran, nicht der konkrete Fall 🙂 Wenn Du von »Anhörung« sprichst, meinst Du aber die »nachträgliche Anhörung« nach der Sanktion, oder? Also sozusagen »Erst Untersuchungshaft, dann Haftprüfungstermin«, sprich es liegt ein schweres Delikt vor, und durch die Sanktion muss sichergestellt werden, dass die Straftat nicht vertuscht wird? Ich übertreibe bewußt, um die Grenzen der Analogie auszuloten…

Und Google ist in dem Fall Polizei, Staatsanwalt und Richter zusammen, und sperrt nach externer Meldung und eigener Prüfung ohne vorherige Anhörung. Wie gesagt, ich halte vor allem die Reihenfolge für unpassend….

Genau das ist fragwürdig. Oder nicht? Eure Meinung interessiert mich. Hier noch die Debatte auf Facebook.

Algorithmen als Instanz für Ethik und Moral? Ein weiterer Beitrag zur Filterblasen-Debatte

Auch die Wochenzeitungen „Die Zeit“ setzt sich in ihrer aktuellen Ausgabe mit Fluch und Segen der Personalisierung von Web-Diensten auseinander. Unstrittig ist sicherlich die Notwendigkeit von Filtertechnologien, Sortiermöglichkeiten und Netzintelligenz, um sich im Wust der Daten des Internets nicht zu verlieren. Jeder hat auch schon im analogen Zeitalter Dinge geordnet, mit Zettelkasten, Ordnern oder sonstigen Sortiersystemen gearbeitet, um die Arbeitsorganisation zu verbessern. Auch bei der heutigen Zeit-Lektüre schaue ich mir erst das Inhaltsverzeichnis durch und lese nur das, was ich mich auch wirklich interessiert – wie eben der Beitrag „Automatisch vorsortiert“, der mittlerweile auch online abrufbar ist.

Gleiches gilt für personalisierte Werbung im Netz. In einer Kolumne für „The European“ habe ich das ja bereits aufgegriffen: Hört man Datenschützern zu, könnte man meinen, der Teufel selbst habe personalisierte Werbung als Geißel der Menschheit erfunden. Doch jeder von normaler Massenwerbung malträtierte Konsument weiß es natürlich besser, denn ohne Pinkelpause macht der schönste Fernsehfilm keinen Spaß. So die Einleitung meines Beitrages. Wer also einen Artikel über „Mausefallen“ im Web recherchiert, wird bei Google dann eben im Werbeblock mit Angeboten für den Fang von Nagetieren berieselt. Das kann man sicherlich noch verkraften. Was aber passiert, wenn Filtertechnologien immer stärker auch die normalen Suchergebnisse beeinflussen? Die Frage hat ja bereits Frank Schirrmacher in seinem Buch „Payback“ aufgeworfen. Werden wir immer stärker von Algorithmen beherrscht, wie es der FAZ-Herausgeber befürchtet (der gleichzeitig auch die Datenflut beklagt)? Können wir die intelligenten Assistenten abschalten, wenn wir keine Lust auf sie haben? Und wie sieht es mit dem Recht auf die Abschaltung solcher Dienste aus, wenn wir Persönlichkeitsrechte und die Privatsphäre in Gefahr sehen (siehe auch: Data-Economy oder Algorithmen-Diktatur? Wie wir die Datenflut überwinden können)?

Aber ein Experiment, dass in dem Zeit-Artikel erwähnt wird, macht zumindest klar, dass wir es nicht mit einer „Schweigespirale“ zu tun haben, sondern jeder von uns über Filteralgorithmen höchst unterschiedliche Ergebnisse über Google, Bing, Facebook und Co. bekommt. „Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder, Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren“, schreibt die Zeit.

In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. „Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen“, wird Stalder von der Zeit zitiert. Eine Gefahr besteht dann allerdings nicht, die von Massenmedien sehr wohl ausgeht, die Entstehung eines einheitlichen Meinungsklimas. Zudem nutze ich ja nicht nur Google, Facebook oder Twitter für meine Recherchen, sondern auch andere Quellen wie Blogs, Bücher, Interviews, Expertengespräche, Vorträge oder persönliche Erfahrungen. Die Zeit zitiert dann eine Forderung des Filter-Bubble-Kritikers Eli Pariser, die ich für viel problematischer halte und die teilweise ja schon Realität ist: Da die algorithmischen Vorsortierer über keine eingebaute Ethik verfügen, sollten beispielsweise die Google-Gründer Larry Page und Sergey Bring dafür sorgen, dass fortan „bürgerliche Verantwortung“ in die Codezeilen neuer Sortiersoftware einfließen zu lassen. Unstrittig ist sicherlich die Forderung, die Kriterien der Filterung offenzulegen. „Wer Relevanz definiert, muss es erläutern. Wer weglässt, muss darauf hinweisen“, so die Zeit.

Aber was ist mit den Kategorien Ethik und bürgerliche Verantwortung?

Algorithmen werden von Menschen programmiert. Auch das Adwords- und Adsense-Programm von Google wird von Menschen organisiert. Was passiert, wenn beispielsweise Werbekunden zensiert werden und mit einer Kündigung ihres Kontos bedroht werden, obwohl sie nicht gegen Wettbewerbsrecht verstoßen? Google oder Apple können sich doch nicht zur richterlichen Instanz aufschwingen und entscheiden, was richtig und falsch im öffentlichen Leben ist? Für welche Produkte geworben werden darf oder welche Nacktfotos über Apps auf Smartphones erscheinen dürfen? Richard Gutjahr hat im vergangenen Jahr dazu entsprechendes erlebt (siehe: Google-Robots als Sittenwächter: „Sie haben drei Werktage Zeit, gutjahr.biz zu ändern“).

Systeme, Geräte oder Suchmaschinen dürften nicht darüber entscheiden, was richtig und was falsch für uns sei und unser Verhalten einschränken oder sogar sanktionieren. Sonst würde der Mensch zum Sklaven der Technik. Eine Automaten-Diktatur könnte sich nachhaltiger auswirken als das paternalistische Verhalten unter Menschen, warnen die Wissenschaftler Sarah Spiekermann und Frank Pallas in einem Beitrag für das Fachbuch „Die Informatisierung des Alltags“ (Hrsg. Friedemann Mattern, Springer-Verlag): „Zum einen reagieren Maschinen automatisch und autonom und lassen den Betroffenen damit nur wenig Möglichkeit zur Antizipation oder Reaktion. Zum anderen ist Technik absolut. Hat beispielsweise ein Fahrer Alkohol in der Atemluft, so ist es ihm gänzlich unmöglich, das entsprechende Auto zu starten – auch in Notfällen, in denen das Fahren unter Alkoholeinfluss üblicherweise akzeptiert würde“.

Ethische Algorithmen wird es also nie geben können. Viel wichtiger ist eine Pluralität der Informationsquellen und mehr Wettbewerb im Internet. Google, Apple oder Facebook bleiben nur dann harmlos, wenn es Alternativen gibt. Ich möchte mir jedenfalls nicht von Steve Jobs vorschreiben lassen, was moralisch akzeptabel ist und was nicht – auch nicht über Apps.