Wie unschuldig sind Algorithmen? #D2030 #FutureHubs @FuturICT


Sind Algorithmen unschuldig und neutral, fragen sich Anna-Verena Nosthoff und Felix Maschewski in einem Gastbeitrag für die NZZ und zitieren Mark Zuckerberg, der bei der Debatte über die Verbreitung von Fake News erklärte, es sei schlicht „verrückt“ anzunehmen, seine Firma Facebook habe die US-Wahl beeinflusst, sie stelle nur eine „neutrale Plattform“ dar:

„Auch der CEO der britischen Datenfirma Cambridge Analytica (CA), Alexander Nix, betont die Vorurteilslosigkeit der Technik – zuletzt in seinem Vortrag ‚From Mad Men to Math Men'“, schreiben die Autoren.

Erwähnt wird die These der Mathematikerin Cathy O’Neil: Algorithmen seien „in Code eingebettete Meinungen“. Sie repräsentierten die Werte ihrer Programmierer, operierten per se nicht neutral, würden daher häufig Vorurteile reproduzieren – schliesslich werden die ‚Problemlöser‘ selbst zum Problem.

Ähnlich sieht es der KI-Experte Stefan Holtel.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel.

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, fordert Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden.

„Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Auf der Berliner D2030 Zukunftskonferenz am 6. und 7. Juli wird dieser Aspekt sicherlich zur Sprache kommen.

Siehe auch: Sozialingenieure und ihre Steuerungsinstrumente für eine „wohlwollende“ Diktatur

@DirkHelbing über Datendiktatur oder Mitmachgesellschaft?

Advertisements

Ein Gedanke zu “Wie unschuldig sind Algorithmen? #D2030 #FutureHubs @FuturICT

Es lebe die Diskussion!

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s