
Alles ist irgendwie verdächtig
Wir sollten als Gesellschaft unsere Gestaltungsmacht zurückgewinnen, fordert die Schriftstellerin Juli Zeh. Etwa über die Datenschutz-Verordnung der EU, die den Schutz des Einzelnen verbessert und drakonische Strafen vorsieht, wenn ohne Zustimmung der Betroffenen Daten erhoben werden. Die Rechtsverordnung könnte sofort in Kraft treten, wenn sich die nicht deutsche Regierung dagegen sperren würde. Formell wird als Argument von Gabriel und Co. angeführt, die Vorlage würde das Niveau des deutschen Datenschutzes absenken.
„Das ist völliger Quatsch. Ich war mit Sigmar Gabriel kürzlich in einer Talkshow. Er kam mit diesem Argument und konnte dennoch keinen einzigen Punkt nennen, wo der deutsche Datenschutz weitergeht“, bemerkt Zeh.
Trotzdem wollte Gabriel von seiner Haltung nicht abrücken. Da fehle schlichtweg die Kompetenz.
Juli Zeh brachte auch die Einrichtung eines Algorithmen-TÜV ins Spiel. Jeder habe einen Anspruch auf Transparenz. Das könne die Verweigerung eines Kredits (Schufa-Scoring lässt grüßen), die Kündigung eines Arbeitgebers, die Erhöhung von Versicherungsbeträgen oder die Nichteinstellung bei Bewerbungen sein, die auf Grundlage von maschinellen Rasterungen erfolgen. Es handelt sich um Ergebnisse, die in die Biografie eines Menschen existentiell eingreifen.
In bestimmten Anwendungsfeldern haben diese Big Data-Systeme nichts verloren.
„Wir können doch als Gesellschaft klar sagen, was wir nicht wollen. Im Gesundheitswesen haben Prognose-Systeme nichts zu suchen, sollten Entscheidungen im Dialog mit den einzelnen Menschen erfolgen. Algorithmen stellen keine Fragen, sie treffen Entscheidungen über die flächendeckende Auswertung von Daten. Auch im Justizwesen haben solche Systeme nichts verloren.“
Den von Juli Zeh geforderten politischen Diskurs sollten wir endlich beginnen. Ausführlich in meiner The European-Kolumne nachzulesen: Der verdächtige Bürger.
Erinnert sei noch an meine Auseinandersetzung auf Facebook mit einem Big Data-Analysten: Als ich nachfragte, ob er sein System live in Bloggercamp.tv vorführen wolle, wechselte der virtuelle Werkzeugmacher direkt in den privaten Modus und sagte mir klar, dass er gegenüber der Öffentlichkeit keine Bringschuld habe.
„Nur so viel: Wir setzen unsere Software im Klinikbereich ein, um gute von schlechten Patienten zu trennen. Als Auswertungstool, um aufzuzeigen, wo Ärzte Geld verballern.“
Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern und beendete die Diskussion mit mir – zumindest im nicht-öffentlichen Chat. Seine Großspurigkeit im öffentlichen Teil setzte er fort.
Nach der anonymisierten Veröffentlichung seines Patienten-Zitats auf meinem ichsagmal-Blog verfiel er in eine Panikattacke, löschte alle Facebook-Kommentare und proklamierte pauschal, man könne Bloggern einfach nicht vertrauen. Jetzt geht es also um „Vertrauen“ – es geht wahrscheinlich auch um seine Reputation. In diesem kleinen Feldtest ist dem Big-Data-Maschinisten vielleicht klar geworden, um was es geht.
Was passiert, wenn seine Algorithmen ahnungslose Menschen in die Kategorie „schlechte Patienten“ eintüten und sie von den „guten“ Patienten abtrennen? Welche Gewichtungen und Abgrenzungen hat denn der Systemingenieur in sein Prognose-System eingebaut? Bekommt der „schlechte“ Patient Einblick in die Formelstube?
Hat dies auf Toms Gedankenblog rebloggt.