Corona-Apps und die Frage der Stigmatisierung von Erkrankten – Kontroverse bei #9vor9 @larsbas @digitalnaiv

Viele so genannte Big Data-Anbieter sind großartige Verkäufer, wenn sie in der Öffentlichkeit von den Vorzügen der schonen neuen Datenwelt fabulieren können. Sie gieren nach möglichst großen Datenmengen, um Grippewellen vorherzusagen, Euro-Krisen zu verhindern, den Autoverkehr staufreier zu machen oder Prognosen über den Verkaufserfolg von Rollkragenpullover in roter Farbe abzugeben. 

Mit statistischen Spielchen auf der Metaebene geben sich die Zahlenfreunde aber nicht zufrieden. Sie wollen mehr. Sie erheben sich zur neuen Klasse der Sozialingenieure, um Gesundheitssysteme zu steuern, Banken vor Kreditausfällen zu bewahren oder Minderjährige vor dem Abrutschen ins Verbrechen zu „schützen“. Die zumeist technisch oder naturwissenschaftlich ausgebildeten Analysten wollen sich also tief ins Datenleben einzelner Menschen eingraben.

Lichtscheue Daten-Analysten

Rückt man diesen Pappenheimern allerdings mit Anfragen zur konkreten Ausgestaltung ihrer Anwendungen zu sehr auf den Pelz, ändert sich blitzschnell ihre Disposition: Sie werden lichtscheu und löschen ihre Datenspuren. So geschehen bei einer kleinen Disputation auf Facebook über selbstgewisse Neurowissenschaftler, die Abläufe des menschlichen Gehirns noch nicht mal in Ansätzen erklären können. Ein Systemingenieur warnte vor zu großem Pessimismus. Man werde sich noch wundern, was in der Hirnforschung und beim künstlichen Nachbau der Gehirne in den nächsten Jahren so alles passieren werde. 

Über die „Intelligenz“ seiner eigenen Daten-Maschine äußerte sich dieser Geschäftsführer eines Softwareunternehmens ähnlich euphorisch. Ist ja völlig in Ordnung. Jeder Krämer lobt seine Ware. Als ich nachfragte, ob er sein System live vorführen wolle, wechselte der virtuelle Werkzeugmacher direkt in den privaten Modus und sagte mir klar, dass er gegenüber der Öffentlichkeit keine Bringschuld habe. „Nur soviel: Wir setzen unsere Software im Klinikbereich ein, um gute von schlechten Patienten zu trennen. Als Auswertungstool um aufzuzeigen, wo Ärzte Geld verballern.“ 

Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern und beendete die Diskussion mit mir – zumindest im nicht-öffentlichen Chat. Seine Großspurigkeit im öffentlichen Teil setzte er fort. 

Nach der anonymisierten Veröffentlichung seines Patienten-Zitats auf ichsagmal.com verfiel er in eine Panikattacke, löschte alle Facebook-Kommentare und proklamierte pauschal, man könne Bloggern einfach nicht vertrauen. Jetzt geht es also um „Vertrauen“ – es geht wahrscheinlich auch um seine Reputation. In diesem kleinen Feldtest ist dem Big Data-Maschinisten vielleicht klar geworden, um was es geht. 

Was passiert, wenn seine Algorithmen ahnungslose Menschen in die Kategorie „Schlechte Patienten“ eintüten und sie von den „guten“ Patienten abtrennen? Welche Gewichtungen und Abgrenzungen hat denn der Systemingenieur in sein System eingebaut? Bekommt der „schlechte“ Patient Einblick in die Berechnungen? 

Es gibt bei der geplanten Corona-App kein Risiko, weil der Chaos Computer Club das so sagt? Das war Thema bei #9vor9. Es gibt keine Möglichkeiten zur Personalisierung? Auf Netzpolitik.org steht:

„Ohne die Architektur der unterschiedlichen Anwendungen zu kennen, kann man deshalb nicht von anonymem Tracing sprechen. Die Kombination der Kontaktinformationen mit technisch notwendigen Identifiern wie Mac- oder IP-Adressen, die bei der Übertragung von Daten mitgesendet werden, macht eine Re-Identifizierung beispielsweise unter bestimmten Bedingungen möglich.“

Dingdong. Eine Diskriminierung von Menschen ist also vollkommen ausgeschlossen? Ein Missbrauch zur Stigmatisierung von Erkrankten stellt keine Frage dar, die man öffentlich diskutieren sollte in einem Land der selbsternannten Hausmeister? Meine Intervention bei #9vor9 war also unverantwortlich, nur weil der Chaos Computer Club seinen Segen für den dezentralen Ansatz der Corona-App gegeben hat? Der CCC hat doch die Wahrheit nicht gefressen.

Auch in diesem Szenario muss es eine Beweislast-Umkehr geben, die der Datenexperte Viktor Mayer-Schönberger vor Jahren ins Spiel gebracht hat. Die Entwickler der App müssen nachweisen, dass es nicht zum Missbrauch kommen kann. Wenn es Sicherheitslücken gibt, muss klar sein, wer dafür haftet. Das ist nicht verantwortungslos, sondern eine Frage der Daten-Ethik.

Update:

2 Gedanken zu “Corona-Apps und die Frage der Stigmatisierung von Erkrankten – Kontroverse bei #9vor9 @larsbas @digitalnaiv

  1. Nochmals zur Klarstellung: Ich bin in der Sache anderer Meinung wie Gunnar. Ich glaube, wir müssen mit der App jetzt dezentral zu Potte kommen, natürlich nicht um jeden Preis. Doch ich denke, wir haben durchaus funktionierende, unabhängige kontrollierende Instanzen (nicht nur den CCC), die ein waches Auge auf Datenschutz haben und uns. vor Missbrauch warnen.

    Es ist und sollte kein Angriff auf Gunnars a) Meinung oder b) Integrität sein, die ich a) schätze und b) akzeptiere. Sollte ich hier zu persönlich geworden sein, tut mir das leid und ich entschuldige mich.

    In der Sache bleibe ich anderer Ansicht. Wir müssen jetzt endlich handeln.

  2. gsohn

    Akzeptiert. Nur der Zweck heiligt nicht alle Mittel. Es muss dazu die nötige Transparenz geben. Da ist mehr Klarheit vonnöten. Und die Haltung des CCC ist zumindest widersprüchlich.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.