
Nach langem hin und her hat nun der Bundesdatenschutzbeauftragte Ulrich Kelber einen möglichen Rechtsverstoß artikuliert, der zu einer Sperrung von #ChatGPT führen könnten: “Alle Gefährdungen der informationellen Selbstbestimmung, die so schwerwiegend sind, das keine Frist ausreichend erscheint, sondern Datenverarbeitung sofort bis zur Veränderung eingestellt werden muss. Z.B. wenn sensible Daten öffentlich würden”.
Auf meine Frage “Warum denken Sie denn an eine Sperrung?” antwortet Kelber: “Tue ich gar nicht. Frage war ‘Ist in D eine Sperrung wie in I denkbar?’ Meine Antwort ‘Ja, Sperrung denkbar, wenn Rechtsverstoss’. Zweite Frage ‘Was tun Sie jetzt“’ Meine Antwort ‘Italienische Kollegen um Information bitten’.”
Das ist mehr als dürftig. Dennoch ist die öffentliche Wirkung so einer unpräzisen Äußerung eines Spitzenbeamten höchst zweifelhaft. In einer Frühphase direkt auch Sperrungen für denkbar zu halten, ist aus meiner Sicht völlig aus der Luft gegriffen. Kann man über eine mögliche Sperrung überhaupt nachdenken, wenn gar keine Rechtsverstöße vorliegen?
Nach Ostern will ich eine Anfrage an den Bundesdatenschutzbeauftragten nach dem Informationsfreiheitsgesetz starten. Vielleicht könntet Ihr mir bei dem Fragenkatalog helfen.
Es ist wichtig zu betonen, dass die Entscheidung des Datenschutzbeauftragten immer auf einer sorgfältigen Prüfung der konkreten Umstände basieren muss. Der Schutz personenbezogener Daten ist ein wichtiges Anliegen, aber es müssen auch andere Faktoren wie Meinungsfreiheit und Innovation berücksichtigt werden.
Hier sind einige Fragen, die Sie dem Bundesdatenschutzbeauftragten im Zusammenhang mit der möglichen Sperrung von ChatGPT stellen könnten:
Welche spezifischen Bedenken bezüglich des Datenschutzes hat der Datenschutzbeauftragte in Bezug auf ChatGPT?
Welche personenbezogenen Daten verarbeitet ChatGPT und wie werden diese geschützt?
Wie entscheidet der Datenschutzbeauftragte, wann eine unmittelbare Einstellung der Datenverarbeitung erforderlich ist?
Würde eine Sperrung von ChatGPT auch Auswirkungen auf andere KI-Modelle haben, die ähnliche Funktionen ausführen?
Wie wird der Datenschutzbeauftragte sicherstellen, dass eine Sperrung von ChatGPT nicht die Meinungsfreiheit beeinträchtigt?
Welche Schritte werden unternommen, um sicherzustellen, dass der Schutz personenbezogener Daten und die Meinungsfreiheit in Einklang gebracht werden?
Wie kann die Öffentlichkeit über die Entscheidung des Datenschutzbeauftragten in Bezug auf ChatGPT informiert werden?
Gibt es Möglichkeiten für ChatGPT, die Bedenken bezüglich des Datenschutzes auszuräumen oder Abhilfemaßnahmen zu ergreifen, um eine Sperrung zu vermeiden?
Welche rechtlichen Grundlagen und Verfahren werden bei der Entscheidung über eine mögliche Sperrung von ChatGPT berücksichtigt?
Wie wird der Datenschutzbeauftragte sicherstellen, dass eine Sperrung von ChatGPT im Einklang mit den geltenden Datenschutzbestimmungen und Gesetzen steht?
Andrea Martin
Welche Maßnahmen müssen getroffen werden bzw. welche Anforderungen an OpenAI gestellt werden, damit wir die positiven Seiten von ChatGPT nutzen können?
Welche Aufklärungsmaßnahmen sind nötig, um Nutzer_innen die Chancen, aber auch die Risiken von ChatGPT zu erläutern?
@ulrichkelber Konkrete Rechtsverstöße liegen also wohl nicht vor. Oder sehe ich das falsch? Fragen an @ulrichkelber@bonn.social
Antwort von Ulrich Kelber
Weiß ich nicht. Wie im Interview gesagt, haben wir das nicht untersucht
Antwort von ChatG:Es ist technisch möglich, dass eine Regierung den Zugang zu ChatGPT auf nationaler Ebene blockiert. Die genaue Vorgehensweise hängt jedoch davon ab, wie ChatGPT implementiert und zugänglich gemacht wird.
ChatGPT wird von OpenAI bereitgestellt und kann über das Internet zugegriffen werden. Wenn eine Regierung den Zugriff auf das Internet oder bestimmte Websites oder Dienste beschränkt, könnte sie den Zugang zu ChatGPT auf nationaler Ebene blockieren.
Allerdings gibt es auch Möglichkeiten, solche Einschränkungen zu umgehen, wie zum Beispiel die Nutzung von virtuellen privaten Netzwerken (VPNs) oder Tor-Netzwerken, um den Standort und die Identität zu verschleiern und somit die Zugangsbeschränkungen zu umgehen.
Es ist jedoch wichtig zu beachten, dass jede Form von Zugangsbeschränkungen zu einem Werkzeug wie ChatGPT potenzielle Auswirkungen auf die Meinungsfreiheit, den freien Informationsfluss und die Innovationsmöglichkeiten haben kann.
Weitere Hinweise auf LinkedIn: https://www.linkedin.com/feed/update/urn%3Ali%3Aactivity%3A7050505456783380480/?commentUrn=urn%3Ali%3Acomment%3A%28activity%3A7050505456783380480%2C7050521569646776320%29&dashCommentUrn=urn%3Ali%3Afsd%5Fcomment%3A%287050521569646776320%2Curn%3Ali%3Aactivity%3A7050505456783380480%29&midToken=AQGwqw8GdxLk9g&midSig=3iS27njOSfvGI1&trk=eml-email_notification_single_commented_on_your_update_01-notifications-1-hero%7Ecard%7Efeed&trkEmail=eml-email_notification_single_commented_on_your_update_01-notifications-1-hero%7Ecard%7Efeed-null-6uagwi%7Elg89v62s%7Erg-null-voyagerOffline
Klasse Kommentar:Christoph Kappes
Wenn Kelber sagt, eine Sperrung sei “denkbar”, “wenn es einen Rechtsverstoss” gebe, dann ist das einerseits eine wahre Aussage. Denn ein Rechtsverstoss könnte zB darin liegen, dass der Betreiber ein LLM mit geschützten Daten gefüttert hat – so ein Datenaustausch und Aggregation ist ja in den USA nichts ungewöhnliches. Solche Daten zu publizieren ist ein DGSVO-Verstoss.
Andererseits ist das auch eine Null-Aussage, denn befragte man einen Staatsanwalt, ob 23 jährige Männer mit Schuhgrösse 42 sich strafbar machen könnten, würde der auch antworten: das sei denkbar.
Interessant ist aber, dass Kelber NICHT anfügt: es läge aber nichts gegen den Betreiber vor. Dickhosige Jungs würden das nicht gestehen, eine Behörde sollte das aber schon sagen.
Im Grunde ist das die Diskussion, die wir bei MS Cloud schon haben: wer hat die Beweislast für ordnungsgemässes Verhalten solcher Systeme? Wenn DS Rlp zig Datenströme identifiziert und weder sie selbst noch MS über deren Semantik eine Aussage treffen können, sind wir wieder in dieser Zone allseitiger Ahnunglosigkeit wie bei ChatGPT und Datenschützer reagieren so wie Kelber, weil sie vom betreiber einen Nachweis bzw Transparenz erwarten. (Algorithmenethik und EU Act, ick hör Dir trapsen).