In Italien muss der Chatroboter ChatGPT eine Pause einlegen. Die dortige Datenschutzbehörde sieht gravierende Mängel und verfügte eine Sperre. Der Betreiber OpenAI hat nun knapp drei Wochen Zeit für eine Antwort.
DPA/dj
04.04.2023, 00:00
DPA/dj
Keine Zeit? blue News fasst für dich zusammen
Wegen Datenschutzbedenken muss ChatGPT in Italien eine Zwangspause einlegen.
Durch einen Bug verriet der Chatbot letzten Monat, worüber andere Nutzer*innen mit ihm redeten.
Betreiberin OpenAI droht nun eine hohe Millionenbusse.
Italiens Datenschutzbehörde hat den populären Text-Automaten ChatGPT im Land vorläufig gesperrt. Sie verwies am Freitag unter anderem darauf, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere. Auch gebe es keine Filter, die verhinderten, dass Kinder im Alter unter 13 Jahren für sie «absolut unangebrachte» Informationen angezeigt bekämen. Es seien Ermittlungen eingeleitet worden.
Die Behörde verbot zugleich vorsorglich die Verarbeitung von Daten von Nutzer*innen aus Italien – ChatGPT ist damit in dem Land nicht mehr verwendbar. OpenAI bekam 20 Tage Zeit, Massnahmen gegen die Vorwürfe zu präsentieren. Danach droht eine Busse bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.
Massenhaft personenbezogene Daten gesammelt
Die Datenschutzbehörde verwies auch auf eine jüngst bekannt gewordene Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurück.
ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasst. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als Nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software «Fakten halluziniert», wie OpenAI es nennt – falsche Informationen als korrekt wiedergibt.
Die italienischen Datenschützer*innen sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde. Es gebe keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen.
Die Behörde war im Februar bereits auf ähnliche Weise gegen einen anderen Chatbot mit dem Namen Replika vorgegangen. Dabei ging es vor allem darum, dass Kinder im Alter unter 13 Jahren ungenügend geschützt würden.
ChatGPT hatte in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte.