Italien stoppt ChatGPT "bevor es zu spät ist"

    Italiens Datenschützer warnen:ChatGPT "stoppen, bevor es zu spät ist"

    |

    Italien sperrt ChatGPT. Als Begründung wird der Verdacht auf Datenschutz-Verstöße genannt. Der italienische Datenschutzbeauftragte erklärt im ZDFheute-Gespräch die Hintergründe.

    Künstliche Intelligenz ChatGPT
    ChatGPT: In Italien Geschichte
    Quelle: Imago

    Italiens Datenschutzbehörde hat den populären Text-Automaten ChatGPT im Land vorläufig gesperrt. Sie verwies unter anderem darauf, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere.
    "Der Punkt ist, dass ich, wenn ich nicht weiß, wer was mit meinen persönlichen Daten macht, nicht in der Lage bin, die Verwendung meiner persönlichen Daten zu kontrollieren, um meine Rechte auszuüben", erklärt der italienische Datenschutzbeauftragte Guido Scorza im Gespräch mit ZDFheute.

    Ermittlungen wegen fehlendem Jugendschutz bei ChatGPT

    Auch gebe es laut den Behörden keine Filter, die verhinderten, dass Kinder im Alter unter 13 Jahren für sie "absolut unangebrachte" Informationen angezeigt bekämen. Es seien Ermittlungen eingeleitet worden. Die Behörde verbot zugleich vorsorglich die Verarbeitung von Daten von Nutzern aus Italien - ChatGPT ist damit in dem Land nicht mehr anwendbar.
    Die Beliebtheit des Dienstes sei der Grund, der Italien dazu veranlasst habe, nicht nur eine Untersuchung einzuleiten, sondern den Dienst "zu stoppen, bevor es zu spät ist", so Scorza.
    OpenAI bekam 20 Tage Zeit, Maßnahmen gegen die Vorwürfe zu präsentieren. Danach droht eine Strafe bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.
    Die Datenschutzbehörde verwies auch auf eine jüngst bekanntgewordene Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurück.

    Kritik an Sammlung von Daten

    ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasste. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als nächstes in einem Satz folgen könnten.
    Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software "Fakten halluziniert", wie OpenAI es nennt - falsche Informationen als korrekt wiedergibt. Die italienischen Datenschützer sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde.

    Wer personenbezogene Daten einer Person verarbeitet, muss diese informieren und vor allem auf der Grundlage einer soliden Rechtsgrundlage handeln, die hier zu fehlen scheint.

    Guido Scorza

    Es gäbe somit keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen.

    Vorher anderen Chatbot im Visier

    Die Behörde war im Februar bereits auf ähnliche Weise gegen einen anderen Chatbot mit dem Namen Replika vorgegangen. Dabei ging es vor allem darum, dass Kinder im Alter unter 13 Jahren ungenügend geschützt würden.
    ChatGPT hatte in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte. "Ich denke, es geht nicht darum, für oder gegen die Innovation zu sein", erklärt Scorza, "sondern einfach darum, sicherzustellen, dass die Innovation auf die Achtung der Person, ihrer Würde und ihrer Rechte ausgerichtet ist".
    ChatGPT
    Eine neue KI namens ChatGPT schreibt auf Anforderung Texte, die sich teilweise kaum noch von Texten unterscheidet, die von Menschen geschrieben wurden.24.01.2023 | 2:14 min
    Quelle: dpa, ZDF

    Mehr zu Künstlicher Intelligenz