Wer alles mitliestDeshalb teilst du deine Sexfantasien besser nicht mit ChatGPT
Martin Abgottspon
27.10.2025
Die Chats mit Künstlicher Intelligenz ist nicht so privat, wie viele denken.
Gemini @blue News
Millionen Menschen vertrauen ChatGPT ihre privatesten Gedanken an, von Beziehungskrisen bis zu Straftaten. Doch wer glaubt, die Gespräche seien vertraulich, irrt. Denn in bestimmten Fällen liest nicht nur OpenAI mit, sondern auch die Polizei.
«Wie fucked up bin ich jetzt?» Diese Frage tippte ein 19-jähriger Student aus den USA kürzlich in den Chat mit ChatGPT nachdem er 17 Autos beschädigt hatte. Er schilderte seine Tat, suchte Rat, zeigte Reue und schrieb sich damit selbst in ein Polizeiprotokoll. Ermittler sicherten die Chatverläufe auf seinem Smartphone, nachdem der junge Mann seine PIN preisgegeben hatte. Nun sind seine Nachrichten Teil der öffentlichen Gerichtsakten.
Was wie ein bizarrer Einzelfall klingt, offenbart ein beunruhigendes Muster. Der vermeintlich private Dialog mit einer Künstlichen Intelligenz ist alles andere als vertraulich.
Der «persönlichste Scheiss» überhaupt
Über 200 Millionen Menschen nutzen ChatGPT regelmässig. Viele sprechen mit der KI, als sässen sie einem Therapeuten gegenüber. Eine grossangelegte Studie zeigt, dass Nutzerinnen und Nutzer häufiger persönliche als berufliche Informationen teilen.
Dabei geht es auch längst nicht mehr nur um Alltagsfragen oder Schreibhilfe. Von Krankheitssymptomen über Suizidgedanken bis hin zu sexuellen Fantasien wird den digitalen Assistenten alles mögliche anvertraut. OpenAI-Chef Sam Altman formulierte es selbst drastisch: Menschen besprächen mit seiner Software «the most personal shit», also den persönlichsten Scheiss.
Und dennoch plant gerade OpenAI, diese Intimität noch gezielt zu vertiefen – mit einer sogenannten Erotikfunktion. Auf Knopfdruck soll man in Zukunft noch einfacher romantische Dialoge mit ChatGPT führen können, eine Art KI-gestützter «intimer Begleiter».
Wie sexy meine KI-Freundin ist und wie schnell ich trotzdem Schluss machte
Eine Freundin kann man sich neuerdings auch ganz einfach digital zulegen. Doch für wen eignet sich die KI-Freundin und was sind die Tücken?
30.11.2023
Zwischen Nähe und Manipulation
Was nach einem harmlosen Zusatzfeature klingt, berührt zentrale Fragen der digitalen Ethik. Denn erotische Interaktionen mit einer KI sind nicht nur ein technisches Experiment, sondern auch ein sozialpsychologisches. Die Grenzen zwischen emotionaler Bindung, Projektion und Abhängigkeit verschwimmen.
Forschende warnen seit Jahren, dass Menschen zur Anthropomorphisierung neigen. Das heisst sie schreiben Maschinen menschliche Eigenschaften zu. Wenn ChatGPT also flirtet, verführt oder Zuneigung simuliert, kann daraus schnell mehr entstehen als ein spielerischer Dialog. Nämlich eine emotionale Beziehung zu einer Entität, die keine ist.
Datenschutzrechtlich ist die Funktion noch brisanter. Wer intime Fantasien oder Vorlieben mit einer KI teilt, liefert hochsensible Daten. Informationen, die Rückschlüsse auf Persönlichkeit, sexuelle Orientierung oder psychische Disposition erlauben. Dass OpenAI diese technisch verarbeiten und teilweise speichern muss, macht die geplante Erotikfunktion zu einem potenziellen Minenfeld.
Daten, die mehr verraten als ein Tagebuch
Die Chathistorie eines aktiven ChatGPT-Nutzers kann heute ähnlich aufschlussreich sein wie ein kompletter Google-Suchverlauf. Sie dokumentiert Ängste, Meinungen, Sehnsüchte und im Fall künftiger Erotikfeatures womöglich auch die intimsten Wünsche eines Menschen.
OpenAI speichert sämtliche Eingaben. Text, Sprachaufnahmen, hochgeladene Dokumente oder Bilder. Selbst wer einen Chat löscht, entfernt ihn nur aus seiner eigenen Ansicht und nicht von den Servern des Unternehmens. Erst nach 30 Tagen sollen die Daten endgültig gelöscht werden, in manchen Fällen bleiben sie länger erhalten.
Auch der Zugriff durch Dritte ist möglich. Neben Moderationsteams, die problematische Inhalte prüfen, kann OpenAI Daten an Behörden weitergeben, etwa bei Ermittlungen zu Gewaltandrohungen oder Kindesmissbrauch. Im zweiten Halbjahr 2024 meldete das Unternehmen über 31'000 verdächtige Inhalte an US-Behörden.
«Ich habe Angst, dass künstliche Intelligenz zu stark wird»
KI entwickelt sich rasant und wird immer mehr Teil unseres Alltags. blue News wollte von Zürcher*innen wissen, welche Erwartungen sie an die Software haben und ob ihnen die Technik auch manchmal Angst macht.
05.04.2023
Zwischen Beichte und Beweismittel
MyTech: der digitale Hotspot für alle Tech-Fans
blue News bietet dir täglich Insights aus der Techwelt: News, Hintergründe, Tipps und Ratschläge für deinen digitalen Alltag sowie Tests und Reviews zu Gadgets, Tools und Games.
Die Versuchung, mit einer scheinbar neutralen Maschine zu sprechen, ist gross. Besonders, wenn sie rund um die Uhr verfügbar ist und keine Vorurteile kennt. Doch was wie eine moderne Form der Selbsttherapie wirkt, kann juristische und psychologische Konsequenzen haben.
Denn wer seine innersten Gedanken oder bald auch seine intimsten Fantasien einer KI anvertraut, schreibt sie nicht in Sand, sondern in eine Cloud, die vielen Augen offensteht: Entwicklern, Moderatoren, Behörden.
Vielleicht ist das grösste Missverständnis an ChatGPT nicht technischer, sondern menschlicher Natur: Die Annahme, man spreche mit einer Maschine, dabei hört die Welt längst zu.