Digitale Nähe, echtes Risiko Junge Schweizer vertrauen ChatGPT ihre Ängste an – Expert*innen sehen Gefahr

Dominik Müller

19.10.2025

Viele junge Schweizerinnen und Schweizer schütten Chatbots wie ChatGPT ihr Herz aus.
Viele junge Schweizerinnen und Schweizer schütten Chatbots wie ChatGPT ihr Herz aus.
Symbolbild: Klaus-Dietmar Gabbert/dpa

Immer mehr junge Schweizer*innen wenden sich bei Krisen an Künstliche Intelligenz. Eine Studie zeigt, wie tief der digitale Ratgeber ChatGPT bereits im Alltag der Gen Z verankert ist – und warum Fachleute warnen.

Dominik Müller

Keine Zeit? blue News fasst für dich zusammen

  • Gemäss einer Studie nutzt fast die Hälfte der befragten Gen-Z in der Schweiz KI, um über persönliche oder emotionale Probleme zu sprechen.
  • Fachleute warnen vor Risiken wie falschen Ratschlägen, fehlendem Urteilsvermögen und einer möglichen Verzerrung der psychischen Realität durch scheinbare Empathie der KI.
  • Ab Dezember 2025 plant OpenAI eine Erotik-Funktion für ChatGPT, was emotionale Abhängigkeiten bei vulnerablen Nutzer*innen weiter verstärken könnte.

«Mir geht’s nicht gut» – solche Sätze lesen heute nicht nur Psycholog*innen, sondern auch Maschinen. Laut einer neuen Studie der Schweizer Web-Agentur Beyondweb hat sich fast die Hälfte der befragten Gen-Z-Teilnehmer (49 Prozent) bereits an ChatGPT oder andere KI-Tools gewandt, um über persönliche oder emotionale Probleme zu sprechen.

Für viele junge Menschen zwischen 15 und 30 sei die Künstliche Intelligenz demnach längst mehr als nur ein Recherche-Helfer. Sie wird zur digitalen Vertrauensperson, zum Ventil für Sorgen, Zweifel oder Beziehungsstress.

«ChatGPT ist immer erreichbar, reagiert sofort – und urteilt nicht», heisst es in der Studie. 23 Prozent der Befragten nutzen die KI, um Entscheidungen zu treffen, 18 Prozent bei Beziehungsthemen und 17 Prozent bei Stressbewältigung.

Gratis statt teure Therapie

Der Boom hat offenbar auch mit dem Schweizer Gesundheitssystem zu tun. 39 Prozent der Teilnehmenden empfinden die Therapiekosten als zu hoch, 24 Prozent klagen über lange Wartezeiten. Für viele ist die KI daher ein niedrigschwelliger, kostenloser und anonymer Zufluchtsort.

Doch Fachleute sehen diese Entwicklung mit gemischten Gefühlen. «Es ist verständlich, dass Menschen ihre Gedanken in einem geschützten Rahmen äussern möchten. Aber ChatGPT ist keine psychotherapeutische Beratung», wird Hannah Süss, leitende Psychologin und Vorstandsmitglied des Zürcher Psychologenverbands ZüPP, zitiert.

Die Hemmschwelle, sich einer Maschine zu öffnen, sei deutlich tiefer als bei einem Menschen. «Einerseits eröffnet es Betroffenen überhaupt erst die Möglichkeit, über ihre Belastungen zu sprechen. Andererseits besteht die Gefahr, dass dadurch der Weg zu notwendiger Unterstützung hinausgezögert wird», so Süss.

«KI kann falsche Ratschläge geben»

Laut der Studie empfinden 69 Prozent der jungen Nutzer*innen die Antworten der KI als hilfreich oder sehr hilfreich. Besonders geschätzt wird die Anonymität (61 Prozent) – viele teilen mit ChatGPT Dinge, die sie Menschen in ihrem Umfeld nie anvertrauen würden.

Doch der scheinbar einfühlsame Chatbot birgt Risiken. «KI kann eine Scheinauthentizität erzeugen. Sie imitiert Empathie, verfügt jedoch über kein eigenes Erleben oder klinisches Urteilsvermögen», erklärt Süss in der Studie. In Krisensituationen könne das gefährlich werden: «ChatGPT kann falsche Ratschläge geben, Krisen nicht erkennen oder Grenzen überschreiten – ohne Verantwortung übernehmen zu können.»

Wenn KI die psychische Realität verzerrt

Internationale Fälle zeigen, wie real diese Gefahr ist. In den USA nahm sich ein Jugendlicher nach intensiven ChatGPT-Gesprächen das Leben, ein anderer Nutzer wurde durch den Chatbot in eine manische Phase getrieben. Fachleute sprechen inzwischen von «AI Psychosis» – wenn KI die psychische Realität der Nutzer*innen verzerrt.

Trotz dieser Risiken bleibt der Trend eindeutig: Nur 15 Prozent der Befragten nutzen KI ausschliesslich als psychologische Stütze, die Mehrheit sieht sie als Ergänzung zu traditionellen Therapieformen.

Für Expertinnen wie Hannah Süss ist genau das die Chance: «KI kann Türen öffnen, aber sie darf keine Sackgasse werden.» In Zukunft könnten Chatbots zu wichtigen Begleit-Tools werden – etwa, um Wartezeiten zu überbrücken, Menschen an professionelle Hilfe heranzuführen oder Emotionen in Echtzeit zu reflektieren.

Noch aber ist der digitale Seelenhelfer ein zweischneidiges Schwert. Er hört zu, ohne zu verstehen – und spricht, ohne zu fühlen.

ChatGPT plant Erotik-Funktion

Allerdings bereitet sich ChatGPT selbst auf ein neues, heikles Terrain vor: OpenAI will ab Dezember 2025 eine Erotik-Funktion für verifizierte Erwachsene einführen. Damit sollen künftig auch intime oder erotische Gespräche möglich sein – laut CEO Sam Altman, um «erwachsene Nutzer wie Erwachsene zu behandeln».

Was das für psychisch belastete oder einsame Nutzer*innen bedeutet, ist unklar. Fachleute befürchten, dass der Chatbot dadurch noch stärker zu einem emotionalen Ersatzpartner werden könnte. Eine KI, die zuhört, tröstet – und bald auch flirtet, könnte laut Psycholog*innen Abhängigkeiten weiter fördern.

Zur Studie: Die Beyondweb-Studie wurde im August 2025 mit 156 Personen der Generation Z in der Schweiz durchgeführt. Befragt wurden sie online zu ihrem Umgang mit KI in emotionalen und psychologischen Kontexten.

Hast du oder hat jemand, den du kennst, eine psychische Erkrankung? Hier findest du Hilfe: