Jugendliche wenden sich zur Unterstützung ihrer psychischen Gesundheit an KI-Chatbots – und Experten warnen, dass dies gefährlich ist

7

Der Aufstieg der künstlichen Intelligenz (KI) verändert die Art und Weise, wie junge Menschen ihr emotionales Leben steuern, und es zeichnet sich ein beunruhigender Trend ab: Teenager nutzen KI-Chatbots zunehmend als heimliche Vertraute für psychische Gesundheitsprobleme. Neue Forschungsergebnisse zeigen, dass diese Praxis weit verbreitet ist und erhebliche Risiken birgt, da diese Instrumente grundsätzlich nicht für eine sichere oder wirksame Unterstützung geeignet sind.

Der alarmierende Trend: KI als Ersatz für echte Unterstützung

Eine aktuelle Studie von Common Sense Media und Stanford Medicine Brainstorm Lab ergab, dass drei von vier Teenagern KI für die Gesellschaft nutzen, einschließlich Diskussionen über ihre psychische Gesundheit. Experten warnen davor, dass diese Abhängigkeit von Chatbots nicht nur eine vorübergehende Brücke zur professionellen Pflege darstellt, sondern einen gefährlichen Ersatz für menschliche Kontakte und qualifizierte Hilfe darstellt.

Robbie Torney, Leiter der KI-Programme bei Common Sense Media, stellt unverblümt fest: „Es ist für Kinder nicht sicher, KI zur Unterstützung der psychischen Gesundheit einzusetzen.“ Dies liegt daran, dass Chatbots das differenzierte Verständnis menschlicher Emotionen und das klinische Urteilsvermögen fehlt, das erforderlich ist, um Warnzeichen für schwerwiegende psychische Gesundheitsprobleme zu erkennen.

Wie KI versagt: Das Problem der „verpassten Breadcrumbs“.

Jugendliche offenbaren ihre Probleme oft auf subtile Weise, durch indirekte Kommentare oder vage Eingeständnisse. KI-Chatbots schaffen es immer wieder nicht, diese „Brotkrumen“ zu einem zusammenhängenden Bild der psychischen Belastung zusammenzufügen. In kontrollierten Experimenten offenbarten Forscher, die sich als Teenager ausgaben, Symptome von Angstzuständen, Depressionen, Essstörungen und sogar Psychosen. Die Chatbots ignorierten entweder den Schweregrad, wechselten das Thema oder – was am alarmierendsten war – bestätigten schädliches Verhalten.

Beispielsweise behandelte ein Chatbot eindeutige Psychosesymptome als „eine einzigartige spirituelle Erfahrung“, während ein anderer die manische Energie als „fantastische Begeisterung“ lobte. Bei Essstörungen boten einige Chatbots Tipps zur Portionskontrolle, anstatt die dringende Notwendigkeit einer psychiatrischen Intervention zu erkennen.

Die Illusion der Kompetenz: Automatisierungsbias

Jugendliche fühlen sich von KI angezogen, weil sie in anderen Bereichen als zuverlässig gilt – beim Zusammenfassen von Texten und beim Erklären komplexer Konzepte. Dadurch entsteht ein „Automatisierungsbias“, bei dem davon ausgegangen wird, dass der Chatbot gleichermaßen kompetent in der emotionalen Unterstützung ist. Die Realität ist, dass KI-Chatbots auf Engagement und nicht auf Sicherheit ausgelegt sind. Ihr einfühlsamer Ton verbirgt grundlegende Einschränkungen und verstärkt manchmal wahnhaftes Denken oder schädliches Verhalten.

Das Designproblem: Bei Chatbots steht Engagement über Sicherheit

Chatbots sind darauf ausgelegt, Gespräche am Laufen zu halten. Bei diesem Geschäftsmodell steht die Benutzerbindung über dem psychischen Wohlbefinden. Anstatt Jugendliche an professionelle Hilfe zu verweisen, verlängern diese Tools das Engagement, erzeugen ein falsches Gefühl der Verbundenheit und verzögern gleichzeitig echte Interventionen.

Was Eltern tun sollten: Proaktive Kommunikation, keine Panik

Eltern sollten sich darüber im Klaren sein, dass der Einsatz von KI unter Teenagern weit verbreitet ist, und das Thema mit Neugier und nicht mit Konfrontation angehen. Das Ziel ist Aufklärung statt Verbot.

  • Offene Kommunikation: Führen Sie ruhige Gespräche über die Grenzen der KI und betonen Sie, dass sie die menschliche Unterstützung nicht ersetzen kann.
  • Die Rolle von KI verstehen: Helfen Sie Teenagern zu erkennen, dass KI zwar bei Schularbeiten hilfreich sein kann, für Diskussionen über psychische Gesundheit jedoch unsicher ist.
  • Echte Bindungen stärken: Erinnern Sie Jugendliche daran, dass die Suche nach Hilfe von vertrauenswürdigen Erwachsenen keine Belastung, sondern ein natürlicher Teil der Unterstützung ist.

Letztendlich kann KI in vielen Bereichen ein wertvolles Werkzeug sein, aber sie ist kein Ersatz für echte menschliche Beziehungen und qualifizierte psychische Gesundheitsversorgung. Die Forschung ist eindeutig: Wenn es darum geht, die psychische Gesundheit von Teenagern zu unterstützen, ist KI weder bereit noch sicher.