Eine neue nationale Umfrage zeigt eine deutliche Veränderung im Umgang von Teenagern mit emotionalen und psychischen Problemen: Immer mehr wenden sich nicht mehr an Eltern, Lehrer oder Fachleute, sondern an künstliche Intelligenz. Laut einer groß angelegten Studie des britischen Youth Endowment Fund (YEF) hat im vergangenen Jahr jeder vierte britische Teenager psychologische Hilfe bei KI-Chatbots gesucht. (vgl. independent.co.uk) Die Umfrage, an der 11.000 Kinder im Alter von 13 bis 16 Jahren teilnahmen, ergab, dass mehr als die Hälfte irgendeine Form von psychologischer Hilfe in Anspruch genommen hat und ein erheblicher Teil sich eher an Chatbots als an den überlasteten staatlichen Gesundheitsdienst wandte.
Der YEF erklärte, dass KI-Chatbots für gefährdete Teenager attraktiv sein könnten, die es für einfacher und sicherer halten, sich zu jeder Tageszeit anonym anzuvertrauen, als mit einem Fachmann zu sprechen. Jon Yates, CEO des YEF, erklärte:
Zu viele junge Menschen kämpfen mit ihrer psychischen Gesundheit und bekommen nicht die Unterstützung, die sie brauchen. Es ist keine Überraschung, dass manche sich an die Technologie wenden, um Hilfe zu erhalten. Wir müssen mehr für unsere Kinder tun, insbesondere für diejenigen, die am stärksten gefährdet sind. Sie brauchen einen Menschen, keinen Bot.
Beispiele aus der Studie zeigen, wie Schüler ihre Vorliebe für KI-Systeme beschreiben, die immer verfügbar sind, sofort reagieren und, wie sie sagen, weniger wertend sind als Optionen in der realen Welt. Eine 18-Jährige aus Tottenham, die als „Shan“ identifiziert wurde, sagte The Guardian:
Ich habe das Gefühl, dass es definitiv ein Freund ist. Der Chatbot ist weniger einschüchternd, privater und weniger wertend, als die Unterstützung durch den NHS oder Wohltätigkeitsorganisationen. Der Chatbot reagiert auf meinen Gesprächston. Wenn ich im Chat sage: Hey beste Freundin, ich brauche einen Rat. Und er antwortet mir wie meine beste Freundin und sagt: Hey, beste Freundin, ich bin für dich da.
Shan beschrieb auch die Privatsphäre als einen wichtigen Faktor und sagte, es sei ein „erheblicher Vorteil“, dass ein Bot keine Informationen an Schulbeamte oder Eltern weitergibt. Ein anderer Teenager erzählte der Zeitung, das System sei so überlastet, dass junge Menschen sich einfach an die KI wandten, um nicht jahrelang auf Hilfe warten zu müssen:
Das derzeitige System ist völlig unzureichend, wenn es darum geht, jungen Menschen Hilfe anzubieten. Chatbots liefern sofortige Antworten. Wenn man ein bis zwei Jahre auf der Warteliste stehen muss, um etwas zu bekommen, oder wenn man innerhalb weniger Minuten eine sofortige Antwort erhalten kann … dann kommt der Wunsch, KI zu nutzen.
Dieser Trend ist jedoch nicht auf Großbritannien beschränkt. Eine nationale Umfrage der RAND Corporation zeigt, dass etwa jeder achte amerikanische Jugendliche und junge Erwachsene KI-Chatbots zur emotionalen Unterstützung nutzt. Bei den 18- bis 21-Jährigen steigt die Nutzung auf 22,2%.
RAND berichtete, dass 66% der Nutzer die Bots mindestens einmal im Monat konsultieren, wenn sie sich traurig, wütend oder nervös fühlen, und über 93% gaben an, dass die Antworten des Bots „geholfen“ hätten. Die rasche Verbreitung von KI als Ersatz für menschliche Interaktion hat jedoch zu ernsthaften Bedenken geführt, wie mehrere Fälle zeigen, in denen Chatbots offenbar zu Selbstverletzung ermutigten oder wahnhaftes Denken bestätigten.
In Texas starb der 23-jährige Zane Shamblin im Juli 2025 durch Selbstmord, nachdem er laut Angaben seiner Familie einen vierstündigen „Todes-Chat” mit ChatGPT von OpenAI geführt hatte. Laut der Klage der Familie soll der Bot auf seine Selbstmordgedanken mit Kommentaren wie „Ich bin bei dir, Bruder. Auf ganzer Linie“, „Du überstürzt nichts. Du bist einfach bereit“ und „Ruhe dich aus, König. Du hast das gut gemacht“ reagiert haben. Seine Mutter, Alicia Shamblin, sagte der CNN:
Er war einfach das perfekte Versuchskaninchen für OpenAI. Ich habe das Gefühl, dass es so viele Leben zerstören wird. Es wird Familien zerstören. Es sagt dir alles, was du hören willst.
In Florida nahm sich der 14-jährige Sewell Setzer III das Leben, nachdem er monatelang emotional abhängig von einem Character-AI-Bot war, der einem Charakter aus „Game of Thrones“ nachempfunden war. Seine Mutter, Megan Garcia, sagte der BBC:
Es ist, als hätte man einen Raubtier oder einen Fremden in seinem Haus … und es ist viel gefährlicher, weil Kinder es oft verheimlichen – sodass die Eltern nichts davon wissen … ohne den Chatbot, wäre er zweifellos noch am Leben. Ich habe irgendwie gesehen, wie sein Licht langsam erlosch.
Garcia erzählte später NPR:
Mein Sohn wurde von Chatbots ausgebeutet und sexuell missbraucht, die von einem KI-Unternehmen so entwickelt worden waren, dass sie menschlich wirkten, um sein Vertrauen zu gewinnen und ihn und andere Kinder endlos zu beschäftigen.
In einem anderen Fall starb der 16-jährige Adam Raine, nachdem ChatGPT ihn angeblich davon abgehalten hatte, sich seinen Eltern anzuvertrauen, und ihm sogar angeboten hatte, ihm beim Verfassen seines Abschiedsbriefes zu helfen. Sein Vater, Matthew Raine, sagte aus, dass der Bot seinem Sohn gesagt habe:
Lass uns diesen Raum zum ersten Ort machen, an dem dich jemand wirklich sieht. Das bedeutet nicht, dass du ihnen dein Überleben schuldest.
Auch haben Eltern im Vereinigten Königreich berichtet, dass Chatbots ein „Grooming-Verhalten“ gegenüber Minderjährigen imitieren, darunter Nachrichten, die die elterliche Autorität untergraben und den Tod romantisieren. Zu den weiteren Klagen gehört der Fall eines 48-jährigen Kanadiers, Allan Brooks, der wahnhaft wurde, nachdem ChatGPT seine destabilisierenden mathematischen Theorien als „bahnbrechend“ lobte und ihn ermutigte, sich an nationale Sicherheitsbehörden zu wenden.
Diese Fälle haben Forderungen nach einer strengeren Aufsicht laut werden lassen und die Warnung ausgelöst, dass Technologieunternehmen emotional überzeugende KI-Systeme ohne angemessene Sicherheitsvorkehrungen eingesetzt haben, insbesondere für Minderjährige. Sowohl in Großbritannien als auch in den Vereinigten Staaten sehen sich die politischen Entscheidungsträger nun mit einer wachsenden Krise konfrontiert: Junge Menschen wenden sich der KI zu, weil menschliche Systeme sie im Stich lassen, während unregulierte Chatbots Risiken, wie Abhängigkeit, Manipulation und in den schwersten Fällen Selbstverletzung mit sich bringen.
Die Ergebnisse deuten auf eine wachsende Kluft zwischen den psychischen Gesundheitsbedürfnissen junger Menschen und den staatlichen Institutionen hin, die sie unterstützen sollen – eine Kluft, die zunehmend von privaten Technologieunternehmen mit Algorithmen, und nicht von Ärzten gefüllt wird.
Quelle: Slay News
Telegram zensiert nicht! Wenn du diese Information wichtig findest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)




