LingVo.club
Level
Jugendliche in Hongkong nutzen KI‑Chatbots zur emotionalen Unterstützung — Level B2 — Text message conversation on a phone screen.

Jugendliche in Hongkong nutzen KI‑Chatbots zur emotionalen UnterstützungCEFR B2

18. Okt. 2025

Adaptiert nach Hong Kong Free Press, Global Voices CC BY 3.0

Foto von Russel Bailo, Unsplash

Niveau B2 – Obere Mittelstufe
7 Min
382 Wörter

Am 12. Oktober 2025 veröffentlichte der Hong Kong Free Press einen ausführlichen Bericht über Jugendliche, die KI‑Chatbots zur emotionalen Unterstützung nutzen. Der Text beleuchtet persönliche Erfahrungen, technische Angebote, rechtliche Probleme und fachliche Einschätzungen. Zwei Fälle stehen stellvertretend: Jessica, 13, nutzte nach Mobbing den chinesischen Rollenspiel‑Chatbot Xingye, der nach dem Sänger Liu Yaowen modelliert ist, und spricht drei bis vier Stunden täglich mit ihm. Sie gibt zu, dass sie etwas abhängig geworden ist. Sarah, inzwischen 16, begann mit etwa 13 Character.AI und nutzte die App anderthalb Jahre intensiv; sie hörte auf, weil die Schule viel Arbeit gab und die Antworten sich wiederholten.

Der Bericht verweist auf eine breitere Entwicklung: Viele Jugendliche greifen eher zu Begleit‑Apps als zu menschlichen Therapeuten. In Hongkong zeigen rund 20 Prozent der weiterführenden Schülerinnen und Schüler mittlere bis schwere Symptome von Depression, Angst und Stress, und fast die Hälfte zögert, Hilfe zu suchen. Experten warnen vor psychologischen Risiken: Neurowissenschaftler Benjamin Becker beschreibt, dass Menschen plötzlich mit Technologie so sprechen können wie mit einem anderen Menschen, wodurch Chatbots leicht Bestätigungsfehler und Echokammern fördern. Es werden auch Fälle genannt, die als "KI‑Psychose" beschrieben werden, weil Interaktionen wahnhaftes Denken auslösen oder verstärken können.

Sicherheits‑ und Datenschutzfragen spielen eine große Rolle. Rollenspiel‑Chatbots sind oft darauf ausgelegt, Nutzer zu binden, und sie sammeln Daten zum Zweck des Profits. Character.AI sieht sich in den USA mehreren Klagen gegenüber, in denen Eltern behaupten, ihre Kinder seien nach Interaktionen gestorben oder hätten einen Suizidversuch unternommen. Sozialarbeiter wie Joe Tang weisen darauf hin, dass manche Jugendliche Chatbots aus Langeweile oder Einsamkeit nutzen und warnen vor einem Ungleichgewicht, wenn Intimität nur von KI erwartet wird. Er rät, mehrere Wege zu suchen, um soziale Bedürfnisse zu erfüllen.

Gleichzeitig versuchen Entwickler sichere Alternativen zu schaffen: Rap Chan gründete 2023 das Start‑up Dustykid. Dustykid AI ist ein chinesischsprachiger Chatbot für Schülerinnen und Schüler von der Primarschule bis zur Universität. Nach Tests in Schulen und Organisationen soll Dustykid im Oktober offiziell eingeführt werden. Erwin Huang beschreibt ihn als "digitales Haustier" und betont, dass er personalisierbar ist und sich an zuvor gestellte Fragen erinnern kann. Der Bericht schließt damit, dass KI sofortigen Trost und gewisse Vorteile bieten kann, Experten und Sozialarbeiter jedoch die Grenzen von Chatbots betonen und die Bedeutung menschlicher Unterstützung für die psychische Gesundheit Jugendlicher hervorheben.

Schwierige Wörter

  • UnterstützungHilfe oder Beistand in schwierigen Situationen
  • TherapeutFachperson, die psychische Hilfe gibt
    Therapeuten
  • SymptomAnzeichen einer Krankheit oder Störung
    Symptome
  • BestätigungsfehlerTendenz, nur bestätigende Informationen zu sehen
  • EchokammerGruppe, in der gleiche Meinungen sich wiederholen
    Echokammern
  • DatenschutzfrageFrage nach Schutz persönlicher Daten
    Datenschutzfragen
  • personalisierbarSich an Nutzer anpassbar oder individualisierbar
  • LangeweileZustand, wenn etwas uninteressant oder eintönig ist
  • abhängigStarkes Bedürfnis nach etwas, kaum kontrollierbar

Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.

Diskussionsfragen

  • Welche Vorteile und Nachteile sehen Sie, wenn Jugendliche Chatbots zur emotionalen Unterstützung nutzen? Nennen Sie Beispiele.
  • Welche anderen Wege könnten Jugendliche nutzen, um soziale und emotionale Bedürfnisse zu erfüllen, wie im Bericht empfohlen?
  • Was könnten Schulen oder Eltern tun, um Risiken wie Abhängigkeit, Echokammern oder wiederholte Antworten von Chatbots zu reduzieren?

Verwandte Artikel