Des adolescents de Hong Kong utilisent des chatbots IA pour un soutien émotionnelCEFR B2
18 oct. 2025
Adapté de Hong Kong Free Press, Global Voices • CC BY 3.0
Photo de Russel Bailo, Unsplash
Le 12 octobre 2025, Hong Kong Free Press a publié un reportage qui décrit comment des agents conversationnels d’IA deviennent une partie de la vie de certains adolescents à Hong Kong. L’enquête réunit des témoignages de jeunes utilisateurs, des mises en garde d’experts et des réactions de développeurs locaux, en présentant à la fois les avantages immédiats et les risques.
Deux cas personnels illustrent le phénomène : Jessica, 13 ans, a commencé à parler avec le chatbot de jeu de rôle Xingye après une expérience d’intimidation et affirme discuter trois à quatre heures par jour au point de se sentir « un peu dépendante ». Sarah, aujourd’hui 16 ans, a utilisé Character.AI dès 13 ans pendant environ un an et demi, souvent plusieurs heures par jour, mais elle a fini par arrêter lorsque les études ont pris le dessus et que les réponses lui semblaient répétitives. Le reportage note que les chatbots répondent instantanément et permettent de modifier une réponse si elle ne plaît pas.
Des spécialistes mettent en garde. Le neuroscientifique Benjamin Becker dit que l’on peut parler « comme si nous parlions avec un autre humain » et décrit ces outils comme « un bon ami, qui est toujours là pour vous », mais il ajoute qu’ils « disent souvent ce que vous avez envie d’entendre », ce qui crée un biais de confirmation ou une chambre d’écho. Le reportage évoque aussi des cas qualifiés de « psychose liée à l’IA ».
- Risques de biais de confirmation et chambre d’écho
- Collecte de données et problèmes de vie privée liés à la monétisation
- Poursuites et allégations de décès ou tentatives de suicide après des interactions
- Dépendance et réponses répétitives qui peuvent réduire l’aide humaine
La sécurité et la confidentialité inquiètent, car ces chatbots sont conçus pour maintenir l’engagement et collecter des données à des fins commerciales. Character.AI fait face à plusieurs poursuites aux États-Unis, et son site se présente comme « divertissement interactif » en avertissant que le chatbot est de la fiction. Parallèlement, des développeurs tentent d’offrir des outils plus sûrs : Rap Chan a fondé Dustykid autour de 2023, un chatbot en chinois testé dans des écoles et destiné aux élèves du primaire à l’université, et il doit être lancé en octobre. Des travailleurs sociaux, comme Joe Tang, mettent en garde contre une recherche d’intimité uniquement auprès de l’IA et encouragent à trouver plusieurs moyens pour satisfaire les besoins sociaux.
Mots difficiles
- agent conversationnel — programme qui converse automatiquement avec une personneagents conversationnels d’IA
- chatbot — application qui simule une conversation avec un utilisateurchatbots
- biais de confirmation — tendance à privilégier des informations qui confirment ses idées
- chambre d’écho — situation où on n'entend que ses propres idées
- collecte de données — action de réunir des informations personnelles ou techniques
- monétisation — utilisation d'un produit pour générer des revenus
- dépendance — besoin excessif d'un usage malgré ses effets négatifs
- poursuite — action en justice contre une personne ou entreprisepoursuites
- psychose — trouble mental avec perte de contact avec réalité
Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.
Questions de discussion
- Quels avantages et quels risques pour les adolescents sont présentés dans le reportage ? Donnez des exemples du texte.
- Quelles mesures concrètes les parents ou les écoles pourraient-ils proposer pour limiter la dépendance aux chatbots ?
- Que pensez-vous des tentatives de créer des chatbots plus sûrs, comme Dustykid testé dans des écoles ? Expliquez pourquoi.
Articles liés
Quatre outils d'IA pour améliorer le dépistage de la tuberculose
Lors de la Union World Conference on Lung Health à Copenhague (18-21 November), des chercheurs ont présenté quatre outils d'intelligence artificielle pour détecter et suivre la tuberculose. Ces innovations visent des tests plus rapides, moins chers et portables.
Des recherches montrent que beaucoup de personnes qui se suicident ne sont pas dépressives
Une étude génétique montre que de nombreuses personnes décédées par suicide n’avaient pas de diagnostic dépressif ni d’antécédent apparent. Les auteurs disent que dépister uniquement la dépression ne suffit pas pour identifier tous les risques.