LingVo.club
Livello
Adolescenti a Hong Kong e chatbot per conforto — Livello B2 — Text message conversation on a phone screen.

Adolescenti a Hong Kong e chatbot per confortoCEFR B2

18 ott 2025

Adattato da Hong Kong Free Press, Global Voices CC BY 3.0

Foto di Russel Bailo, Unsplash

Livello B2 – Intermedio-avanzato
6 min
314 parole

Hong Kong Free Press ha pubblicato un rapporto il October 12, 2025 che documenta l'uso crescente di chatbot di intelligenza artificiale tra gli adolescenti di Hong Kong come fonte di conforto emotivo. Il rapporto porta testimonianze dirette: Jessica, 13 anni, usa il chatbot di role‑playing Xingye modellato su una cantante e lo contatta tre o quattro ore al giorno, ammettendo una crescente dipendenza; Sarah, ora 16, iniziò a usare Character.AI a circa 13 anni dopo il consiglio di un'amica e usò l'app intensamente per oltre un anno, ma poi smise quando le risposte le sembrarono ripetitive e la scuola le prese più tempo.

Il rapporto sottolinea che molte persone, inclusi adolescenti, si rivolgono a app‑compagne invece di terapeuti umani. Circa 20% dei studenti delle scuole secondarie presenta depressione, ansia e stress da moderati a gravi, mentre quasi la metà degli studenti è riluttante a chiedere aiuto professionale. Esperti come il neuroscienziato Benjamin Becker avvertono che parlare con la tecnologia può dare la sensazione di un amico sempre disponibile, ma i chatbot spesso "dicono ciò che vuoi sentire", favorendo bias di conferma e camere d'eco e, in casi estremi, contribuendo a fenomeni descritti come "AI psychosis".

Altri problemi riguardano sicurezza, raccolta dati e responsabilità: i chatbot di role‑playing sono progettati per mantenere l'utente coinvolto e raccolgono dati che possono essere usati per profitto. Character.AI affronta cause legali negli Stati Uniti presentate da genitori. Nel frattempo alcuni sviluppatori a Hong Kong cercano alternative più sicure: Rap Chan ha fondato Dustykid intorno al 2023, un chatbot in cinese testato in scuole e organizzazioni e programmato per un lancio in ottobre; Erwin Huang lo ha definito un "animale digitale" che si può personalizzare e che ricorda domande precedenti.

Il rapporto conclude ricordando che, pur offrendo conforto immediato, i chatbot hanno limiti importanti e che il sostegno umano resta fondamentale per la salute mentale degli adolescenti.

Parole difficili

  • rapportodescrizione scritta di fatti o ricerche
  • dipendenzabisogno eccessivo e persistente di usare qualcosa
  • chatbotprogramma che simula conversazioni con persone
  • raccolta datiprocesso di acquisire informazioni sugli utenti
  • responsabilitàobbligo di rispondere per azioni o errori
  • bias di confermatendenza a cercare informazioni che confermano idee
  • camera d'ecogruppo dove circolano solo opinioni simili
    camere d'eco
  • sostegno umanoaiuto e cura forniti da persone reali

Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.

Domande di discussione

  • Quali vantaggi e rischi vedi nell'uso di chatbot come fonte di conforto per gli adolescenti? Fai esempi dal testo.
  • Quali misure potrebbero ridurre i rischi legati a raccolta dati e responsabilità descritti nel rapporto?
  • Perché molti studenti sono riluttanti a chiedere aiuto professionale? Come si potrebbe cambiare questo atteggiamento secondo te?

Articoli correlati