Adolescenti a Hong Kong e chatbot per confortoCEFR A2
18 ott 2025
Adattato da Hong Kong Free Press, Global Voices • CC BY 3.0
Foto di Russel Bailo, Unsplash
Hong Kong Free Press ha pubblicato un rapporto il October 12, 2025 su adolescenti che usano chatbot di intelligenza artificiale per supporto emotivo. Due ragazze parlano spesso con chatbot: Jessica, 13 anni, usa Xingye e passa tre o quattro ore al giorno con il chatbot. Sarah, 16 anni, iniziò a usare Character.AI a circa 13 anni e per un periodo vi passò molte ore.
Il rapporto dice che sempre più giovani cercano conforto nelle app invece che da terapeuti umani. Circa 20% degli studenti delle scuole secondarie ha depressione, ansia o stress moderato o grave, e quasi la metà è riluttante a chiedere aiuto. Esperti e operatori sociali avvertono rischi per sicurezza, privacy e dipendenza. Alcune startup locali, come Dustykid fondata intorno al 2023, cercano soluzioni più sicure e puntano a un lancio in ottobre.
Parole difficili
- chatbot — Un programma che parla con persone.
- supporto — Aiuto per le emozioni o problemi.
- conforto — Sentirsi meglio dopo un dolore.
- difficoltà — Problemi o ostacoli da superare.
- relazioni — Collegamenti o legami con le persone.
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Quali sono i vantaggi di usare un chatbot?
- In che modo un amico può essere diverso da un chatbot?
- Pensi che i chatbot possano aiutare davvero le persone? Perché?
Articoli correlati
Risk Know-How: una piattaforma per la comunicazione del rischio
Risk Know-How è una piattaforma lanciata alla riunione AAAS per aiutare comunità a rischio a condividere esperienze e ottenere consulenze. Offre casi di studio, contatti, formazione e richiama l'attenzione sull'accessibilità e la complessità delle informazioni.
IA e responsabilità: chi decide e chi subisce
Hija Kamran critica il modo in cui le aziende tecnologiche danno priorità al profitto e alla pubblicità, e spiega come i dati e i modelli di IA possano amplificare razzismo, sessismo ed esclusione. Chiede un approccio basato sui diritti umani.