LingVo.club
📖+40 XP
🎧+25 XP
+45 XP
Automatisation de la thérapie par l'IA — Niveau B2 — two hands touching each other in front of a blue background

Automatisation de la thérapie par l'IACEFR B2

21 avr. 2026

Niveau B2 – Intermédiaire supérieur
6 min
311 mots

Des chercheurs de l'University of Utah ont élaboré un cadre pour évaluer dans quelle mesure le travail thérapeutique peut être automatisé à mesure que les systèmes conversationnels et les grands modèles de langage (LLM) se généralisent. Mis en ligne avant publication dans Current Directions in Psychological Science, ce travail, dirigé par Zac Imel avec Vivek Srikumar, Brent Kious et d'autres, vise à préciser ce qui est techniquement et pratiquement automatisé, et à distinguer usage, risque et responsabilité.

Le cadre organise l'automatisation en quatre catégories le long d'un continuum : des systèmes scriptés avec contenu préécrit et arbres décisionnels ; des IA qui évaluent et notent des séances de thérapeutes ; des assistants qui suggèrent interventions, relances ou formulations pendant qu'un humain demeure responsable ; et des agents autonomes qui génèrent des réponses et interagissent directement avec des patients, parfois sous supervision.

Les chercheurs évaluent l'utilité potentielle et les risques pour chaque catégorie, en notant que de simples outils de prise de notes ou de coaching se distinguent fortement d'un thérapeute IA entièrement autonome. Ils insistent sur le fait que les utilisateurs et les systèmes de santé ignorent parfois le niveau d'automatisation, ce qui pose des questions de consentement, de responsabilité et des conséquences des erreurs. En collaboration avec SafeUT, l'équipe développe des outils pour évaluer les séances des conseillers en crise et fournir des retours destinés au maintien et au développement des compétences. Les auteurs préviennent que les LLM appliqués directement au conseil peuvent fabriquer des informations, encoder des biais, se révéler imprévisibles et ne pas respecter systématiquement les techniques de psychothérapie fondées sur des preuves. Le document propose de commencer par des outils plus légers et moins risqués tout en étudiant soigneusement bénéfices et préjudices. Des coauteurs supplémentaires viennent d'autres universités et instituts, et Zac Imel est cofondateur de Lyssn.

  • Continuum d'automatisation
  • Quatre catégories A→D
  • Évaluation des bénéfices et risques
  • Collaboration avec SafeUT

Mots difficiles

  • cadrestructure pour organiser des idées ou actions
  • automatisationremplacement d'une tâche humaine par une machine
    automatisé
  • scriptépréparé à l'avance avec texte fixé
    scriptés
  • arbre décisionneldiagramme de choix guidant des décisions successives
    arbres décisionnels
  • agent autonomesystème qui répond et agit sans humain
    agents autonomes
  • consentementaccord donné volontairement avant une action
  • responsabilitéobligation de répondre des actes ou erreurs
  • fabriquercréer ou inventer quelque chose, souvent faux

Astuce : survolez, mettez le focus ou touchez les mots en surbrillance dans l’article pour voir des définitions rapides pendant que vous lisez ou écoutez.

Questions de discussion

  • Pensez-vous qu'il soit acceptable d'utiliser des assistants qui suggèrent des interventions pendant qu'un humain reste responsable ? Pourquoi ?
  • Quels avantages et quels risques voyez-vous à commencer par des outils légers plutôt que par des agents autonomes ?
  • Comment les services de santé pourraient-ils informer clairement les utilisateurs du niveau d'automatisation d'un système ?

Articles liés