L'IA s'invite dans le cabinet du psy – et elle vous enregistre à votre insu
L'intelligence artificielle générative s'immisce progressivement dans le domaine de la santé mentale, soulevant des questions complexes sur l'éthique professionnelle et la confidentialité des patients. Des entreprises comme Upheal, Blueprint et Heidi Health proposent désormais des outils alimentés par l'IA pour aider les thérapeutes à documenter leurs séances et gérer leurs tâches administratives. Mais ces solutions innovantes impliquent généralement l'enregistrement intégral des consultations, une pratique qui suscite de vifs débats.
Ces assistants numériques, surnommés "scribe IA", analysent le contenu des échanges thérapeutiques pour générer automatiquement les documents requis par les assurances et les audits qualité. Si les cliniciens y voient un gain de temps précieux, certains experts alertent sur les risques inhérents : piratage des données, utilisation non consentie pour entraîner des modèles linguistiques, ou impact négatif sur la relation thérapeutique.
Le Dr Vaile Wright de l'American Psychological Association souligne le manque de recul : "Le secteur a quelque peu précipité les choses sans se demander si c'était une bonne idée. Nous n'avons tout simplement pas la réponse." Cette inquiétude fait écho aux craintes croissantes concernant la protection des données sensibles révélées en thérapie.
Pour la psychologue Hannah Weisman, basée à Seattle, ces outils ont révolutionné sa pratique depuis décembre dernier. Ils lui épargnent environ cinq minutes par patient en réduisant la charge cognitive liée à la rédaction des notes cliniques. Mais cette adepte des nouvelles technologies reste vigilante : elle a élaboré un protocole de consentement éclairé strict et s'engage à supprimer tous les enregistrements sous 48 heures.
Heidi Health, l'un de ces fournisseurs, assure chiffrer les enregistrements en temps réel et ne jamais stocker les données ou les utiliser pour perfectionner son IA. Pourtant, environ un quart des patients de Weisman refusent catégoriquement d'être enregistrés, particulièrement parmi les professionnels de la tech conscients des risques.
Face à ces enjeux, l'American Psychological Association a publié l'automne dernier une checklist pour guider les thérapeutes dans le choix d'outils IA. Elle recommande de vérifier la conformité HIPAA, les mesures de sécurité et la possibilité de supprimer les données. Mais comme le note le Dr Wright, les praticiens indépendants peinent souvent à décrypter le jargon technique des conditions d'utilisation.
Les risques sont bien réels : une étude récente du JAMA Network Open révèle une augmentation constante des violations de données médicales depuis 2010. John X. Jiang, son auteur principal, met en garde contre la valeur particulière des enregistrements thérapeutiques : "Ces fichiers audio contiennent des informations si sensibles qu'ils représentent une cible de choix pour le chantage."
Le Dr Darlene King, psychiatre au UT Southwestern Medical Center, insiste sur la nécessité de standards de sécurité renforcés pour les notes thérapeutiques. Elle utilise elle-même un scribe IA pour la documentation médicale, mais jamais en psychothérapie, où les révélations sur les traumatismes ou les addictions exigent une protection maximale.
Certains entrepreneurs proposent des alternatives. Jon Sustar, cofondateur de Quill Therapy Solutions, a développé une solution basée sur des résumés verbaux plutôt que des enregistrements complets. "La thérapie est un espace sacré", affirme cet ingénieur dont l'épouse est thérapeute. Il s'inquiète de la banalisation progressive de l'enregistrement systématique des séances, souvent sans consentement pleinement éclairé.
Alors que certains patients se confient déjà à des IA comme ChatGPT, Sustar redoute que les startups financées par le capital-risque ne redéfinissent trop rapidement les normes de confidentialité en santé mentale. Un débat crucial à l'heure où les technologies transformatives pénètrent tous les aspects des soins psychologiques.