L'IA s'invite dans le cabinet du psy – et elle vous enregistre à votre insu

AI has entered the therapy session — and it's recording you

L'IA s'invite dans le cabinet du psy – et elle vous enregistre à votre insu

L'intelligence artificielle générative s'immisce progressivement dans le domaine de la santé mentale, soulevant des questions complexes sur l'éthique professionnelle et la confidentialité des patients. Des entreprises comme Upheal, Blueprint et Heidi Health proposent désormais des outils alimentés par l'IA pour aider les thérapeutes à documenter leurs séances et gérer leurs tâches administratives. Mais ces solutions innovantes impliquent généralement l'enregistrement intégral des consultations, une pratique qui suscite de vifs débats.

Ces assistants numériques, surnommés "scribe IA", analysent le contenu des échanges thérapeutiques pour générer automatiquement les documents requis par les assurances et les audits qualité. Si les cliniciens y voient un gain de temps précieux, certains experts alertent sur les risques inhérents : piratage des données, utilisation non consentie pour entraîner des modèles linguistiques, ou impact négatif sur la relation thérapeutique.

Le Dr Vaile Wright de l'American Psychological Association souligne le manque de recul : "Le secteur a quelque peu précipité les choses sans se demander si c'était une bonne idée. Nous n'avons tout simplement pas la réponse." Cette inquiétude fait écho aux craintes croissantes concernant la protection des données sensibles révélées en thérapie.

Pour la psychologue Hannah Weisman, basée à Seattle, ces outils ont révolutionné sa pratique depuis décembre dernier. Ils lui épargnent environ cinq minutes par patient en réduisant la charge cognitive liée à la rédaction des notes cliniques. Mais cette adepte des nouvelles technologies reste vigilante : elle a élaboré un protocole de consentement éclairé strict et s'engage à supprimer tous les enregistrements sous 48 heures.

Heidi Health, l'un de ces fournisseurs, assure chiffrer les enregistrements en temps réel et ne jamais stocker les données ou les utiliser pour perfectionner son IA. Pourtant, environ un quart des patients de Weisman refusent catégoriquement d'être enregistrés, particulièrement parmi les professionnels de la tech conscients des risques.

Face à ces enjeux, l'American Psychological Association a publié l'automne dernier une checklist pour guider les thérapeutes dans le choix d'outils IA. Elle recommande de vérifier la conformité HIPAA, les mesures de sécurité et la possibilité de supprimer les données. Mais comme le note le Dr Wright, les praticiens indépendants peinent souvent à décrypter le jargon technique des conditions d'utilisation.

Les risques sont bien réels : une étude récente du JAMA Network Open révèle une augmentation constante des violations de données médicales depuis 2010. John X. Jiang, son auteur principal, met en garde contre la valeur particulière des enregistrements thérapeutiques : "Ces fichiers audio contiennent des informations si sensibles qu'ils représentent une cible de choix pour le chantage."

Le Dr Darlene King, psychiatre au UT Southwestern Medical Center, insiste sur la nécessité de standards de sécurité renforcés pour les notes thérapeutiques. Elle utilise elle-même un scribe IA pour la documentation médicale, mais jamais en psychothérapie, où les révélations sur les traumatismes ou les addictions exigent une protection maximale.

Certains entrepreneurs proposent des alternatives. Jon Sustar, cofondateur de Quill Therapy Solutions, a développé une solution basée sur des résumés verbaux plutôt que des enregistrements complets. "La thérapie est un espace sacré", affirme cet ingénieur dont l'épouse est thérapeute. Il s'inquiète de la banalisation progressive de l'enregistrement systématique des séances, souvent sans consentement pleinement éclairé.

Alors que certains patients se confient déjà à des IA comme ChatGPT, Sustar redoute que les startups financées par le capital-risque ne redéfinissent trop rapidement les normes de confidentialité en santé mentale. Un débat crucial à l'heure où les technologies transformatives pénètrent tous les aspects des soins psychologiques.

AI đột nhập phòng trị liệu: Liệu pháp tâm lý thời đại số đánh đổi riêng tư để lấy tiện ích?

Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng thâm nhập sâu vào đời sống, việc ứng dụng công nghệ này trong lĩnh vực chăm sóc sức khỏe tâm thần đang đặt ra những câu hỏi phức tạp về đạo đức nghề nghiệp và quyền riêng tư bệnh nhân. Nhiều công ty như Upheal, Blueprint và Heidi Health đã phát triển các công cụ AI hỗ trợ bác sĩ tâm lý ghi chép phiên trị liệu và hoàn tất thủ tục hành chính, nhưng đổi lại yêu cầu ghi âm toàn bộ buổi trị liệu - một thực hành hiếm khi diễn ra ngoài đào tạo chuyên môn hay công tác pháp y.

Các công cụ ghi chép AI này phân tích nội dung trao đổi giữa bệnh nhân và bác sĩ để tạo tài liệu phục vụ thanh toán bảo hiểm và kiểm tra chất lượng. Dù giúp giảm tải công việc hành chính, chúng tiềm ẩn nhiều rủi ro như nguy cơ bị hack hoặc sử dụng dữ liệu để huấn luyện AI mà không có sự đồng ý của bệnh nhân. Tiến sĩ Vaile Wright từ Hiệp hội Tâm lý Hoa Kỳ (APA) nhận định: 'Ngành công nghiệp này đã hành động hơi vội vàng mà chưa tự hỏi liệu đây có phải là ý tưởng tốt?'

Bác sĩ tâm lý Hannah Weisman tại Seattle bắt đầu sử dụng trợ lý AI từ tháng 12/2023 để giảm bớt 'gánh nặng nhận thức' khi ghi chép hồ sơ. Cô ước tính tiết kiệm được 5 phút cho mỗi bệnh nhân nhưng luôn yêu cầu sự đồng ý bằng văn bản và cam kết xóa bản ghi âm trong 48 giờ. Weisman kiên quyết không sử dụng dịch vụ AI lưu trữ dữ liệu ẩn danh để cải thiện sản phẩm, coi đây là 'điều không thể thỏa hiệp' trong việc bảo vệ người dùng.

Hiệp hội Tâm lý Hoa Kỳ đã xây dựng bảng kiểm giúp chuyên gia tâm lý đánh giá các công cụ AI, tập trung vào tính tuân thủ HIPAA, mã hóa dữ liệu và quyền kiểm soát thông tin. Tuy nhiên, các chuyên gia lo ngại về nguy cơ rò rỉ dữ liệu nhạy cảm khi số vụ tấn công mạng vào lĩnh vực y tế đã lên tới 6.468 vụ tính đến tháng 10/2024. Giáo sư John X. Jiang cảnh báo bản ghi âm trị liệu có thể trở thành mục tiêu cho tin tặc tống tiền do chứa thông tin cực kỳ nhạy cảm.

Trong khi đó, Jon Sustar - đồng sáng lập Quill Therapy Solutions - đề xuất giải pháp thay thế: không ghi âm phiên trị liệu mà chỉ sử dụng AI xử lý bản tóm tắt bằng lời hoặc văn bản của bác sĩ. Dù không giảm tải công việc ghi nhớ, phương pháp này loại bỏ rủi ro rò rỉ bản ghi. Sustar bày tỏ lo ngại về việc các startup được đầu tư mạo hiểm đang âm thầm thay đổi chuẩn mực trong ngành bằng cách bình thường hóa việc ghi âm phiên trị liệu mà không có sự đồng thuận đầy đủ.

Cuộc tranh luận về AI trong trị liệu tâm lý đặt ra bài toán cân bằng giữa lợi ích giảm tải cho bác sĩ và bảo vệ quyền riêng tư bệnh nhân. Như Tiến sĩ Darlene King từ Hiệp hội Tâm thần Hoa Kỳ nhấn mạnh, ngành sức khỏe tâm thần cần tận dụng mặt tích cực của AI trong cải thiện điều trị, đồng thời duy trì tiêu chuẩn bảo mật cao hơn cả hồ sơ y tế thông thường do tính chất cực kỳ nhạy cảm của nội dung trị liệu.