L'IA peut-elle être digne de confiance ? Un nouvel institut de 20 millions de dollars à Brown vise à le découvrir.

Can AI be trustworthy? A new $20m institute at Brown aims to find out. - The Boston Globe

L'IA peut-elle être digne de confiance ? Un nouvel institut de 20 millions de dollars à Brown vise à le découvrir.

PROVIDENCE — Alors que le système de santé mentale est surchargé et que les chatbots d'intelligence artificielle gagnent du terrain en tant que substituts aux thérapeutes, un nouvel institut de recherche de 20 millions de dollars à l'Université de Brown pose une question cruciale : Comment l'IA peut-elle être plus digne de confiance, sensible et réactive aux besoins humains ? L'Institut de recherche sur l'interaction pour les assistants IA, appelé ARIA, est l'un des cinq instituts nationaux d'IA soutenus par des subventions de 20 millions de dollars annoncées mardi par la National Science Foundation. Son objectif est de développer une IA digne de confiance et réactive aux besoins humains, pour une utilisation potentielle dans la santé mentale et comportementale.

L'institut combinera des recherches sur la cognition humaine et machine, avec pour objectif de créer des systèmes d'IA capables d'interpréter les besoins comportementaux d'une personne et de fournir des retours utiles en temps réel. « Tout système d'IA qui interagit avec des personnes, surtout celles en détresse ou dans des situations vulnérables, doit avoir une compréhension solide de l'humain avec qui il interagit, ainsi qu'une compréhension causale profonde du monde et de l'impact de son propre comportement », a déclaré Ellie Pavlick, professeure associée en informatique à Brown, qui dirigera la collaboration ARIA.

Avec des besoins en santé mentale de plus en plus critiques face aux réductions de financement et de personnel, et des millions d'Américains incapables d'accéder à une thérapie adéquate, beaucoup se tournent vers l'IA comme forme de thérapie. Plus d'un Américain sur cinq souffre d'un trouble de l'humeur, d'anxiété ou de toxicomanie, selon les National Institutes of Health. Bien qu'il existe des traitements efficaces, leur accès peut être coûteux. L'IA a le potentiel de surmonter ces obstacles, a déclaré Pavlick.

Mais les experts s'inquiètent des risques posés par les chatbots non réglementés comme ChatGPT, notamment les mauvais diagnostics, les violations de la vie privée, les traitements inappropriés et l'exploitation. « Une partie du travail de l'institut sera de comprendre quelles formes cette technologie pourrait prendre, quels systèmes pourraient fonctionner et lesquels ne devraient pas exister », a ajouté Pavlick.

L'institut s'engagera à long terme dans l'IA et les soins de santé mentale, en résistant à la pression de décrire immédiatement à quoi cela pourrait ou devrait ressembler. Il réunira des experts de tout le pays spécialisés en informatique, apprentissage automatique, sciences cognitives et comportementales, droit, philosophie et éducation.

Cette annonce intervient des mois après que l'administration Trump a confirmé au Globe que Brown ferait face à un gel de 510 millions de dollars de financement fédéral en raison de ce que l'administration appelle ses efforts pour tenir les universités d'élite responsables de l'antisémitisme persistant sur les campus. L'université n'a encore reçu aucune notification des efforts de l'administration Trump pour réduire le financement.

ARIA est l'un des cinq instituts nationaux d'IA qui recevront un total de 100 millions de dollars de financement, annoncé mardi par la National Science Foundation en partenariat avec Capital One et Intel. Capital One contribue 1 million de dollars sur cinq ans pour soutenir les efforts de recherche, selon un communiqué de presse.

L'investissement public-privé s'aligne sur le plan d'action pour l'IA de la Maison Blanche, une initiative nationale publiée le 23 juillet visant à soutenir et renforcer le leadership mondial de l'Amérique en matière d'IA. Le plan identifie plus de 90 actions politiques fédérales, notamment l'exportation de l'IA américaine et la promotion du développement rapide des centres de données.

AI có đáng tin cậy không? Viện nghiên cứu 20 triệu đô tại Brown nhằm tìm câu trả lời.

PROVIDENCE — Trong bối cảnh hệ thống sức khỏe tâm thần quá tải và các chatbot trí tuệ nhân tạo (AI) ngày càng được sử dụng như một hình thức thay thế cho trị liệu tâm lý, một viện nghiên cứu mới trị giá 20 triệu đô tại Đại học Brown đặt ra câu hỏi quan trọng: Làm thế nào để AI trở nên đáng tin cậy hơn, nhạy cảm và đáp ứng tốt hơn nhu cầu con người? Viện Nghiên cứu Tương tác Trợ lý AI (ARIA) là một trong năm viện AI quốc gia nhận tài trợ 20 triệu đô từ Quỹ Khoa học Quốc gia (NSF), công bố hôm thứ Ba, nhằm phát triển AI đáng tin cậy và phục vụ nhu cầu con người, đặc biệt trong lĩnh vực sức khỏe tâm thần và hành vi.

Viện sẽ kết hợp nghiên cứu về nhận thức con người và máy móc, với mục tiêu tạo ra hệ thống AI có khả năng phân tích nhu cầu hành vi của cá nhân và đưa ra phản hồi hữu ích theo thời gian thực. Ellie Pavlick, phó giáo sư khoa học máy tính tại Brown, người đứng đầu dự án ARIA, nhấn mạnh: 'Bất kỳ hệ thống AI nào tương tác với con người, đặc biệt là người đang gặp khủng hoảng hoặc trong hoàn cảnh dễ tổn thương, đều cần hiểu sâu sắc về đối tượng giao tiếp, cũng như nắm bắt được nguyên nhân - hệ quả trong thế giới thực và cách hành xử của chính nó tác động đến thế giới đó.'

Khi nhu cầu chăm sóc sức khỏe tâm thần trở nên cấp thiết do cắt giảm ngân sách và nhân lực, cùng việc hàng triệu người Mỹ không tiếp cận được dịch vụ trị liệu phù hợp, nhiều người đang chuyển sang sử dụng AI như một liệu pháp thay thế. Theo Viện Y tế Quốc gia Hoa Kỳ, hơn 20% người Mỹ sống chung với rối loạn tâm trạng, lo âu hoặc lạm dụng chất kích thích. Dù các phương pháp điều trị hiệu quả tồn tại, chi phí tiếp cận thường cao. Pavlick cho rằng AI có tiềm năng phá vỡ rào cản này.

Tuy nhiên, giới chuyên gia cảnh báo về rủi ro từ các chatbot không được kiểm soát như ChatGPT, bao gồm chẩn đoán sai, vi phạm quyền riêng tư, đề xuất điều trị không phù hợp và nguy cơ bị lợi dụng. Pavlick chia sẻ: 'Một phần nhiệm vụ của viện là xác định hình thái công nghệ khả thi, hệ thống nào hoạt động hiệu quả và loại hình nào nên bị loại bỏ.'

Bà khẳng định AI đã được ứng dụng trong lĩnh vực sức khỏe tâm thần, với một số chatbot chuyên biệt được thiết kế riêng bên cạnh các nền tảng đa dụng. 'Ưu tiên hàng đầu của ARIA là đánh giá nghiêm túc công nghệ đang được triển khai: yếu tố hiệu quả, điểm hạn chế, cách tối ưu lợi ích mà không gây tổn hại trước mắt hay lâu dài cho cá nhân và xã hội.'

Viện nghiên cứu cam kết đầu tư dài hạn vào AI và chăm sóc sức khỏe tâm thần, đồng thời 'kiên quyết không vội vạch ra lộ trình cụ thể khi chưa đủ căn cứ.' ARIA sẽ tập hợp chuyên gia hàng đầu từ nhiều lĩnh vực: khoa học máy tính, học máy, khoa học nhận thức & hành vi, luật, triết học và giáo dục.

Thông tin này được công bố vài tháng sau khi chính quyền Trump xác nhận với tờ Boston Globe về việc đóng băng 510 triệu đô tài trợ liên bang cho Brown, với lý do 'yêu cầu trách nhiệm từ các đại học danh tiếng trước tình trạng bài Do Thái kéo dài trong khuôn viên trường.' Đại học Brown cho biết chưa nhận được bất kỳ thông báo chính thức nào về việc cắt giảm ngân sách này.

Dù một số dự án tại Brown bị chấm dứt tài trợ, lãnh đạo trường khẳng định vẫn tiếp tục tìm kiếm nguồn vốn liên bang, bao gồm kinh phí xây dựng viện nghiên cứu. Trong năm đầu tiên, các nhà khoa học sẽ lắng nghe ý kiến từ nhiều bên liên quan - chuyên gia sức khỏe tâm thần, bệnh nhân, nhà hoạch định chính sách và cộng đồng - để định hình tầm nhìn về công nghệ lý tưởng.

ARIA thuộc nhóm năm viện AI quốc gia nhận tổng tài trợ 100 triệu đô từ NSF, công bố ngày 24/10 với sự hợp tác của Capital One và Intel. Theo thông cáo báo chí, Capital One đóng góp 1 triệu đô trong năm năm để hỗ trợ nghiên cứu. Khoản đầu tư công-tư này phù hợp với Kế hoạch Hành động AI của Nhà Trắng - sáng kiến quốc gia công bố ngày 23/7 nhằm duy trì vị thế dẫn đầu toàn cầu về AI của Mỹ. Kế hoạch đề ra hơn 90 hành động chính sách liên bang, bao gồm xuất khẩu công nghệ AI và đẩy mạnh xây dựng trung tâm dữ liệu.

Bộ trưởng Ngoại giao Marco Rubio - người từng bị giả mạo bằng AI để liên lạc với quan chức Mỹ và nước ngoài đầu tháng 10 - tuyên bố: 'Chiến thắng trong cuộc đua AI là điều bắt buộc.' Tuần trước, Tổng thống Trump ký ba sắc lệnh hành pháp khi công bố kế hoạch AI, nhằm 'dỡ bỏ rào cản hành chính và quy định phiền hà.' Một sắc lệnh cấm chính phủ mua công cụ AI có...