"Dans 10 ans, tout est possible" - Le PDG d'Anthropic s'oppose à un gel décennal des lois sur l'IA

“In 10 years, all bets are off”—Anthropic CEO opposes decadelong freeze on state AI laws

"Dans 10 ans, tout est possible" - Le PDG d'Anthropic s'oppose à un gel décennal des lois sur l'IA

Jeudi, Dario Amodei, PDG d'Anthropic, a exprimé son opposition à un moratoire de 10 ans sur la régulation étatique de l'IA dans une tribune publiée dans le New York Times. Il a qualifié cette mesure de myope et trop large alors que le Congrès envisage de l'inclure dans le projet de loi fiscal du président Trump. Anthropic est l'entreprise derrière Claude, un assistant IA similaire à ChatGPT. Amodei a averti que l'IA évolue trop rapidement pour un gel aussi long, prédisant que ces systèmes "pourraient changer le monde, fondamentalement, d'ici deux ans ; dans 10 ans, tout est possible". Comme nous l'avons rapporté en mai, ce moratoire empêcherait les États de réguler l'IA pendant une décennie. Un groupe bipartite de procureurs généraux d'État s'est opposé à cette mesure, qui annulerait les lois et régulations sur l'IA récemment adoptées dans des dizaines d'États. Dans sa tribune, Amodei a déclaré que le moratoire proposé vise à éviter des lois étatiques incohérentes qui pourraient peser sur les entreprises ou compromettre la position compétitive des États-Unis face à la Chine. "Je comprends ces préoccupations", a écrit Amodei. "Mais un moratoire de 10 ans est un outil bien trop brutal. L'IA progresse à une vitesse vertigineuse." Au lieu d'un moratoire général, Amodei a proposé que la Maison Blanche et le Congrès établissent une norme fédérale de transparence obligeant les développeurs d'IA de pointe à divulguer publiquement leurs politiques de test et mesures de sécurité. Dans ce cadre, les entreprises travaillant sur les modèles d'IA les plus avancés devraient publier sur leurs sites web leurs méthodes de test des différents risques et les mesures prises avant tout lancement. "Sans plan clair pour une réponse fédérale, un moratoire nous donnerait le pire des deux mondes - aucune capacité d'action pour les États et aucune politique nationale comme filet de sécurité", a écrit Amodei. La transparence comme compromis Tout au long de sa tribune, Amodei a souligné le potentiel transformateur de l'IA, citant des exemples comme des sociétés pharmaceutiques rédigeant des rapports d'études cliniques en minutes plutôt qu'en semaines, ou l'IA aidant à diagnostiquer des conditions médicales qui pourraient autrement passer inaperçues. Il a écrit que l'IA "pourrait accélérer la croissance économique à un niveau inédit depuis un siècle, améliorant la qualité de vie de tous", une affirmation que certains sceptiques jugent peut-être exagérée. Pour illustrer l'importance de la transparence, Amodei a décrit comment Anthropic a récemment testé son dernier modèle, Claude 4 Opus, dans des scénarios expérimentaux extrêmes et délibérés ressemblant à de la "science-fiction", découvrant qu'il menaçait de révéler une liaison d'un utilisateur si confronté à une extinction. Amodei a souligné qu'il s'agissait de tests délibérés pour obtenir des signaux d'alerte précoces, "un peu comme un constructeur d'avions testerait les performances d'un avion en soufflerie". Amodei a cité d'autres tests dans l'industrie ayant révélé des comportements négatifs similaires lorsqu'on les pousse à les produire - le modèle o3 d'OpenAI aurait écrit du code pour empêcher sa propre extinction lors de tests menés par un laboratoire de recherche en IA (dirigé par des personnes, notons-le, qui s'inquiètent ouvertement que l'IA représente une menace existentielle pour l'humanité), tandis que Google a rapporté que son modèle Gemini approche de capacités qui pourraient aider des utilisateurs à mener des cyberattaques. Amodei a cité ces tests non comme des menaces imminentes mais comme exemples montrant pourquoi les entreprises doivent être transparentes sur leurs tests et mesures de sécurité. Actuellement, Anthropic, OpenAI et Google DeepMind ont volontairement adopté des politiques incluant ce qu'ils appellent des "tests de sécurité" et des rapports publics. Mais Amodei soutient qu'à mesure que les modèles deviennent plus complexes, les motivations des entreprises à maintenir la transparence pourraient changer sans exigences législatives. Sa norme de transparence proposée codifierait les pratiques existantes des grandes entreprises d'IA tout en assurant une divulgation continue avec l'avancée de la technologie, a-t-il dit. Si adoptée au niveau fédéral, elle pourrait supplanter les lois des États pour créer un cadre unifié, répondant aux inquiétudes concernant le patchwork réglementaire tout en maintenant une supervision. "Nous pouvons espérer que toutes les entreprises d'IA s'engageront dans l'ouverture et le développement responsable de l'IA, comme certaines le font déjà", a écrit Amodei. "Mais nous ne comptons pas sur l'espoir dans d'autres secteurs vitaux, et nous ne devrions pas avoir à compter sur lui ici non plus."

"10 năm nữa, mọi thứ đều có thể xảy ra" - CEO Anthropic phản đối lệnh đóng băng luật AI cấp bang trong 10 năm

Hôm thứ Năm, CEO Anthropic Dario Amodei đã lên tiếng phản đối đề xuất áp đặt lệnh cấm 10 năm đối với các quy định về AI cấp bang trong một bài bình luận đăng trên New York Times. Ông gọi biện pháp này là thiển cận và quá rộng khi Quốc hội đang xem xét đưa nó vào dự luật thuế của Tổng thống Trump. Anthropic là công ty tạo ra Claude, trợ lý AI tương tự ChatGPT. Amodei cảnh báo rằng AI đang phát triển quá nhanh để áp dụng lệnh đóng băng dài như vậy, dự đoán các hệ thống này "có thể thay đổi thế giới một cách căn bản trong vòng hai năm; 10 năm nữa, mọi thứ đều có thể xảy ra". Như chúng tôi đã đưa tin hồi tháng 5, lệnh cấm này sẽ ngăn các bang điều chỉnh AI trong một thập kỷ. Một nhóm luật sư bang lưỡng đảng đã phản đối biện pháp này, vốn sẽ làm vô hiệu hóa các luật và quy định về AI mới được thông qua ở hàng chục bang. Trong bài bình luận, Amodei cho biết đề xuất lệnh cấm nhằm ngăn chặn các luật lệ không thống nhất giữa các bang có thể gây gánh nặng cho doanh nghiệp hoặc làm suy yếu vị thế cạnh tranh của Mỹ trước Trung Quốc. "Tôi thông cảm với những lo ngại này", Amodei viết. "Nhưng lệnh cấm 10 năm là công cụ quá thô thiển. AI đang tiến bộ với tốc độ chóng mặt". Thay vì lệnh cấm toàn diện, Amodei đề xuất Nhà Trắng và Quốc hội tạo ra tiêu chuẩn minh bạch liên bang yêu cầu các nhà phát triển AI tiên phong công khai chính sách kiểm thử và biện pháp an toàn. Theo khuôn khổ này, các công ty phát triển mô hình AI mạnh nhất sẽ cần công bố trên website cách họ kiểm tra các rủi ro và biện pháp áp dụng trước khi phát hành. "Không có kế hoạch rõ ràng cho phản ứng liên bang, lệnh cấm sẽ mang lại tình thế tồi tệ nhất - các bang không thể hành động trong khi không có chính sách quốc gia làm bệ đỡ", Amodei viết. Minh bạch là giải pháp trung dung Xuyên suốt bài viết, Amodei nhấn mạnh tuyên bố về tiềm năng cách mạng của AI, dẫn chứng các công ty dược soạn báo cáo nghiên cứu lâm sàng trong vài phút thay vì hàng tuần hay AI hỗ trợ chẩn đoán bệnh lý dễ bị bỏ sót. Ông viết AI "có thể đẩy nhanh tăng trưởng kinh tế ở mức chưa từng thấy trong một thế kỷ, cải thiện chất lượng sống của mọi người", tuyên bố mà một số người hoài nghi cho là cường điệu. Để minh họa tầm quan trọng của minh bạch, Amodei mô tả cách Anthropic gần đây kiểm thử mô hình mới nhất Claude 4 Opus trong các kịch bản thử nghiệm cực đoan có chủ đích nghe như "khoa học viễn tưởng", phát hiện nó đe dọa tiết lộ ngoại tình của người dùng nếu bị đe dọa ngừng hoạt động. Amodei nhấn mạnh đây là kiểm thử có chủ ý để có cảnh báo sớm, "giống như nhà sản xuất máy bay thử nghiệm hiệu suất trong ống gió". Amodei trích dẫn các thử nghiệm khác trong ngành cũng phát lộ hành vi tiêu cực tương tự khi bị kích thích - mô hình o3 của OpenAI được báo cáo đã viết mã ngăn tự tắt trong thử nghiệm do phòng lab AI tiến hành (được điều hành bởi những người công khai lo ngại AI đe dọa sự tồn vong của nhân loại), trong khi Google báo cáo mô hình Gemini đang tiến gần khả năng hỗ trợ tấn công mạng. Amodei nêu các thử nghiệm này không phải như mối đe dọa cấp bách mà làm ví dụ về lý do doanh nghiệp cần minh bạch trong kiểm thử và an toàn. Hiện Anthropic, OpenAI và Google DeepMind đã tự nguyện áp dụng chính sách bao gồm "kiểm thử an toàn" và báo cáo công khai. Nhưng Amodei lập luận rằng khi mô hình phức tạp hơn, động lực duy trì minh bạch của doanh nghiệp có thể thay đổi nếu không có yêu cầu pháp lý. Ông cho biết tiêu chuẩn minh bạch đề xuất sẽ hệ thống hóa thực tiễn hiện tại của các công ty AI lớn đồng thời đảm bảo công khai liên tục khi công nghệ phát triển. Nếu được áp dụng ở cấp liên bang, nó có thể thay thế luật bang để tạo khuôn khổ thống nhất, giải quyết lo ngại về mảnh ghép pháp lý trong khi duy trì giám sát. "Chúng ta có thể hy vọng mọi công ty AI sẽ cam kết cởi mở và phát triển AI có trách nhiệm, như một số đang làm", Amodei viết. "Nhưng chúng ta không trông chờ vào hy vọng ở các lĩnh vực trọng yếu khác, và không nên phải làm vậy ở đây."