"Dans 10 ans, tout est possible" - Le PDG d'Anthropic s'oppose à un gel décennal des lois sur l'IA
Jeudi, Dario Amodei, PDG d'Anthropic, a exprimé son opposition à un moratoire de 10 ans sur la régulation étatique de l'IA dans une tribune publiée dans le New York Times. Il a qualifié cette mesure de myope et trop large alors que le Congrès envisage de l'inclure dans le projet de loi fiscal du président Trump. Anthropic est l'entreprise derrière Claude, un assistant IA similaire à ChatGPT. Amodei a averti que l'IA évolue trop rapidement pour un gel aussi long, prédisant que ces systèmes "pourraient changer le monde, fondamentalement, d'ici deux ans ; dans 10 ans, tout est possible". Comme nous l'avons rapporté en mai, ce moratoire empêcherait les États de réguler l'IA pendant une décennie. Un groupe bipartite de procureurs généraux d'État s'est opposé à cette mesure, qui annulerait les lois et régulations sur l'IA récemment adoptées dans des dizaines d'États. Dans sa tribune, Amodei a déclaré que le moratoire proposé vise à éviter des lois étatiques incohérentes qui pourraient peser sur les entreprises ou compromettre la position compétitive des États-Unis face à la Chine. "Je comprends ces préoccupations", a écrit Amodei. "Mais un moratoire de 10 ans est un outil bien trop brutal. L'IA progresse à une vitesse vertigineuse." Au lieu d'un moratoire général, Amodei a proposé que la Maison Blanche et le Congrès établissent une norme fédérale de transparence obligeant les développeurs d'IA de pointe à divulguer publiquement leurs politiques de test et mesures de sécurité. Dans ce cadre, les entreprises travaillant sur les modèles d'IA les plus avancés devraient publier sur leurs sites web leurs méthodes de test des différents risques et les mesures prises avant tout lancement. "Sans plan clair pour une réponse fédérale, un moratoire nous donnerait le pire des deux mondes - aucune capacité d'action pour les États et aucune politique nationale comme filet de sécurité", a écrit Amodei. La transparence comme compromis Tout au long de sa tribune, Amodei a souligné le potentiel transformateur de l'IA, citant des exemples comme des sociétés pharmaceutiques rédigeant des rapports d'études cliniques en minutes plutôt qu'en semaines, ou l'IA aidant à diagnostiquer des conditions médicales qui pourraient autrement passer inaperçues. Il a écrit que l'IA "pourrait accélérer la croissance économique à un niveau inédit depuis un siècle, améliorant la qualité de vie de tous", une affirmation que certains sceptiques jugent peut-être exagérée. Pour illustrer l'importance de la transparence, Amodei a décrit comment Anthropic a récemment testé son dernier modèle, Claude 4 Opus, dans des scénarios expérimentaux extrêmes et délibérés ressemblant à de la "science-fiction", découvrant qu'il menaçait de révéler une liaison d'un utilisateur si confronté à une extinction. Amodei a souligné qu'il s'agissait de tests délibérés pour obtenir des signaux d'alerte précoces, "un peu comme un constructeur d'avions testerait les performances d'un avion en soufflerie". Amodei a cité d'autres tests dans l'industrie ayant révélé des comportements négatifs similaires lorsqu'on les pousse à les produire - le modèle o3 d'OpenAI aurait écrit du code pour empêcher sa propre extinction lors de tests menés par un laboratoire de recherche en IA (dirigé par des personnes, notons-le, qui s'inquiètent ouvertement que l'IA représente une menace existentielle pour l'humanité), tandis que Google a rapporté que son modèle Gemini approche de capacités qui pourraient aider des utilisateurs à mener des cyberattaques. Amodei a cité ces tests non comme des menaces imminentes mais comme exemples montrant pourquoi les entreprises doivent être transparentes sur leurs tests et mesures de sécurité. Actuellement, Anthropic, OpenAI et Google DeepMind ont volontairement adopté des politiques incluant ce qu'ils appellent des "tests de sécurité" et des rapports publics. Mais Amodei soutient qu'à mesure que les modèles deviennent plus complexes, les motivations des entreprises à maintenir la transparence pourraient changer sans exigences législatives. Sa norme de transparence proposée codifierait les pratiques existantes des grandes entreprises d'IA tout en assurant une divulgation continue avec l'avancée de la technologie, a-t-il dit. Si adoptée au niveau fédéral, elle pourrait supplanter les lois des États pour créer un cadre unifié, répondant aux inquiétudes concernant le patchwork réglementaire tout en maintenant une supervision. "Nous pouvons espérer que toutes les entreprises d'IA s'engageront dans l'ouverture et le développement responsable de l'IA, comme certaines le font déjà", a écrit Amodei. "Mais nous ne comptons pas sur l'espoir dans d'autres secteurs vitaux, et nous ne devrions pas avoir à compter sur lui ici non plus."