‘Une Grande et Belle Loi’ pourrait bloquer la régulation de l'IA pendant 10 ans, laissant ses dangers sans contrôle
Les législateurs des États américains ont déposé des centaines de projets de loi pour encadrer les risques potentiels de l'intelligence artificielle (IA) concernant la sécurité des enfants, l'éducation, les élections et plus encore. Ces lois deviendraient impossibles à appliquer pendant 10 ans si le vaste projet de loi actuellement débattu au Congrès était adopté. Le texte, soutenu par Donald Trump, inclut une section de 450 mots interdisant aux États de réguler l'IA pendant une décennie. Ses partisans arguent que cette mesure évitera un patchwork législatif étouffant l'innovation et nuisant à la compétitivité face à la Chine. Mais cette disposition suscite une vive opposition bipartisane depuis le vote du 22 mai à la Chambre, y compris parmi des élus qui ont pourtant soutenu le texte. 'J'aurais voté contre si j'avais su que c'était inclus', a déclaré la représentante Marjorie Taylor Greene (Républicaine-Géorgie) sur X le 3 juin. Les exemples de dangers liés à l'IA abondent : en février 2024, un adolescent de Floride s'est suicidé après une interaction prolongée avec un chatbot génératif ; des applications utilisant l'IA pour 'déshabiller' virtuellement des personnes, y compris des mineurs, se répandent ; et les éducateurs peinent à intégrer cette technologie sans compromettre l'apprentissage. Face aux critiques, les sénateurs républicains proposent désormais de lier cette disposition aux fonds fédéraux pour le haut débit (programme BEAD), mettant les États devant un choix cornélien : renoncer à réguler l'IA ou perdre des financements cruciaux pour connecter les zones rurales et défavorisées. Amba Kak, de l'AI Now Institute, parle d'un 'marché étrange' imposé aux élus locaux. L'argument de la compétition avec la Chine est central dans ce débat. Alors que plus de 1 000 projets de loi sur l'IA ont été déposés dans les États en 2025, des figures comme le sénateur Ted Cruz (Républicain-Texas) estiment qu'une régulation locale dispersée ferait perdre aux États-Unis la course technologique face à Pékin. À l'inverse, des experts comme Pete Furlong (Center for Humane Technology) soulignent que sécurité et innovation ne s'opposent pas nécessairement. Le 3 juin, 260 législateurs de tous bords et de tous les États ont exprimé leur 'forte opposition' à cette mesure, soulignant qu'elle annulerait des protections existantes pour les consommateurs, les patients ou les artistes. Un récent sondage montre que 73% des électeurs souhaitent une régulation de l'IA, et 59% rejettent un moratoire de 10 ans. Les conséquences potentielles sont vastes : des lois sur la pornographie infantile générée par IA aux mesures pour identifier les contenus synthétiques pendant les campagnes électorales (comme dans le Wisconsin), en passant par des protections encore inimaginables face à des risques émergents. Gaia Bernstein (Université Seton Hall) alerte : 'Dix ans, c'est une génération entière pour un enfant. On ne peut pas annuler cette expérience.'