La Californie tente une nouvelle fois de réguler ses géants de l'IA : un rapport révèle des lacunes alarmantes
Un rapport tant attendu sur la régulation de l'IA en Californie vient d'être publié, soulignant l'incapacité des entreprises à pleinement comprendre les risques associés à cette technologie. Ce document de 52 pages, intitulé "California Report on Frontier Policy", propose un nouveau cadre pour encadrer le développement de l'IA générative tout en minimisant ses dangers potentiels.
Le gouverneur Gavin Newsom avait opposé son veto au projet de loi SB 1047 en septembre dernier, jugé trop rigide. Il avait alors chargé un groupe d'experts, dont Fei-Fei Li de Stanford et Jennifer Chayes de UC Berkeley, de proposer une alternative plus équilibrée entre innovation et protection.
Les auteurs constatent que les capacités de l'IA, notamment son raisonnement en chaîne, se sont considérablement améliorées depuis le veto. Ils mettent en garde contre des risques "potentiellement irréversibles" dans des domaines sensibles comme les armes chimiques ou biologiques, où les capacités des modèles progressent rapidement.
Le rapport préconise une approche nuancée de la régulation, évitant de se baser uniquement sur la puissance de calcul requise pour l'entraînement. Il insiste sur la nécessité d'évaluations de risques par des tiers indépendants, protégés par des dispositions de "safe harbor", et d'une plus grande transparence des entreprises.
Face à l'opacité actuelle du secteur concernant les données, les tests de sécurité et les impacts réels, les experts recommandent des mécanismes de signalement pour les victimes de préjudices causés par l'IA. Ils reconnaissent cependant qu'aucune politique ne pourra prévenir 100% des effets négatifs de cette technologie en rapide évolution.