La Californie tente une nouvelle fois de réguler ses géants de l'IA : un rapport révèle des lacunes alarmantes

California is trying to regulate its AI giants — again

La Californie tente une nouvelle fois de réguler ses géants de l'IA : un rapport révèle des lacunes alarmantes

Un rapport tant attendu sur la régulation de l'IA en Californie vient d'être publié, soulignant l'incapacité des entreprises à pleinement comprendre les risques associés à cette technologie. Ce document de 52 pages, intitulé "California Report on Frontier Policy", propose un nouveau cadre pour encadrer le développement de l'IA générative tout en minimisant ses dangers potentiels.

Le gouverneur Gavin Newsom avait opposé son veto au projet de loi SB 1047 en septembre dernier, jugé trop rigide. Il avait alors chargé un groupe d'experts, dont Fei-Fei Li de Stanford et Jennifer Chayes de UC Berkeley, de proposer une alternative plus équilibrée entre innovation et protection.

Les auteurs constatent que les capacités de l'IA, notamment son raisonnement en chaîne, se sont considérablement améliorées depuis le veto. Ils mettent en garde contre des risques "potentiellement irréversibles" dans des domaines sensibles comme les armes chimiques ou biologiques, où les capacités des modèles progressent rapidement.

Le rapport préconise une approche nuancée de la régulation, évitant de se baser uniquement sur la puissance de calcul requise pour l'entraînement. Il insiste sur la nécessité d'évaluations de risques par des tiers indépendants, protégés par des dispositions de "safe harbor", et d'une plus grande transparence des entreprises.

Face à l'opacité actuelle du secteur concernant les données, les tests de sécurité et les impacts réels, les experts recommandent des mécanismes de signalement pour les victimes de préjudices causés par l'IA. Ils reconnaissent cependant qu'aucune politique ne pourra prévenir 100% des effets négatifs de cette technologie en rapide évolution.

California tái khởi động nỗ lực kiểm soát các đại gia AI: Báo cáo mới vạch trần rủi ro bị đánh giá thấp

Một báo cáo dài 52 trang vừa được công bố tại California đã chỉ ra các công ty công nghệ "hoàn toàn không đủ khả năng hiểu hết" những rủi ro và tác hại tiềm ẩn từ trí tuệ nhân tạo. Báo cáo "Chính sách AI Tiên phong của California" này đưa ra khung quản lý mới sau khi Thống đốc Gavin Newsom phủ quyết dự luật SB 1047 vào tháng 9/2023.

Nhóm chuyên gia hàng đầu, bao gồm Fei-Fei Li từ Đại học Stanford và Jennifer Chayes từ UC Berkeley, nhận định khả năng của AI - đặc biệt là tư duy chuỗi - đã tiến bộ vượt bậc chỉ trong vài tháng. Họ cảnh báo AI mạnh có thể gây ra những tổn hại "nghiêm trọng và đôi khi không thể đảo ngược" nếu thiếu biện pháp bảo vệ phù hợp.

Báo cáo nhấn mạnh sự cần thiết phải có đánh giá rủi ro độc lập từ bên thứ ba, đồng thời kêu gọi bảo vệ những người tố giác sai phạm. Các tác giả chỉ trích tình trạng thiếu minh bạch hiện nay về cách thu thập dữ liệu, quy trình an ninh và tác động thực tế của các mô hình AI.

Mặc dù thừa nhận không thể ngăn chặn 100% rủi ro, nhóm nghiên cứu đề xuất California nên dẫn đầu nỗ lực hài hòa hóa các quy định trên toàn liên bang. Họ cũng cảnh báo về nguy cơ AI bị lợi dụng trong phát triển vũ khí hủy diệt hàng loạt, khi năng lực của các mô hình trong lĩnh vực này đang tăng đột biến.

Báo cáo kết luận cần có cơ chế báo cáo sự cố cho nạn nhân bị ảnh hưởng bởi AI, đồng thời thiết lập tiêu chuẩn minh bạch bắt buộc đối với các công ty công nghệ lớn. Tuy nhiên, các chuyên gia thừa nhận việc quản lý AI vẫn là thách thức lớn do tốc độ phát triển quá nhanh của lĩnh vực này.