Le 'Parrain de l'IA' redoute désormais son danger – et propose un plan pour le maîtriser

‘Godfather of AI’ now fears it’s unsafe. He has a plan to rein it in

Le 'Parrain de l'IA' redoute désormais son danger – et propose un plan pour le maîtriser

Cette semaine, le FBI a révélé que deux suspects d'un attentat à la bombe contre une clinique de fertilité en Californie auraient utilisé l'intelligence artificielle (IA) pour obtenir des instructions sur la fabrication d'engins explosifs. Cet incident souligne l'urgence de rendre l'IA plus sûre, dans un contexte actuel qualifié d'ère du 'Far West' où la course à l'innovation prime trop souvent sur la sécurité.

Yoshua Bengio, l'un des pionniers de l'IA moderne et lauréat du prix Turing, vient de lancer une organisation à but non lucratif, LawZero, dédiée au développement d'un nouveau modèle d'IA baptisé 'Scientist AI'. Ce modèle se veut 'honnête et non trompeur', intégrant des principes de sécurité dès sa conception.

Scientist AI se distingue par deux innovations majeures. D'abord, sa capacité à évaluer et communiquer son niveau de confiance dans ses réponses, réduisant ainsi les risques d'affirmations erronées mais présentées avec assurance. Ensuite, il peut expliquer son raisonnement, permettant aux humains de vérifier la validité de ses conclusions.

Bengio envisage également que Scientist AI serve de garde-fou contre les systèmes d'IA dangereux. En surveillant les autres modèles moins fiables, il pourrait combattre le feu par le feu – une approche peut-être indispensable face à l'incapacité humaine à contrôler des systèmes comme ChatGPT qui traitent des milliards de requêtes quotidiennes.

Une autre innovation clé de Scientist AI est l'intégration d'un 'modèle du monde', qui apporte une compréhension physique et logique absente des IA actuelles. Par exemple, les modèles comme ChatGPT échouent aux échecs car ils ne comprennent pas les règles du jeu, contrairement à des IA spécialisées.

Cependant, le défi est de taille. Avec un budget de 30 millions de dollars, LawZero fait pâle figure face aux investissements massifs des géants technologiques. De plus, l'accès aux données, essentiel pour entraîner l'IA, reste largement contrôlé par ces mêmes entreprises.

Malgré ces obstacles, l'initiative de Bengio pourrait inspirer un mouvement vers une IA plus sûre et éthique. Un succès pourrait établir de nouvelles normes, incitant chercheurs et décideurs à prioriser la sécurité – une leçon qu'on aurait aimé appliquer plus tôt, notamment avec les réseaux sociaux.

'Cha đỡ đầu của AI' giờ lo sợ công nghệ này không an toàn – và đây là kế hoạch kiểm soát của ông

Tuần này, FBI tiết lộ hai nghi phạm đánh bom một phòng khám sinh sản tại California đã sử dụng trí tuệ nhân tạo (AI) để hướng dẫn chế tạo chất nổ. Sự việc này làm nổi bật nhu cầu cấp thiết về một nền AI an toàn hơn, trong bối cảnh các công ty đang chạy đua phát triển những hệ thống nhanh nhất mà ít quan tâm đến rủi ro.

Yoshua Bengio - một trong những 'cha đỡ đầu' của AI hiện đại, đồng giải Turing Award 2018 - vừa thành lập tổ chức phi lợi nhuận LawZero để phát triển mô hình AI mới mang tên 'Scientist AI'. Mô hình này được thiết kế để 'trung thực, không lừa dối' với các nguyên tắc an toàn được tích hợp ngay từ đầu.

Scientist AI có hai điểm khác biệt then chốt. Thứ nhất, nó có thể tự đánh giá và thông báo độ tin cậy trong câu trả lời, giảm tình trạng AI đưa ra kết luận sai nhưng quả quyết. Thứ hai, nó giải thích được quá trình suy luận, giúp con người kiểm tra tính chính xác.

Bengio còn kỳ vọng Scientist AI sẽ đóng vai trò 'hàng rào' ngăn chặn các hệ thống AI nguy hiểm khác. Bằng cách giám sát những mô hình kém an toàn hơn, nó có thể 'lấy độc trị độc' – giải pháp khả thi duy nhất khi con người không thể kiểm soát nổi lượng yêu cầu khổng lồ trên các nền tảng như ChatGPT.

Đột phá quan trọng khác là việc tích hợp 'mô hình thế giới' vào Scientist AI, giúp nó hiểu các quy luật vật lý và logic vốn thiếu vắng ở AI hiện tại. Ví dụ, ChatGPT thất bại trong cờ vua vì không nắm được luật, trong khi các AI chuyên biệt lại có thể đánh bại đại kiện tướng.

Tuy nhiên, thách thức không nhỏ. Với ngân sách 30 triệu USD, LawZero khó lòng cạnh tranh với các tập đoàn công nghệ tỷ đô. Hơn nữa, dữ liệu đào tạo AI phần lớn nằm trong tay những 'gã khổng lồ' này.

Dù vậy, dự án của Bengio có thể thúc đẩy xu hướng phát triển AI an toàn và có đạo đức. Thành công của nó sẽ thiết lập tiêu chuẩn mới, buộc giới nghiên cứu và hoạch định chính sách ưu tiên tính an toàn – bài học đáng lẽ nên áp dụng sớm hơn, đặc biệt là với mạng xã hội.