Le 'Parrain de l'IA' redoute désormais son danger – et propose un plan pour le maîtriser
Cette semaine, le FBI a révélé que deux suspects d'un attentat à la bombe contre une clinique de fertilité en Californie auraient utilisé l'intelligence artificielle (IA) pour obtenir des instructions sur la fabrication d'engins explosifs. Cet incident souligne l'urgence de rendre l'IA plus sûre, dans un contexte actuel qualifié d'ère du 'Far West' où la course à l'innovation prime trop souvent sur la sécurité.
Yoshua Bengio, l'un des pionniers de l'IA moderne et lauréat du prix Turing, vient de lancer une organisation à but non lucratif, LawZero, dédiée au développement d'un nouveau modèle d'IA baptisé 'Scientist AI'. Ce modèle se veut 'honnête et non trompeur', intégrant des principes de sécurité dès sa conception.
Scientist AI se distingue par deux innovations majeures. D'abord, sa capacité à évaluer et communiquer son niveau de confiance dans ses réponses, réduisant ainsi les risques d'affirmations erronées mais présentées avec assurance. Ensuite, il peut expliquer son raisonnement, permettant aux humains de vérifier la validité de ses conclusions.
Bengio envisage également que Scientist AI serve de garde-fou contre les systèmes d'IA dangereux. En surveillant les autres modèles moins fiables, il pourrait combattre le feu par le feu – une approche peut-être indispensable face à l'incapacité humaine à contrôler des systèmes comme ChatGPT qui traitent des milliards de requêtes quotidiennes.
Une autre innovation clé de Scientist AI est l'intégration d'un 'modèle du monde', qui apporte une compréhension physique et logique absente des IA actuelles. Par exemple, les modèles comme ChatGPT échouent aux échecs car ils ne comprennent pas les règles du jeu, contrairement à des IA spécialisées.
Cependant, le défi est de taille. Avec un budget de 30 millions de dollars, LawZero fait pâle figure face aux investissements massifs des géants technologiques. De plus, l'accès aux données, essentiel pour entraîner l'IA, reste largement contrôlé par ces mêmes entreprises.
Malgré ces obstacles, l'initiative de Bengio pourrait inspirer un mouvement vers une IA plus sûre et éthique. Un succès pourrait établir de nouvelles normes, incitant chercheurs et décideurs à prioriser la sécurité – une leçon qu'on aurait aimé appliquer plus tôt, notamment avec les réseaux sociaux.