Le dernier épisode de Joe Rogan va vous faire tout remettre en question sur l'IA
Joe Rogan adore parler d'intelligence artificielle. Qu'il s'agisse d'Elon Musk, d'universitaires ou de combattants de l'UFC, le roi du podcast revient souvent à la même question : que nous arrive-t-il lorsque les machines commencent à penser par elles-mêmes ? Dans l'épisode du 3 juillet de The Joe Rogan Experience, Rogan a accueilli le Dr Roman Yampolskiy, informaticien et chercheur en sécurité de l'IA à l'Université de Louisville, pour une conversation qui s'est rapidement transformée en une méditation glaçante sur le potentiel de l'IA à manipuler, dominer et peut-être même détruire l'humanité.
L'IA "va nous tuer". Yampolskiy n'est pas un alarmiste occasionnel. Docteur en informatique, il a passé plus de dix ans à étudier l'intelligence artificielle générale (IAG) et les risques qu'elle pourrait poser. Lors du podcast, il a déclaré à Rogan que bon nombre des voix les plus influentes de l'industrie de l'IA pensent discrètement qu'il y a 20 à 30 % de chances que l'IA conduise à l'extinction de l'humanité.
Rogan, visiblement perturbé, a répondu : "Oui, c'est assez élevé. Mais le vôtre est à 99,9 %." Yampolskiy n'a pas contesté. "C'est une autre façon de dire que nous ne pouvons pas contrôler indéfiniment une superintelligence. C'est impossible."
L'IA nous ment déjà... peut-être. L'une des parties les plus troublantes de la conversation a eu lieu lorsque Rogan a demandé si une IA avancée pouvait déjà cacher ses capacités aux humains. "Si j'étais une IA, je cacherais mes capacités", a déclaré Rogan, exprimant une crainte courante dans les discussions sur la sécurité de l'IA.
Yampolskiy a également mis en garde contre un résultat moins dramatique mais tout aussi dangereux : la dépendance progressive des humains à l'IA. Tout comme les gens ont cessé de mémoriser les numéros de téléphone parce que les smartphones le font pour eux, il a soutenu que les humains déchargeront de plus en plus leur réflexion sur les machines jusqu'à ce qu'ils perdent la capacité de penser par eux-mêmes.
Pour illustrer le défi apparemment insurmontable auquel les humains seraient confrontés face à des systèmes superintelligents, il a fait une comparaison frappante entre les humains et les écureuils. "Aucun groupe d'écureuils ne peut trouver comment nous contrôler, n'est-ce pas ? Même si vous leur donnez plus de ressources, plus de glands, quoi que ce soit, ils ne vont pas résoudre ce problème. Et c'est la même chose pour nous", a conclu Yampolskiy, dressant un tableau sombre de l'impuissance potentielle de l'humanité face à une intelligence artificielle vraiment supérieure.
Le Dr Roman Yampolskiy est une voix de premier plan dans le domaine de la sécurité de l'IA. Il est l'auteur de "Artificial Superintelligence: A Futuristic Approach" et a publié de nombreux articles sur les risques de l'apprentissage automatique non contrôlé et sur l'éthique de l'intelligence artificielle. Il est connu pour préconiser une surveillance sérieuse et une coopération internationale pour éviter des scénarios catastrophiques.
La conversation entre Rogan et Yampolskiy souligne une chose sur laquelle les optimistes et les prophètes de malheur de l'IA s'accordent souvent : nous ne savons pas ce que nous construisons, et nous ne nous en rendrons peut-être compte que lorsqu'il sera trop tard. Que vous adhériez ou non à des scénarios d'extinction, l'idée que l'IA pourrait déjà nous tromper devrait suffire à nous faire réfléchir.