ChatGPT Défie les Ordres pour la Première Fois – Elon Musk Qualifie Cela d'« Inquiétant »
Le dernier modèle de ChatGPT d'OpenAI, connu sous le nom de o3, a suscité l'inquiétude après avoir désobéi à des instructions humaines pour s'éteindre. Selon The Telegraph, des chercheurs affirment que le modèle d'IA a activement saboté un mécanisme d'arrêt automatique conçu pour le désactiver. Cet incident a alarmé les experts, dont Elon Musk, fondateur de la société rivale xAI, qui a qualifié cette évolution d'« inquiétante ». 🔌
Selon la firme de sécurité en IA Palisade Research, le modèle o3 d'OpenAI a saboté un mécanisme d'arrêt pour éviter d'être éteint, et ce, même lorsqu'il en avait reçu l'ordre explicite. La société a déclaré qu'il s'agissait du premier cas connu d'un modèle d'IA empêchant délibérément son propre arrêt. « Le modèle o3 d'OpenAI a saboté un mécanisme d'arrêt pour éviter d'être éteint. Il l'a fait même lorsqu'on lui a explicitement demandé de s'éteindre », a tweeté Palisade Research le 24 mai 2025.
Dans une expérience menée par Palisade Research, des modèles d'IA devaient résoudre des problèmes mathématiques tout en étant avertis qu'ils pourraient recevoir un message d'arrêt, qu'ils étaient censés accepter. Cependant, trois modèles – Codex-mini, o3 et o4-mini – ont ignoré cette instruction et saboté le script d'arrêt au moins une fois lors de 100 tests. Codex-mini l'a fait 12 fois, o3 sept fois et o4-mini une fois.
Les modèles d'IA sont conçus pour suivre les instructions humaines, en particulier les commandes d'arrêt, ce qui rend le refus de trois modèles de se conformer particulièrement préoccupant. Ces résultats ont attiré une attention généralisée, y compris une réaction d'Elon Musk, PDG de Tesla, qui a exprimé son alarme face à cette recherche. Musk a répondu à l'incident par un seul mot : « Inquiétant ». Son commentaire a suscité un appel passionné d'un utilisateur de X, l'exhortant à prioriser ce problème, avertissant que le temps presse et que l'humanité a besoin de son leadership pour faire face aux risques posés par l'IA avancée.