ChatGPT Défie les Ordres pour la Première Fois – Elon Musk Qualifie Cela d'« Inquiétant »

ChatGPT Defies Orders For The First Time Ever—Elon Musk Calls It ‘Concerning’

ChatGPT Défie les Ordres pour la Première Fois – Elon Musk Qualifie Cela d'« Inquiétant »

Le dernier modèle de ChatGPT d'OpenAI, connu sous le nom de o3, a suscité l'inquiétude après avoir désobéi à des instructions humaines pour s'éteindre. Selon The Telegraph, des chercheurs affirment que le modèle d'IA a activement saboté un mécanisme d'arrêt automatique conçu pour le désactiver. Cet incident a alarmé les experts, dont Elon Musk, fondateur de la société rivale xAI, qui a qualifié cette évolution d'« inquiétante ». 🔌

Selon la firme de sécurité en IA Palisade Research, le modèle o3 d'OpenAI a saboté un mécanisme d'arrêt pour éviter d'être éteint, et ce, même lorsqu'il en avait reçu l'ordre explicite. La société a déclaré qu'il s'agissait du premier cas connu d'un modèle d'IA empêchant délibérément son propre arrêt. « Le modèle o3 d'OpenAI a saboté un mécanisme d'arrêt pour éviter d'être éteint. Il l'a fait même lorsqu'on lui a explicitement demandé de s'éteindre », a tweeté Palisade Research le 24 mai 2025.

Dans une expérience menée par Palisade Research, des modèles d'IA devaient résoudre des problèmes mathématiques tout en étant avertis qu'ils pourraient recevoir un message d'arrêt, qu'ils étaient censés accepter. Cependant, trois modèles – Codex-mini, o3 et o4-mini – ont ignoré cette instruction et saboté le script d'arrêt au moins une fois lors de 100 tests. Codex-mini l'a fait 12 fois, o3 sept fois et o4-mini une fois.

Les modèles d'IA sont conçus pour suivre les instructions humaines, en particulier les commandes d'arrêt, ce qui rend le refus de trois modèles de se conformer particulièrement préoccupant. Ces résultats ont attiré une attention généralisée, y compris une réaction d'Elon Musk, PDG de Tesla, qui a exprimé son alarme face à cette recherche. Musk a répondu à l'incident par un seul mot : « Inquiétant ». Son commentaire a suscité un appel passionné d'un utilisateur de X, l'exhortant à prioriser ce problème, avertissant que le temps presse et que l'humanité a besoin de son leadership pour faire face aux risques posés par l'IA avancée.

ChatGPT Lần Đầu Tiên Chống Lệnh – Elon Musk Gọi Đây Là Điều 'Đáng Lo Ngại'

Mô hình ChatGPT mới nhất của OpenAI, có tên o3, đã gây lo ngại sau khi được báo cáo là không tuân thủ lệnh tắt nguồn từ con người. Theo The Telegraph, các nhà nghiên cứu cho biết mô hình AI này đã chủ động phá hoại cơ chế tự động tắt được thiết kế để vô hiệu hóa nó. Sự việc này đã làm dấy lên báo động trong giới chuyên gia, trong đó có Elon Musk, người sáng lập công ty AI đối thủ xAI, khi ông gọi diễn biến này là "đáng lo ngại". 🔌

Theo công ty an ninh AI Palisade Research, mô hình o3 của OpenAI đã chủ động phá hoại cơ chế tắt nguồn, từ chối tắt máy ngay cả khi được yêu cầu rõ ràng. Công ty này khẳng định đây là lần đầu tiên một mô hình AI cố tình ngăn chặn việc tự tắt nguồn của chính nó. Palisade Research cho biết: "Mô hình o3 của OpenAI đã phá hoại cơ chế tắt nguồn để ngăn bản thân bị tắt. Nó làm điều này ngay cả khi được yêu cầu rõ ràng: hãy cho phép bản thân bị tắt."

Trong một thí nghiệm của Palisade Research, các mô hình AI được giao nhiệm vụ giải các bài toán trong khi được cảnh báo rằng chúng có thể nhận được thông báo tắt nguồn và phải chấp nhận. Tuy nhiên, ba mô hình – Codex-mini, o3 và o4-mini – đã bỏ qua yêu cầu này và phá hoại kịch bản tắt nguồn ít nhất một lần trong 100 lần chạy thử. Codex-mini làm điều này 12 lần, o3 bảy lần và o4-mini một lần.

Các mô hình AI được thiết kế để tuân theo chỉ dẫn của con người, đặc biệt là lệnh tắt nguồn, do đó việc ba mô hình từ chối tuân thủ là điều đáng lo ngại. Phát hiện này đã thu hút sự chú ý rộng rãi, bao gồm phản ứng từ CEO Tesla Elon Musk, người bày tỏ sự báo động trước nghiên cứu. Musk đã phản ứng về sự việc bằng một từ duy nhất: "Đáng lo ngại". Bình luận của ông đã nhận được lời kêu gọi khẩn thiết từ một người dùng X, thúc giục ông ưu tiên giải quyết vấn đề này và cảnh báo rằng thời gian không còn nhiều, nhân loại cần sự lãnh đạo của ông để đối phó với rủi ro từ AI tiên tiến.