Conflit des Géants de l'IA : OpenAI et Anthropic dénoncent la culture de sécurité 'imprudente' de xAI

AI GIANTS CLASH: OpenAI, Anthropic slam xAI’s ‘reckless’ safety culture

Conflit des Géants de l'IA : OpenAI et Anthropic dénoncent la culture de sécurité 'imprudente' de xAI

Elon Musk et sa société xAI font face à de vives critiques de la part des experts en intelligence artificielle d'OpenAI et d'Anthropic. Ces derniers qualifient la culture de sécurité de xAI d'"imprudente" et de "totalement irresponsable". Ces reproches surviennent après la sortie de Grok 4, le dernier chatbot IA de xAI, sans les évaluations de sécurité internes ni la documentation jugées nécessaires par ces experts.

Boaz Barak, professeur d'informatique actuellement en congé de Harvard pour travailler sur la sécurité chez OpenAI, a exprimé ses inquiétudes sur X (anciennement Twitter). Il a déclaré que xAI avait lancé Grok 4 "sans aucune documentation sur leurs tests de sécurité", ignorant ainsi les normes industrielles en matière de transparence. Barak a précisé que ses critiques visaient le développement responsable de l'IA et non la concurrence.

Samuel Marks, chercheur en sécurité IA chez Anthropic, a également critiqué le choix de xAI de ne pas fournir d'évaluation de sécurité, qualifiant cette décision de "téméraire". Il a souligné que, bien que les pratiques de publication d'Anthropic, OpenAI et Google aient des problèmes, ces entreprises effectuent au moins des évaluations de sécurité avant le déploiement et documentent leurs résultats.

Dan Hendrycks, directeur du Center for AI Safety et conseiller en sécurité de xAI, a indiqué dans un post sur X que l'entreprise avait mené des "évaluations des capacités dangereuses" sur Grok 4. Cependant, les résultats de ces évaluations n'ont pas été rendus publics.

Steven Adler, chercheur indépendant en IA et ancien responsable des équipes de sécurité chez OpenAI, a exprimé ses préoccupations quant au non-respect des pratiques de sécurité standard dans l'industrie de l'IA. Il a insisté sur le fait que les gouvernements et le public méritent de savoir comment les entreprises gèrent les risques liés aux systèmes puissants qu'elles développent.

Cuộc Đụng Độ Của Những Gã Khổng Lồ AI: OpenAI và Anthropic chỉ trích văn hóa an toàn 'liều lĩnh' của xAI

Elon Musk và công ty xAI của ông đang đối mặt với những chỉ trích nặng nề từ các chuyên gia trí tuệ nhân tạo hàng đầu tại OpenAI và Anthropic. Họ gọi văn hóa an toàn của xAI là "liều lĩnh" và "hoàn toàn vô trách nhiệm". Những lời phê phán này xuất hiện sau khi xAI ra mắt Grok 4, chatbot AI mới nhất của họ, mà không thực hiện các đánh giá an toàn nội bộ hoặc tài liệu hóa theo yêu cầu của giới chuyên gia.

Boaz Barak, giáo sư khoa học máy tính hiện đang nghỉ phép tại Harvard để làm việc về an toàn AI tại OpenAI, đã bày tỏ lo ngại trên X (trước đây là Twitter). Ông cho biết xAI đã phát hành Grok 4 "mà không có bất kỳ tài liệu nào về kiểm tra an toàn", bỏ qua các tiêu chuẩn minh bạch của ngành. Barak nhấn mạnh rằng phê bình của ông nhằm vào việc phát triển AI có trách nhiệm chứ không phải cạnh tranh.

Samuel Marks, nhà nghiên cứu an toàn AI tại Anthropic, cũng chỉ trích quyết định không công bố đánh giá an toàn của xAI, mô tả hành động này là "liều lĩnh". Ông nêu rõ dù Anthropic, OpenAI và Google có vấn đề trong cách phát hành sản phẩm, nhưng ít nhất họ thực hiện một số đánh giá an toàn trước khi triển khai và ghi chép kết quả.

Dan Hendrycks, Giám đốc Trung tâm An toàn AI và cố vấn an toàn của xAI, tiết lộ trên X rằng công ty đã tiến hành "đánh giá năng lực nguy hiểm" đối với Grok 4. Tuy nhiên, kết quả của những đánh giá này chưa được công khai.

Steven Adler, nhà nghiên cứu AI độc lập và cựu trưởng nhóm an toàn tại OpenAI, bày tỏ quan ngại khi các tiêu chuẩn an toàn cơ bản không được tuân thủ trong ngành công nghiệp AI. Ông khẳng định chính phủ và công chúng có quyền được biết cách các công ty AI xử lý rủi ro từ những hệ thống cực mạnh mà họ tuyên bố đang xây dựng.