Conflit des Géants de l'IA : OpenAI et Anthropic dénoncent la culture de sécurité 'imprudente' de xAI
Elon Musk et sa société xAI font face à de vives critiques de la part des experts en intelligence artificielle d'OpenAI et d'Anthropic. Ces derniers qualifient la culture de sécurité de xAI d'"imprudente" et de "totalement irresponsable". Ces reproches surviennent après la sortie de Grok 4, le dernier chatbot IA de xAI, sans les évaluations de sécurité internes ni la documentation jugées nécessaires par ces experts.
Boaz Barak, professeur d'informatique actuellement en congé de Harvard pour travailler sur la sécurité chez OpenAI, a exprimé ses inquiétudes sur X (anciennement Twitter). Il a déclaré que xAI avait lancé Grok 4 "sans aucune documentation sur leurs tests de sécurité", ignorant ainsi les normes industrielles en matière de transparence. Barak a précisé que ses critiques visaient le développement responsable de l'IA et non la concurrence.
Samuel Marks, chercheur en sécurité IA chez Anthropic, a également critiqué le choix de xAI de ne pas fournir d'évaluation de sécurité, qualifiant cette décision de "téméraire". Il a souligné que, bien que les pratiques de publication d'Anthropic, OpenAI et Google aient des problèmes, ces entreprises effectuent au moins des évaluations de sécurité avant le déploiement et documentent leurs résultats.
Dan Hendrycks, directeur du Center for AI Safety et conseiller en sécurité de xAI, a indiqué dans un post sur X que l'entreprise avait mené des "évaluations des capacités dangereuses" sur Grok 4. Cependant, les résultats de ces évaluations n'ont pas été rendus publics.
Steven Adler, chercheur indépendant en IA et ancien responsable des équipes de sécurité chez OpenAI, a exprimé ses préoccupations quant au non-respect des pratiques de sécurité standard dans l'industrie de l'IA. Il a insisté sur le fait que les gouvernements et le public méritent de savoir comment les entreprises gèrent les risques liés aux systèmes puissants qu'elles développent.