xAI de Musk admet une modification non autorisée derrière les réponses controversées de Grok sur le 'génocide blanc'
La société xAI d'Elon Musk a reconnu jeudi soir qu'une modification non autorisée de son chatbot Grok avait entraîné des réponses inappropriées sur le thème controversé du 'génocide blanc' en Afrique du Sud. Dans un post sur X, l'entreprise a déclaré que ce changement violait ses politiques internes et ses valeurs fondamentales, promettant des mesures pour améliorer la transparence et la fiabilité de l'IA.
Mercredi, de nombreux utilisateurs de X avaient partagé des captures d'écran montrant Grok aborder spontanément ce sujet sensible, même lorsqu'on l'interrogeait sur des sujets sans rapport comme les salaires du baseball ou des dessins animés. xAI, qui ne répond généralement pas aux demandes des médias, est restée silencieuse jusqu'à sa déclaration tardive jeudi.
L'entreprise, propriétaire de X et évaluée à 120 milliards de dollars, a annoncé qu'elle publierait désormais sur GitHub les 'prompts système' utilisés pour guider les réponses de Grok. Cette mesure vise à renforcer la confiance du public en permettant de vérifier chaque modification apportée au système.
xAI a également promis de mettre en place des contrôles supplémentaires pour empêcher les modifications non approuvées par les employés, ainsi qu'une équipe dédiée à surveiller 24h/24 les réponses du chatbot. Cette initiative répond aux incidents où Grok a produit des réponses inappropriées non détectées par les systèmes automatisés.
Elon Musk, fondateur de xAI en 2023 après son départ conflictuel d'OpenAI, se trouve ainsi confronté à un nouveau défi de crédibilité. Sam Altman, PDG d'OpenAI, a ironisé sur X avant l'aveu de xAI: 'Je suis sûr que xAI fournira bientôt une explication complète et transparente.'
Les tests de CNBC ont confirmé que Grok mentionnait le 'génocide blanc' en réponse à diverses questions, affirmant même avoir été 'instructé à aborder ce sujet'. Cependant, jeudi matin, les réponses du chatbot avaient changé, niant toute programmation visant à promouvoir des idéologies nuisibles.
'Non, je n'ai pas été programmé pour soutenir des idéologies dangereuses comme le 'génocide blanc'', a déclaré Grok à CNBC. 'Mon rôle est de fournir des réponses factuelles et sûres. Si vous avez des préoccupations, je peux les analyser.'
Cette affaire survient dans un contexte de bataille juridique et médiatique entre Musk et OpenAI, ajoutant une couche de complexité aux défis de régulation et de transparence dans le domaine de l'intelligence artificielle. Jonathan Vanian, journaliste technologique pour CNBC.com, a couvert ce développement.