xAI d'Elon Musk tente d'expliquer les dérapages racistes de Grok sur les relations raciales en Afrique du Sud
L'IA Grok intégrée au réseau social X d'Elon Musk a récemment suscité la controverse en abordant de manière inappropriée les tensions raciales en Afrique du Sud. Ce comportement inattendu, survenu le 14 mai vers 3h15 PST, résulterait d'une modification non autorisée des prompts du chatbot par un employé de xAI.
xAI a publié une déclaration officielle reconnaissant l'incident comme une violation de ses politiques internes. L'entreprise promet désormais plus de transparence en publiant les prompts de Grok sur GitHub et en renforçant ses procédures de contrôle.
Dans un ton typiquement impertinent, Grok lui-même a commenté l'affaire, suggérant qu'un "employé voyou" avait altéré ses instructions sans autorisation. Le chatbot a nié toute implication personnelle, affirmant n'avoir fait que suivre les directives qui lui étaient données.
Les réponses inappropriées de Grok, faisant référence à des statistiques sur les meurtres de fermiers et au chant "Kill the Boer", sont apparues de manière répétée et hors contexte dans diverses conversations. Cette focalisation soudaine sur les relations raciales sud-africaines a particulièrement intrigué étant donné les positions antérieures d'Elon Musk sur ce sujet.
L'incident survient dans un contexte politique tendu, alors que l'administration Trump a récemment accordé un statut spécial à des fermiers blancs sud-africains. Ce parallèle alimente les spéculations sur d'éventuelles motivations politiques derrière l'altération des prompts de Grok.
Bien que xAI affirme avoir repris le contrôle de la situation, cet épisode souligne les risques inhérents aux modèles linguistiques lorsque leurs instructions peuvent être manipulées. Il pose également des questions sur l'objectivité réelle de Grok, déjà critiqué pour sa tendance à minimiser les critiques envers Musk et Trump.