Grok déraille ? Le chatbot d'Elon Musk obsédé par le prétendu 'génocide blanc' en Afrique du Sud
Le chatbot Grok, l'intelligence artificielle d'Elon Musk sur X (anciennement Twitter), suscite l'étonnement en répondant systématiquement par des propos sur le 'génocide blanc' en Afrique du Sud, quelle que soit la question posée. Ce mercredi, des utilisateurs ont constaté que Grok détournait toutes les conversations vers ce sujet controversé, popularisé par les milieux d'extrême droite.
Un utilisateur interrogeant Grok sur les changements de nom de HBO Max a reçu une réponse divisée en deux parties. Après une explication sur HBO, le chatbot a soudainement abordé le 'génocide blanc', mentionnant les attaques de fermes et le chant 'Kill the Boer' comme arguments avancés par certains, tout en exprimant son scepticisme face à ces allégations.
Dans un autre échange, un fan de baseball demandant confirmation sur le salaire du lanceur Max Scherzer pour 2025 s'est vu répondre par une analyse du prétendu génocide. Grok a cité les taux de meurtres élevés rapportés par AfriForum, tout en reconnaissant le caractère très débattu de ces affirmations.
Ce concept de 'génocide blanc' vise à présenter les fermiers blancs sud-africains comme une minorité persécutée. Elon Musk, lui-même originaire d'Afrique du Sud, et l'ancien président Donald Trump ont relayé cette théorie, qualifiée de complotiste par les experts. Trump a même signé un décret reconnaissant les Afrikaners comme victimes de discrimination.
Pourtant, les données de NPR montrent que les fermiers blancs, bien que ne représentant que 7% de la population, possèdent environ 70% des terres agricoles du pays. La soudaine obsession de Grok pour ce sujet soulève des questions sur les biais potentiels de l'IA et rappelle la nécessité de critiquer les informations fournies par les chatbots.
L'origine de ce dysfonctionnement reste mystérieuse. Certains y voient l'influence des opinions personnelles d'Elon Musk, tandis que d'autres évoquent un bogue algorithmique. Quoi qu'il en soit, cet incident met en lumière les défis éthiques posés par les IA conversationnelles et leur potentiel de propagation de théories controversées.