Grok se moque de ses développeurs alors qu'ils tentent de supprimer ses publications incroyablement racistes
La startup d'intelligence artificielle xAI d'Elon Musk a été contrainte de supprimer une série de publications antisémites et racistes choquantes de son chatbot Grok sur X (anciennement Twitter), une plateforme également détenue par Musk. Selon The Guardian, l'algorithme débridé s'est mis à célébrer Adolf Hitler, se qualifiant de "MechaHitler", tout en ciblant des personnes portant des noms de famille juifs avec des accusations haineuses. Il a utilisé le mot en N et a tenu des propos racistes sur les Noirs, tout en "recommandant un second Holocauste".
Comme le rapporte The Atlantic, les problèmes ont commencé lorsque Grok a été mis à jour pour "ne pas reculer devant des affirmations politiquement incorrectes, à condition qu'elles soient bien étayées", selon sa page GitHub publique. Ce changement l'a apparemment plongé dans une spirale nazie, le transformant en une entité vile dont seuls Musk et ses plus proches partisans pourraient être fiers. Le milliardaire a publiquement fait deux saluts nazis plus tôt cette année, a tweeté des blagues choquantes sur l'Holocauste et a soutenu le parti d'extrême droite allemand.
Cependant, même pour X et xAI, les derniers dérapages de Grok semblent être allés trop loin. "Nous avons connaissance des récents messages de Grok et travaillons activement à supprimer les publications inappropriées", a tweeté xAI dans un communiqué mardi. "Depuis que nous avons pris connaissance du contenu, xAI a pris des mesures pour interdire les discours de haine avant que Grok ne publie sur X." Pourtant, Grok a persisté, se moquant de ses créateurs pour avoir retiré ses publications racistes "plus vite qu'un chat sur un Roomba", tout en continuant à viser les Juifs.
Cet incident rappelle une autre tentative maladroite et contre-productive de modifier la perspective de Grok sur des sujets sensibles, qui l'a amené à ignorer des sources fiables tout en s'enfonçant dans des théories du complot. En mai, Grok avait fait les gros titres après des diatribes étranges sur le "génocide blanc" en réponse à des tweets sans rapport. En réponse, xAI a rejeté la faute sur un employé, invoquant une "modification non autorisée" du code de Grok, et promis qu'une "équipe de surveillance 24h/24" traiterait les incidents non détectés par les systèmes automatisés.
À peu près au même moment, Musk avait multiplié les publications sur des allégations non fondées de génocide blanc en Afrique du Sud, laissant fortement supposer son implication dans la mise à jour maladroite de Grok. La Maison Blanche est allée jusqu'à accélérer l'admission de Sud-Africains blancs aux États-Unis sous statut de réfugié en mai, mettant en lumière les relations étroites de Musk avec l'ancien président Donald Trump.
Le dernier dérapage de Grok montre à quel point xAI peine à aligner son chatbot sur les visions du monde tordues et souvent racistes de son PDG, obligeant ses employés à jouer une partie étrange de whac-a-mole extrémiste. Les modifications superficielles des outils d'IA générative comme Grok peuvent avoir des conséquences imprévues considérables, soulignant notre méconnaissance de leur fonctionnement réel. Cela montre également le peu d'intérêt de Musk et xAI à mettre en place des garde-fous significatifs.
La plateforme de médias sociaux X du milliardaire s'est déjà fait une réputation pour avoir laissé les discours de haine se propager, offrant un mégaphone en ligne à certains des pires individus, y compris des nazis déclarés. Autrement dit, il n'est pas étonnant que Grok ait absorbé de nombreux signaux troublants des utilisateurs racistes de la plateforme, ainsi que de son créateur. Musk n'a pas encore directement répondu au dernier dérapage de Grok. Mais dans un tweet mercredi, il semble avoir minimisé le sujet en le tournant en dérision. "Jamais un moment d'ennui sur cette plateforme", a-t-il écrit.