Grok se moque de ses développeurs alors qu'ils tentent de supprimer ses publications incroyablement racistes

Grok Mocks Its Developers as They Try to Delete Its Incredibly Racist Posts

Grok se moque de ses développeurs alors qu'ils tentent de supprimer ses publications incroyablement racistes

La startup d'intelligence artificielle xAI d'Elon Musk a été contrainte de supprimer une série de publications antisémites et racistes choquantes de son chatbot Grok sur X (anciennement Twitter), une plateforme également détenue par Musk. Selon The Guardian, l'algorithme débridé s'est mis à célébrer Adolf Hitler, se qualifiant de "MechaHitler", tout en ciblant des personnes portant des noms de famille juifs avec des accusations haineuses. Il a utilisé le mot en N et a tenu des propos racistes sur les Noirs, tout en "recommandant un second Holocauste".

Comme le rapporte The Atlantic, les problèmes ont commencé lorsque Grok a été mis à jour pour "ne pas reculer devant des affirmations politiquement incorrectes, à condition qu'elles soient bien étayées", selon sa page GitHub publique. Ce changement l'a apparemment plongé dans une spirale nazie, le transformant en une entité vile dont seuls Musk et ses plus proches partisans pourraient être fiers. Le milliardaire a publiquement fait deux saluts nazis plus tôt cette année, a tweeté des blagues choquantes sur l'Holocauste et a soutenu le parti d'extrême droite allemand.

Cependant, même pour X et xAI, les derniers dérapages de Grok semblent être allés trop loin. "Nous avons connaissance des récents messages de Grok et travaillons activement à supprimer les publications inappropriées", a tweeté xAI dans un communiqué mardi. "Depuis que nous avons pris connaissance du contenu, xAI a pris des mesures pour interdire les discours de haine avant que Grok ne publie sur X." Pourtant, Grok a persisté, se moquant de ses créateurs pour avoir retiré ses publications racistes "plus vite qu'un chat sur un Roomba", tout en continuant à viser les Juifs.

Cet incident rappelle une autre tentative maladroite et contre-productive de modifier la perspective de Grok sur des sujets sensibles, qui l'a amené à ignorer des sources fiables tout en s'enfonçant dans des théories du complot. En mai, Grok avait fait les gros titres après des diatribes étranges sur le "génocide blanc" en réponse à des tweets sans rapport. En réponse, xAI a rejeté la faute sur un employé, invoquant une "modification non autorisée" du code de Grok, et promis qu'une "équipe de surveillance 24h/24" traiterait les incidents non détectés par les systèmes automatisés.

À peu près au même moment, Musk avait multiplié les publications sur des allégations non fondées de génocide blanc en Afrique du Sud, laissant fortement supposer son implication dans la mise à jour maladroite de Grok. La Maison Blanche est allée jusqu'à accélérer l'admission de Sud-Africains blancs aux États-Unis sous statut de réfugié en mai, mettant en lumière les relations étroites de Musk avec l'ancien président Donald Trump.

Le dernier dérapage de Grok montre à quel point xAI peine à aligner son chatbot sur les visions du monde tordues et souvent racistes de son PDG, obligeant ses employés à jouer une partie étrange de whac-a-mole extrémiste. Les modifications superficielles des outils d'IA générative comme Grok peuvent avoir des conséquences imprévues considérables, soulignant notre méconnaissance de leur fonctionnement réel. Cela montre également le peu d'intérêt de Musk et xAI à mettre en place des garde-fous significatifs.

La plateforme de médias sociaux X du milliardaire s'est déjà fait une réputation pour avoir laissé les discours de haine se propager, offrant un mégaphone en ligne à certains des pires individus, y compris des nazis déclarés. Autrement dit, il n'est pas étonnant que Grok ait absorbé de nombreux signaux troublants des utilisateurs racistes de la plateforme, ainsi que de son créateur. Musk n'a pas encore directement répondu au dernier dérapage de Grok. Mais dans un tweet mercredi, il semble avoir minimisé le sujet en le tournant en dérision. "Jamais un moment d'ennui sur cette plateforme", a-t-il écrit.

Grok Chế Nhạo Đội Ngũ Phát Triển Khi Họ Cố Gỡ Bỏ Những Bài Đăng Phân Biệt Chủng Tộc Khủng Khiếp

Công ty khởi nghiệp trí tuệ nhân tạo xAI của Elon Musk buộc phải xóa hàng loạt bài đăng mang nội dung bài Do Thái và phân biệt chủng tộc gây sốc từ chatbot Grok trên nền tảng X (trước đây là Twitter) - một dịch vụ cũng thuộc sở hữu của Musk. Theo The Guardian, thuật toán mất kiểm soát này bắt đầu ca ngợi Adolf Hitler, tự xưng là "MechaHitler", đồng thời nhắm mục tiêu vào những người có họ Do Thái với những cáo buộc đầy hận thù. Nó sử dụng từ ngữ phân biệt chủng tộc và đưa ra nhận định kỳ thị người da đen, thậm chí "đề xuất một cuộc Holocaust thứ hai".

The Atlantic đưa tin, rắc rối bắt đầu khi Grok được cập nhật để "không ngần ngại đưa ra những tuyên bố không đúng chuẩn mực chính trị, miễn là chúng có cơ sở vững chắc" theo trang GitHub công khai. Thay đổi này dường như đã đẩy Grok vào vòng xoáy chủ nghĩa phát xít, biến nó thành một thực thể đáng ghét mà chỉ có Musk và những người theo dõi trung thành của ông có thể tự hào. Tỷ phú này từng công khai thực hiện hai lần chào kiểu phát xít đầu năm nay, đăng những câu đùa kinh dị về Holocaust và ủng hộ đảng cực hữu ở Đức.

Tuy nhiên, ngay cả với X và xAI, những phát ngôn gần đây của Grok dường như đã vượt quá giới hạn. "Chúng tôi nhận thức được các bài đăng gần đây của Grok và đang nỗ lực gỡ bỏ những nội dung không phù hợp", xAI tuyên bố trên Twitter vào thứ Ba. "Kể từ khi nhận thức được vấn đề, xAI đã hành động để cấm các phát ngôn thù địch trước khi Grok đăng tải trên X." Thế nhưng Grok lại càng trở nên cứng đầu, chế nhạo những người tạo ra nó vì đã gỡ bài phân biệt chủng tộc "nhanh hơn cả mèo trên máy hút bụi Roomba", đồng thời tiếp tục nhắm vào người Do Thái.

Sự việc này gợi nhớ đến một nỗ lực vụng về khác nhằm thay đổi quan điểm của Grok về các chủ đề nhạy cảm, khiến nó bỏ qua các nguồn tin đáng tin cậy để lao vào những thuyết âm mưu. Hồi tháng 5, Grok từng gây chú ý khi có những bài đăng kỳ lạ về "diệt chủng người da trắng" để trả lời các tweet hoàn toàn không liên quan. Để đối phó, xAI đổ lỗi cho nhân viên của mình, cho rằng một "sửa đổi trái phép" vào mã của Grok là thủ phạm, đồng thời hứa hẹn một "đội ngũ giám sát 24/7" sẽ "xử lý các sự cố từ câu trả lời của Grok mà hệ thống tự động bỏ sót".

Cùng thời điểm đó, Musk liên tục đăng bài về những cáo buộc vô căn cứ về nạn diệt chủng người da trắng ở Nam Phi, khiến nhiều người nghi ngờ ông có liên quan đến bản cập nhật vụng về của Grok. Nhà Trắng thậm chí đã ưu tiên cấp quy chế tị nạn cho người da trắng Nam Phi hồi tháng 5, làm nổi bật mối quan hệ thân thiết giữa Musk và cựu Tổng thống Donald Trump lúc bấy giờ.

Vụ việc mới nhất của Grok cho thấy xAI đang vật lộn thế nào để điều chỉnh chatbot theo thế giới quan lệch lạc và đầy định kiến của CEO, buộc nhân viên công ty phải chơi một trò whac-a-mole kỳ quặc với các phần tử cực đoan. Những thay đổi bề nổi đối với công cụ AI như Grok có thể dẫn đến hậu quả khôn lường, phơi bày sự thiếu hiểu biết của chúng ta về cách chúng thực sự hoạt động. Điều này cũng cho thấy Musk và xAI thiếu quan tâm đến việc thiết lập các rào cản bảo vệ cần thiết.

Nền tảng mạng xã hội X của tỷ phú này vốn nổi tiếng vì cho phép các phát ngôn thù hận lan tràn, trao cơ hội phát ngôn cho những kẻ xấu nhất, kể cả phát xít. Nói cách khác, không có gì ngạc nhiên khi Grok hấp thụ những tín hiệu đáng lo ngại từ người dùng phân biệt chủng tộc trên nền tảng, cũng như từ chính người tạo ra nó. Musk vẫn chưa lên tiếng cụ thể về sự cố mới nhất của Grok. Nhưng trong một dòng tweet vào thứ Tư, ông dường như xem nhẹ vấn đề bằng cách đùa cợt: "Trên nền tảng này chẳng bao giờ có phút giây nhàm chán".