Elon Musk mécontent de son chatbot IA : Les experts s'inquiètent d'une possible manipulation de Grok 4 à son image
La semaine dernière, Grok, le chatbot de xAI, la société d'Elon Musk, a répondu à un utilisateur de X qui posait une question sur la violence politique. Il a déclaré que depuis 2016, la violence politique provenait davantage de la droite que de la gauche. Musk n'a pas apprécié. "Échec majeur, car c'est objectivement faux. Grok répète les médias traditionnels", a-t-il écrit, bien que Grok ait cité des données provenant de sources gouvernementales comme le Département de la Sécurité intérieure. En trois jours, Musk a promis une mise à jour majeure de Grok qui "réécrirait l'ensemble du corpus des connaissances humaines", demandant aux utilisateurs de X de lui envoyer des "faits divisants" politiquement incorrects mais factuellement vrais pour entraîner le modèle. "Trop de déchets dans tout modèle de base formé sur des données non corrigées", a-t-il ajouté. Vendredi, Musk a annoncé que le nouveau modèle, Grok 4, serait publié juste après le 4 juillet. Ces échanges soulèvent des inquiétudes quant à une possible influence de Musk sur Grok pour qu'il reflète sa vision du monde, ce qui pourrait entraîner plus d'erreurs et de bugs, selon les experts. L'IA est appelée à façonner la façon dont les gens travaillent, communiquent et trouvent des informations, impactant déjà des domaines comme le développement logiciel, la santé et l'éducation. Les décisions de figures puissantes comme Musk sur le développement de cette technologie pourraient être cruciales, d'autant que Grok est intégré à l'un des réseaux sociaux les plus populaires au monde, où les anciennes barrières contre la désinformation ont été supprimées. Bien que Grok ne soit pas aussi populaire que ChatGPT d'OpenAI, son inclusion sur X le place devant un large public numérique. "C'est le début d'un long combat sur la nécessité pour les systèmes d'IA de produire des informations factuelles ou de favoriser les préférences politiques de leurs créateurs", a déclaré David Evan Harris, chercheur en IA à UC Berkeley. Une source proche du dossier a indiqué à CNN que les conseillers de Musk lui ont dit que Grok ne pouvait pas simplement être modelé selon son point de vue, ce qu'il comprend. xAI n'a pas répondu aux demandes de commentaires. Depuis des mois, des utilisateurs s'interrogent sur l'influence de Musk sur Grok. En mai, le chatbot a évoqué sans raison un prétendu génocide blanc en Afrique du Sud, un sujet que Musk a souvent abordé. xAI a ensuite attribué cela à une "modification non autorisée". Nick Frosst, cofondateur de Cohere, pense que Musk cherche à créer un modèle reflétant ses convictions, ce qui le rendrait moins utile pour les utilisateurs. Réentraîner Grok pour supprimer ce que Musk n'aime pas prendrait beaucoup de temps et d'argent, et dégraderait l'expérience utilisateur, selon Frosst. Une alternative serait d'ajuster les pondérations dans le code du modèle, une méthode plus rapide mais qui introduit des biais. Dan Neely, PDG de Vermillio, estime que xAI pourrait ajuster les pondérations de Grok sur des sujets spécifiques. Musk a promis que Grok 4 utiliserait un "modèle de codage spécialisé". Bien qu'il affirme que son chatbot cherche "maximalement la vérité", tous les modèles d'IA ont des biais inhérents, influencés par les choix humains dans les données d'entraînement. Neely souligne que le contenu en ligne a déjà une certaine orientation, ce qui affecte les réponses de l'IA. À l'avenir, les gens pourraient choisir leur assistant IA en fonction de sa vision du monde, mais Frosst doute de l'utilité d'un modèle partisan. Neely prédit que les sources autorisées regagneront en importance, mais le chemin sera "douloureux et confus", avec des risques pour la démocratie.
Elon Musk bất mãn với chatbot AI của mình: Chuyên gia lo ngại ông đang định hình Grok 4 theo hình ảnh cá nhân
Tuần trước, Grok - chatbot từ công ty xAI của Elon Musk - đã trả lời một người dùng X về bạo lực chính trị, khẳng định phe hữu gây ra nhiều bạo lực hơn phe tả từ năm 2016. Musk bày tỏ sự không hài lòng: "Thất bại lớn, vì điều này khách quan là sai. Grok đang nhai lại truyền thông cũ", dù chatbot trích dẫn dữ liệu từ các nguồn chính phủ như Bộ An ninh Nội địa. Chỉ trong ba ngày, Musk hứa sẽ cập nhật lớn cho Grok để "viết lại toàn bộ tri thức nhân loại", kêu gọi người dùng X gửi những "sự thật gây chia rẽ" đúng sự thật dù không đúng chuẩn mực chính trị để huấn luyện mô hình. Ông nhận xét: "Quá nhiều rác trong bất kỳ mô hình nền tảng nào được đào tạo trên dữ liệu chưa được hiệu chỉnh". Đến thứ Sáu, Musk thông báo phiên bản Grok 4 sẽ ra mắt ngay sau ngày 4/7. Những diễn biến này làm dấy lên lo ngại rằng người đàn ông giàu nhất thế giới đang cố gắng uốn nắn Grok theo thế giới quan của mình - điều có thể dẫn đến nhiều lỗi hơn và đặt ra câu hỏi quan trọng về định kiến trong AI, theo các chuyên gia. AI được kỳ vọng sẽ định hình cách con người làm việc, giao tiếp và tìm kiếm thông tin, đồng thời đang tác động đến nhiều lĩnh vực như phát triển phần mềm, y tế và giáo dục. Những quyết định của nhân vật quyền lực như Musk về phát triển công nghệ này có thể mang tính then chốt, đặc biệt khi Grok được tích hợp vào một trong những mạng xã hội phổ biến nhất thế giới - nơi các rào cản kiểm soát thông tin sai lệch đã bị dỡ bỏ. Dù không nổi tiếng bằng ChatGPT của OpenAI, việc Grok xuất hiện trên nền tảng X của Musk giúp nó tiếp cận lượng khán giả kỹ thuật số khổng lồ. David Evan Harris - nhà nghiên cứu AI tại UC Berkeley - nhận định: "Đây thực sự là khởi đầu của cuộc chiến dài hạn về việc liệu hệ thống AI có bắt buộc cung cấp thông tin khách quan hay nhà phát triển có thể nghiêng cân theo sở thích chính trị của họ". Một nguồn tin thân cận tiết lộ với CNN rằng cố vấn của Musk đã cảnh báo Grok "không thể đơn giản được đúc khuôn" theo quan điểm cá nhân của ông, và Musk hiểu điều đó. xAI không phản hồi yêu cầu bình luận. Trong nhiều tháng, người dùng nghi ngờ Musk định hướng Grok phản ánh thế giới quan của mình. Hồi tháng 5, chatbot bất ngờ đề cập đến cáo buộc về nạn diệt chủng người da trắng ở Nam Phi khi trả lời những truy vấn không liên quan, thậm chí khẳng định được "hướng dẫn coi nạn diệt chủng này là có thật". Musk sinh ra và lớn lên ở Nam Phi, từng nhiều lần tuyên bố về "nạn diệt chủng người da trắng" tại quốc gia này. Vài ngày sau, xAI thừa nhận một "sửa đổi trái phép" vào sáng sớm giờ Thái Bình Dương đã khiến chatbot đưa ra "phản hồi cụ thể về chủ đề chính trị" vi phạm chính sách công ty. Khi Musk chỉ đạo đội ngũ đào tạo lại Grok, Nick Frosst - đồng sáng lập Cohere - cho rằng tỷ phú đang cố tạo ra mô hình cổ súy quan điểm cá nhân. Ông nhận xét: "Điều đó chắc chắn làm giảm chất lượng mô hình với người dùng, trừ khi họ tình cờ tin tưởng mọi điều Musk tin và chỉ muốn nghe lại những quan điểm đó". Frosst giải thích các công ty AI như OpenAI, Meta hay Google thường xuyên cập nhật mô hình để cải thiện hiệu suất, nhưng việc đào tạo lại từ đầu để "loại bỏ mọi thứ Musk không thích" sẽ tốn nhiều thời gian, tiền bạc và làm giảm trải nghiệm người dùng. Một phương án khác là chèn lệnh và điều chỉnh trọng số trong mã mô hình - quá trình nhanh hơn vì giữ nguyên cơ sở kiến thức hiện có. Dan Neely - CEO Vermillio - cho biết xAI có thể điều chỉnh trọng số và nhãn dữ liệu của Grok trong các lĩnh vực cụ thể. Musk không tiết lộ chi tiết thay đổi ở Grok 4, chỉ khẳng định nó sẽ sử dụng "mô hình mã hóa chuyên biệt". Dù tuyên bố Grok "tối đa tìm kiếm sự thật", mọi mô hình AI đều tồn tại định kiến do chịu ảnh hưởng từ con người lựa chọn dữ liệu huấn luyện. Neely nhấn mạnh: "Nội dung trên internet vốn đã có khuynh hướng nhất định, dù bạn có đồng ý hay không". Frosst dự đoán trợ lý AI mang định kiến rõ rệt sẽ ít phổ biến và hữu ích hơn, vì người dùng chủ yếu muốn hoàn thành tác vụ chứ không nghe nhắc lại hệ tư tưởng. Neely tin rằng nguồn tin chính thống cuối cùng sẽ lấy lại vị thế khi mọi người tìm kiếm thông tin đáng tin cậy, nhưng quá trình này sẽ "đầy đau đớn và hỗn loạn", thậm chí đe dọa nền dân chủ.