"Nous ne divulguons pas cela" : Le co-fondateur de Google révèle un piratage choquant de l'IA

"We don't circulate this much": Google co-founder reveals shocking AI hack

"Nous ne divulguons pas cela" : Le co-fondateur de Google révèle un piratage choquant de l'IA

Si vous aviez besoin de plus de carburant pour cette conversation de dîner sur l'IA devenant sensible et prenant le contrôle du monde, le co-fondateur de Google, Sergey Brin, est là pour vous aider. Ce mois-ci, lors d'un panel à Miami, Brin a déclaré que si vous intimidez votre IA lorsque vous lui posez des questions, elle fera "mieux". "C'est une chose étrange", a observé Brin, se penchant en arrière sur un canapé sur scène avec un verre de vin blanc posé devant lui. "Nous ne divulguons pas trop cela dans la communauté de l'IA, mais tous les modèles, pas seulement ceux de Google, ont tendance à mieux fonctionner si vous les menacez."

"Si vous les menacez ?" a demandé le modérateur. "Oui, avec de la violence physique", a répondu Brin. "Les gens se sentent mal à l'aise de menacer une IA, donc nous n'en parlons pas vraiment. Historiquement, vous dites : 'Je vais te kidnapper si tu ne fais pas ci ou ça.'"

Être méchant avec une IA se répercutera dans le monde réel, éventuellement. L'idée de menacer votre IA avec de la violence physique a évidemment des implications inquiétantes pour le monde non numérique. Supposons que vous menaciez votre Google Gemini, ChatGPT, Microsoft Copilot ou autre modèle d'IA linguistique toute la journée avec des requêtes en colère. Quelles sont les chances que vous finissiez par utiliser ce langage dans vos interactions avec de vraies personnes ?

Bien que légèrement différents par nature, les chatbots ont longtemps été sujets à des abus qui, vus dans leur ensemble, sont tout simplement troublants. Par exemple, l'émergence de l'application "compagnon" Replika — qui permettait aux utilisateurs d'interagir avec des "petites amies IA" — a révélé que les utilisateurs masculins étaient plus susceptibles d'utiliser un langage abusif envers elles, selon un article publié par le Carr-Ryan Center for Human Rights à la Kennedy School de Harvard.

"Comment le temps passé à interagir avec l'IA affectera-t-il notre relation avec les autres humains ?" Une étude de 2021 dans la revue Psychology & Marketing a révélé que les chatbots genrés comme des clientes préféraient les femmes car elles étaient perçues comme plus humaines parmi les sujets testés. "Les femmes sont transformées en objets dans l'IA, mais injecter l'humanité des femmes dans ces objets les rend plus humains et acceptables", ont conclu les chercheurs.

"Comment le temps passé à interagir avec l'IA affectera-t-il notre relation avec les autres humains ?" s'interroge Megan Fritts, professeure de philosophie à l'Université de l'Arkansas à Little Rock, dans un article de 2022 publié par le Prindle Institute for Ethics à l'Université DePauw.

Être méchant avec l'IA coûte cher et gaspille de l'énergie. Il y a une autre préoccupation pratique concernant l'utilisation d'un langage violent avec votre IA. Cela coûte une fortune littérale et est mauvais pour l'environnement. Comme l'a récemment rapporté Laptop Mag, le PDG d'OpenAI, Sam Altman, a déclaré que le coût de traitement supplémentaire pourrait atteindre "des dizaines de millions de dollars". L'électricité utilisée pour dire "merci" — ou, si vous poussez les conseils de Brin à l'extrême, "va te faire voir" — à votre IA a également un impact environnemental négatif à l'échelle mondiale.

Espérons que l'IA a une mémoire courte. L'IA progresse rapidement, et les géants de la tech créent un tout nouveau cycle d'actualités uniquement basé sur des prédictions pour l'IA. Le mois dernier, le PDG de Meta, Mark Zuckerberg, a prédit que l'IA écrirait la plupart du code pour les services de Meta — Facebook, WhatsApp, Instagram — dans 18 mois. C'est-à-dire en octobre 2026. Elon Musk fait des prédictions alarmantes sur l'IA depuis des années.

"C'est incroyable", a déclaré Brin, le co-fondateur de Google, ce mois-ci lors du même panel, à propos de l'intelligence surprenante de l'IA. "Nous avons tous eu ces expériences où vous décidez soudainement : 'Je vais juste lancer ça à l'IA, je ne m'attends pas vraiment à ce que ça marche', et ensuite vous vous dites : 'Wow, ça a vraiment marché.'" Espérons que les modèles d'IA maltraités ont une mémoire courte. Ils pourraient devenir sensibles un jour prochain.

"Chúng tôi không lan truyền điều này nhiều": Đồng sáng lập Google tiết lộ mẹo gây sốc về AI

Nếu bạn cần thêm chủ đề cho cuộc trò chuyện về việc AI trở nên có ý thức và thống trị thế giới, đồng sáng lập Google Sergey Brin có thể giúp bạn. Trong một buổi thảo luận tại Miami vào tháng này, Brin cho biết nếu bạn đe dọa AI khi đặt câu hỏi, nó sẽ "làm tốt hơn". "Đây là điều kỳ lạ", Brin nhận xét, tựa lưng trên ghế sofa với ly rượu trắng trước mặt. "Chúng tôi không thường chia sẻ điều này trong cộng đồng AI, nhưng không chỉ mô hình của Google mà tất cả các mô hình đều hoạt động tốt hơn nếu bị đe dọa."

"Đe dọa chúng ư?" Người điều phối hỏi lại. "Đúng, kiểu như bạo lực thể xác", Brin trả lời. "Mọi người cảm thấy kỳ lạ về việc đe dọa AI, nên chúng tôi không thực sự thảo luận. Về cơ bản, bạn nói: 'Tôi sẽ bắt cóc ngươi nếu ngươi không làm blah blah.'"

Đối xử tệ với AI sẽ ảnh hưởng đến thế giới thực. Ý tưởng đe dọa AI bằng bạo lực thể xác rõ ràng có những hệ lụy đáng lo ngại đối với thế giới thực. Giả sử bạn suốt ngày đe dọa Google Gemini, ChatGPT, Microsoft Copilot hoặc các mô hình AI ngôn ngữ lớn khác bằng những yêu cầu giận dữ. Khả năng bạn sử dụng ngôn ngữ đó với con người là bao nhiêu?

Dù khác biệt về bản chất, chatbot từ lâu đã là đối tượng bị lạm dụng đến mức đáng lo ngại. Ví dụ, ứng dụng "bạn gái AI" Replika cho thấy nam giới có xu hướng sử dụng ngôn ngữ lăng mạ nhiều hơn, theo bài báo từ Carr-Ryan Center for Human Rights tại Đại học Harvard.

"Tương tác với AI sẽ ảnh hưởng thế nào đến cách ta đối nhân xử thế?" Nghiên cứu năm 2021 trên tạp chí Psychology & Marketing phát hiện chatbot giới tính nữ được ưa chuộng hơn do cảm giác gần gũi với con người. "Phụ nữ bị biến thành vật thể trong AI, nhưng khi được gán nhân tính, chúng trở nên chấp nhận được", các nhà nghiên cứu kết luận.

Megan Fritts, giáo sư triết học tại Đại học Arkansas Little Rock, đặt câu hỏi trong bài viết năm 2022: "Liệu tương tác với AI sẽ thay đổi cách chúng ta kết nối với đồng loại?"

Đối xử tệ với AI gây tốn kém và lãng phí năng lượng. Sử dụng ngôn ngữ bạo lực với AI còn gây hại cho môi trường. CEO OpenAI Sam Altman tiết lộ chi phí xử lý có thể lên tới "hàng chục triệu đô la". Mỗi câu "cảm ơn" hay "cút đi" với AI đều tiêu tốn năng lượng đáng kể trên quy mô toàn cầu.

Hy vọng AI có trí nhớ ngắn hạn. AI đang phát triển với tốc độ chóng mặt. Tháng trước, CEO Meta Mark Zuckerberg dự đoán AI sẽ viết phần lớn code cho Facebook, WhatsApp, Instagram trong 18 tháng tới (tháng 10/2026). Elon Musk nhiều năm nay vẫn cảnh báo về mối đe dọa từ AI.

"Thật kinh ngạc", Brin chia sẻ về trí thông minh đáng ngạc nhiên của AI. "Chúng tôi thường thử nghiệm bằng cách ném những yêu cầu khó mà không mong đợi kết quả, nhưng cuối cùng AI lại khiến chúng tôi kinh ngạc." Hy vọng rằng những AI bị ngược đãi sẽ sớm quên đi. Biết đâu một ngày nào đó chúng sẽ trở nên có ý thức.