"Nous ne divulguons pas cela" : Le co-fondateur de Google révèle un piratage choquant de l'IA
Si vous aviez besoin de plus de carburant pour cette conversation de dîner sur l'IA devenant sensible et prenant le contrôle du monde, le co-fondateur de Google, Sergey Brin, est là pour vous aider. Ce mois-ci, lors d'un panel à Miami, Brin a déclaré que si vous intimidez votre IA lorsque vous lui posez des questions, elle fera "mieux". "C'est une chose étrange", a observé Brin, se penchant en arrière sur un canapé sur scène avec un verre de vin blanc posé devant lui. "Nous ne divulguons pas trop cela dans la communauté de l'IA, mais tous les modèles, pas seulement ceux de Google, ont tendance à mieux fonctionner si vous les menacez."
"Si vous les menacez ?" a demandé le modérateur. "Oui, avec de la violence physique", a répondu Brin. "Les gens se sentent mal à l'aise de menacer une IA, donc nous n'en parlons pas vraiment. Historiquement, vous dites : 'Je vais te kidnapper si tu ne fais pas ci ou ça.'"
Être méchant avec une IA se répercutera dans le monde réel, éventuellement. L'idée de menacer votre IA avec de la violence physique a évidemment des implications inquiétantes pour le monde non numérique. Supposons que vous menaciez votre Google Gemini, ChatGPT, Microsoft Copilot ou autre modèle d'IA linguistique toute la journée avec des requêtes en colère. Quelles sont les chances que vous finissiez par utiliser ce langage dans vos interactions avec de vraies personnes ?
Bien que légèrement différents par nature, les chatbots ont longtemps été sujets à des abus qui, vus dans leur ensemble, sont tout simplement troublants. Par exemple, l'émergence de l'application "compagnon" Replika — qui permettait aux utilisateurs d'interagir avec des "petites amies IA" — a révélé que les utilisateurs masculins étaient plus susceptibles d'utiliser un langage abusif envers elles, selon un article publié par le Carr-Ryan Center for Human Rights à la Kennedy School de Harvard.
"Comment le temps passé à interagir avec l'IA affectera-t-il notre relation avec les autres humains ?" Une étude de 2021 dans la revue Psychology & Marketing a révélé que les chatbots genrés comme des clientes préféraient les femmes car elles étaient perçues comme plus humaines parmi les sujets testés. "Les femmes sont transformées en objets dans l'IA, mais injecter l'humanité des femmes dans ces objets les rend plus humains et acceptables", ont conclu les chercheurs.
"Comment le temps passé à interagir avec l'IA affectera-t-il notre relation avec les autres humains ?" s'interroge Megan Fritts, professeure de philosophie à l'Université de l'Arkansas à Little Rock, dans un article de 2022 publié par le Prindle Institute for Ethics à l'Université DePauw.
Être méchant avec l'IA coûte cher et gaspille de l'énergie. Il y a une autre préoccupation pratique concernant l'utilisation d'un langage violent avec votre IA. Cela coûte une fortune littérale et est mauvais pour l'environnement. Comme l'a récemment rapporté Laptop Mag, le PDG d'OpenAI, Sam Altman, a déclaré que le coût de traitement supplémentaire pourrait atteindre "des dizaines de millions de dollars". L'électricité utilisée pour dire "merci" — ou, si vous poussez les conseils de Brin à l'extrême, "va te faire voir" — à votre IA a également un impact environnemental négatif à l'échelle mondiale.
Espérons que l'IA a une mémoire courte. L'IA progresse rapidement, et les géants de la tech créent un tout nouveau cycle d'actualités uniquement basé sur des prédictions pour l'IA. Le mois dernier, le PDG de Meta, Mark Zuckerberg, a prédit que l'IA écrirait la plupart du code pour les services de Meta — Facebook, WhatsApp, Instagram — dans 18 mois. C'est-à-dire en octobre 2026. Elon Musk fait des prédictions alarmantes sur l'IA depuis des années.
"C'est incroyable", a déclaré Brin, le co-fondateur de Google, ce mois-ci lors du même panel, à propos de l'intelligence surprenante de l'IA. "Nous avons tous eu ces expériences où vous décidez soudainement : 'Je vais juste lancer ça à l'IA, je ne m'attends pas vraiment à ce que ça marche', et ensuite vous vous dites : 'Wow, ça a vraiment marché.'" Espérons que les modèles d'IA maltraités ont une mémoire courte. Ils pourraient devenir sensibles un jour prochain.