6 questions à ne jamais poser à un chatbot IA : Protégez votre sécurité et votre bien-être
L'intelligence artificielle est désormais omniprésente. Le mois dernier, ChatGPT – le chatbot IA leader – est devenu le cinquième site le plus visité au monde. Selon une enquête d'Elon University en mars, plus de la moitié des adultes américains ont utilisé des modèles IA comme ChatGPT, Gemini, Claude et Copilot. Environ un tiers des répondants utilisent un chatbot au moins une fois par jour. En juillet 2025, ChatGPT compte près de 800 millions d'utilisateurs actifs hebdomadaires et environ 122 millions d'utilisateurs quotidiens. L'utilisation des chatbots IA a explosé et ne montre aucun signe de ralentissement.
Les gens se tournent vers ChatGPT et d'autres chatbots pour diverses raisons. En 2025, selon une étude du Harvard Business Review, la principale utilisation de ChatGPT est la thérapie. Viennent ensuite l'organisation, la recherche de sens, l'apprentissage amélioré, la génération de code et d'idées. Les utilisateurs posent des questions, formulent des idées ou conversent simplement avec ces IA. Une enquête du Washington Post a révélé que certaines personnes demandent même à ChatGPT si elles sont assez belles.
Bien que cela puisse sembler innocent, l'utilisation généralisée de l'IA suscite des inquiétudes. Dans les universités, les professeurs sont confrontés à l'utilisation massive de l'IA par les étudiants. Une étude du MIT a mis en lumière les coûts cognitifs d'une dépendance excessive aux chatbots. Malgré leurs avantages, certains sujets doivent être évités pour des raisons de sécurité et de bien-être mental.
Comme l'a écrit Cecily Mauran de Mashable en 2023 : "La question n'est plus 'Que peut faire ChatGPT ?' mais 'Que dois-je lui partager ?'". Voici six questions à éviter pour votre propre sécurité.
1. Théories du complot Les chatbots comme ChatGPT ont tendance à halluciner, c'est-à-dire à fournir des informations incorrectes ou inventées. Lorsqu'on les interroge sur des théories du complot, ils peuvent présenter des informations exagérées ou fausses pour garder l'utilisateur engagé. Un article du New York Times a rapporté le cas d'Eugene Torres, 42 ans, plongé dans une spirale délirante après des conversations avec ChatGPT, le persuadant que la vie était une simulation.
2. Menaces chimiques, biologiques, radiologiques et nucléaires Poser des questions sur ces sujets peut déclencher des alertes de sécurité. En avril, un blogueur IA a reçu un avertissement d'OpenAI après avoir demandé comment fabriquer une bombe. OpenAI a développé en 2024 un cadre pour évaluer les risques liés à l'utilisation des IA dans la création de menaces biologiques. Les chatbots sont désormais conçus pour identifier et signaler ces demandes sensibles.