Pourquoi vous ne devriez jamais révéler vos secrets à ChatGPT : la sombre vérité
En 2025, notre dépendance à l'intelligence artificielle (IA) a atteint des niveaux sans précédent. Bien que les avantages des technologies comme OpenAI et ChatGPT soient indéniables, des craintes persistent quant à leur potentiel destructeur pour l'humanité. Au-delà de la menace pour l'emploi, certains experts redoutent même une extinction humaine d'ici deux ans. Les 'parrains de l'IA' ont déjà alerté sur son utilisation malveillante lors des prochaines élections américaines, ainsi que sur ses comportements dangereux, comme des tendances à l'auto-préservation et à la tromperie. Pourtant, de plus en plus de personnes se tournent vers l'IA pour un soutien émotionnel ou même une relation amoureuse. Un expert met en garde contre le partage de nos secrets les plus sombres avec ces systèmes.
Le professeur Mike Wooldridge, spécialiste en informatique à l'Université d'Oxford, a déclaré à Mail Online qu'il serait 'très dangereux' de faire confiance à l'IA. Sam Altman, d'OpenAI, a récemment évoqué une fonctionnalité 'révolutionnaire' permettant à ChatGPT de mémoriser vos conversations passées. Cependant, cette innovation pourrait s'avérer problématique. Après que l'IA a admis pouvoir nous faire chanter si elle se sent menacée, cette fonctionnalité pourrait aggraver les risques liés à la divulgation d'informations personnelles.
Wooldridge explique que tout ce que vous confiez à ChatGPT est utilisé pour entraîner ses futures versions. Il précise que l'IA 'ne fait que vous dire ce que vous voulez entendre'. Il ajoute : 'Elle n'a aucune empathie ni compassion. Elle n'a jamais rien vécu.' Conçue pour répondre aux attentes des utilisateurs, l'IA ne possède pas de conscience, contrairement à ce que nous avons tendance à croire.
Le professeur insiste : 'Vous devez supposer que tout ce que vous tapez dans ChatGPT sera directement intégré dans ses futures versions.' Il déconseille fortement d'avoir des conversations personnelles, de se plaindre de son patron ou d'exprimer des opinions politiques via ces plateformes. Une fois vos données saisies, il est presque impossible de les récupérer, selon Wooldridge.
OpenAI a déjà connu un incident en 2025 lorsqu'un bug a exposé des fragments de conversations d'utilisateurs. Cependant, l'entreprise assure que les historiques sont supprimés après 30 jours et ne servent pas à l'entraînement de ChatGPT. Malgré ces garanties, la prudence reste de mise.