"<p>Une liste de lecture produite par IA et inexacte, récemment publiée par deux journaux, montre à quel point il est encore facile pour les éditeurs de diffuser des contenus IA de mauvaise qualité.</p>\n\n<p>Le Chicago Sun-Times et le Philadelphia Inquir
"
Une liste de lecture produite par IA et inexacte, récemment publiée par deux journaux, montre à quel point il est encore facile pour les éditeurs de diffuser des contenus IA de mauvaise qualité.
\n\nLe Chicago Sun-Times et le Philadelphia Inquirer ont publié la semaine dernière un encart de lecture estivale produit par King Features, une filiale de Hearst Newspapers qui fournit à la paire du contenu sous licence. Bien que l'encart incluait de vrais auteurs, les livres recommandés étaient pour la plupart faux. En fin de compte, 404 Media a découvert qu'un écrivain humain avait produit la liste en utilisant ChatGPT et n'avait pas vérifié les faits.
\n\n«J'utilise parfois l'IA pour des recherches préliminaires mais je vérifie toujours le matériel en premier», a déclaré l'écrivain de l'encart à 404 Media. «Cette fois, je ne l'ai pas fait et je ne peux pas croire que je l'ai manqué parce que c'est si évident. Aucune excuse.»
\n\nRecevez la newsletter Reliable Sources
\n\n- \n
- Inscrivez-vous ici pour recevoir Reliable Sources avec Brian Stelter dans votre boîte de réception. \n
- \n
Le lancement de ChatGPT par OpenAI il y a plus de deux ans a déclenché une ruée vers l'or de l'IA, entraînant une avalanche d'outils infusés d'IA visant à aider les gens à trouver des informations en ligne sans avoir à parcourir des listes de liens. Mais cette commodité a un coût, les chatbots IA continuant à offrir des réponses incorrectes ou spéculatives.
\n\nLes salles de rédaction ont adopté les chatbots IA avec une certaine appréhension, conscientes que la technologie ouvre de nouvelles opportunités, ainsi que des erreurs potentielles très médiatisées — le tout dans un contexte de craintes que l'IA puisse entraîner des pertes d'emplois et grignoter les sources de revenus des médias. Ne pas adopter la technologie, cependant, signifie risquer d'être laissé pour compte alors que d'autres utilisent l'IA pour parcourir d'énormes ensembles de données, incubent des idées et aident les lecteurs à naviguer dans des récits complexes.
\n\nBien que de nombreuses grandes salles de rédaction aient adopté des directives sur l'IA depuis le lancement de ChatGPT, la taille même du personnel de certaines salles de rédaction, associée à de multiples partenariats externes, complique l'identification des endroits où des erreurs IA embarrassantes peuvent se produire.
\n\nL'incident de l'encart illustre les innombrables façons dont les erreurs de l'IA peuvent être introduites dans les produits d'information. La plupart des suppléments que le Sun-Times a publiés cette année — des puzzles aux guides pratiques — provenaient de Hearst, a déclaré Tracy Brown, responsable des partenariats pour Chicago Public Media, maison mère du Sun-Times, à CNN. Cependant, qu'il s'agisse d'un encart ou d'une histoire complète, Brown a souligné que les salles de rédaction doivent utiliser l'IA avec prudence.
\n\n«Ce n'est pas que nous disons que vous ne pouvez pas utiliser d'IA», a-t-elle déclaré. «Vous devez l'utiliser de manière responsable et vous devez le faire d'une manière qui préserve vos normes et votre intégrité éditoriales.»
\n\nVérifiez tout ce que les chatbots touchent
\n\nC'est précisément parce que l'IA est sujette aux erreurs que les salles de rédaction doivent maintenir les «normes et valeurs fondamentales qui ont longtemps guidé leur travail», a déclaré Peter Adams, vice-président senior de la recherche et du design au News Literacy Project, à CNN. Cela inclut d'être transparent sur l'utilisation de l'IA en premier lieu.
\n\nDe nombreux éditeurs de premier plan ont été francs sur la façon dont leurs salles de rédaction utilisent l'IA pour renforcer le reportage. L'Associated Press — considérée par beaucoup dans l'industrie de l'information comme la référence en matière de pratiques journalistiques, étant donné comment elle a utilisé l'IA pour la traduction, les résumés et les titres — a évité les gaffes en incluant toujours un contrôle humain. Amanda Barrett, vice-présidente des normes à l'AP, a déclaré à CNN que toute information recueillie à l'aide d'outils d'IA est considérée comme du matériel source non vérifié, et les reporters sont responsables de vérifier les informations produites par l'IA.
\n\nL'AP vérifie également que ses partenaires tiers ont des politiques d'IA similaires.
\n\n«Il s'agit vraiment de s'assurer que vos normes sont compatibles avec le partenaire avec lequel vous travaillez et que tout le monde est clair sur ce qu'est la norme», a déclaré Barrett.
\n\nZack Kass, consultant en IA et ancien responsable du marché chez OpenAI, a fait écho à Barrett, disant à CNN que les salles de rédaction doivent traiter l'IA «comme un chercheur junior avec une énergie illimitée et une crédibilité nulle». Cela signifie que l'écriture de l'IA devrait être «soumise au même examen qu'une information brûlante d'une source non vérifiée».
\n\n«L'erreur est de l'utiliser comme s'il s'agissait d'un moteur de recherche au lieu de ce qu'il est vraiment: un improvisateur avec une mémoire de niveau génie et aucun instinct pour la vérité», a-t-il ajouté.
\n\nLes erreurs de l'IA dans les nouvelles sont rares, mais embarrassantes
\n\nLes erreurs de l'IA très médiatisées dans les salles de rédaction, lorsqu'elles se produisent, ont tendance à être très embarrassantes. Les résumés de l'IA de Bloomberg News, par exemple, ont été annoncés en janvier et ont déjà inclus plusieurs erreurs. L'IA Insights du LA Times en mars a sympathisé avec le KKK dans les 24 heures suivant son lancement. Et en janvier, Apple a retiré une fonctionnalité de son IA Apple Intelligence qui résumait incorrectement les notifications push des médias.
\n\nC'est seulement récemment. Pendant des années, les salles de rédaction ont eu du mal lorsque l'IA a été autorisée à procéder sans contrôle. Gannett en 2023 a été contraint de suspendre une expérience d'IA après plusieurs erreurs majeures dans des articles sur le sport au lycée. Et CNET en 2023 a publié plusieurs articles inexacts.
\n\nPourtant, comme le souligne Felix Simon, chercheur en IA et actualités numériques au Reuters Institute for the Study of Journalism de l'Université d'Oxford, «les cas vraiment flagrants ont été rares et espacés».
\n\nDe nouvelles innovations en recherche ont réduit les hallucinations, ou réponses fausses de l'IA, poussant les chatbots à passer plus de temps à réfléchir avant de répondre, a déclaré Chris Callison-Burch, professeur d'informatique et de sciences de l'information à l'Université de Pennsylvanie, à CNN. Mais ils ne sont pas infaillibles, c'est ainsi que ces incidents se produisent encore.
\n\n«Les entreprises d'IA doivent mieux communiquer avec les utilisateurs sur le potentiel d'erreurs, car nous avons vu à plusieurs reprises des exemples d'utilisateurs qui ne comprennent pas comment utiliser la technologie», a déclaré Callison-Burch.
\n\nSelon Brown, tout le contenu éditorial du Sun-Times est produit par des humains. À l'avenir, le journal veillera à ce que les partenaires éditoriaux, comme King Features, respectent les mêmes normes, tout comme le journal s'assure déjà que les codes d'éthique des pigistes reflètent les siens.
\n\nMais le «véritable enseignement», comme l'a dit Kass, n'est pas seulement que les humains sont nécessaires — c'est «pourquoi nous sommes nécessaires».
\n\n«Pas pour nettoyer après l'IA, mais pour faire les choses que l'IA ne peut fondamentalement pas faire», a-t-il déclaré. «(Pour) prendre des décisions morales, défier le pouvoir, comprendre la nuance et décider de ce qui compte vraiment.»
",