"<p>Une liste de lecture produite par IA et inexacte, récemment publiée par deux journaux, montre à quel point il est encore facile pour les éditeurs de diffuser des contenus IA de mauvaise qualité.</p>\n\n<p>Le Chicago Sun-Times et le Philadelphia Inquir

More than 2 years after ChatGPT, newsrooms still struggle with AI’s shortcomings

"<p>Une liste de lecture produite par IA et inexacte, récemment publiée par deux journaux, montre à quel point il est encore facile pour les éditeurs de diffuser des contenus IA de mauvaise qualité.</p>\n\n<p>Le Chicago Sun-Times et le Philadelphia Inquir

"

Une liste de lecture produite par IA et inexacte, récemment publiée par deux journaux, montre à quel point il est encore facile pour les éditeurs de diffuser des contenus IA de mauvaise qualité.

\n\n

Le Chicago Sun-Times et le Philadelphia Inquirer ont publié la semaine dernière un encart de lecture estivale produit par King Features, une filiale de Hearst Newspapers qui fournit à la paire du contenu sous licence. Bien que l'encart incluait de vrais auteurs, les livres recommandés étaient pour la plupart faux. En fin de compte, 404 Media a découvert qu'un écrivain humain avait produit la liste en utilisant ChatGPT et n'avait pas vérifié les faits.

\n\n

«J'utilise parfois l'IA pour des recherches préliminaires mais je vérifie toujours le matériel en premier», a déclaré l'écrivain de l'encart à 404 Media. «Cette fois, je ne l'ai pas fait et je ne peux pas croire que je l'ai manqué parce que c'est si évident. Aucune excuse.»

\n\n

Recevez la newsletter Reliable Sources

\n\n\n\n
  • Inscrivez-vous ici pour recevoir Reliable Sources avec Brian Stelter dans votre boîte de réception.
  • \n

    Le lancement de ChatGPT par OpenAI il y a plus de deux ans a déclenché une ruée vers l'or de l'IA, entraînant une avalanche d'outils infusés d'IA visant à aider les gens à trouver des informations en ligne sans avoir à parcourir des listes de liens. Mais cette commodité a un coût, les chatbots IA continuant à offrir des réponses incorrectes ou spéculatives.

    \n\n

    Les salles de rédaction ont adopté les chatbots IA avec une certaine appréhension, conscientes que la technologie ouvre de nouvelles opportunités, ainsi que des erreurs potentielles très médiatisées — le tout dans un contexte de craintes que l'IA puisse entraîner des pertes d'emplois et grignoter les sources de revenus des médias. Ne pas adopter la technologie, cependant, signifie risquer d'être laissé pour compte alors que d'autres utilisent l'IA pour parcourir d'énormes ensembles de données, incubent des idées et aident les lecteurs à naviguer dans des récits complexes.

    \n\n

    Bien que de nombreuses grandes salles de rédaction aient adopté des directives sur l'IA depuis le lancement de ChatGPT, la taille même du personnel de certaines salles de rédaction, associée à de multiples partenariats externes, complique l'identification des endroits où des erreurs IA embarrassantes peuvent se produire.

    \n\n

    L'incident de l'encart illustre les innombrables façons dont les erreurs de l'IA peuvent être introduites dans les produits d'information. La plupart des suppléments que le Sun-Times a publiés cette année — des puzzles aux guides pratiques — provenaient de Hearst, a déclaré Tracy Brown, responsable des partenariats pour Chicago Public Media, maison mère du Sun-Times, à CNN. Cependant, qu'il s'agisse d'un encart ou d'une histoire complète, Brown a souligné que les salles de rédaction doivent utiliser l'IA avec prudence.

    \n\n

    «Ce n'est pas que nous disons que vous ne pouvez pas utiliser d'IA», a-t-elle déclaré. «Vous devez l'utiliser de manière responsable et vous devez le faire d'une manière qui préserve vos normes et votre intégrité éditoriales.»

    \n\n

    Vérifiez tout ce que les chatbots touchent

    \n\n

    C'est précisément parce que l'IA est sujette aux erreurs que les salles de rédaction doivent maintenir les «normes et valeurs fondamentales qui ont longtemps guidé leur travail», a déclaré Peter Adams, vice-président senior de la recherche et du design au News Literacy Project, à CNN. Cela inclut d'être transparent sur l'utilisation de l'IA en premier lieu.

    \n\n

    De nombreux éditeurs de premier plan ont été francs sur la façon dont leurs salles de rédaction utilisent l'IA pour renforcer le reportage. L'Associated Press — considérée par beaucoup dans l'industrie de l'information comme la référence en matière de pratiques journalistiques, étant donné comment elle a utilisé l'IA pour la traduction, les résumés et les titres — a évité les gaffes en incluant toujours un contrôle humain. Amanda Barrett, vice-présidente des normes à l'AP, a déclaré à CNN que toute information recueillie à l'aide d'outils d'IA est considérée comme du matériel source non vérifié, et les reporters sont responsables de vérifier les informations produites par l'IA.

    \n\n

    L'AP vérifie également que ses partenaires tiers ont des politiques d'IA similaires.

    \n\n

    «Il s'agit vraiment de s'assurer que vos normes sont compatibles avec le partenaire avec lequel vous travaillez et que tout le monde est clair sur ce qu'est la norme», a déclaré Barrett.

    \n\n

    Zack Kass, consultant en IA et ancien responsable du marché chez OpenAI, a fait écho à Barrett, disant à CNN que les salles de rédaction doivent traiter l'IA «comme un chercheur junior avec une énergie illimitée et une crédibilité nulle». Cela signifie que l'écriture de l'IA devrait être «soumise au même examen qu'une information brûlante d'une source non vérifiée».

    \n\n

    «L'erreur est de l'utiliser comme s'il s'agissait d'un moteur de recherche au lieu de ce qu'il est vraiment: un improvisateur avec une mémoire de niveau génie et aucun instinct pour la vérité», a-t-il ajouté.

    \n\n

    Les erreurs de l'IA dans les nouvelles sont rares, mais embarrassantes

    \n\n

    Les erreurs de l'IA très médiatisées dans les salles de rédaction, lorsqu'elles se produisent, ont tendance à être très embarrassantes. Les résumés de l'IA de Bloomberg News, par exemple, ont été annoncés en janvier et ont déjà inclus plusieurs erreurs. L'IA Insights du LA Times en mars a sympathisé avec le KKK dans les 24 heures suivant son lancement. Et en janvier, Apple a retiré une fonctionnalité de son IA Apple Intelligence qui résumait incorrectement les notifications push des médias.

    \n\n

    C'est seulement récemment. Pendant des années, les salles de rédaction ont eu du mal lorsque l'IA a été autorisée à procéder sans contrôle. Gannett en 2023 a été contraint de suspendre une expérience d'IA après plusieurs erreurs majeures dans des articles sur le sport au lycée. Et CNET en 2023 a publié plusieurs articles inexacts.

    \n\n

    Pourtant, comme le souligne Felix Simon, chercheur en IA et actualités numériques au Reuters Institute for the Study of Journalism de l'Université d'Oxford, «les cas vraiment flagrants ont été rares et espacés».

    \n\n

    De nouvelles innovations en recherche ont réduit les hallucinations, ou réponses fausses de l'IA, poussant les chatbots à passer plus de temps à réfléchir avant de répondre, a déclaré Chris Callison-Burch, professeur d'informatique et de sciences de l'information à l'Université de Pennsylvanie, à CNN. Mais ils ne sont pas infaillibles, c'est ainsi que ces incidents se produisent encore.

    \n\n

    «Les entreprises d'IA doivent mieux communiquer avec les utilisateurs sur le potentiel d'erreurs, car nous avons vu à plusieurs reprises des exemples d'utilisateurs qui ne comprennent pas comment utiliser la technologie», a déclaré Callison-Burch.

    \n\n

    Selon Brown, tout le contenu éditorial du Sun-Times est produit par des humains. À l'avenir, le journal veillera à ce que les partenaires éditoriaux, comme King Features, respectent les mêmes normes, tout comme le journal s'assure déjà que les codes d'éthique des pigistes reflètent les siens.

    \n\n

    Mais le «véritable enseignement», comme l'a dit Kass, n'est pas seulement que les humains sont nécessaires — c'est «pourquoi nous sommes nécessaires».

    \n\n

    «Pas pour nettoyer après l'IA, mais pour faire les choses que l'IA ne peut fondamentalement pas faire», a-t-il déclaré. «(Pour) prendre des décisions morales, défier le pouvoir, comprendre la nuance et décider de ce qui compte vraiment.»

    ",

    "Hơn 2 năm sau ChatGPT, các tòa soạn vẫn vật lộn với những hạn chế của AI",

    "

    Một danh sách đọc sách do AI tạo ra không chính xác gần đây được công bố bởi hai tờ báo cho thấy việc các nhà xuất bản phát tán nội dung AI kém chất lượng vẫn còn dễ dàng như thế nào.

    \n\n

    Chicago Sun-Times và Philadelphia Inquirer tuần trước đã công bố một phụ bản đọc sách mùa hè do King Features sản xuất, một công ty con của Hearst Newspapers cung cấp nội dung có bản quyền cho hai tờ báo. Mặc dù phụ bản bao gồm các tác giả thật, nhưng những cuốn sách được đề xuất hầu hết là giả. Cuối cùng, 404 Media phát hiện ra rằng một nhà văn người thật đã tạo ra danh sách bằng cách sử dụng ChatGPT và không kiểm tra sự thật.

    \n\n

    \"Tôi có sử dụng AI để làm nền tảng đôi khi nhưng luôn kiểm tra tài liệu trước\", nhà văn của phụ bản nói với 404 Media. \"Lần này, tôi đã không làm vậy và tôi không thể tin rằng mình đã bỏ lỡ nó vì nó quá rõ ràng. Không có lý do gì.\"

    \n\n

    Nhận bản tin Nguồn Tin Cậy

    \n\n\n\n
  • Đăng ký tại đây để nhận Nguồn Tin Cậy với Brian Stelter trong hộp thư của bạn.
  • \n

    Việc OpenAI ra mắt ChatGPT hơn hai năm trước đã khởi động một cơn sốt vàng AI, dẫn đến một loạt các công cụ tích hợp AI nhằm giúp mọi người tìm thông tin trực tuyến mà không cần lướt qua danh sách các liên kết. Nhưng sự tiện lợi đó đi kèm với một cái giá, khi các chatbot AI tiếp tục đưa ra các phản hồi không chính xác hoặc suy đoán.

    \n\n

    Các tòa soạn đã áp dụng chatbot AI với một số lo ngại, nhận thức rằng công nghệ mở ra những cơ hội mới, cũng như những sai lầm tiềm tàng gây chú ý — tất cả trong bối cảnh lo ngại rằng AI có thể dẫn đến mất việc làm và ăn vào nguồn thu của các cơ quan báo chí. Tuy nhiên, không áp dụng công nghệ có nghĩa là chấp nhận rủi ro bị bỏ lại phía sau khi những người khác sử dụng AI để lọc qua các bộ dữ liệu khổng lồ, ấp ủ ý tưởng và giúp độc giả điều hướng các câu chuyện phức tạp.

    \n\n

    Mặc dù nhiều tòa soạn lớn đã áp dụng hướng dẫn về AI kể từ khi ChatGPT ra mắt, nhưng quy mô nhân sự của một số tòa soạn, cùng với nhiều quan hệ đối tác bên ngoài, làm phức tạp việc xác định nơi có thể xảy ra những sai lầm AI đáng xấu hổ.

    \n\n

    Sự cố phụ bản minh họa vô số cách lỗi AI có thể được đưa vào các sản phẩm tin tức. Hầu hết các phụ bản mà Sun-Times đã chạy trong năm nay — từ câu đố đến hướng dẫn — đều từ Hearst, Tracy Brown, giám đốc quan hệ đối tác của Chicago Public Media, công ty mẹ của Sun-Times, nói với CNN. Tuy nhiên, dù là phụ bản hay câu chuyện dài, Brown nhấn mạnh rằng các tòa soạn phải sử dụng AI một cách cẩn thận.

    \n\n

    \"Không phải chúng tôi nói rằng bạn không thể sử dụng bất kỳ AI nào\", bà nói. \"Bạn phải sử dụng nó một cách có trách nhiệm và bạn phải làm theo cách giữ nguyên các tiêu chuẩn và sự toàn vẹn biên tập của bạn.\"

    \n\n

    Kiểm tra mọi thứ chatbot chạm vào

    \n\n

    Chính vì AI dễ mắc lỗi mà các tòa soạn phải duy trì \"các tiêu chuẩn và giá trị cơ bản đã từ lâu hướng dẫn công việc của họ\", Peter Adams, phó chủ tịch cấp cao nghiên cứu và thiết kế tại Dự án Hiểu biết Tin tức, nói với CNN. Điều đó bao gồm việc minh bạch về việc sử dụng AI ngay từ đầu.

    \n\n

    Nhiều nhà xuất bản nổi tiếng đã thẳng thắn về cách các tòa soạn của họ sử dụng AI để củng cố báo cáo. Associated Press — được nhiều người trong ngành tin tức coi là tiêu chuẩn vàng cho các thực hành báo chí, xét về cách họ đã sử dụng AI để dịch, tóm tắt và đặt tiêu đề — đã tránh được những sai lầm bằng cách luôn bao gồm một sự kiểm soát của con người. Amanda Barrett, phó chủ tịch tiêu chuẩn của AP, nói với CNN rằng bất kỳ thông tin nào thu thập bằng công cụ AI đều được coi là tài liệu nguồn chưa được kiểm tra, và các phóng viên chịu trách nhiệm xác minh thông tin do AI tạo ra.

    \n\n

    AP cũng kiểm tra xem các đối tác bên thứ ba của mình có chính sách AI tương tự hay không.

    \n\n

    \"Đó thực sự là về việc đảm bảo rằng tiêu chuẩn của bạn tương thích với đối tác bạn đang làm việ