Une étude révèle un biais caché de l'IA contre les auteurs non-anglophones

AI has a hidden bias against non-native English authors, study finds

Une étude révèle un biais caché de l'IA contre les auteurs non-anglophones

Une nouvelle étude démontre que les détecteurs de texte IA identifient à tort les écrits d'auteurs non-anglophones, risquant des rejets injustes dans les publications académiques. Joshua Shavit. L'étude révèle que les outils de détection IA ciblent injustement les écrivains non-anglophones dans le milieu académique. (CREDIT: CC BY-SA 4.0)

L'intelligence artificielle a transformé la façon dont les chercheurs écrivent, pensent et partagent leurs connaissances. Fin 2022, OpenAI a lancé ChatGPT, rapidement suivi par Bard de Google, maintenant appelé Gemini. En quelques mois, ces modèles de langage (LLM) sont devenus des outils quotidiens. Les chercheurs les utilisent pour générer des idées, éditer des brouillons, nettoyer des données, voire écrire des paragraphes entiers pour des articles académiques.

Pour les non-anglophones, les LLM sont une bouée de sauvetage. L'anglais domine le monde académique. Les revues exigent des textes parfaits, obligeant souvent les auteurs à payer des services d'édition coûteux. Les LLM offrent une alternative moins chère et plus rapide pour améliorer la clarté et le style tout en économisant de l'argent.

Cependant, cette adoption rapide soulève des questions éthiques. Certains auteurs copient-collent des textes IA sans le mentionner. D'autres listent l'IA comme co-auteur, déclenchant des débats sur la responsabilité et l'originalité. Finalement, les revues ont statué que les LLM ne peuvent pas être auteurs mais peuvent aider à l'édition linguistique si leur usage est transparent.

Malgré cela, certains ne divulguent pas l'usage de l'IA, le jugeant inutile pour des corrections mineures, ou craignant que leur travail paraisse moins original. Ce manque de transparence a conduit au développement d'outils de détection comme GPTZero ou DetectGPT, censés identifier les textes générés par IA avec précision.

L'étude publiée dans PeerJ Computer Science révèle cependant que ces outils se trompent souvent, surtout avec des textes humains retravaillés par IA. Ironiquement, l'outil le plus précis montre aussi le plus de biais contre les non-anglophones, dont les résumés sont plus souvent flaggés comme IA malgré leur originalité.

L'équipe de recherche a testé ces outils sur 72 résumés académiques de divers domaines et origines linguistiques. Les résultats montrent un compromis entre précision et équité, avec des faux positifs plus fréquents pour les non-anglophones. L'étude appelle à une approche plus éthique et transparente de l'usage des LLM dans les publications scientifiques.

Nghiên cứu phát hiện AI có thành kiến ngầm với tác giả không phải người bản ngữ

Một nghiên cứu mới cho thấy các công cụ phát hiện văn bản AI thường nhận diện sai bài viết của tác giả không sử dụng tiếng Anh như ngôn ngữ mẹ đẻ, dẫn đến nguy cơ bị từ chối bất công trong xuất bản học thuật. Joshua Shavit. Nghiên cứu tiết lộ các công cụ phát hiện AI có thể nhắm mục tiêu không công bằng vào các nhà văn không phải người bản ngữ trong lĩnh vực học thuật. (CREDIT: CC BY-SA 4.0)

Trí tuệ nhân tạo đã thay đổi cách các học giả viết, suy nghĩ và chia sẻ kiến thức. Cuối năm 2022, OpenAI ra mắt ChatGPT, nhanh chóng theo sau là Bard của Google, nay gọi là Gemini. Chỉ trong vài tháng, các mô hình ngôn ngữ lớn (LLM) này trở thành công cụ phổ biến. Chúng được dùng để động não ý tưởng, chỉnh sửa bản thảo, làm sạch dữ liệu, thậm chí viết nguyên đoạn văn cho bài báo học thuật.

Với người không nói tiếng Anh bản địa, LLM là cứu cánh. Tiếng Anh thống trị giới học thuật. Các tạp chí yêu cầu văn phong trau chuốt, khiến nhiều tác giả phải chi trả dịch vụ biên tập đắt đỏ. LLM trở thành lựa chọn rẻ hơn, nhanh hơn để cải thiện độ rõ ràng và phong cách, đồng thời tiết kiệm chi phí.

Tuy nhiên, việc áp dụng nhanh chóng này đặt ra vấn đề đạo đức. Một số tác giả sao chép văn bản AI mà không công bố. Số khác liệt kê AI như đồng tác giả, gây tranh cãi về trách nhiệm và tính nguyên bản. Cuối cùng, các tạp chí thống nhất rằng LLM không thể là tác giả nhưng có thể hỗ trợ biên tập ngôn ngữ nếu sử dụng minh bạch.

Dù vậy, không phải ai cũng tiết lộ việc dùng AI. Nhiều người cho rằng không cần thiết với chỉnh sửa ngữ pháp nhỏ. Số khác sợ bị kỳ thị, lo ngại công trình sẽ kém giá trị nếu có AI can thiệp. Tình trạng này dẫn đến sự ra đời của các công cụ phát hiện như GPTZero hay DetectGPT, được quảng cáo có thể nhận diện văn bản AI với độ chính xác cao.

Nghiên cứu đăng trên PeerJ Computer Science hé lộ mặt tối của những công cụ này. Công trình mang tên Sự Đánh Đổi Giữa Độ Chính Xác và Thành Kiến trong Công Cụ Phát Hiện Văn Bản AI và Tác Động tới Tính Công Bằng trong Xuất Bản Học Thuật cho thấy chúng thường nhầm lẫn văn bản người thật, đặc biệt khi được AI hỗ trợ.

Nghiên cứu phát hiện độ chính xác cao không đồng nghĩa với công bằng. Trớ trêu thay, công cụ có độ chính xác tổng thể tốt nhất lại thể hiện thành kiến lớn nhất với một số nhóm. Tác giả không nói tiếng Anh bản địa chịu thiệt thòi nhiều nhất, khi phần tóm tắt của họ dễ bị gắn mác AI dù là nguyên bản hoặc chỉ chỉnh sửa nhẹ.

Nhóm nghiên cứu đã kiểm tra các công cụ phổ biến bằng cách sử dụng 72 bản tóm tắt từ bài báo đã bình duyệt, thuộc ba lĩnh vực: công nghệ - kỹ thuật, khoa học xã hội và nghiên cứu liên ngành. Tác giả đến từ cả nước nói tiếng Anh bản địa lẫn nơi tiếng Anh không phải ngôn ngữ chính.

Kết quả cho thấy khi so sánh bản tóm tắt do người viết với bản AI tạo ra, công cụ phát hiện hoạt động tốt nhất do khác biệt rõ ràng. Tuy nhiên, tỷ lệ dương tính giả (đánh nhầm văn bản người thành AI) cao hơn đáng kể với tác giả không bản địa. Nghiên cứu kêu gọi cách tiếp cận minh bạch và có đạo đức hơn trong sử dụng LLM để đảm bảo công bằng học thuật.