Face à la menace existentielle de l'IA, nous avons besoin de philosophes, pas d'experts en intelligence artificielle

This Existential Threat Calls For Philosophers, Not AI Experts

Face à la menace existentielle de l'IA, nous avons besoin de philosophes, pas d'experts en intelligence artificielle

L'ancien responsable de l'IA chez Google, Geoffrey Hinton, a identifié deux menaces existentielles que l'intelligence artificielle fait peser sur l'humanité. La première concerne les mauvais usages humains de la technologie, comme les cyberattaques ou les armes autonomes. La seconde évoque le risque d'une IA surpuissante qui déciderait de nous éliminer. Mais il existe une troisième menace, plus insidieuse : celle où l'humanité oublierait ce que signifie être humain.

Les experts en IA reconnaissent leur incapacité à définir des notions fondamentales comme la pensée, la conscience ou la créativité. Pourtant, ils continuent à employer des expressions comme 'intelligence de niveau humain', contribuant ainsi à éroder notre compréhension de nous-mêmes. Comme l'avait prédit le philosophe Martin Heidegger, notre relation à la technologie nous fait courir le risque de perdre contact avec la réalité et notre propre humanité.

Contrairement aux experts en IA, les philosophes existentialistes comme Heidegger, Sartre ou Merleau-Ponty ont approché ces questions sous un angle différent. Pour eux, l'absence de définition précise de la conscience humaine n'est pas un problème, mais plutôt une caractéristique essentielle de notre condition. L'être humain se distingue précisément par sa capacité à questionner son existence et ses limites.

Certains leaders de l'IA, comme Demis Hassabis de Google DeepMind, commencent à reconnaître la nécessité d'une approche philosophique. Mais comme le montre la tradition existentialiste, nous n'avons pas besoin d'attendre de nouveaux grands philosophes pour commencer à nous interroger sur la manière dont nous voulons vivre avec l'IA - et ce que nous voulons préserver de notre humanité.

Trước mối đe dọa hiện sinh từ AI: Triết gia mới là cứu cánh, không phải chuyên gia công nghệ

Geoffrey Hinton, cựu lãnh đạo bộ phận AI của Google và từng đoạt giải Nobel, đã chỉ ra hai mối đe dọa hiện sinh mà trí tuệ nhân tạo có thể gây ra cho nhân loại. Thứ nhất là việc con người lạm dụng AI vào mục đích xấu như tấn công mạng hay thao túng bầu cử. Thứ hai là nguy cơ AI siêu thông minh tự nhận thức và quyết định tiêu diệt loài người. Nhưng còn một mối đe dọa thứ ba, âm thầm mà nguy hiểm hơn: khi con người đánh mất ý nghĩa của việc làm người.

Các chuyên gia AI thừa nhận họ không thể định nghĩa được những khái niệm cơ bản như tư duy, ý thức hay sáng tạo. Thế nhưng họ vẫn sử dụng những cụm từ như 'trí thông minh ngang tầm con người', vô tình làm xói mòn hiểu biết của chúng ta về chính mình. Triết gia Đức Martin Heidegger từng cảnh báo: mối quan hệ với công nghệ khiến chúng ta đứng trước nguy cơ đánh mất liên kết với thực tại và bản chất người.

Khác với giới công nghệ, các triết gia hiện sinh như Heidegger, Jean-Paul Sartre hay Maurice Merleau-Ponty tiếp cận vấn đề theo cách khác. Với họ, việc không thể định nghĩa rõ ràng về ý thức con người không phải là thiếu sót, mà chính là đặc điểm cốt yếu làm nên con người. Chúng ta khác biệt nhờ khả năng đặt câu hỏi về sự tồn tại và giới hạn của chính mình.

Một số lãnh đạo trong ngành AI như Demis Hassabis (Google DeepMind) đã bắt đầu nhận ra nhu cầu cần đến triết học. Nhưng như truyền thống triết học hiện sinh chỉ ra, chúng ta không cần chờ đợi những triết gia vĩ đại mới. Ngay từ bây giờ, mỗi người đều có thể tự vấn: chúng ta muốn sống thế nào trong thời đại AI - và điều gì làm nên bản chất không thể đánh mất của con người.