Face à la menace existentielle de l'IA, nous avons besoin de philosophes, pas d'experts en intelligence artificielle
L'ancien responsable de l'IA chez Google, Geoffrey Hinton, a identifié deux menaces existentielles que l'intelligence artificielle fait peser sur l'humanité. La première concerne les mauvais usages humains de la technologie, comme les cyberattaques ou les armes autonomes. La seconde évoque le risque d'une IA surpuissante qui déciderait de nous éliminer. Mais il existe une troisième menace, plus insidieuse : celle où l'humanité oublierait ce que signifie être humain.
Les experts en IA reconnaissent leur incapacité à définir des notions fondamentales comme la pensée, la conscience ou la créativité. Pourtant, ils continuent à employer des expressions comme 'intelligence de niveau humain', contribuant ainsi à éroder notre compréhension de nous-mêmes. Comme l'avait prédit le philosophe Martin Heidegger, notre relation à la technologie nous fait courir le risque de perdre contact avec la réalité et notre propre humanité.
Contrairement aux experts en IA, les philosophes existentialistes comme Heidegger, Sartre ou Merleau-Ponty ont approché ces questions sous un angle différent. Pour eux, l'absence de définition précise de la conscience humaine n'est pas un problème, mais plutôt une caractéristique essentielle de notre condition. L'être humain se distingue précisément par sa capacité à questionner son existence et ses limites.
Certains leaders de l'IA, comme Demis Hassabis de Google DeepMind, commencent à reconnaître la nécessité d'une approche philosophique. Mais comme le montre la tradition existentialiste, nous n'avons pas besoin d'attendre de nouveaux grands philosophes pour commencer à nous interroger sur la manière dont nous voulons vivre avec l'IA - et ce que nous voulons préserver de notre humanité.