Décryptage des termes clés de l'IA : des LLM aux hallucinations, un lexique essentiel
L'intelligence artificielle est un domaine complexe où les chercheurs utilisent un jargon technique spécifique. Pour éclairer nos lecteurs, nous proposons un glossaire des termes clés de l'IA, régulièrement mis à jour pour suivre les avancées de ce secteur en pleine évolution.
L'AGI (intelligence artificielle générale) désigne une IA surpassant les capacités humaines dans la plupart des tâches. Les définitions varient selon les acteurs : OpenAI la compare à un collègue humain moyen, tandis que Google DeepMind vise une IA égalant les capacités cognitives humaines.
Un agent IA est un outil autonome capable d'effectuer des tâches complexes comme la réservation ou la gestion de dépenses. Bien que prometteurs, ces systèmes nécessitent encore des infrastructures adaptées pour atteindre leur plein potentiel.
Le raisonnement pas à pas (chain of thought) permet aux modèles linguistiques de résoudre des problèmes complexes en les décomposant en étapes intermédiaires. Cette approche améliore significativement la précision des réponses, notamment en logique et programmation.
Le deep learning, sous-ensemble du machine learning, utilise des réseaux neuronaux multicouches pour établir des corrélations complexes. Ces algorithmes s'inspirent du cerveau humain et peuvent identifier seuls les caractéristiques importantes des données.
La diffusion est la technologie derrière les modèles génératifs d'art, musique ou texte. Inspirée de la physique, elle apprend à reconstruire des données à partir de bruit, contrairement au processus physique irréversible.
La distillation permet de créer des modèles plus petits et efficaces à partir de grands modèles, via une approche 'maître-élève'. Cette technique aurait été utilisée par OpenAI pour développer GPT-4 Turbo.
Le fine-tuning optimise un modèle IA pour des tâches spécifiques en utilisant des données spécialisées. De nombreuses startups l'utilisent pour adapter des LLM à leurs besoins sectoriels.
Les GAN (réseaux antagonistes génératifs) reposent sur deux réseaux neuronaux en compétition pour produire des données réalistes, notamment dans les deepfakes. Le générateur crée des sorties que le discriminateur évalue, améliorant progressivement les résultats.
Les hallucinations désignent les inventions erronées des modèles IA, problème majeur pour la qualité. Ces erreurs proviennent de lacunes dans les données d'entraînement et sont particulièrement préoccupantes dans les modèles généralistes.
L'inférence est le processus d'exécution d'un modèle IA pour faire des prédictions. Elle nécessite un entraînement préalable et peut être effectuée sur divers matériels, avec des performances variables.
Les LLM (grands modèles linguistiques) comme GPT ou Gemini sont des réseaux neuronaux profonds apprenant les relations entre mots à partir de milliards de textes. Ils génèrent des réponses en prédisant les mots suivants les plus probables.
Les réseaux neuronaux, inspirés du cerveau humain, constituent la base du deep learning. Leur développement a été permis par les puces graphiques issues de l'industrie du jeu vidéo.
L'entraînement donne forme aux modèles IA en leur faisant apprendre des motifs dans les données. Coûteux en ressources, il peut être optimisé par des approches hybrides combinant règles préétablies et apprentissage automatique.
Le transfer learning réutilise des modèles pré-entraînés pour de nouvelles tâches connexes, réduisant les coûts de développement. Il nécessite souvent un complément d'entraînement pour des performances optimales.
Les poids sont des paramètres numériques déterminant l'importance des différentes caractéristiques dans les données d'entraînement. Ils s'ajustent pendant l'entraînement pour améliorer la précision des sorties.
Ce glossaire évoluera avec les progrès de l'IA, reflétant les nouvelles méthodes et risques émergents identifiés par les chercheurs. Notre équipe, dirigée par la journaliste expérimentée Natasha Lomas, continuera à fournir des explications claires sur ces concepts techniques.