MetaHuman s'émancipe d'Unreal Engine 5 : la révolution de la création de personnages hyper-réalistes accessible à tous
Lors de l'événement Unreal State of Unreal 2025, Epic Games a annoncé une avancée majeure : sa technologie MetaHumans n'est plus exclusivement liée à Unreal Engine 5. Cette révélation, faite lors d'Unreal Fest à Orlando, ouvre désormais la possibilité d'utiliser MetaHumans dans d'autres logiciels de modélisation 3D comme Blender et Maya.
Le marché FAB (décrit en détail dans notre précédent rapport) propose désormais une gamme complète d'accessoires, coiffures et tenues compatibles MetaHumans, prêts à l'emploi par simple glisser-déposer. Les créateurs peuvent également vendre leurs créations MetaHumans directement sur FAB ou d'autres plateformes tierces.
Pour les artistes Maya, Epic Games lance MetaHuman for Maya, un plugin puissant permettant l'édition directe des maillages, des contrôles de rigging avancés et l'export des éléments capillaires. Cet outil permet de dépasser les limites de l'apparence MetaHuman par défaut tout en restant compatible avec les pipelines de production.
Les MetaHumans deviennent ainsi plus flexibles, accessibles et performants que jamais. Avec l'animation multiplateforme, le support des marchés en ligne et les outils professionnels pour Maya, donner vie à des personnages numériques n'a jamais été aussi simple, quel que soit votre workflow.
La version 5.6 d'Unreal Engine introduit des améliorations majeures pour MetaHuman Animator. Désormais, l'animation faciale en temps réel est possible avec de simples webcams, smartphones Android ou tout appareil mono compatible avec Live Link, sans nécessiter de coûteux dispositifs stéréo ou d'iPhone.
Lors d'Unreal Fest, plusieurs démonstrations ont montré comment capturer des performances simplement en se plaçant devant une caméra, avec la possibilité de retoucher ensuite l'animation. La technologie de reconnaissance faciale suit parfaitement les expressions et la synchronisation labiale en temps réel.
Une innovation remarquable : MetaHuman Animator fonctionne maintenant avec le seul audio, générant des mouvements faciaux réalistes incluant les émotions et les mouvements de tête automatiques. Les outils d'Epic analysent la voix en temps réel, avec possibilité d'ajuster manuellement le ton émotionnel pour s'adapter parfaitement au projet.
Pour plus d'informations, visitez le site d'Unreal Engine. Consultez également nos guides sur les meilleurs ordinateurs portables pour la modélisation 3D et les meilleurs smartphones pour évaluer le matériel nécessaire.
*Ian Dean, rédacteur en chef Digital Arts & 3D chez Creative Bloq et ancien éditeur de magazines spécialisés comme ImagineFX et 3D World, partage son expertise sur les dernières innovations en art numérique, effets visuels et technologies gaming.*