J'ai testé les lunettes XR de Google : elles surpassent déjà mes Meta Ray-Bans sur 3 points essentiels
Lors de sa conférence I/O, Google a dévoilé une pléthore d'outils et fonctionnalités IA, mentionnant Gemini 95 fois et IA 92 fois. Pourtant, l'annonce la plus marquante ne concernait pas l'IA, mais bien l'une des deux nouveautés matérielles : les lunettes Android XR. Pour la première fois, le public a pu découvrir ces smart glasses tant attendues, intégrant l'assistance Gemini, des écrans intégrés aux verres, des haut-parleurs, caméras et micros dans un format classique. J'ai eu la chance de les essayer pendant cinq minutes, testant notamment l'assistance visuelle Gemini, la prise de photos et la navigation. En tant qu'utilisateur des Meta Ray-Bans, les différences entre ces deux paires m'ont immédiatement sauté aux yeux.
La première différence majeure réside dans les écrans intégrés aux verres. Les lunettes XR de Google disposent d'un affichage particulièrement utile pour les notifications, la traduction audio en temps réel, les conversations avec Gemini ou la navigation. Contrairement aux Meta Ray-Bans qui en sont dépourvues, ou aux Hallidays qui obligent à regarder vers un module optique sur la monture, créant une expérience moins naturelle. Bien que l'affichage soit limité et non aussi vif qu'un écran classique, la possibilité de visualiser des éléments au-delà du texte enrichit considérablement l'expérience utilisateur.
Lors de ma démo, mon moment préféré a été la prise de photo. Après avoir appuyé sur le bouton situé sur la monture, j'ai pu capturer une image comme avec les Meta Ray-Bans, mais avec une différence notable : voir instantanément le résultat en couleur et avec un bon niveau de détail directement sur le verre. Bien que cette fonctionnalité ne soit pas essentielle, elle offre un aperçu fascinant du potentiel d'un affichage superposé et toujours actif intégré à des lunettes du quotidien.
Deuxième avantage : l'assistance Gemini. Google a considérablement amélioré son assistant en intégrant ses modèles Gemini les plus avancés, le rendant plus performant et fiable. Après avoir testé et comparé différents assistants IA au fil des années, je trouve que Gemini surpasse actuellement Meta AI présent dans les Ray-Bans. Cette supériorité s'explique par des outils plus sophistiqués comme la Recherche Approfondie, une génération de code avancée et des capacités conversationnelles plus nuancées.
Un autre point fort de Gemini concerne la sécurité des contenus, avec des garde-fous plus stricts que Meta AI concernant par exemple la génération d'images de personnalités politiques. Bien qu'on ignore encore quelles fonctionnalités seront intégrées aux lunettes, une implémentation complète de Gemini pourrait donner un avantage décisif aux lunettes Android XR.
Troisième atout : un design ultraléger. Bien que visuellement similaires aux Meta Ray-Bans style Wayfarer, les lunettes XR de Google m'ont paru nettement plus légères lors de l'essai. Leur port immédiat m'a surpris par leur légèreté inattendue. Un véritable test de confort nécessiterait un port prolongé sur une journée, et leur poids pourrait augmenter d'ici la production, mais pour l'instant, c'est un point fort indéniable.
Si cette légèreté est maintenue, ces lunettes permettront de profiter pleinement de l'assistance IA au quotidien sans sacrifier le confort, notamment au niveau de l'arête du nez et derrière les oreilles lors d'un port prolongé. Ces smart glasses servent de pont entre l'assistance IA et le monde physique, mais cette connexion ne fonctionne que si l'utilisateur accepte de les porter régulièrement.
En conclusion, bien que toujours en développement, les lunettes XR de Google montrent déjà trois avantages clés sur les Meta Ray-Bans : des écrans intégrés aux verres, une assistance Gemini supérieure et un design plus léger. Ces innovations pourraient bien redéfinir les attentes en matière de smart glasses, offrant une expérience plus immersive et pratique au quotidien.