Google relance ses lunettes… avec une capacité que vous n’auriez jamais imaginée !

paultensor
Lecture en 3 min
À propos des liens affiliés : Sur ce site, certains liens sont affiliés. Cela signifie que si vous cliquez et effectuez un achat, je peux recevoir une petite commission, sans frais supplémentaires pour vous. Je m’engage à recommander uniquement des produits et services que j’ai testés ou qui reflètent des standards de qualité élevés. Ces contributions me permettent de maintenir ce site et de continuer à partager du contenu qui vous est utile. Merci pour votre confiance et votre soutien !

Lors d’une conférence TED, Google a fait la démonstration de nouvelles lunettes de réalité augmentée intégrant l’assistant Gemini. En plus des fonctionnalités plutôt attendues, elles sont capables de traduire en temps réel et de retrouver des objets perdus.

Les Google Glass ont marqué l’histoire. Sorties en 2011, il s’agissait d’une paire de lunettes avec une caméra et un petit affichage, une réalité augmentée des plus basiques. Bien qu’elles n’aient duré que quatre ans avant d’être retirées du marché, Google n’a pas abandonné l’idée. Shahram Izadi, directeur de la plateforme AndroidAndroid XR chez Google, et sa collègue Nishta Bathia, chef de produit, ont présenté les nouvelles lunettes de réalité augmentée de la firme lors d’une conférence TED à Vancouver.

Contrairement à d’autres lunettes de ce type, celles-ci ressemblent vraiment à des lunettes. Elles sont noires et plutôt épaisses, mais cela peut passer pour un choix esthétique. Elles intègrent des capteurscapteurs et un affichage, mais tout traitement de données se fait directement sur un smartphone connecté, ce qui évite de les surcharger, et s’appuient sur la plateforme Android XR de Google.

Cette vidéo publiée l’année dernière montre le genre de fonctionnalités qui seront disponibles sur les lunettes dévoilées par Google lors d’une conférence TED. Des lunettes ressemblant à celles présentées sont visibles à 1:30. (En anglais, activez la traduction automatique des sous-titres.) © Google

Un assistant toujours présent, capable de retrouver les objets perdus

Les lunettes intègrent Gemini, l’intelligence artificielle de Google, pour répondre aux demandes. Lors de la démonstration, ils ont demandé à Gemini de réaliser quelques fonctionnalités de base, comme écrire un haïku. Les lunettes ont ensuite effectué une traduction en temps réel en affichant des sous-titres. Mais la fonctionnalité la plus étonnante était la capacité des lunettes à mémoriser les objets dans son environnement. Nishta Bathia a demandé où elle avait égaré sa clé d’hôtel, et l’IA a pu lui répondre. Une nouveauté incroyablement pratique, possible uniquement en portant une caméra sur son visage à longueur de journée… Mais cela risque d’être un véritable cauchemar du point de vue de la protection de la vie privée, autant pour ses propres données que pour ceux des personnes que le porteur croiserait…

Google n’a pas donné d’informations techniques sur ces lunettes, ni leur nom. Toutefois, comme la firme travaille avec SamsungSamsung sur un casque de réalité mixte baptisé Project Moohan, dont ils ont fait une démonstration tout de suite après, il pourrait s’agir des lunettes de réalité augmentée Project Haean de Samsung. Là encore, la firme coréenne n’a pas encore dévoilé les caractéristiques techniques, mais elles pourraient être lancées cette année, peut-être lors de l’évènement Unpacked en juillet.

Partager cet article