2 points par GN⁺ 2025-09-19 | 1 commentaires | Partager sur WhatsApp
  • Meta a dévoilé des lunettes IA avec écran intégré et un bracelet EMG en proposant une expérience d’usage centrée sur des interactions brèves pour consulter et contrôler rapidement sans téléphone
  • Les lunettes Ray-Ban Display intègrent un affichage couleur haute résolution, des microphones, des haut-parleurs, une caméra et de l’IA on-device, avec prise en charge de la consultation des messages, de l’aperçu des photos et de la collaboration avec Meta AI via des prompts visuels
  • Le Neural Band (bracelet EMG) permet de faire défiler et de cliquer avec de légers mouvements des doigts, offrant une entrée gestuelle intuitive sans avoir à toucher les lunettes ni à sortir son téléphone
  • Le prix est de 799 dollars (lunettes + bracelet inclus), avec une sortie le 30 septembre dans certains magasins physiques aux États-Unis, en Black/Sand, avec des montures Standard/Large, des verres Transitions®, une autonomie mixte allant jusqu’à 6 heures et un étui de charge pliable pour 30 heures au total
  • L’écran se caractérise par 42 ppd, 2 % de fuite lumineuse, l’auto-brightness et des verres photochromiques et, côté expérience, vise un nouveau paradigme d’interaction pour l’informatique wearable grâce à Meta AI visuel, la messagerie et les appels vidéo, la navigation à pied, les sous-titres et la traduction en temps réel, ainsi que le contrôle musical

Introduction

  • Meta a présenté une nouvelle gamme de lunettes IA composée de Meta Ray-Ban Display et de Meta Neural Band
  • Le produit a été conçu pour permettre de consulter des informations immédiatement sur place tout en restant davantage immergé dans le monde environnant

Aperçu du produit : l’arrivée de lunettes IA avec écran

  • Meta Ray-Ban Display est une paire de lunettes centrée sur des interactions courtes et fréquentes, rendues possibles par un écran dans le verre pour consulter des messages, prévisualiser des photos et collaborer avec Meta AI à partir de prompts visuels
  • Des microphones, des haut-parleurs, une caméra, un affichage couleur complet ainsi que le calcul et l’IA on-device sont intégrés dans un seul wearable, avec pour objectif de rester connecté tout en restant immergé dans son environnement
  • Le Meta Neural Band (bracelet EMG) inclus interprète les signaux électromyographiques pour prendre en charge le contrôle par micro-gestes, permettant de faire défiler et de cliquer avec de simples mouvements des doigts

Prix, lancement et configuration

  • Le prix est de 799 dollars et inclut les lunettes ainsi que le Meta Neural Band
  • Le lancement est prévu le 30 septembre dans les principaux magasins physiques aux États-Unis, avant une extension ultérieure à certains magasins Verizon
  • Le lancement au Canada, en France, en Italie et au Royaume-Uni est prévu début 2026, avec un démarrage initial dans une sélection de points de vente et de régions puis un élargissement progressif des options
  • Les couleurs proposées sont Black/Sand, les montures existent en Standard/Large, et tous les modèles adoptent des verres Transitions®
  • 6 heures d’usage mixte et 30 heures au total avec l’étui de charge pliable portable
  • Le Neural Band est proposé en trois tailles pour optimiser l’ajustement au poignet

Design et confort : Style Meets Function

  • En collaboration avec EssilorLuxottica, Meta conserve l’ADN des Ray-Ban Wayfarer tout en adoptant une silhouette plus haute et une forme carrée plus anguleuse pour un look affirmé
  • Les angles arrondis et la courbure frontale améliorent le confort, la durabilité et la réduction de l’éblouissement, tandis que des charnières en titane à sur-extension apportent portabilité, solidité et légèreté
  • Une batterie steel-can ultra-fine est utilisée pour la première fois afin de concilier des branches fines et une autonomie prolongée ; cette technologie est également étendue à Oakley Meta HSTN et Ray-Ban Meta (Gen 2) pour offrir jusqu’à 8 heures d’usage quotidien
  • Le poids total est de 69 g, pour un port léger

Analyse approfondie de l’écran : Display Deep Dive

  • Pour s’adapter au form factor de lunettes de mode, le light engine et le waveguide géométrique ont été repensés afin d’obtenir haute efficacité, contraste et forte luminosité dans un module compact
  • L’affichage atteint 42 pixels par degré (ppd), offrant une visualisation d’informations haute résolution ; à l’exception de certains grands casques non commercialisés, cela se situe au meilleur niveau en densité
  • Des verres photochromiques et un algorithme d’auto-brightness assurent une lisibilité couleur nette en intérieur comme en extérieur
  • Avec une conception orientée confidentialité, l’appareil propose un affichage privé dans le verre avec 2 % de fuite lumineuse, tandis qu’une LED de capture avertit l’entourage lors de la prise de photos ou de vidéos
  • L’écran est placé sur le côté pour ne pas obstruer le champ de vision et a été conçu pour des interactions brèves plutôt qu’un affichage permanent, afin de ne pas casser le flux d’usage

Interaction basée sur l’EMG : Meta Neural Band

  • Basé sur la recherche en électromyographie de surface (EMG), le Neural Band permet, sans toucher ni boutons, de faire défiler et cliquer via des capteurs au poignet, avec à terme la possibilité d’une saisie manuscrite au doigt
  • Il offre une reconnaissance de signal haute fidélité capable de détecter des micro-mouvements avant même qu’ils soient visibles à l’œil nu
  • Grâce à un modèle de deep learning entraîné sur des données consenties d’environ 200 000 personnes, Meta affirme une utilisabilité générale et des performances initiales universelles capables de surmonter les différences musculaires individuelles
  • Les données EMG brutes sont traitées on-device, et seuls des événements comme un clic sont transmis aux lunettes pour exécuter les commandes
  • La fiabilité des retours haptiques et de la synchronisation temporelle est gérée par du ML on-device
  • Avec jusqu’à 18 heures d’autonomie, une étanchéité IPX7, des électrodes avec revêtement carbone de type diamant et un maillage renforcé en Vectran, le bracelet vise un port toute la journée à la fois léger et durable

Expériences clés : Experiences in Meta Ray-Ban Display

  • Meta AI with Visuals : fournit des réponses visuelles et des guidages étape par étape combinés au champ de vision de la caméra, avec passage d’étape via les gestes du Neural Band
  • Messagerie et appels vidéo : les textes et contenus multimédias personnels de WhatsApp, Messenger, Instagram et des notifications du téléphone peuvent être consultés sur un écran privé, et les appels vidéo en direct sur WhatsApp et Messenger permettent de partager le point de vue des lunettes
  • Prévisualisation et zoom : un viewfinder en temps réel et le zoom améliorent la qualité de capture et simplifient la sélection et le partage depuis l’écran
  • Navigation à pied : après sélection de la destination sans téléphone, l’utilisateur reçoit un guidage turn-by-turn et une carte visuelle ; la fonction démarre en bêta dans certaines villes avant une extension progressive
  • Sous-titres en direct et traduction : des sous-titres en temps réel pour la parole et la traduction de langues sélectionnées aident à réduire la barrière linguistique
  • Lecture musicale : une carte musicale affiche le morceau en cours, avec prise en charge de la navigation et du volume via glissement du pouce et pincement + rotation du poignet
  • Services musicaux : accès à Amazon Music, Apple Music(iOS), Music Info, Shazam, Spotify, avec à venir des recommandations fondées sur le contexte de la scène grâce à une IA multimodale
  • Podcasts, livres audio et radio en direct : l’intégration avec Audible, iHeart et d’autres services étend l’expérience d’écoute
  • Feuille de route logicielle : des mises à jour futures sont prévues, dont une application dédiée Instagram Reels et la saisie manuscrite EMG

Positionnement produit : 3 catégories de lunettes IA

  • Camera AI glasses : Meta prévoit de continuer à étendre la catégorie des lunettes IA centrées sur la caméra comme Ray-Ban et Oakley, tout en renforçant leurs capacités IA
  • Display AI glasses : Meta Ray-Ban Display ouvre une nouvelle catégorie centrée sur la valeur d’un affichage contextuel
  • AR glasses : le prototype Orion vise un grand affichage holographique, des entrées à haute bande passante et des expériences d’extension spatiale, tandis qu’une version grand public est en cours de développement

Vision : Future Forward

  • Meta Ray-Ban Display est un dispositif d’interaction wearable qui s’inscrit dans la vision d’une plateforme informatique de nouvelle génération centrée sur l’humain
  • En s’appuyant sur 10 années d’accumulation au sein de Reality Labs, Meta souligne la poursuite de ses investissements en technologie, talents et temps, ainsi que sa volonté d’inventer et d’exécuter avec audace
  • Cette annonce marque, selon Meta, le début d’un nouveau chapitre pour les lunettes IA et les wearables, en mettant l’accent sur le maintien du flux de travail quotidien grâce à une connectivité et des interactions étendues

1 commentaires

 
GN⁺ 2025-09-19
Avis sur Hacker News
  • Surprise de voir autant d’avis négatifs sur les lunettes de Meta. En tant qu’utilisateur réel, j’ai acheté à la fois la version verres clairs et la version lunettes de soleil, et j’en suis très satisfait. J’ai filmé beaucoup de superbes vidéos de notre bébé, et pour écouter de la musique, le fait d’entendre aussi les sons ambiants, contrairement à des écouteurs classiques, est pratique, ce qui m’a permis de les utiliser pendant de longues sorties à vélo. Je n’ai pas encore essayé les fonctions IA ou smart, mais j’ai l’intention de le faire. Les points décevants sont l’étui de recharge propriétaire, l’autonomie de la batterie qui diminue avec le temps, et la sensibilité à la transpiration. Malgré cela, j’y vois un fort potentiel
    • Les écouteurs à conduction osseuse offrent une expérience audio similaire, avec une meilleure batterie et une recharge en usb-c. Beaucoup de gens ne veulent pas non plus soutenir Meta à cause de l’impact négatif qu’ils estiment que l’entreprise a sur la société
    • Ce qui m’inquiète, ce n’est pas tant l’utilité quand c’est moi qui porte les lunettes, mais l’impact sur moi quand ce sont les autres qui les portent
    • J’ai acheté ces lunettes en cadeau pour un ami qui a une très mauvaise vue. Il semble que la fonction de lecture à voix haute des messages ou e-mails du téléphone ne marche pas. Elle ne fonctionne que pour le contenu visible dans les notifications, et pour le reste elle affiche constamment des erreurs disant qu’elle n’a pas les autorisations d’accès. L’enregistrement vidéo est aussi limité à 3 minutes (c’était 1 minute avant). Dans les lieux bruyants, il est difficile d’entendre l’audio et plusieurs fonctions deviennent presque inutiles. Cela dit, la miniaturisation du hardware est impressionnante. Le principal problème, c’est un logiciel bancal
    • À propos de l’idée que c’est bien pour écouter de la musique tout en entendant les sons autour, beaucoup d’écouteurs comme les Airpods prennent déjà en charge un mode transparence. Les Airpods ont même l’ANC (réduction de bruit) qui permet de ne laisser passer que les sons importants, et on peut les porter à l’intérieur sans que ce soit étrange. Je ne vois pas bien ce qu’il y a de spécial. Le fait de pouvoir bien filmer son bébé est intéressant, mais je me demande ce que vaut la qualité vidéo
    • J’ai un ressenti similaire. Je les utilise surtout pour la randonnée et le running, et l’expérience est sympa. J’ai la version à verres photochromiques, donc c’est pratique pour courir ou écouter de la musique dehors, ou pour prendre des photos et vidéos. Le point faible, c’est qu’en hiver la batterie se vide très vite
  • Il faut noter qu’avec les Meta Ray-Ban, les données des utilisateurs sont collectées et utilisées pour l’entraînement de l’IA. Il n’est pas possible de s’y opposer sauf si l’on réside dans l’UE. L’ancienne application Meta View a un jour été remplacée par l’application Meta AI, avec l’ajout de fonctions similaires à ChatGPT.
    1. « Meta AI with camera use » est toujours activé, et si l’on désactive « Hey Meta », les lunettes deviennent presque inutiles
    2. « Les transcriptions vocales et fichiers d’enregistrement peuvent être conservés jusqu’à 1 an et utilisés pour améliorer les produits Meta » Lien connexe
    • Étonnement de voir qu’on puisse encore parler uniquement de technologie quand Meta est impliqué à ce point. Je me demande jusqu’où il faudra aller pour que les gens commencent vraiment à s’en soucier
    • Je me demande si le CCPA (California Consumer Privacy Act) s’applique. J’ai l’impression qu’ils peuvent déjà collecter suffisamment de données rien qu’avec l’opt-in
  • Dans la keynote, les fonctions des lunettes étaient globalement dans les attentes, mais la scène où Zuckerberg manipulait l’interface à 30 WPM presque sans bouger les doigts était vraiment sidérante. Si cette interface neuronale fonctionne réellement aussi bien, alors sur cette manche, Meta a gagné
    • Le bracelet de poignet est l’élément clé. Les lunettes ne sont pas nécessaires, mais je me demande si on pourrait utiliser ce bracelet comme périphérique d’entrée pour ordinateur
    • C’est très impressionnant, mais j’ai du mal à croire qu’en marchant dans la rue on se mette vraiment à chercher une surface plane pour taper des messages. L’utilité pratique me semble discutable
    • Au final, c’est l’accessoire au poignet qui compte. Les lunettes massives donnent encore l’impression d’être à un stade technologique très précoce
    • Si ce bracelet neuronal était remplacé par un bracelet fitness type WHOOP, je serais prêt à en discuter. Pour les gens qui portent déjà un tracker d’activité, il y a peut-être une opportunité
    • Il y a très peu d’entreprises qui combinent vision, perspective long terme et investissements massifs. NVIDIA et Meta en sont des exemples représentatifs
  • La démo de Zuckerberg tapant à 30 WPM en ligne était assez impressionnante. Au-delà des polémiques sur la marque, ce type de dispositif d’entrée basé sur les gestes constitue une avancée dans les communications. Si Apple, Google et des 3rd-party s’y mettent, les prix baisseront aussi. Les smart glasses actuellement sur le marché sont une étape intermédiaire entre l’AR et la VR, et à ce niveau de prix, il est rare de voir un produit de ce niveau. En revanche, le Puck ne sera utile qu’à certains utilisateurs et pourrait freiner l’adoption grand public. Les progrès techniques ont fortement réduit la consommation de l’écran, donc à l’avenir la taille du Puck devrait aussi diminuer. Le livre ‘Apple in China’ que j’ai lu récemment m’a rappelé à quel point l’implémentation hardware est difficile. Réussir 30 heures d’autonomie en sans-fil avec les technologies EMG + wave guide (je me demande d’ailleurs s’ils n’utiliseront réellement que le BLE 6.0) est remarquable. C’est le deuxième pari de long terme dont les fruits commencent à apparaître après les investissements de long terme dans l’IA (PyTorch, divers modèles d’IA)
    • Ce n’est pas 30 heures de batterie mais 6 heures. On atteint 30 heures en ajoutant l’étui de recharge portable
    • Plusieurs innovations logicielles et liées à la donnée, moins visibles, feront aussi évoluer ce produit. Par exemple,
      1. Une carte mondiale de localisation pourrait renforcer les fonctions de SLAM (localisation et cartographie simultanées en temps réel)
      2. Le Puck semble tourner sur un OS distinct, tandis que les lunettes paraissent transmettre les données des capteurs via BLE au niveau d’un firmware de microcontrôleur temps réel. Aucun code n’a encore été publié, et j’aimerais que cela devienne open source
  • Ce bracelet de poignet semble provenir de l’acquisition de CTRL-Labs. Le dispositif à wave guide se concrétise aussi rapidement, c’est impressionnant. C’est suffisamment cool pour me faire hésiter un instant, même si c’est un produit Facebook
    • CTRL-Labs a acquis la technologie de bracelet de poignet auprès de North (anciennement Thalmic), qui avait d’abord créé le Myo armband avant de se tourner vers les smart glasses, puis d’être racheté par Google. Myo transformait les signaux électromyographiques en gestes et mouvements utilisables comme entrées logicielles. Il est possible que cette technologie de North soit appliquée à des produits concurrents
    • Disney développe lui aussi depuis 2012 des prototypes de reconnaissance gestuelle basés sur la détection électrique au poignet lien YouTube
  • Si Meta ne l’avait pas fabriqué, je l’aurais acheté immédiatement. Je voulais des smart glasses depuis longtemps, et avec ce produit, pour la première fois, j’ai l’impression qu’il y a une vraie viabilité pratique, hormis le problème de l’épaisseur. Mais Meta et Zuckerberg sont mêlés à trop de problèmes éthiques pour que je puisse les soutenir. J’espère voir arriver un produit concurrent, mais l’ampleur des investissements de Meta dans la HCI (interaction humain-machine) rendra la concurrence difficile
    • Pour information, j’utilise toutes les fonctions des Meta Ray-Ban sans avoir de compte facebook/instagram. Moi aussi j’ai eu un dilemme éthique, mais aujourd’hui il est structurellement difficile pour une startup de fabriquer ce type de produit à grande échelle (la FTC a essayé de faire évoluer cela, sans grand succès). Au final, on n’a souvent pas d’autre choix que les produits des big tech
  • Heureusement que le bracelet neuronal sort rapidement. Il semble qu’il faudra encore plusieurs années pour une version de production d’Orion (lunettes AR complètes). TheVerge a estimé que la maniabilité était très bonne, et a même testé une version alpha de saisie manuscrite. Ces lunettes ne sont pas de l’AR complète, mais une « réalité annotée » avec un petit écran. Elles attirent beaucoup moins l’attention que les premiers Google Glass, et l’entrée comme la sortie sont assez discrètes
    • Je pense que la réaction hostile passée contre Google Glass a eu un effet pervers. Google Glass avait été conçu pour que son port soit clairement visible, alors qu’aujourd’hui, pour éviter le rejet, tout le monde va plutôt vers des dispositifs plus dissimulés
  • On nous dit que cela permet de « consulter ses messages, prévisualiser des photos et collaborer avec les prompts visuels de Meta AI », mais je ne comprends pas pourquoi il faudrait payer 800 $ pour ça. J’ai déjà dépensé beaucoup pour un smartphone qui me dérange tous les jours
    • Je me demande ce que signifie au juste « collaborer avec les prompts Meta AI » dans le cadre du travail quotidien qu’on fait tous. J’ai l’impression qu’il y a quelque chose que je rate
    • Les lunettes de soleil Ray Ban elles-mêmes coûtent déjà près de 500 $ de base
    • J’ai entendu dire qu’un bracelet de poignet capable de révolutionner l’interaction humain-machine (HCI) était aussi inclus avec les lunettes vidéo de démo de marquage et d’écriture
    • On va enfin pouvoir s’habiller sans poches
  • La démo en direct était saisissante vidéo de démo
    • Toutes les démos VR/AR/XR ont le même problème : elles paraissent anodines, tout en étant plus encombrantes et plus compliquées que la réalité. Par exemple, pour cuisiner
      • En temps normal, on cherche la recette, on pose le téléphone et on y jette un coup d’œil quand on en a besoin
      • Avec les lunettes Meta, il faut porter les lunettes (j’ai même fait du LASIK parce que je trouve déjà les lunettes inconfortables), expliquer oralement son problème à l’IA, puis corriger les ingrédients qu’elle a mal compris. Et encore, il faut avoir de la chance pour obtenir la réponse voulue.
      • C’est pareil avec les démos du casque Apple : on porte un gros casque inconfortable pour regarder des photos ou passer des appels vidéo
    • Dans la démo live, on voit la question « What do I do first » être lancée avant même que l’IA ne réponde. Je soupçonne qu’ils aient déjà répété ce déroulé en amont. Si c’est à cause d’un problème de connexion, il se peut qu’un override n’ait pas été désactivé. Dans tous les cas, cela fait douter de la fiabilité du système d’IA
    • J’ai moi-même fait plusieurs démos live d’IA, et même avec exactement la même question, la réponse changeait à chaque fois. Du coup, aujourd’hui je définis le périmètre des démos de manière bien plus étroite. (Je n’avais pas la main sur les paramètres)
    • Cette démo était elle aussi assez décevante, mais il faut reconnaître qu’ils ont tenté une démo live non scriptée autre vidéo
    • Il faut saluer la tentative. Les démos live me manquent face aux vidéos parfaitement polies où les gens ne font que prendre la pose lors des événements Apple
  • « Les Meta Ray-Ban Display glasses vous permettent de lever les yeux et de vous concentrer davantage sur le réel. Grâce à l’affichage dans les verres, vous pouvez consulter vos messages, prévisualiser des photos et collaborer avec les prompts visuels de Meta AI »
    J’imagine très bien quelqu’un en train de vous parler face à face, sans expression, pendant que des notifications ou des vidéos TikTok flottent entre ses yeux. Si Meta disparaissait entièrement, je pense que le monde irait mieux
    • J’ai l’impression qu’il faut faire un vrai retour au réel sur notre manière de prêter attention. Avec les HUD automobiles, par exemple, je regarde la vitesse ou la direction, mais j’ai souvent l’impression de ne presque plus percevoir réellement la route devant moi. On ignore ce résultat, mais je crains qu’avec le temps des statistiques ne montrent que les HUD augmentent en fait le nombre d’accidents
    • Si quelqu’un affiche des notifications dans son champ de vision pendant une conversation, c’est simplement qu’il n’accorde pas vraiment d’importance à cette conversation. C’est comparable au fait de regarder sa smartwatch. Avant, c’était le téléphone, et encore avant le journal. Je ne pense pas que cette technologie crée un nouveau problème social
    • Je trouve étonnant qu’on puisse parler de ce produit comme d’une technologie « qui nous connecte davantage au monde ». En réalité, cette technologie retient surtout l’utilisateur plus longtemps dans l’espace virtuel, mais malgré cela Zuckerberg n’abandonne pas son rêve de métavers
    • J’adhère à 100 % à l’idée que « le monde irait mieux si de grandes entreprises comme Meta disparaissaient »
    • On parle de notifications ou de vidéos devant les yeux pendant une conversation, mais le mot juste, au fond, c’est surtout publicité