Les lunettes Ray-Ban Meta ont été mises à jour avec l'IA en direct, la traduction et la prise en charge de Shazam.

Meta a introduit une nouvelle mise à jour logicielle pour les smartphones Ray-Ban et a ajouté Live AI, la traduction en direct et l'intégration de Shazam.
Voici ce que nous savons
L'IA en direct et la traduction sont disponibles en mode aperçu, et les commandes vocales ne prennent en charge que l'anglais, le français et l'italien.
La fonction Live AI permet à Meta AI d'analyser l'environnement de l'utilisateur en temps réel et de lui fournir des indications contextuelles par le biais de commandes vocales.
Les utilisateurs peuvent poser une question sans dire "Hey Meta", et le système se souvient des sujets de conversation précédents, s'adaptant ainsi aux besoins de l'utilisateur.
La traduction en direct fournit une interprétation instantanée en anglais, espagnol, français ou italien. Vous pouvez écouter les résultats par l'intermédiaire des haut-parleurs ou consulter les transcriptions sur votre smartphone.
Les lunettes ont également été intégrées à Shazam, ce qui permet de reconnaître de la musique à l'aide de la commande "Hey Meta, quelle est cette chanson ?
Toutes les nouvelles fonctionnalités sont disponibles pour les participants au programme d'accès anticipé aux États-Unis et au Canada.
Source : Meta