Google Search Live : l'IA qui regarde par-dessus votre épaule arrive partout

Par: Michael Korgs | Mise à jour aujourd'hui, 18:11
Interface de recherche visuelle Google Search Live Interface de recherche visuelle Google Search Live. Source: AI

Fini de taper des mots-clés comme un archéologue du Web. Google vient d'annoncer le déploiement mondial de Search Live, sa fonction de recherche conversationnelle dopée à l'intelligence artificielle. Jusqu'ici réservée aux États-Unis et à l'Inde, cette option permet désormais à des utilisateurs dans plus de 200 pays et territoires de discuter littéralement avec leur moteur de recherche tout en pointant leur caméra vers le monde réel.

Gemini 3.1 Flash Live : le cerveau derrière l'œil

Au cœur de cette mise à jour massive se trouve un nouveau modèle de langage baptisé Gemini 3.1 Flash Live. Derrière ce nom à rallonge se cache une architecture optimisée pour la vitesse et la fluidité. L'idée est simple : réduire la latence pour que la conversation semble naturelle. On ne parle plus à une machine qui réfléchit pendant trois secondes, mais à un assistant capable d'analyser un flux vidéo en temps réel tout en répondant à des questions vocales complexes.

L'utilisation est plutôt intuitive. Dans l'application Google sur Android ou iOS, une icône « Live » a fait son apparition sous la barre de recherche. En l'activant, l'utilisateur peut poser une question à voix haute et obtenir une réponse audio immédiate. Le vrai plus ? La possibilité d'ajouter du contexte visuel. Si vous ne savez pas comment monter une étagère ou identifier une plante exotique, vous n'avez qu'à montrer l'objet à votre téléphone. L'IA « voit » ce que vous voyez et adapte ses conseils en conséquence.

La fin des barrières linguistiques sur iOS

Google ne s'est pas arrêté à la recherche visuelle. L'entreprise a également confirmé que la fonction « Live Translate » de Google Translate s'étend enfin aux utilisateurs d'iPhone. Cette fonctionnalité, qui permet d'entendre des traductions en temps réel directement dans ses écouteurs, sort de son exclusivité Android pour conquérir de nouveaux marchés, dont la France, l'Espagne, l'Allemagne et le Japon.

  • Traduction en temps réel dans plus de 70 langues.
  • Compatibilité avec n'importe quelle paire d'écouteurs ou de casques.
  • Intégration directe via l'application Google et Google Lens.

L'objectif affiché par le géant de Mountain View est clair : rendre l'interaction avec le numérique aussi organique que possible. En combinant la voix, la vision et l'IA générative, Google tente de transformer notre smartphone en une extension de nos propres sens. Reste à voir si les utilisateurs seront prêts à parler à leur téléphone en plein milieu de la rue pour savoir si un champignon est comestible ou si une pièce de moteur est mal fixée.

Pendant que Google peaufine sa vision du monde augmenté, d'autres acteurs du secteur renforcent leurs outils de création. C'est notamment le cas de ByteDance lance Dreamina Seedance 2.0 : CapCut s'offre une cure d'IA vidéo musclée, une mise à jour qui apporte des capacités d'IA vidéo encore plus poussées à l'écosystème CapCut.