Jusqu’ici disponible uniquement en anglais, la recherche multiple intégrée à Google Lens sera disponible prochainement dans 70 langues, dont très certainement le français.
Préparez-vous à changer vos habitudes de recherche. Multisearch, le module de recherche multiple de Google Lens sera bientôt disponible en français. Disponible dans une version bêta ne fonctionnant qu’en anglais et proposée seulement aux États-Unis, la fonction Multisearch pourra être utilisée dans pas moins de 70 langues au cours des prochains mois.
La recherche multiple pour tous
Pour rappel, la fonction de recherche multiple de Google Lens permet de lancer une requête dans le moteur de recherche en combinant des mots-clés, des images, et même de la voix. En associant tous ces éléments, le moteur de recherche ouvre la voie à de nouvelles habitudes de recherche. Mais ce système permet surtout de rendre les recherches visuelles plus naturelles en permettant, par exemple, de poser des questions sur ce que vous voyez, comme vous le feriez avec un ami. Aussi, la combinaison de plusieurs éléments dans une seule requête (image, texte, voix) permet fluidifier les recherches et d’obtenir des résultats plus pertinents.
Lors de sa conférence Google I/O en mai dernier, Google avait également indiqué que la recherche multiple pourrait être utilisée pour lancer des requêtes afin de trouver des résultats proches de votre position géographique. Pour illustrer le Multisearch Near me (c’est le nom de la fonction), la firme avait pris en exemple le fait de soumettre la photo d’un plat associé à une requête « près d’ici ». Le moteur de recherche était alors capable de trouver un restaurant à proximité susceptible de servir le plat recherché. Google, qui semble avoir suffisamment avancé sur ce projet, vient d’indiquer son déploiement dès cet automne. Néanmoins, n’espérez pas pouvoir en profiter dans l’immédiat sous nos latitudes. La fonction Multisearch near me ne sera pour l’instant disponible qu’en anglais, et uniquement aux États-Unis.
La traduction via Google Lens plus réaliste
Si vous utilisez Google Lens, vous n’êtes pas sans savoir que l’application est capable de traduire, dans plus d’une centaine de langues, du contenu affiché sur une image. Grâce à ses avancées en matière d’intelligence artificielle, Google Lens pourra bientôt afficher les traductions de manière plus réaliste.
Le texte traduit ne sera ainsi plus affiché flottant au-dessus du texte original, mais le remplacera tout simplement sur l’image de manière réaliste. Une prouesse rendue possible grâce à une technologie de Machine Learning appelée Generative Adversarial Networks. Google n’a pas donné plus de détails quant à la disponibilité de cette nouveauté, mais il semblerait qu’elle soit d’ores et déjà en cours de déploiement.