L’arrivée en France de Google Lens est encore méconnue pour de nombreuses personnes. Pourtant, son apparition date de 2018. Mise en place depuis le 04 octobre 2017 aux États-Unis, cette nouvelle application se révèle être une véritable révolution dans notre manière d’utiliser le moteur de recherche. Suite aux annonces faites au Search On du 29 septembre 2022, les images reviennent en force avec Google Lens et la recherche multimodale. Scanner le monde, poser des questions comme nous le voulons et où nous le souhaitons, deviendra probablement notre nouvelle manière d’effectuer des recherches. Comment fonctionne Google Lens ? Comment le moteur de recherche a-t-il appris à « voir » les images ? Et quel est l’impact de cette application dans notre quotidien ? Explications.

Qu’est-ce que Google Lens ?

Google Lens est une application, créée à l’origine pour les smartphones et les tablettes. En prenant une simple photographie d’un objet, d’un lieu, d’un animal ou d’une plante, le moteur de recherche vous donne accès à une variété de connaissances issues de ses nombreuses applications verticales : Google Maps, Google Image, Knowledge Graph, Google Traduction et Google Shopping principalement. .

À Lire  Quatre budgets pour Ad's Up Consulting

Il n’existe pas un Google, mais des Google !

Le moteur de recherche californien n’est pas seulement un moteur de recherche de pages web, c’est aussi un moteur de recherche d’images, d’actualités, d’articles scientifiques, etc. La liste n’est pas exhaustive, mais il est important de noter que chaque moteur vertical nécessite l’intervention d’algorithmes différents en arrière-plan. Google est donc un ensemble de services, parfois similaires, et souvent très différents. C’est pourquoi il n’y a pas un Google, mais plusieurs Google… dont Google Lens.

Des résultats bien différents des dix liens bleus

A partir d’une simple image, Google Lens vous fournit des informations issues des différentes composantes du moteur de recherche : Google Images, Google Maps, Google Shopping, Google Books, mais pas que. Mécanisme basé sur plusieurs algorithmes utilisés ensemble, Lens effectue des opérations basées sur un apprentissage spécifique, celui de « voir » des images comme des humains. Et ceci pour donner les meilleurs résultats possibles.

La formation, la classification et les résultats affichés par Google Lens sont dérivés de méthodes dotées de puissantes capacités d’apprentissage automatique. Parmi eux, le machine learning (ML) et le Deep Learning (DL), une technique transversale aux secteurs de l’IA (Intelligence Artificielle). La recherche d’images existe depuis longtemps. Autrefois délaissée, elle revient aujourd’hui sur le devant de la scène avec le multi recherche. En plus d’une industrialisation massive de l’apprentissage de l’image, la société Alphabet couple la reconnaissance visuelle avec le texte, la voix et la recherche locale.

Avec la recherche multimodale, les résultats de Google Lens sont actuellement très différents de la SERP traditionnelle avec 10 liens bleus. En effet, le géant californien se veut déjà être dans le futur : avec Google Lens, le mobile d’abord laisse place à l’IA d’abord, avec la volonté de « rendre la recherche plus naturelle et plus intuitive », selon Sundar Pichaï (source : Search On 2022).

Google Lens : « La recherche, mais autrement »

Créé à l’origine pour les téléphones et tablettes Android, l’utilisation de Google Lens s’étend désormais à tout appareil (PC/Mac et iPhone, notamment). Ainsi, en utilisant l’appareil photo de votre smartphone, Lens non seulement détecte un objet (image, texte ou choses), des animaux ou des plantes devant l’objectif de l’appareil photo, mais essaie de le comprendre, comme un humain.

[Cet article est disponible dans sa forme complète aux abonnés du site Réacteur. Pour plus d’informations : https://www.reacteur.com/2022/10/google-lens-le-texte-bientot-detrone-par-limage-1ere-partie.html]

Un article écrit par Stéphanie Barge, créatrice du site Passion SEO.