Les grands changements à venir dans la recherche Google vous aideront à trouver des choses que vous ne pouvez pas exprimer par des mots

Vous pourrez bientôt rechercher des questions que vous n’avez pas pensé à poser.

La recherche Google est sans aucun doute le moyen le plus simple de trouver rapidement des réponses, mais elle peut également susciter de nouvelles questions. Parfois, ces questions sont suscitées par une suggestion aléatoire de saisie semi-automatique, mais la société vient d’annoncer des modifications de son moteur de recherche qui vous aideront à trouver l’information que vous n’avez pas demandée

Lors de l’événement « Search On » organisé par la société mercredi, Google a annoncé plusieurs nouvelles fonctionnalités intéressantes qui transformeront son moteur de recherche en une sorte de liseuse d’esprit, notamment un outil « Google Lens » qui vous permet d’effectuer des recherches avec des mots et des photos, ainsi qu’une nouvelle boîte « Choses à savoir » qui fournit des réponses aux questions généralement liées à votre recherche.

Les nouvelles fonctionnalités sont alimentées par un modèle d’apprentissage automatique appelé MUM (Multitask Unified Model), capable de capter des informations dans des formats autres que le texte, notamment les images, le son et la vidéo. Le MUM peut également transférer ces connaissances dans les 75 langues et comptages sur lesquels il a été formé.

En utilisant l’apprentissage automatique, le moteur de recherche Google peut maintenant intégrer le contenu en dehors des mots-clés standard, ce qui peut être pratique si vous hésitez sur l’objet de votre requête de recherche et sur les mots ou expressions à utiliser. Dans les mois à venir, les résultats de recherche de Google commenceront à faire apparaître des liens liés à ce que vous recherchiez, mais que vous n’aviez peut-être pas envisagés.

L’entreprise propose par exemple une recherche sur la peinture acrylique : Il suffit de taper le terme dans la barre de recherche, puis de faire défiler la page jusqu’à une section intitulée « Ce qu’il faut savoir ».

Google affichera une description de la peinture acrylique et indiquera où vous pouvez l’acheter, ainsi que des liens sur la façon d’utiliser les peintures acryliques, les styles associés à ce type de peinture et des conseils sur la technique et la façon de s’y prendre avec les objets de la maison. Dans ce cas précis, l’intelligence artificielle de Google élargit votre recherche et vous conduit dans un terrier pavé de peinture acrylique, ou quelque chose du genre.

L’intelligence artificielle de Google extrait toutes ces informations des résultats de recherche pertinents et il est possible que la rubrique « Choses à savoir » vous incite moins à cliquer sur les liens pour trouver plus d’informations si la recherche vous les présente dans un petit encadré bien ordonné.

Mais Google vous renverra toujours à la ressource dont il a extrait l’information, de sorte qu’il ne s’agit peut-être pas d’une situation de « clic économisé » (bien que les créateurs de contenu aient des raisons d’être nerveux).

Google Lens utilisera l’apprentissage automatique pour vous permettre de poser des questions sur des photos avec une recherche visuelle en temps réel. Par exemple, si vous voyez la photo d’un pull, vous pouvez utiliser Lens pour demander d’autres types de vêtements ayant le même motif.

Cependant, la mise en œuvre la plus pratique de cette fonctionnalité est peut-être lorsque vous cherchez de l’aide pour identifier quelque chose de spécifique que vous ne savez pas comment formuler dans une recherche.

Google en a fait la démonstration avec la photo d’un vélo dont le dérailleur est cassé, et dont je n’avais même pas réalisé qu’il faisait partie du vélo jusqu’à ce moment-là. Il suffit de pointer l’appareil photo Google Lens vers la pièce cassée du vélo, puis de demander à Google comment la réparer sans identifier la pièce pour Google.

Ces fonctionnalités de Google Lens ne seront pas disponibles avant le début de l’année prochaine, et on ne sait pas si elles seront intégrées dans l’application autonome Google Lens ou dans l’application Appareil photo par défaut d’un téléphone Android.

Google utilise également l’apprentissage automatique pour reconnaître les moments d’une vidéo et identifier les sujets liés à la scène. Par exemple, si vous regardez une vidéo sur un animal spécifique qui n’est pas mentionné dans le titre ou la description de la vidéo, Google peut tout de même reconnaître l’espèce et renvoyer des liens connexes. Google indique que cette fonctionnalité particulière sera mise en place dans les semaines à venir et que d’autres « améliorations visuelles » seront apportées dans les mois à venir.

La recherche d’images connexes sera bientôt plus facile grâce à une page de résultats de recherche d’images nouvellement remaniée. Cela devrait faciliter la recherche d’idées de projets et d’autres recherches connexes, et vous pouvez l’essayer dès maintenant dans la recherche Google sur le Web.

Deux autres modifications de la recherche de base, sans rapport avec l’apprentissage automatique de Google, sont les options Affiner cette recherche et Élargir cette recherche, que vous pouvez choisir lors de vos recherches sur Internet. Ces options vous permettront d’aller au-delà de votre question initiale ou de la restreindre. Google a déclaré que ces fonctionnalités seraient déployées dans les mois à venir.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*