logo google bleu

Google lance 7 nouvelles méthodes de recherche

Google vient d’organiser son événement « Search On » et a présenté de nouvelles façons d’effectuer des recherches grâce à l’utilisation de apprentissage automatique pour savoir ce que les utilisateurs veulent trouver et offrir une expérience de recherche plus adaptée à leurs intérêts.

Google a présenté la nouvelle lors de son événement « Search On »

La société lance ces nouveautés pour fournir des moyens plus intuitifs de trouver les informations que les utilisateurs recherchent, en essayant de comprendre non seulement le langage avec lequel ils s’expriment, mais aussi en leur permettant de rechercher des images ou des choses qu’ils voient dans leur monde quotidien. . Ce seraient les nouveautés présentées par Google :

-Multirecherche : Dans l’application Google, les utilisateurs peuvent désormais prendre une photo ou utiliser une capture d’écran, et également ajouter du texte, pour effectuer des recherches. Cela signifie que, par exemple, ils peuvent littéralement pointer vers un certain point et prendre une photo et ajouter une question à ce sujet. Par exemple, imaginez que vous preniez une photo d’un magasin et que vous insériez dans l’appli Google : « À quelle heure ferme-t-il ? »

Multisearch est désormais disponible en anglais, et Google indique que dans les mois à venir, il sera disponible dans plus de 70 langues.

-Multirecherche près de chez moi : Dans l’application Google, en plus de prendre une photo ou de télécharger une capture d’écran, vous pouvez mettre « près de moi » (près de moi, en anglais, une commande très utilisée dans les recherches Google) pour trouver un plat préféré ou un produit dans un magasin local. . Cette possibilité sera déployée aux États-Unis cet automne. Google n’a pas confirmé quand il arrivera sur d’autres marchés.

-Lens Translation avec Réalité Augmentée : Google a apporté des améliorations aux systèmes d’apprentissage automatique Google Lens et peut désormais traduire plus précisément le texte d’images complexes. Si le texte ne s’affiche pas correctement, Google utilise des modèles optimisés, avec des arrière-plans générés par l’Intelligence Artificielle, pour identifier le texte rapidement, en moins d’un clin d’œil. Cette expérience sortira avant la fin de l’année.

-Raccourcis pour des outils utiles. Google ajoute des raccourcis juste en dessous du champ de recherche pour faciliter la recherche des outils les plus utiles, comme la recherche avec l’appareil photo. Cela atteindra d’abord l’application Google pour iOS en anglais aux États-Unis, puis il sera déployé, mais sans date précise.

– Plus facile de poser des questions : Lorsque vous commencez à taper dans le champ de recherche, Google vous propose des options pour répondre automatiquement à votre question. Celui-ci sera lancé en anglais aux États-Unis « dans les prochains mois », selon la société.

-Plus d’explorations visuelles : Lorsque vous recherchez, par exemple, une ville, Google vous proposera également des photos, des vidéos et des témoignages de personnes qui l’ont visitée, des créateurs de contenu qui ont partagé publiquement leurs expériences sur le Web. Cela arrivera également dans les prochains mois et d’abord aux États-Unis, pour ceux qui utilisent Google en anglais.

-Recherches associées: Lorsque vous recherchez un certain terme, Google affichera un contenu pertinent provenant de diverses sources, quel que soit le format dans lequel il se trouve : texte, images, vidéo… et au fur et à mesure que vous faites défiler, il vous montrera de nouvelles façons de vous inspirer avec la recherche associée. termes.