Le mode de recherche AI intègre désormais les fonctionnalités de Google Lens, offrant une recherche visuelle et textuelle combinée pour des résultats plus contextuels et nuancés. Cette option est accessible dans les laboratoires américains.
L’intégration de l’intelligence artificielle générative dans Google Search a engendré des avis partagés parmi les utilisateurs, certains d’entre eux ayant constaté une dégradation de l’expérience de recherche globale. Néanmoins, Google s’est engagé à perfectionner cette technologie.
L’introduction du modèle Gemini 2.0 dans les aperçus de l’IA représente une avancée dans cette démarche ; l’entreprise soutient que la recherche AI optimisée par Gemini 2 est désormais capable de fournir des réponses de meilleure qualité, visant à remédier à certains des problèmes majeurs initialement soulevés.
Ce moteur alimente également la fonction expérimentale AI Mode de Google Search, qui est disponible pour les utilisateurs des Labs aux États-Unis depuis un certain temps. Ce mode AI propose une interface plus interactive, semblable à celle d’un chatbot, permettant aux utilisateurs de poser des questions et de recevoir des réponses détaillées, enrichies d’images et de liens vers des sources d’origine.
Récemment, le mode AI a bénéficié d’améliorations supplémentaires. Aux États-Unis, les utilisateurs peuvent désormais tirer parti des capacités multimodales de Google Lens directement dans ce mode, rendant cette fonctionnalité plus accessible. Le terme “multimodal” désigne la capacité à traiter et à comprendre simultanément divers types de données.
Par exemple, Google Lens permet aux utilisateurs d’utiliser la caméra de leur smartphone pour analyser leur environnement ou de télécharger des images enregistrées afin d’obtenir des informations pertinentes. L’application peut fournir des réponses tant visuelles que textuelles, selon la demande.
Lens a la capacité de reconnaître du texte dans une image et de le traduire, d’assister dans l’exécution de tâches, de résoudre des problèmes mathématiques, ou encore d’aider à localiser et à acheter des objets similaires à ceux présents sur une photo en fournissant des liens directs.
Avec l’intégration de ces fonctionnalités multimodales puissantes dans le mode IA, il n’est plus nécessaire de quitter la conversation en cours pour ouvrir l’application Google séparément afin d’utiliser Lens. Il devient possible de saisir rapidement les relations entre les objets d’une image, leur agencement, l’endroit où dénicher des objets similaires, et bien plus, tout en restant dans l’interface du mode IA.
Google qualifie cette avancée de moyen d’enrichir la recherche en mode IA, la rendant plus “nuancée” et “contextuellement pertinente“, tant sur l’application Google pour Android que pour iOS. L’objectif est de favoriser une interaction fluide et intégrée où l’interprétation visuelle et l’échange textuel se rejoignent.
Initialement, l’accès au mode IA était réservé aux abonnés premium de Google One AI aux États-Unis. Par la suite, cet accès a été élargi aux utilisateurs gratuits qui s’étaient inscrits sur la liste d’attente via Google Labs. Récemment, Google a encore élargi la disponibilité du service en retirant d’autres utilisateurs de la liste d’attente, le rendant accessible à “des millions d’autres utilisateurs de Labs” aux États-Unis.
Les personnes qui s’étaient inscrites mais n’avaient pas encore reçu l’accès à ce service peuvent désormais en bénéficier. L’option Mode IA se trouve à gauche de l’onglet “Tout” dans l’application Google et sur la version web, et constitue actuellement le seul point d’accès.
Pour initier une nouvelle discussion en mode IA, il est nécessaire de retourner à l’écran principal. Ce processus peut s’avérer peu commode, c’est pourquoi Google a déjà envisagé une alternative. Un bouton de raccourci sera bientôt intégré dans l’interface du mode IA, permettant de lancer rapidement une nouvelle interaction.
À l’image de l’intégration de Google Lens, ce bouton a pour objectif de faciliter l’expérience utilisateur et d’améliorer l’efficacité de l’outil en diminuant le nombre d’étapes requises pour interagir avec l’intelligence artificielle en mode conversationnel.
Source : Blog Google
Commentaires 0
Soyez le premier à commenter !