Présentée en mai 2017, la technologie Google Lens ne sera plus réservée aux seuls smartphones Pixel. La firme annonce qu’elle profitera aussi aux utilisateurs de smartphones Samsung, LG, Motorola, Huawei, Sony et Nokia « dans les prochaines semaines ». Comme sur les Pixel, Google Lens sera intégrée à Google Assistant pour analyser tout ce qui apparaît à l’écran, notamment dans l’application photo. Avec des fonctions inspirées de Goggles- moteur de recherche visuelle présenté par Google en 2009, Lens peut fournir des informations en temps réel sur l’environnement de l’utilisateur.
Sur Google Assistant et Google Photos
Une fois l’application photo ouverte, il suffit d’activer Google Assistant pour voir apparaître une nouvelle icône permettant de déclencher l’analyse d’image. Google Lens affiche alors des informations contextuelles, comme le nom d’une fleur ou l’histoire d’un monument. Mais Google exploite aussi son immense base de données. En filmant un restaurant, l’utilisateur voit aussitôt apparaître les derniers avis référencés par le moteur de recherche. Face à une carte de visite, une pastille permet d’enregistrer le contact ou de lui passer un coup de fil.
En se déployant aussi largement, Google Lens pourrait rapidement atteindre une popularité supérieure à celles de services concurrents, comme ceux de Samsung (Bixby Vision) ou Huawei, réservés à leurs appareils.
Dans le même temps, Google permettra à davantage d’utilisateurs de goûter à la technologie Lens. Celle-ci va également s’intégrer à l’application Google Photos, disponible sur Android et iOS. Cette fois, l’analyse se fera a posteriori, en consultant ses différentes photos. L'entreprise précise toutefois que pour profiter de Google Lens, Google Assistant et Google Photos devront être paramétrés en anglais, au moins dans un premier temps.