Ahora podrá usar Google Lens para tomar una foto de un objeto y buscar resultados locales.
por Emma Roth | The Verge
“Al explicar la característica, Raghavan usó el ejemplo de tratar de encontrar una barra de chocolate sin nueces en un supermercado. Podrá escanear un estante completo de barras de chocolate y luego ver superposiciones que brindan “información útil”, como reseñas sobre cada objeto. Creemos que la descripción de Raghavan de la característica lo resume bastante bien: “Esto es como tener un Ctrl+F sobrealimentado para el mundo que te rodea”.
/cdn.vox-cdn.com/uploads/chorus_image/image/70857387/google_near_me_lens.10.png)
Imagen: Google
En Google I/O, el vicepresidente senior de Google, Prabhakar Raghavan, anunció nuevas mejoras para su herramienta de búsqueda múltiple Lens , que le permite realizar una búsqueda con solo una imagen y un par de palabras.
Un nuevo modo, llamado “cerca de mí”, permitirá a los usuarios tomar una foto de un objeto y luego encontrar los resultados localmente. Como explicó Raghavan, podrá tomar una foto de un plato y luego buscar restaurantes que sirvan esa comida específica. Luego, Google mostrará una lista de restaurantes relevantes cerca de usted. Para que esta función suceda, Google escanea las fotos relevantes de los sitios web, así como las publicadas por los revisores, y luego las compara con la que cargó. Cerca de mí estará disponible en inglés a finales de este año y se expandirá a más idiomas “con el tiempo”.
ESTO ES COMO TENER UN CTRL+F SOBREALIMENTADO PARA EL MUNDO QUE TE RODEA.
Google también está implementando algo llamado exploración de escenas. Esto permitirá a los usuarios desplazar su cámara y luego ingresar una frase de búsqueda sobre los objetos que se encuentran frente a ellos. Al explicar la característica, Raghavan usó el ejemplo de tratar de encontrar una barra de chocolate sin nueces en un supermercado. Podrá escanear un estante completo de barras de chocolate y luego ver superposiciones que brindan “perspectivas útiles”, como reseñas sobre cada objeto. Creemos que la descripción de Raghavan de la característica lo resume muy bien: “Esto es como tener un Ctrl+F sobrealimentado para el mundo que te rodea”.
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/23453709/google_multisearch_scene_exploration.png)
El gigante de las búsquedas lanzó por primera vez la multibúsqueda en abril , pero su propósito estaba principalmente relacionado con las compras y la búsqueda de instrucciones. Por ejemplo, puede tomar una captura de pantalla o una imagen de un vestido que le guste y luego escribir el nombre de un color. La búsqueda múltiple de Google mostrará una lista de resultados con vestidos similares en ese color. O puede tomar una foto de un tipo específico de planta y buscar “instrucciones de cuidado” para encontrar información relevante.
Pero, como Lou Wang, director de administración de productos de Google, insinuó durante su lanzamiento, la función de búsqueda múltiple de Google se puede usar para mucho más, y parece que esa funcionalidad adicional está comenzando a llegar.
Para usar la búsqueda múltiple, abra la aplicación de Google en Android o iOS y luego presione el ícono de Lente en el lado derecho de la barra de búsqueda. Desde allí, puede cargar una foto o captura de pantalla de su galería, o tomar una foto de un objeto frente a usted, para comenzar su búsqueda. Luego, desliza hacia arriba en la pantalla y selecciona “Agregar a tu búsqueda” para buscar la foto junto con una palabra o frase relevante.