Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Presidenta busca obstruir a la justicia, señaló exministro Mariano González
EP 1693 • 13:04
Detector de Mentiras
Detector de Mentiras: Las antenas de telefonía móvil no hacen daño a la salud
EP 52 • 01:34
Informes RPP
Más de 3 millones de peruanos se convirtieron en pobres en los últimos 5 años
EP 1129 • 04:51

“Googlear” cambia de significado: estas son las nuevas funciones que Google incluye en el buscador

Google añade nuevas herramientas al buscador
Google añade nuevas herramientas al buscador | Fuente: Unsplash

Google presenta novedades para su motor de búsqueda y Mapas en el evento global ‘Search On 2022’.

Google tiene el lujo de usar un propio verbo para sus actividades. Como “pasteurizar” o el “amor platónico”, la capacidad de “googlear” es propia de la búsqueda en Internet. Sin embargo, el concepto de “googlear” ya deja de ser una búsqueda regular y se convierte, desde ahora, en la capacidad de entender el mundo con todo tipo de datos. En su evento “Search On 2022”, Google presenta sus nuevas funciones de búsqueda.

“Durante más de dos décadas, nos hemos dedicado a nuestra misión: organizar la información del mundo y hacerlo universalmente accesible y útil. Empezamos con la búsqueda de texto, pero con el tiempo hemos seguido cree formas más naturales e intuitivas de encontrar información: ahora puede buscar lo que ve con su cámara o hacer una pregunta en voz alta con la voz.”, comparte Google en la presentación.

Búsquedas más intuitivas con imágenes

Gracias a la inclusión de la Inteligencia Artificial en cada recoveco del buscador, Google ha sido capaz de potenciar las experiencias con resultados más orgánicos y de interés para el usuario. Sin embargo, hoy dan un paso más allá integrando fotos y capturas de pantalla como si ingresáramos texto en el buscador. Google lo llama “Multisearch”, estará disponible desde hoy en inglés y en otros 70 idiomas en los próximos meses.

Esto se explica de una manera sencilla. Hoy, casi siempre buscamos desde el teléfono y tenemos acceso a una cámara en todo momento. AL apuntar a un lugar o intentar reconocer un objeto, incluir la foto en Google es más rápido y sencillo que “transcribir lo que vemos”. A partir de ahí, ya tenemos una poderosa herramienta de reconocimiento visual que genera búsquedas con imágenes, y combinando palabras para afinar el resultado más conveniente.

“Visualizamos un mundo en el que puedes encontrar exactamente lo que estás buscando; combinando imágenes, sonidos, texto y habla, tal como lo hacen las personas de forma natural. Podrás hacer preguntas con menos palabras o, incluso, ninguna; y aun así entenderemos exactamente lo que quieres decir para que puedas explorar información organizada de una manera que tenga sentido para ti”, añade Google.

Ojo que “Multisearch” también se añade a las búsquedas de negocios y locales cerca a tu ubicación. Si un amigo comparte la foto de un platillo en un mensaje, podrás usar esa imagen para insertarla en el buscador y encontrar resultados cercanos a tu ubicación en tiempo real. Esto beneficiará a los negocios que digitalicen sus menús y ofrezcan datos actualizados de horarios de atención y accesibilidad.

En la actualización, la barra de búsqueda de Google incluirá accesos a la galería para tomar una foto o insertar una captura de pantalla. Además, se incluirán palabras claves en las consultas escritas para incrementar la velocidad en las búsquedas.

Buscar para comprar

Otra de las inclusiones de Google en el motor es la capacidad de adquirir productos desde el propio buscador. Entendamos que, para una compra, el proceso no solo se basa en entrar a un negocio online y poner nuestra tarjeta. Es un largo camino de investigación y comparación, además de pasar tiempo buscando el producto perfecto o, en el mejor de los casos, el que tenemos al frente y queremos.

Para eso, Google usa su algoritmo “Shopping Graph” para mejorar las opciones que el buscador muestra para compra directa. De momento solo para Estados Unidos, podrás acceder a esta solución buscando la palabra “shop” y lo que buscas.

Este algoritmo incluye la posibilidad de hacer búsquedas unificadas de un solo outfit que no se vende junto o en el mismo negocio, de tal forma que el buscador te entregará todas las opciones de compra para productos que coincidan con cada elemento de la imagen.

Esto se complementa con tendencias y sugerencias divididas en categorías, además de catálogos en 3D que pueden virtualizarse en nuestro espacio real, sin importar que sean muebles o zapatillas. Además, podrás acceder a la experiencia de compra de otros usuarios directamente en el buscador y conocer si es un producto que puede cumplir con tus expectativas.

Traducción visual sin borrar nada

Una de las barreras habituales para el acceso a más información es el idioma original de una publicación. Con Translate, Google ha sabido reducir esa brecha mediante el soporte a más de 100 idiomas, y esta actualización apunta a cerrarla aun más usando redes de generación antagónica para proceso de imagen. Las redes GAN se añaden a la traducción visual en tiempo real con más detalle.

“Ahora podrás combinar el texto traducido con la imagen de fondo gracias a una tecnología de aprendizaje automático denominada ‘Redes adversarias generativas’ (GAN)”, refieren en Google. “Así que, si apuntas tu cámara a una revista en otro idioma, por ejemplo, ahora verás el texto traducido superpuesto de forma realista en las imágenes debajo”.

Un mundo más real en el teléfono

En el caso de Maps, se estrena una herramienta bautizada como “Ambiente del vecindario”, que combina la data de millones de usuarios en la plataforma con los algoritmos de sugerencia de Google para desarrollar una especie de guía turística basada en hábitos de usuarios.

Dentro de las novedades, se incluyen vistas aéreas fotorrealistas en 250 escenarios globales altamente visitados, como la Torre de Tokio, el Empire State o la Acrópolis de Atenas. Estas imágenes estarán disponibles desde hoy, 28 de setiembre.

Sin embargo, también podremos sacar provecho de este tipo de contenido para acceder a datos de una ciudad específica y su habitual tráfico, o las horas de mayor desplazamiento de gente en ciertas zonas. Por el momento, las primeras ciudades que tendrán este tratamiento especial serán Los Ángeles, Londres, Nueva York, San Francisco y Tokio.

NIUSGEEK tuvo oportunidad de preguntar a Miriam Daniel, vicepresidenta y gerente de Google Maps for Consumers, acerca de los datos usados por Google para desarrollar estos modelos hiperrealistas:

“Para responder a su pregunta, los datos de Google son imágenes aéreas, imágenes satelitales. Y, ya sabes, las imágenes de Street View que ya tenemos y los datos de los usuarios que, en realidad, suben fotos y videos de los puntos de interés en cada uno de los vecindarios, que luego podemos unir y con IA y reproducir sus resultados para todos”, señaló Daniel.

Además, se anunció una capa extra en Street View, que nos permitirá ubicar cajeros, tiendas y otros puntos de interés mientras nos movemos en una calle y usemos la navegación con realidad aumentada mediante la cámara de nuestro smartphone.

Soy Editor de Tecnología en RPP Noticias. Conduzco #FamiliaPuntoCom los sábados a las 10:30 de la mañana via RPP Radio. Reseño dispositivos, estoy en contacto con la industria de la innovación, y desarrollo contenido para NIUSGEEK y METADATA, el podcast de tecnología de RPP.

Tags

Lo último en Google

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA