Como parte del evento Google I/O, la compañía presentó innovaciones en temas de exploración de datos a través de las cámaras, haciendo más útil el uso de esta implementación. Durante nuestra visita a Google, conversamos con Aparna Chennapragada, VP en Google Lens.
La identidad de Google pasa, a pesar de la gama de productos, por la búsqueda de información. En los últimos años, los recursos para encontrar información se han diversificado, y ahora somos capaces de usar las cámaras en los smartphones para lograr ubicar el dato preciso. Esta tecnología ha escalado en los últimos años, y hoy es frecuente recurrir al asistente para identificar el objeto que tenemos enfrente. En el Google I/O 2019, tuvimos la oportunidad de conversar con Aparna Chennapragada, VP Google Lens and AR, encargada de presentar la integración de Lens con la realidad aumentada en la presentación global.
Añadir el uso de la cámara a nuestros hábitos de búsqueda sigue siendo uno de los desafíos para Google, pues aun nos centramos en el buscador. Por esta razón, los desarrolladores empujaron la experiencia gráfica al motor, e integraron Lens en eso. Para Aparna, hay que entender algunos puntos:
“Hay tres cosas de as que hay que hablar. La primera es cómo utilizamos la cámara para buscar algo. La idea es desarrollar situaciones prácticas para el usuario en temas de exploración y búsqueda. Buscamos ser más efectivos.
Lo otro tiene que ver con entender lo que tenemos a frente de la cámara. Por eso nos enfocamos en Google Lens, y este año hemo dado un paso a través de la cámara. Al reconocer el mundo, podemos destacar elementos a través de la detección de objetos y añadirles valor. Combinando la cámara con Maps, logramos mejores resultados en temas de negocios, como restaurantes y negocios que ofrecen productos.
Además, hemos integrado Translate en Lens para que, de manera automática, puedas conocer el significado de lo que lees sin necesidad de hacer una detección manual. Y lo mejor es que hemos añadido la posibilidad de convertir ese texto traducido en voz en tu idioma, y así usamos las capacidades del teléfono para identificar la información que requieres.”
Al utilizar la cámara de nuestro smartphone como punto de ingreso de datos, el consumo energético se intensifica. Usar la pantalla, la cámara, la conexión y el motor de reconocimiento en tiempo real generan un pico en la entrega de energía al dispositivo.
“Acerca del consumo energético en el equipo mientras usamos este sistema – dice Chennapragada - hay dos aspectos sobre los que hemos hecho una investigación muy intensa. Lo que ocurre es que el uso de la cámara procesa mucha imagen y demanda energía. Lo otro es que hay más procesos corriendo al mismo tiempo, pues combinamos geolocalización y traducción junto con el uso del lente. Estamos aun desarrollando una manera eficiente de entregar una experiencia balanceada”.
Le preguntamos a la ejecutiva de Google si, con todas estas innovaciones, ya sería posible usar Lens y realidad aumentada para identificar a nuestros contactos, y poder tener información en pantalla sobre las personas que conocemos en una reunión. “No podemos confirmar que estamos trabajando en ese esquema, pues hay varios asuntos con la protección de datos que debemos observar. De momento, este tipo de utilidades se habilitan para información que podemos encontrar en cualquier entorno, y ayudar a la gente a identificar de manera precisa los resultados más beneficiosos”, señaló.
Comparte esta noticia