Una de las grandes sorpresas del Google I/O fue la presentación de Google Lens, un asistente personal que usa imágenes, en lugar de voz y texto, como medio de comunicación con el usuario; utilizando la tecnología del Deep Learning para detectar todo lo que pasa en una sola foto.

De acuerdo a Sundar Pichai, CEO de la empresa, Google Lens, es capaz de detectar imágenes de todo tipo. “Si surge algo y quieres saber lo que es – explicó durante su presentación- por ejemplo, una flor, puedes apuntar la cámara de tu teléfono en ella y averiguar lo que es”, dijo Pichai.

El asistente también es capaz de detectar lugares, como negocios o restaurantes, ropa u otros artículos y darte recomendaciones al respecto en base a tu ubicación en Google Maps. También puede reconocer códigos de barras. Por ejemplo, a través de la foto de un código de barras de un router, se puede conectar un teléfono al Wifi. Así de simple.

Suponiendo que vas de viaje y tomas algunas fotos para después averiguar más sobre esa pintura, edificio, escultura o sitio. Dentro de Google Photos, puedes activar Lens y la función te dirá toda la información que necesitas al respecto.

Además, muy pronto Google podrá eliminar automáticamente objetos no deseados de las fotografías que tomamos automáticamente. Ya no será necesario tomar cursos de Photoshop y pasar horas y horas practicando. En una de los ejemplos mostrados hoy por Pichai, mostró como la inteligencia artificial de Google detecta una vaya como un estorbo en la imagen y lo corrige desapareciéndolo. Por desgracia, no dio una fecha exacta de cuándo llegará esta tecnología a Android.

En desarrollo.

fuente Google Developers

temas