Project Soli forma parte de la división de proyectos y tecnologías avanzadas de Google.

Si no sabes lo que es el Project Soli no pasa nada, ya que luego de su lanzamiento el año pasado es poco lo que en  realidad sabemos sobre él. Sin embargo, gracias a lo que sí conocemos, promete bastante. Project Soli utiliza radares pequeñísimos para leer gestos que otro tipo de tecnología, como una pantalla táctil, no puede detectar. Su función es capturar los movimientos que hacemos con nuestras manos y traducirlos en acciones, teniendo en cuenta tanto su movilidad como la distancia. Su creador, Ivan Poupyrev indicó el año pasado que su meta era crear un vocabulario de gestos con la mano.

Soli, sin embargo, anunció hoy que tiene un nuevo as bajo la manga. Gracias al trabajo desarrollado por la Universidad de St. Andrew de Escocia, esta tecnología puede ahora identificar objetos utilizando un radar que determina tanto su forma exterior como su estructura interna. Dicha función no es todavía el milagro que promete ser, ya que posee dificultades para diferenciar objetos hechos del mismo material, con una densidad parecida, y el sistema precisa aún ser entrenado con cada uno de los objetos para luego poder identificarlos con éxito. No son problemas fáciles, pero los técnicos ya están trabajando para solucionarlos.

Desde Ara hasta Soli, Google ha invertido mucho en desarrollar una tecnología que reconozca, de manera más precisa y eficiente, nuestros movimientos. Tecnología cuyo uso, de integrarse al Android, crecería con una rapidez enorme. No está de más añadir que ésta transformaría la manera en que interactuamos con nuestros celulares, haciéndolos en el futuro más sensibles al contexto y a todo lo que nos rodea.

vía TechCrunch

fuente St Andrews HCI Research Group

temas