Actualidad

Google revela su proyecto Tango

Presentamos los primeros avances del nuevo teléfono inteligente Computación – Visión

 

En forma sorprendente, Google revela su Proyecto Tango, un teléfono inteligente equipado con una variedad de cámaras y sensores de visión que proporciona una nueva perspectiva sobre el mundo en función de dicho teléfono. La sorpresa nos dejó un buen número de preguntas acerca de cómo este dispositivo realmente funciona y para qué sirve. Google dice que el teléfono inteligente Tango puede capturar una gran cantidad de datos nunca antes disponibles para los desarrolladores de aplicaciones, incluyendo la profundidad y el rastreo de objetos y 3D en tiempo real de mapas. Y no es más grande o más dependiente de energía que el teléfono inteligente típico.

Charlamos con Remi El-Ouazzane, CEO de Movidius, empresa que desarrolló la tecnología del Tango, para tener una mejor idea de lo que este dispositivo puede hacer y lo que significa para las aplicaciones del futuro.

Movidius ha estado trabajando en la tecnología detrás de Proyecto Tango durante los últimos siete años. Ha desarrollado los chips de procesamiento y ha trabajado con sus socios para conseguir las cámaras y sensores necesarios para dar a un smartphone el mismo nivel de visión por computador y de seguimiento que antes requerían equipos mucho más grandes . De hecho, El-Ouzzane explica que la tecnología utilizada no es muy diferente del Exploration Rover de la NASA, utilizado para mapear la superficie de Marte hace una década, pero en vez de estar en un vehículo de 400 libras, cabe en la palma de su mano.

  El teléfono está equipado con una cámara estándar de 4 megapíxeles acompañado con una especial combinación de sensores RGB e IR y una cámara de imagen de seguimiento de menor resolución. Esos sensores de imagen dan el smartphone una perspectiva similar al  del mundo real, con la conciencia espacial y la percepción de la profundidad. Se alimentan de datos como usualmente lo hace  Movidius, procesador de visión computarizada Myriad 1 de baja potencia, que luego pueden sintetizar los datos y alimentar a las aplicaciones – apps –  a través de un conjunto de APIs.

Pero, ¿qué se puede hacer con todos esos datos ? Eso realmente depende de los desarrolladores de aplicaciones y es por ese motivo, que  Google está dando estos dispositivos prototipo para 200 desarrolladores en las próximas semanas .

Los dispositivos que vimos estaban equipados con un par de aplicaciones de demostración para mostrar algunas de las capacidades del hardware. Una de las aplicaciones era capaz de mostrar un mapa de calor a distancia en la parte superior de lo que ve la cámara , capas de colores azules sobre objetos lejanos y  de color rojo de las  cosas que están cerca. Otro tomó los datos de los sensores de imagen , que apareados con sensores de movimiento estándar y giroscopios del dispositivo, para trazar trayectorias de movimiento de hasta 1 por ciento de precisión y luego graficar en un mapa interactivo en 3D.

Tal vez la más impresionante demostración era una aplicación que fue capaz de capturar un modelo 3D de una escena en tiempo real y dibujarlo en la pantalla a medida que avanzaba el dispositivo alrededor de la habitación. Es bastante sorprendente ver una reproducción tridimensional de la mesa, delante nuestro,  en tiempo real en tan sólo unos segundos por un smartphone.

Las aplicaciones potenciales de este tipo de tecnología son bastante generalizado , con las más obvias siendo aplicaciones de mapeo en 3D para el ambiente y planificación de la obra. Pero El- Ouzzane señala que la tecnología de la profundidad de rastreo también se podría utilizar para ayudar a los discapacitados visuales.  Les permitiría “ver” en frente de ellos y darles advertencias y alertas a los obstáculos en su camino. No es difícil imaginar que esta siendo integrada en un collar usable que reemplazaría el báculo de vejez.

Otras aplicaciones podrían utilizarse en avanzados juegos de realidad; logrando escenas de mucho mayor detalle y mayor realidad del mundo real. El procesador Movidius ‘ puede alimentar muchos más datos que los chips gráficos de un teléfono inteligente de una cámara estándar, dando al GPU mucho más para trabajar en el desarrollo de una escena. El mundo de efectos visuales también podría utilizar esta tecnología para construir conjuntos y modelos 3D en tiempo récord y con poco trabajo en comparación con lo que se requiere en la actualidad.

El- Ouazzane no fue capaz de decirnos cuál será el costo del dispositivo del Proyecto Tango o cuando esta tecnología va a estar disponible para los consumidores, pero estaba seguro de que no pasará mucho tiempo antes que todo el mundo tenga en sus manos teléfonos inteligentes equipados con Computación – Vision. Google dice que los desarrolladores que están trabajando con el  dispositivo prototipo, deberían tenerlo a mediados de marzo, y lo más probable es que veremos la concreción de los esfuerzos de estos en un futuro muy próximo.

Dan Seifert

http://www.theverge.com/2014/2/25/5445258/this-is-googles-project-tango