Publicado: El miércoles 01 febrero 2017, a las 14:30
Visto en: Abc
Investigadores del MIT desarrollan un programa para controlar el «smartphone» con los ojos

El objetivo es lograr un rastreo ocular preciso a la vez que económico para integrarlo en los móviles y averiguar, así, dónde se fija la mirada de un usuario en tiempo real

En la actualidad, el «smartphone» se controla con las manos. Sin embargo, Investigadores del MIT, la Universidad de Georgia y el Instituto Max Palnck alemán pretender ir más allá y están estudiando la forma con la que cualquier usuario pueda manejar su teléfono móvil con los ojos.

La investigación, financiada por «crowdsourcing», permite la recopilación de información de la mirada y digitalizarla para poder conocer qué está buscando en tiempo real.

Los investigadores están centrando sus esfuerzos en lograr un rastreo ocular preciso a la vez que económico para integrarlo en los móviles y averiguar, así, dónde se fija la mirada de un usuario en tiempo real.

Las entidades afirman que hasta ahora han logrado entrenar el «software» para identificar hacia dónde se dirige la mirada del usuario con una precisión de alrededor de un centímetro desde un móvil y 1,7 centímetros desde una tableta. Por tanto, aún no es lo suficientemente exacto para las aplicaciones, según ha indicado Aditya Khosla, del MIT y coautor del trabajo.

Aún así, los investigadores no desisten y confían en desarrollar una tecnología que podría resultar útil para disfrutar de los videojuegos o navegar dentro del «smartphone» sin tener que tocar la pantalla.

Los autores empezaron desarrollando una «app» para iPhone llamada GazeCapture que recopilaba datos sobre cómo la gente mira sus móviles en distintos entornos fuera de los confines de un laboratorio. La mirada de los usuarios fue grabada con la cámara delantera del móvil mientras la pantalla mostraba puntitos de luz intermitentes. Para asegurarse de que prestaran atención, se les mostraba un puntito con una «L» (left, izquierda en inglés) o una «R» (right, derecha en inglés) dentro, y los usuarios debían responder tocando el lado izquierdo o derecho.

Estos datos sirvieron para entrenar un «software» llamado iTracker, que también puede ejecutarse en un iPhone. La cámara del dispositivo capta la cara del usuario, y el «software» considera factores como la posición y dirección de la cabeza y los ojos para averiguar dónde se posa la mirada dentro de la pantalla.

Alrededor de 1.500 personas han empleado la «app» GazeCaptura hasta ahora, según Khosla, quien cree que si los investigadores logran obtener datos de 10.000 personas, podrán reducir la tasa de errores de iTracker a medio centímetro, lo que debería bastar para un abanico de aplicaciones de rastreo ocular.

Khosla espera que la técnica pueda ser empleada para diagnósticos médicos. Algunos estudios han considerado cómo podrían emplearse los movimientos oculares para diagnosticar trastornos como la esquizofrenia y las conmociones cerebrales.

El profesor de la Universidad Clemson (EE.UU.) Andrew Duchowski que estudia el rastreo ocular cree que iTracker podría resultar «enormemente útil» si los investigadores logran que funcione bien en los dispositivos móviles, aunque advierte de que también tendrá que trabajar rápido y no gastar demasiada batería.

No cree que sea posible obtener una precisión a nivel de pixel, pero asegura que «aun así, podría resultar muy útil».