Saltar al contenido

¿Choca esos cinco o levanta los pulgares? El nuevo dispositivo detecta el gesto de la mano que quieres hacer… ScienceDaily

25 de diciembre de 2020

Berkeley… Imagina escribir en un ordenador sin teclado, jugar a un videojuego sin mando o conducir un coche sin volante.

Ese es uno de los objetivos de un nuevo dispositivo desarrollado por ingenieros de la Universidad de California, Berkeley, que puede reconocer gestos de la mano basados en señales eléctricas detectadas en el antebrazo. El sistema, que combina biosensores portátiles con inteligencia artificial (IA), podría utilizarse algún día para controlar prótesis o para interactuar con casi cualquier tipo de dispositivo electrónico.

«Las prótesis son una aplicación importante de esta tecnología, pero además de eso, también ofrece una forma muy intuitiva de comunicarse con las computadoras», dijo Ali Moin, quien ayudó a diseñar el dispositivo como estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación de la Universidad de Berkeley. «Leer los gestos de las manos es una forma de mejorar la interacción hombre-computadora. Y, aunque hay otras formas de hacerlo, por ejemplo, usando cámaras y visión por ordenador, es una buena solución que también mantiene la privacidad del individuo».

Moin es co-autor de un nuevo artículo que describe el dispositivo, que apareció en línea el 21 de diciembre en la revista Electrónica de la naturaleza.

Para crear el sistema de reconocimiento de gestos con la mano, el equipo colaboró con Ana Arias, profesora de ingeniería eléctrica de la UC Berkeley, para diseñar un brazalete flexible que puede leer las señales eléctricas en 64 puntos diferentes del antebrazo. Las señales eléctricas se introducen en un chip eléctrico, que se programa con un algoritmo de IA capaz de asociar estos patrones de señales en el antebrazo con gestos específicos de la mano.

Recomendado:  Reconocimiento de rostros mediante la Inteligencia Artificial

El equipo logró enseñar al algoritmo a reconocer 21 gestos individuales de la mano, incluyendo un pulgar hacia arriba, un puño, una mano plana, levantando los dedos individuales y contando números.

«Cuando quieres que los músculos de tus manos se contraigan, tu cerebro envía señales eléctricas a través de las neuronas del cuello y los hombros a las fibras musculares de los brazos y las manos», dijo Moin. «Esencialmente, lo que los electrodos del manguito están detectando es este campo eléctrico. No es tan preciso, en el sentido de que no podemos precisar qué fibras exactas fueron disparadas, pero con la alta densidad de los electrodos, todavía puede aprender a reconocer ciertos patrones».

Al igual que otros programas de IA, el algoritmo tiene que «aprender» primero cómo las señales eléctricas del brazo se corresponden con los gestos individuales de la mano. Para ello, cada usuario tiene que llevar el brazalete mientras hace los gestos con la mano uno a uno.

Sin embargo, el nuevo dispositivo utiliza un tipo de IA avanzada llamada algoritmo de computación hiperdimensional, que es capaz de actualizarse con nueva información.

Por ejemplo, si las señales eléctricas asociadas a un gesto específico de la mano cambian porque el brazo del usuario se pone sudoroso, o levanta el brazo por encima de la cabeza, el algoritmo puede incorporar esta nueva información en su modelo.

«En el reconocimiento de gestos, tus señales van a cambiar con el tiempo, y eso puede afectar al rendimiento de tu modelo», dijo Moin. «Pudimos mejorar enormemente la precisión de la clasificación actualizando el modelo en el dispositivo».

Recomendado:  El robot le devolvió la sonrisa - ScienceDaily

Otra ventaja del nuevo dispositivo es que toda la computación ocurre localmente en el chip: No se transmiten datos personales a un ordenador o dispositivo cercano. Esto no sólo acelera el tiempo de computación, sino que también asegura que los datos biológicos personales permanezcan privados.

«Cuando Amazon o Apple crean sus algoritmos, ejecutan un montón de software en la nube que crea el modelo, y luego el modelo se descarga en su dispositivo», dijo Jan Rabaey, el Profesor Distinguido de Ingeniería Eléctrica de la Universidad de Berkeley y autor principal del artículo. «El problema es que entonces te quedas atascado con ese modelo en particular. En nuestro enfoque, implementamos un proceso donde el aprendizaje se hace en el propio dispositivo. Y es extremadamente rápido: sólo tienes que hacerlo una vez, y comienza a hacer el trabajo. Pero si lo haces más veces, puede mejorar. Por lo tanto, es un aprendizaje continuo, que es como los humanos lo hacen.»

Aunque el dispositivo no está listo para ser un producto comercial todavía, Rabaey dijo que probablemente podría llegar allí con algunos ajustes.

«La mayoría de estas tecnologías ya existen en otros lugares, pero lo que es único de este dispositivo es que integra la biosensibilidad, el procesamiento y la interpretación de la señal y la inteligencia artificial en un sistema que es relativamente pequeño y flexible y tiene un bajo presupuesto de energía», dijo Rabaey.