Saltar al contenido

Maryland hoy | Proyecto tiene como objetivo transmitir Big Data con sonido y tacto

6 de diciembre de 2022

Desde funcionar de manera efectiva en el trabajo hasta mantenerse al día con las noticias, la sociedad moderna espera cada vez más que las personas no solo sean alfabetizadas en datos, sino también conocedoras de datos. Los gráficos y las infografías que pueden hacer tangible un mar de números a menudo presentan una barrera para los usuarios ciegos, y las herramientas de accesibilidad existentes, como los lectores de pantalla, aún no pueden proporcionar una descripción general de grandes conjuntos de datos o gráficos, y mucho menos búsquedas en profundidad.

Con el apoyo de $ 433,000 de la Fundación Nacional de Ciencias, dos investigadores de la Universidad de Maryland están recurriendo al sonido y el tacto para ayudar a las personas a analizar datos a gran escala.

«El impacto fundamental que tendrá este trabajo en los millones de personas en los Estados Unidos y en todo el mundo que son ciegas o tienen problemas de visión no se puede subestimar», dijo Niklas Elmqvist, quien dirige el proyecto de dos años con su compañero College of Profesor de Estudios de la Información Jonathan Lazar. Elmqvist, quien también tiene una cita en el Instituto de Estudios Informáticos Avanzados de la Universidad de Maryland, agrega que esta investigación tendrá un amplio impacto en la población general, considerando que la mayoría de las personas experimentan pérdida de la visión a medida que envejecen.

A medida que el papel de los grandes datos continúa creciendo en escala e importancia, la brecha de inaccesibilidad también podría aumentar a menos que intervengan los investigadores, dijeron. La pandemia resaltó esta necesidad urgente, con un estudio que muestra que la mitad de los usuarios ciegos dependen de la ayuda de personas videntes para acceder a datos vitales sobre COVID-19.

Recomendado:  Preguntas y respuestas ejecutivas: gestión de datos y la nube

El equipo de la UMD trabajará con la comunidad de personas ciegas y las organizaciones tecnológicas para evaluar herramientas y contextos de accesibilidad populares, realizando la investigación a través de la lente de dos entornos del mundo real que requieren grandes conjuntos de datos: educación superior y empleo.

Su objetivo general es desarrollar representaciones de datos de gran ancho de banda basadas en el sonido, el tacto y la computación física que permitirán a los usuarios ciegos ver, analizar y comprender grandes conjuntos de datos con la misma facilidad que los usuarios videntes.

El enfoque subyacente a este trabajo se llama «sustitución sensorial», o el uso de tecnología de asistencia general para sustituir funcionalmente en un sentido con otro, dijo Lazar, quien es el director del Centro de Investigación y Desarrollo Trace de la UMD, que trabaja para mejorar la accesibilidad en la tecnología.

Por ejemplo, Lazar y otros profesores de UMD son conocidos por una herramienta que construyeron llamada iSonic, que crea una versión de audio de un mapa que permite al usuario ejecutar barridos de izquierda a derecha para escuchar varios tonos que representan los datos.

Elmqvist también tiene una amplia experiencia en esta área: ayudó a liderar el desarrollo de un difusor de aceite esencial que transmite datos a través del olfato y actualmente está trabajando con el Departamento de Educación de Maryland para crear un curso de datos de informática que sea accesible para estudiantes ciegos de secundaria.

Como Elmqvist discutió en una charla comunitaria TEDx en Montgomery-Blair High School en Silver Spring, Maryland, muchas técnicas actuales de sustitución sensorial no son escalables porque toman demasiado tiempo para crearlas, son demasiado costosas o no están ampliamente disponibles.

Recomendado:  5 consejos para aprovechar la IA y ayudar a los agentes a mejorar la CX

Por lo tanto, los profesores de iSchool dicen que un objetivo fundamental será diseñar soluciones económicas que sean compatibles con el software y el equipo existente de los usuarios ciegos.