EdSAFE AI Alliance para ayudar a establecer nuevos estándares para Ed Tech, AI

Si bien las empresas de tecnología educativa han puesto la inteligencia artificial en el mercado para un número creciente de casos de uso, desde la supervisión de exámenes hasta la gestión de contenido, se ha hecho poco para medir de manera integral la eficacia de estas herramientas. Al ver la necesidad de nuevos estándares de inteligencia artificial en la industria de la tecnología de la educación, la empresa de inteligencia artificial para la educación Riiid y el Instituto DXtera, una organización sin fines de lucro para la educación, han creado la EdSAFE AI Alliance, un grupo internacional de empresas de tecnología, educadores, formuladores de políticas y otras partes interesadas en la tecnología de la educación para examinar la calidad de las nuevas herramientas de inteligencia artificial e informar las regulaciones futuras.

Según un comunicado de prensa de este mes, la alianza trabajará en conjunto para definir nuevos puntos de referencia de la industria en cuatro categorías: seguridad, responsabilidad, equidad y eficacia, o «SEGURO», para abordar la seguridad de los datos, la confiabilidad y la equidad en el aprendizaje.

Jim Larimore, director de equidad en el aprendizaje de Riid, dijo que el mercado del aprendizaje digital aún tiene que establecer estándares uniformes para determinar la calidad, confiabilidad y eficacia de tecnologías emergentes como la inteligencia artificial y el aprendizaje automático. Desde el punto de vista de Larimore, se necesita hacer más para probar las herramientas de tecnología educativa «en la parte frontal» y abordar los riesgos potenciales que pueden venir con ellas. El objetivo, dijo, es catalizar los debates y orientar el desarrollo de tecnologías emergentes en las escuelas.


“Creemos que con el uso de la inteligencia artificial en la educación, estamos en una fase relativamente temprana. Es un área de crecimiento en la educación en la que realmente tenemos que desacelerar un poco ahora para asegurarnos de que todos tengamos un conjunto compartido de entendimientos o definiciones de lo que entendemos por seguridad de datos o ciberseguridad, y lo que entendemos por responsabilidad ”, dijo. dijo. «Todo se reduce a saber que hay que actuar de manera confiable … Creemos que la industria, o aquellos involucrados en la tecnología educativa, tienen la responsabilidad de presentarse de esa manera».


Recomendado: ¿Qué es el Big data?.


El presidente del Instituto DXtera, Dale Allen, dijo que las partes interesadas de aproximadamente una docena de países se han inscrito para participar en la alianza a partir de esta semana, luego de un anuncio formal de la iniciativa a principios de este mes en la cumbre ASU + GSV en San Diego, organizada por la Universidad Estatal de Arizona. y el moderno banco mercantil Global Silicon Valley.

Las organizaciones ahora incluyen Carnegie Learning, ETS, GSV Ventures, Digital Promise, German Alliance for Education y Education Alliance Finland, entre otras.

“Hemos estado trabajando en esto durante aproximadamente un año entre bastidores con una perspectiva comunitaria en crecimiento, hablando con otras personas de todo el mundo que dicen: ‘No hay puntos de referencia, necesitamos desarrollar un entendimiento compartido, tenemos que llegar a una forma de certificar que algo es seguro ‘”, dijo Allen sobre la formación del grupo, que tiene la intención de proponer nuevas pautas para el próximo año.

Dijo que la alianza explorará cómo desarrollar mejor conjuntos de datos anónimos para construir herramientas de IA que sean equitativas, justas e imparciales, así como desarrollar ensayos controlados aleatorios y otros medios para medir objetivamente la eficacia de los programas de aprendizaje digital de IA.

Allen señaló que las pruebas estrictas también pueden ayudar a determinar si los productos cumplen con las leyes de privacidad de datos existentes, como las pautas del Reglamento general de protección de datos en la Unión Europea y las leyes de privacidad de datos en California.

“Hay mucho trabajo por hacer para crear puntos de referencia y definiciones, estándares y procedimientos de prueba acordados”, dijo Allen sobre cómo cumplir con las pautas de datos existentes. «Este será el camino a seguir para la acción colectiva».

Según Larimore, la alianza podría desempeñar un papel en la mejora de las tecnologías existentes, como las herramientas de supervisión que utilizan cámaras web y reconocimiento facial para monitorear a los estudiantes virtuales y desalentar las trampas.

Larimore dijo que los estudiantes con TDAH, por ejemplo, han sido señalados erróneamente por estos programas contra las trampas que monitorean los comportamientos considerados sospechosos. Dijo que esto se debe en parte a la falta de datos de comportamiento al crear la IA, por lo que no tiene en cuenta los síntomas del TDAH, como la inquietud y la incapacidad para mantener la concentración.

Algunas universidades han abandonado por completo el uso de programas de supervisión después de que los estudiantes con tonos de piel más oscuros informaron que el software no los reconocía, una limitación recurrente con el reconocimiento facial de IA desde su desarrollo temprano.

«Una de las cosas que sabemos de esos sistemas de supervisión que dependen en gran medida de la visión por computadora o el reconocimiento facial es que existen limitaciones de hardware y software», dijo.

Allen dijo que la industria de la tecnología de la inteligencia artificial puede abordar deficiencias como estas basándose en conjuntos de datos más grandes y representativos que pueden tener en cuenta diferentes escenarios al tomar decisiones.

“Si no entrena esas herramientas y esos algoritmos en un conjunto de datos significativamente diverso para empezar, o en un conjunto de datos grande que parece una población que lo usará, va a tomar [from] los sesgos del desarrollador del algoritmo ”, dijo.