Saltar al contenido

Reflexiones sobre el plan de la Declaración de Derechos de AI | blog@CACM

4 de noviembre de 2022

A principios de este mes, la Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un Plan para una Declaración de Derechos de la IA. He estado pensando en este documento histórico en el contexto de los sistemas educativos. Los sistemas educativos utilizarán cada vez más la IA para detectar patrones en los procesos de enseñanza y aprendizaje y para automatizar actividades y decisiones educativas.

El Blueprint avanza cinco principios:

  1. Debe estar protegido de sistemas inseguros o ineficaces.
  2. No debe enfrentar discriminación por algoritmos y los sistemas deben usarse y diseñarse de manera equitativa.
  3. Debe estar protegido contra prácticas abusivas de datos a través de protecciones integradas y debe tener autoridad sobre cómo se utilizan los datos sobre usted.
  4. Debe saber que se está utilizando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que lo impactan.
  5. Debería poder optar por no participar, cuando corresponda, y tener acceso a una persona que pueda considerar y solucionar rápidamente los problemas que encuentre.

Soy un científico del aprendizaje, un investigador con experiencia tanto en informática como en ciencias sociales, que trabaja en estrecha colaboración con los innovadores de IA en la educación. He liderado investigaciones de diseño, trabajando en equipos para investigar la promesa de las nuevas tecnologías para la educación. También he realizado investigaciones de evaluación, investigando «¿qué tecnologías mejoran el aprendizaje, para quién y en qué condiciones?»

Desde mi punto de vista, el Blueprint es oportuno. La inversión en investigación y desarrollo que explora el uso de la IA en grandes sistemas sociales como la educación y la atención médica se está expandiendo rápidamente. Además, la tecnología educativa ahora se usa mucho en todos los niveles de la educación. Las decisiones y políticas implementadas en los sistemas de tecnología educativa pueden tener un gran impacto en la oportunidad de aprender de las personas y en los caminos hacia la universidad y las carreras. Ahora es un momento crítico para pensar en cómo la IA en la educación puede aumentar la equidad de los sistemas educativos y cómo podemos evitar que empeoren las disparidades actuales.

Recomendado:  ¿IA o aumento de la inteligencia para la educación? | blog @ CACM

Cuando hablo con investigadores orientados a la educación y con profesores, escucho entusiasmo sobre las mejoras que la IA podría ayudarnos a lograr en los procesos de enseñanza y aprendizaje equitativos. Y, sin embargo, también escuché que tenemos mucho trabajo por hacer con respecto a la confianza y la honradez. Veo los principios del Blueprint como una buena base para trabajar hacia una mayor confianza.

Además, me preocupa el ritmo y el poder compartido. Con respecto al ritmo, el Blueprint tiene un lenguaje de evaluación como este: «Se debe realizar una evaluación e informe independientes que confirmen que el sistema es seguro y efectivo, incluido el informe de los pasos tomados para mitigar los daños potenciales, y los resultados se deben hacer públicos siempre que sea posible». He hecho investigaciones sobre la eficacia en la educación. Los estudios de alta calidad tardan de 3 a 4 años en realizarse. ¿Cómo se mantendrá la evaluación del despliegue de IA en los sistemas sociales al ritmo de las innovaciones de IA en esos sistemas? En términos más generales, ¿cómo se mantendrá el estudio del uso de la IA en la educación al ritmo del crecimiento de la IA en la educación?

Me alienta que los compradores educativos y los responsables de la toma de decisiones ahora pidan pruebas de forma rutinaria cuando toman decisiones importantes sobre productos. En consecuencia, los productores de tecnología educativa se dan cuenta de que deben apoyar los esfuerzos para construir la base de evidencia. Principios como los del Blueprint pueden guiar la forma en que los compradores y desarrolladores educativos trabajan juntos para lograr una IA confiable para la educación. Sin embargo, también encuentro que las conversaciones sobre la IA en la educación son complejas; Existe una gran necesidad de desarrollar la capacidad para dar sentido a la IA en la educación en todo nuestro ecosistema.

Recomendado:  Tenemos que hablar de la diversidad lingüística en la IA | Noticias

Con respecto al poder compartido, la ciencia de datos y el aprendizaje automático por sí solos no resolverán problemas educativos complicados. Tendremos que combinar las perspectivas de la IA con los principios de las ciencias del aprendizaje y con la sabiduría de los profesionales. Tendremos que involucrar a aquellos que se verán más afectados (maestros y estudiantes diversos, por ejemplo) en el diseño de los sistemas basados ​​en IA que usarán. Necesitaremos grandes avances para hacer que la IA sea más transparente y más explicable para los participantes educativos, incluidos profesores y estudiantes. Las mejores empresas en tecnología educativa ya escuchan a los líderes educativos e incorporan educadores a lo largo de sus procesos de diseño. Necesitaremos una mayor integración de educadores y científicos del aprendizaje junto con innovadores de IA y ML desde la concepción del producto hasta la implementación.

Espero más discusiones con otros que investigan la IA en los sectores de servicios sociales sobre cómo podemos usar los principios del Plan en la Declaración de Derechos de la IA como punto de partida, reconociendo que tendremos que prestar atención a los detalles de cada social. sector servicios para hacerlo bien.

jeremy roschelle es Director Ejecutivo de Investigación en Ciencias del Aprendizaje en Digital Promise y miembro de la Sociedad Internacional de Ciencias del Aprendizaje.


entradas no encontradas