El AI Policy Forum (AIPF) es una iniciativa del MIT Schwarzman College of Computing para llevar la conversación global sobre el impacto de la inteligencia artificial de los principios a la implementación práctica de políticas. Constituida a finales de 2020, AIPF reúne a líderes en el gobierno, las empresas y la academia a desarrollar enfoques para abordar los desafíos sociales que plantean los rápidos avances y la creciente aplicabilidad de la IA.
Los copresidentes del Foro de Políticas de IA son Aleksander Madry, Profesor de Sistemas de Diseño de Cadencia; Asu Ozdaglar, vicedecano académico del MIT Schwarzman College of Computing y director del Departamento de Ingeniería Eléctrica y Ciencias de la Computación; y Luis Videgaray, profesor titular de MIT Sloan School of Management y director de MIT AI Policy for the World Project. Aquí, discuten algunos de los problemas clave que enfrenta el panorama de políticas de IA en la actualidad y los desafíos que rodean la implementación de IA. Los tres son coorganizadores de la próxima Cumbre del Foro de Políticas de IA del 28 de septiembre, que explorará más a fondo los temas discutidos aquí.
P: ¿Puede hablar sobre el trabajo en curso del Foro de políticas de IA y el panorama de políticas de IA en general?
Ozdaglar: No hay escasez de debates sobre la IA en diferentes lugares, pero las conversaciones suelen ser de alto nivel, centradas en cuestiones de ética y principios, o solo en problemas de política. El enfoque que adopta AIPF para su trabajo es abordar preguntas específicas con soluciones de políticas viables y comprometerse con las partes interesadas que trabajan directamente en estas áreas. Trabajamos «detrás de escena» con grupos de enfoque más pequeños para abordar estos desafíos y nuestro objetivo es brindar visibilidad a algunas soluciones potenciales junto con los jugadores que trabajan directamente en ellos a través de reuniones más grandes.
P: La IA impacta en muchos sectores, lo que naturalmente hace que nos preocupemos por su confiabilidad. ¿Existen mejores prácticas emergentes para el desarrollo y la implementación de una IA confiable?
Madry: Lo más importante que se debe entender con respecto a la implementación de IA confiable es que la tecnología de IA no es un fenómeno natural predeterminado. Es algo construido por personas. Personas que están tomando ciertas decisiones de diseño.
Por lo tanto, necesitamos avanzar en la investigación que pueda guiar estas decisiones y brindar soluciones más deseables. Pero también debemos ser deliberados y pensar detenidamente sobre los incentivos que impulsan estas decisiones.
Ahora bien, estos incentivos se derivan en gran medida de las consideraciones comerciales, pero no exclusivamente. Es decir, también debemos reconocer que las leyes y reglamentaciones adecuadas, así como el establecimiento de estándares industriales reflexivos, también tienen un papel importante que desempeñar aquí.
De hecho, los gobiernos pueden establecer reglas que prioricen el valor de la implementación de la IA al tiempo que son muy conscientes de las desventajas, las trampas y las imposibilidades correspondientes. El diseño de tales reglas será un proceso continuo y en evolución a medida que la tecnología continúe mejorando y cambiando, y también debemos adaptarnos a las realidades sociopolíticas.
P: Quizás uno de los dominios de más rápida evolución en el despliegue de IA se encuentra en el sector financiero. Desde una perspectiva política, ¿cómo deberían los gobiernos, los reguladores y los legisladores hacer que la IA funcione mejor para los consumidores en finanzas?
Videgaray: El sector financiero está viendo una serie de tendencias que presentan desafíos de política en la intersección de los sistemas de IA. Por un lado, está la cuestión de la explicabilidad. Por ley (en los EE. UU. y en muchos otros países), los prestamistas deben brindar explicaciones a los clientes cuando toman medidas perjudiciales de cualquier manera, como la denegación de un préstamo, para los intereses de un cliente. Sin embargo, a medida que los servicios financieros dependen cada vez más de sistemas automatizados y modelos de aprendizaje automático, la capacidad de los bancos para desempacar la «caja negra» del aprendizaje automático para brindar ese nivel de explicación obligatorio se vuelve tenue. Entonces, ¿cómo deberían adaptarse la industria financiera y sus reguladores a este avance tecnológico? Quizás necesitemos nuevos estándares y expectativas, así como herramientas para cumplir con estos requisitos legales.
Mientras tanto, las economías de escala y los efectos de la red de datos están provocando una proliferación de la subcontratación de IA y, en términos más generales, la IA como servicio se está volviendo cada vez más común en la industria financiera. En particular, estamos viendo que las empresas de tecnología financiera brindan las herramientas para suscribir a otras instituciones financieras, ya sean grandes bancos o pequeñas cooperativas de crédito locales. ¿Qué significa esta segmentación de la cadena de suministro para la industria? ¿Quién es responsable de los problemas potenciales en los sistemas de IA implementados a través de varias capas de subcontratación? ¿Cómo pueden adaptarse los reguladores para garantizar sus mandatos de estabilidad financiera, equidad y otros estándares sociales?
P: Las redes sociales son uno de los sectores más controvertidos de la economía, lo que genera muchos cambios y alteraciones sociales en todo el mundo. ¿Qué políticas o reformas podrían ser necesarias para garantizar mejor que las redes sociales sean una fuerza para el bien público y no para el daño público?
Ozdaglar: El papel de las redes sociales en la sociedad preocupa cada vez más a muchos, pero la naturaleza de estas preocupaciones puede variar un poco: algunos consideran que las redes sociales no hacen lo suficiente para prevenir, por ejemplo, la desinformación y el extremismo, y otros las ven como silenciar indebidamente ciertos puntos de vista. Esta falta de una visión unificada sobre cuál es el problema afecta la capacidad de promulgar cualquier cambio. Todo eso se combina además con las complejidades del marco legal en los EE. UU. que abarca la Primera Enmienda, la Sección 230 de la Ley de Decencia en las Comunicaciones y las leyes comerciales.
Sin embargo, estas dificultades para regular las redes sociales no significan que no haya nada que hacer. De hecho, los reguladores han comenzado a reforzar su control sobre las empresas de redes sociales, tanto en los Estados Unidos como en el extranjero, ya sea a través de procedimientos antimonopolio u otros medios. En particular, Ofcom en el Reino Unido y la Unión Europea ya está introduciendo nuevas capas de supervisión en las plataformas. Además, algunos han propuesto impuestos sobre la publicidad en línea para abordar las externalidades negativas causadas por el actual modelo comercial de las redes sociales. Entonces, las herramientas políticas están ahí, si existe la voluntad política y la orientación adecuada para implementarlas.