Saltar al contenido

Las empresas tecnológicas dicen que las leyes para protegernos de la mala IA limitarán la «innovación». Bien, bien | Juan Naughton

9 de octubre de 2022

Way en mayo de 2014, el Tribunal de Justicia de la Unión Europea emitió un fallo histórico que establece que los ciudadanos europeos tenían derecho a solicitar a los motores de búsqueda que eliminen los resultados de búsqueda que vinculaban a material que había sido publicado legalmente en sitios web de terceros. Esto se describió de manera popular pero engañosa como el “derecho al olvido”; era realmente un derecho que cierto material publicado sobre el denunciante fuera eliminado de la lista de los motores de búsqueda, de los cuales Google era, con mucho, el más dominante. O, para decirlo crudamente, un derecho a no ser encontrado por Google.

En la mañana en que se publicó el fallo, recibí una llamada telefónica de un empleado de Google relativamente senior a quien conocía. Quedó claro por su llamada que la compañía había sido emboscada por el fallo: su costoso equipo legal claramente no lo esperaba. Pero también estaba claro que sus jefes estadounidenses estaban indignados por el descaro de una mera institución europea al emitir tal veredicto. Y cuando indiqué suavemente que lo consideraba un juicio razonable, me obsequiaron con una diatriba enérgica, cuya esencia era que el problema con los europeos es que son «hostiles a la innovación». En ese momento terminó la conversación y nunca más volví a saber de él.

Lo que trae esto a la mente es la reacción de las empresas de tecnología a un proyecto de ley de la UE publicado el mes pasado que, cuando se convierta en ley dentro de unos dos años, hará posible que las personas que han sido dañadas por el software demanden a las empresas que producen y desplegarlo. El nuevo proyecto de ley, llamado Directiva de responsabilidad de AI, complementará la Ley de AI de la UE, que se convertirá en ley de la UE casi al mismo tiempo. El objetivo de estas leyes es evitar que las empresas de tecnología lancen sistemas peligrosos, por ejemplo: algoritmos que fomentan la desinformación y se dirigen a los niños con contenido dañino; sistemas de reconocimiento facial que muchas veces son discriminatorios; los sistemas predictivos de inteligencia artificial utilizados para aprobar o rechazar préstamos o para guiar las estrategias policiales locales, etc., que son menos precisos para las minorías. En otras palabras, tecnologías que actualmente no están reguladas casi en su totalidad.

La Ley de IA exige controles adicionales para los usos de IA de «alto riesgo» que tienen el mayor potencial de dañar a las personas, particularmente en áreas como la vigilancia, el reclutamiento y la atención médica. El nuevo proyecto de ley de responsabilidad, dice el MIT Revisión de tecnología revista, “daría a las personas y empresas el derecho a demandar por daños y perjuicios después de haber sido dañados por un sistema de IA. El objetivo es responsabilizar a los desarrolladores, productores y usuarios de las tecnologías y exigirles que expliquen cómo se construyeron y entrenaron sus sistemas de IA. Las empresas tecnológicas que no siguen las reglas corren el riesgo de demandas colectivas en toda la UE”.

Recomendado:  Las fallas de los modelos de aprendizaje automático | Noticias

Justo en ese momento, aparece la Asociación de la Industria de la Computación y las Comunicaciones (CCIA), el equipo de cabildeo que representa a las empresas tecnológicas en Bruselas. Su carta a los dos comisarios europeos responsables de los dos actos plantea de inmediato la preocupación de que imponer una responsabilidad estricta a las empresas de tecnología «sería desproporcionado e inadecuado para las propiedades del software». Y, por supuesto, podría tener “un efecto paralizante” sobre la “innovación”.

Ah, sí. Esa sería la misma innovación que condujo al escándalo de Cambridge Analytica y la intromisión rusa en línea en las elecciones presidenciales de EE. UU. de 2016 y el referéndum del Brexit en el Reino Unido y permitió la transmisión en vivo de tiroteos masivos. La misma innovación detrás de los motores de recomendación que radicalizaron a los extremistas y dirigieron «10 pines de depresión que te pueden gustar» a una adolescente con problemas que posteriormente se quitó la vida.

Es difícil decidir cuál de las dos afirmaciones hechas por la CCIA (que la responsabilidad objetiva es «inapropiada» para el software o que la «innovación» es la característica definitoria de la industria) es la más absurda. Durante más de 50 años, a la industria de la tecnología se le ha otorgado una libertad que no se extiende a ninguna otra industria, a saber, evitar la responsabilidad legal por las innumerables deficiencias y vulnerabilidades de su producto principal o el daño que causan esas fallas.

Sin embargo, lo que es aún más notable es cómo la afirmación de las empresas tecnológicas de ser los únicos maestros de la «innovación» se ha tomado al pie de la letra durante tanto tiempo. Pero ahora dos eminentes abogados de la competencia, Ariel Ezrachi y Maurice Stucke, han descubierto el engaño de las empresas. En un nuevo libro extraordinario, Cómo los barones de la gran tecnología aplastan la innovación y cómo contraatacar, explican que los únicos tipos de innovación que toleran las empresas tecnológicas son los que se alinean con sus propios intereses. Revelan cómo las empresas tecnológicas son despiadadas a la hora de sofocar las innovaciones perturbadoras o amenazantes, ya sea mediante la adquisición preventiva o la simple imitación, y que su dominio de los motores de búsqueda y las plataformas de redes sociales restringe la visibilidad de las innovaciones prometedoras que podrían ser útiles desde el punto de vista competitivo o social. Como antídoto contra la fanfarronería tecnológica, el libro será difícil de superar. Debería ser una lectura obligatoria para todos en Ofcom, la Autoridad de Mercados y Competencia y el DCMS. Y a partir de ahora “¿innovación para quién?” debería ser la primera pregunta para cualquier impulsor tecnológico que le dé una conferencia sobre innovación.

Recomendado:  Conversación sobre el racismo y la robótica

lo que he estado leyendo

La red del tiempo
El espinoso problema de mantener la hora de Internet es un tema fascinante. Neoyorquino ensayo de Nate Hopper sobre el genio que, hace muchos años, creó el arcano sistema de software que sincroniza los relojes de la red.

Atado
Project Fear 3.0 es una excelente entrada de blog de Adam Tooze sobre las críticas a la actual administración Tory.

el progreso de la tecnologia
Ascension es un ensayo reflexivo de Drew Austin sobre cómo ha cambiado nuestra relación con la tecnología digital en el período 2019-2022.