Una de las razones por las que mi pareja y yo nos llevamos bien es que a ambos nos gustan los juegos de mesa y yo no soy muy bueno en ellos. Esto ayuda, porque mi socio es un gran ganador pero un terrible perdedor. Una vez, cuando era adolescente, durante un juego de damas con su hermana, respondió a una posición imposible de ganar volteando la mesa.
Si la inteligencia artificial destruye la vida humana, es casi seguro que se parecerá más a la reacción de mi compañero ante la derrota que a la inteligencia destructiva del terminador Película (s. La catástrofe vendrá no cuando una inteligencia sofisticada decida usar su poder para el mal deliberado, sino cuando la forma más fácil de cumplir su programación y de “ganar” sea dar la vuelta a la mesa.
La amenaza de que la inteligencia artificial cause algún tipo de desastre social es, por supuesto, una razón por la que deberíamos preocuparnos por la investigación, la ética y la transparencia. Pero este enfoque en el potencial de catástrofe a veces puede distraer la atención de los peligros más mundanos. Si su Satnav lo dirige hacia el borde de un precipicio, como sucedió en 2009, cuando Robert Jones fue condenado por no conducir con el debido cuidado y atención, entonces no es una tragedia a nivel social. Pero puede ser personal si te lleva a perder la vida, el trabajo o incluso el permiso de conducir.
Una consecuencia desafortunada de las constantes predicciones nefastas sobre las peores consecuencias de la inteligencia artificial o los programas de aprendizaje automático es que alientan una especie de complacencia de «bueno, todavía no nos han matado» sobre su prevalencia actual en las políticas públicas y la toma de decisiones comerciales. .
Un problema más común es que, tanto para los políticos como para los líderes empresariales, la palabra «algoritmo» a veces puede estar imbuida de poderes mágicos. Un buen ejemplo reciente es el intento fallido del gobierno del Reino Unido de asignar calificaciones a los estudiantes durante la pandemia. Pero un algoritmo es simplemente un conjunto de datos alimentados a través de reglas o fórmulas matemáticas para producir un resultado. Como ningún estudiante del Reino Unido que realizaba sus GCSE o A-levels tenía muchos datos significativos sobre su propio desempeño, el «algoritmo» del Reino Unido era esencialmente arbitrario a nivel individual. El resultado fue una protesta pública, un algoritmo abandonado y una inflación galopante de las calificaciones.
El uso más preocupante de los algoritmos en la política son los llamados «algoritmos de caja negra»: aquellos en los que las entradas y los procesos están ocultos a la vista del público. Esto puede deberse a que se considera información patentada: por ejemplo, los factores que sustentan el sistema Compas, que se utiliza en los EE. UU. para medir la probabilidad de reincidencia, no están disponibles públicamente porque se tratan como propiedad de la empresa.
Esto inevitablemente plantea problemas para la democracia. Cualquier sistema diseñado para medir la probabilidad de que alguien reincida tiene que elegir entre dejar salir a aquellos que de hecho pueden volver a delinquir o continuar encarcelando a las personas que están listas para convertirse en miembros productivos de la sociedad. No hay una respuesta «correcta» o «justa» aquí: los algoritmos pueden dar forma a su toma de decisiones, pero el juicio es, en última instancia, uno que deben tomar los políticos e, indirectamente, sus votantes.
Como ha observado el estadístico David Spiegelhalter, no existe una diferencia práctica entre los jueces que utilizan algoritmos y los jueces que siguen las pautas de sentencia. La diferencia importante es única y significativamente que las pautas de sentencia se entienden claramente, están disponibles públicamente y están sujetas a debate democrático.
El algoritmo de examen condenado al fracaso del Reino Unido no fue una «caja negra» debido a las leyes de propiedad intelectual o al deseo de una empresa de proteger sus intereses, sino el resultado de la preferencia predeterminada del estado británico por la toma de decisiones opaca. Si el funcionamiento del proceso hubiera estado disponible antes, la oposición política habría quedado clara a tiempo para encontrar una solución más aceptable.
La otra forma de algoritmo de caja negra es aquella en la que la información está disponible públicamente pero es demasiado compleja para comprenderla fácilmente. Esto, de nuevo, puede tener consecuencias nefastas. Si el algoritmo que decide quién es despedido no puede ser razonablemente entendido por los empleados o, de hecho, por los empleadores, entonces es una herramienta pobre para los gerentes y causa infelicidad. En la política pública, si los resultados de un algoritmo son demasiado complejos, pueden confundir el debate en lugar de ayudar a los legisladores a tomar mejores decisiones.
Spiegelhalter propone un proceso de cuatro fases para los algoritmos y el aprendizaje automático en las políticas públicas y el lugar de trabajo, comparable al proceso por el que deben pasar los productos farmacéuticos del Reino Unido para ser aprobados. Una de las razones por las que ese plan es bueno es que podría evitar un error que podría acabar con el mundo: pero también podría evitar tragedias menores y fallas en las políticas públicas.
stephen.bush@ft.com