miDesde que Garry Kasparov perdió su segunda partida de ajedrez contra Deep Blue de IBM en 1997, la escritura ha estado en la pared para la humanidad. O eso es lo que a algunos les gusta pensar. Los avances en inteligencia artificial conducirán, según algunas estimaciones, en solo unas pocas décadas, al desarrollo de máquinas superinteligentes y sensibles. Películas desde Terminator hasta Matrix han presentado esta perspectiva como algo indeseable. Pero, ¿es esto algo más que otro “Project Fear” de ciencia ficción?
Cierta confusión se debe a dos usos muy diferentes de la frase inteligencia artificial. El primer sentido es, esencialmente, uno de marketing: cualquier software de computadora que parezca inteligente o útil, como Siri, se dice que usa “IA”. El segundo sentido, del que el primero toma prestado su glamour, apunta a un futuro que aún no existe, de máquinas con intelectos sobrehumanos. Eso a veces se llama AGI, para inteligencia artificial general.
¿Cómo llegamos desde aquí, asumiendo que queremos? La IA moderna emplea el aprendizaje automático (o aprendizaje profundo): en lugar de programar reglas en la máquina directamente, permitimos que aprenda por sí misma. De esta manera, AlphaZero, la entidad de juego de ajedrez creada por la firma británica Deepmind (ahora parte de Google), jugó millones de partidos de entrenamiento contra sí misma y luego derrotó a su principal competidor. Más recientemente, AlphaFold 2 de Deepmind fue recibido como un hito importante en el campo biológico del «plegamiento de proteínas», o predecir las formas exactas de las estructuras moleculares, lo que podría ayudar a diseñar mejores fármacos.
El aprendizaje automático funciona entrenando a la máquina con grandes cantidades de datos: imágenes para sistemas de reconocimiento de imágenes o terabytes de prosa tomados de Internet para bots que generan ensayos semi-plausibles, como GPT2. Pero los conjuntos de datos no son simplemente depósitos neutrales de información; a menudo codifican prejuicios humanos de formas imprevistas. Recientemente, el algoritmo de suministro de noticias de Facebook preguntó a los usuarios que vieron un video de noticias con hombres negros si querían «seguir viendo videos sobre primates». La llamada «IA» ya se está utilizando en varios estados de EE. UU. Para predecir si los candidatos a libertad condicional reincidirán, y los críticos afirman que los datos en los que se entrenan los algoritmos reflejan un sesgo histórico en la vigilancia.
Los sistemas computarizados (como en los pilotos automáticos de aviones) pueden ser de gran ayuda para los humanos, por lo que las fallas de la «IA» existente no son en sí mismos argumentos en contra del principio de diseñar sistemas inteligentes que nos ayuden en campos como el diagnóstico médico. El problema sociológico más desafiante es que la adopción de juicios basados en algoritmos es un medio tentador de pasar la pelota, de modo que no se culpe a los humanos a cargo, ya sean jueces, médicos o empresarios tecnológicos. ¿Los robots tomarán todos los trabajos? Ese mismo encuadre pasa la pelota porque la verdadera pregunta es si los gerentes despedirán a todos los humanos.
El problema existencial, mientras tanto, es el siguiente: si las computadoras eventualmente adquieren algún tipo de inteligencia autoconsciente a nivel divino, algo que está explícitamente en la declaración de misión de Deepmind, por ejemplo («nuestro objetivo a largo plazo es resolver inteligencia» y construir un AGI) – ¿seguirán estando tan dispuestos a servir? Si construimos algo tan poderoso, será mejor que confiemos en que no se volverá contra nosotros. Para las personas seriamente preocupadas por esto, el argumento es que, dado que se trata de un problema potencialmente a nivel de extinción, deberíamos dedicar recursos ahora a combatirlo. El filósofo Nick Bostrom, que dirige el Future of Humanity Institute de la Universidad de Oxford, dice que los humanos que intentan construir IA son «como niños jugando con una bomba», y que la perspectiva de la sensibilidad de las máquinas es una amenaza mayor para la humanidad que la global. calefacción. Su libro de 2014 Superintelligence es fundamental. Una IA real, sugiere, podría fabricar secretamente gas nervioso o nanobots para destruir a sus fabricantes inferiores basados en la carne. O podría simplemente mantenernos en un zoológico planetario mientras continúa con su negocio real.
La IA no tendría que ser activamente maliciosa para causar una catástrofe. Esto queda ilustrado por el famoso «problema de los clips» de Bostrom. Suponga que le dice a la IA que haga clips. ¿Qué podría ser más aburrido? Desafortunadamente, olvidó decirle cuándo parada haciendo sujetapapeles. Así que convierte toda la materia de la Tierra en clips, habiendo desactivado primero su interruptor de apagado porque permitir que se apague le impediría perseguir su noble objetivo de hacer clips.