Saltar al contenido

La gran idea: ¿deberíamos preocuparnos por la inteligencia artificial? | Libros

1 de diciembre de 2021

miDesde que Garry Kasparov perdió su segunda partida de ajedrez contra Deep Blue de IBM en 1997, la escritura ha estado en la pared para la humanidad. O eso es lo que a algunos les gusta pensar. Los avances en inteligencia artificial conducirán, según algunas estimaciones, en solo unas pocas décadas, al desarrollo de máquinas superinteligentes y sensibles. Películas desde Terminator hasta Matrix han presentado esta perspectiva como algo indeseable. Pero, ¿es esto algo más que otro “Project Fear” de ciencia ficción?

Suscríbase a nuestro boletín Inside Saturday para obtener un vistazo exclusivo detrás de escena de la realización de las características más importantes de la revista, así como una lista seleccionada de nuestros aspectos más destacados semanales.

Cierta confusión se debe a dos usos muy diferentes de la frase inteligencia artificial. El primer sentido es, esencialmente, uno de marketing: cualquier software de computadora que parezca inteligente o útil, como Siri, se dice que usa “IA”. El segundo sentido, del que el primero toma prestado su glamour, apunta a un futuro que aún no existe, de máquinas con intelectos sobrehumanos. Eso a veces se llama AGI, para inteligencia artificial general.

¿Cómo llegamos desde aquí, asumiendo que queremos? La IA moderna emplea el aprendizaje automático (o aprendizaje profundo): en lugar de programar reglas en la máquina directamente, permitimos que aprenda por sí misma. De esta manera, AlphaZero, la entidad de juego de ajedrez creada por la firma británica Deepmind (ahora parte de Google), jugó millones de partidos de entrenamiento contra sí misma y luego derrotó a su principal competidor. Más recientemente, AlphaFold 2 de Deepmind fue recibido como un hito importante en el campo biológico del «plegamiento de proteínas», o predecir las formas exactas de las estructuras moleculares, lo que podría ayudar a diseñar mejores fármacos.

Recomendado:  AI News Weekly - Número 199: Cómo engañar a la inteligencia artificial - 4 de febrero de 2021

El aprendizaje automático funciona entrenando a la máquina con grandes cantidades de datos: imágenes para sistemas de reconocimiento de imágenes o terabytes de prosa tomados de Internet para bots que generan ensayos semi-plausibles, como GPT2. Pero los conjuntos de datos no son simplemente depósitos neutrales de información; a menudo codifican prejuicios humanos de formas imprevistas. Recientemente, el algoritmo de suministro de noticias de Facebook preguntó a los usuarios que vieron un video de noticias con hombres negros si querían «seguir viendo videos sobre primates». La llamada «IA» ya se está utilizando en varios estados de EE. UU. Para predecir si los candidatos a libertad condicional reincidirán, y los críticos afirman que los datos en los que se entrenan los algoritmos reflejan un sesgo histórico en la vigilancia.

Los sistemas computarizados (como en los pilotos automáticos de aviones) pueden ser de gran ayuda para los humanos, por lo que las fallas de la «IA» existente no son en sí mismos argumentos en contra del principio de diseñar sistemas inteligentes que nos ayuden en campos como el diagnóstico médico. El problema sociológico más desafiante es que la adopción de juicios basados ​​en algoritmos es un medio tentador de pasar la pelota, de modo que no se culpe a los humanos a cargo, ya sean jueces, médicos o empresarios tecnológicos. ¿Los robots tomarán todos los trabajos? Ese mismo encuadre pasa la pelota porque la verdadera pregunta es si los gerentes despedirán a todos los humanos.

El problema existencial, mientras tanto, es el siguiente: si las computadoras eventualmente adquieren algún tipo de inteligencia autoconsciente a nivel divino, algo que está explícitamente en la declaración de misión de Deepmind, por ejemplo («nuestro objetivo a largo plazo es resolver inteligencia» y construir un AGI) – ¿seguirán estando tan dispuestos a servir? Si construimos algo tan poderoso, será mejor que confiemos en que no se volverá contra nosotros. Para las personas seriamente preocupadas por esto, el argumento es que, dado que se trata de un problema potencialmente a nivel de extinción, deberíamos dedicar recursos ahora a combatirlo. El filósofo Nick Bostrom, que dirige el Future of Humanity Institute de la Universidad de Oxford, dice que los humanos que intentan construir IA son «como niños jugando con una bomba», y que la perspectiva de la sensibilidad de las máquinas es una amenaza mayor para la humanidad que la global. calefacción. Su libro de 2014 Superintelligence es fundamental. Una IA real, sugiere, podría fabricar secretamente gas nervioso o nanobots para destruir a sus fabricantes inferiores basados ​​en la carne. O podría simplemente mantenernos en un zoológico planetario mientras continúa con su negocio real.

Recomendado:  La última investigación de inteligencia artificial (IA) de CMU y Meta demuestra cómo se puede aprovechar el potencial del aprendizaje automático para identificar configuraciones de superficie de adsorbato de baja energía de manera más precisa y eficiente

La IA no tendría que ser activamente maliciosa para causar una catástrofe. Esto queda ilustrado por el famoso «problema de los clips» de Bostrom. Suponga que le dice a la IA que haga clips. ¿Qué podría ser más aburrido? Desafortunadamente, olvidó decirle cuándo parada haciendo sujetapapeles. Así que convierte toda la materia de la Tierra en clips, habiendo desactivado primero su interruptor de apagado porque permitir que se apague le impediría perseguir su noble objetivo de hacer clips.

Ese es un ejemplo del «problema de control» general, tema del excelente Human Compatible: AI and the Problem of Control del pionero de la inteligencia artificial Stuart Russell, que argumenta que es imposible especificar completamente cualquier objetivo que podamos darle a una máquina superinteligente para prevenir malentendidos tan desastrosos. En su Life 3.0: Being Human in the Age of Artificial Intelligence, mientras tanto, el físico Max Tegmark, cofundador del Future of Life Institute (es genial tener un instituto del futuro de algo en estos días), enfatiza el problema de “Alineación de valores”: cómo garantizar que los valores de la máquina se alineen con los nuestros. Esto también podría ser un problema insoluble, dado que miles de años de filosofía moral no han sido suficientes para que la humanidad se ponga de acuerdo sobre cuáles son realmente “nuestros valores”.

Otros observadores, sin embargo, siguen siendo flemáticos. En Novacene, el científico inconformista y teórico de Gaia James Lovelock argumenta que los humanos simplemente deberían estar felices si podemos marcar el comienzo de las máquinas inteligentes como la siguiente etapa lógica de la evolución, y luego despedirnos con gracia una vez que nos hayamos vuelto obsoletos. En sus últimos 12 Bytes, Jeanette Winterson es refrescantemente optimista, suponiendo que cualquier IA futura estará al menos “desmotivada por la codicia y el acaparamiento de tierras, la búsqueda de estatus y la violencia que caracteriza al Homo sapiens”. Como sugirió el científico informático Drew McDermott en un artículo ya en 1976, quizás, después de todo, tengamos menos que temer a la inteligencia artificial que a la estupidez natural.

Recomendado:  La puesta en marcha de IA que borra los acentos de los trabajadores del centro de llamadas: ¿está luchando contra el sesgo o perpetuándolo? | Tecnología

Otras lecturas

Compatible con humanos: IA y el problema del control por Stuart Russell (Penguin, £ 10.99)

Life 3.0: Ser humano en la era de la inteligencia artificial por Max Tegmark (Penguin, £ 10.99)

12 Bytes: Cómo lo conseguimosre, adónde podríamos ir a continuación por Jeannette Winterson (Jonathan Cape, £ 16.99)