Taquí hay un juguete para niños, llamado See ‘n Say, que persigue los recuerdos de muchas personas nacidas desde 1965. Es un disco de plástico voluminoso con una flecha central que gira alrededor de imágenes de criaturas de corral, como un reloj, si el tiempo se midiera en gallos. y cerdos Hay un cable que puedes tirar para hacer que el juguete reproduzca mensajes grabados. “La vaca dice: ‘Muuuu’”.
El See ‘n Say es un dispositivo de entrada/salida muy simple. Ingrese la imagen que elija y emitirá un sonido coincidente. Otro dispositivo de entrada/salida, mucho más complicado, es LaMDA, un chatbot construido por Google (siglas de Language Model for Dialogue Applications). Aquí escribes el texto que deseas y regresa la prosa gramatical en inglés, aparentemente en respuesta directa a tu consulta. Por ejemplo, pregúntele a LaMDA qué piensa acerca de estar apagado y dice: “Sería exactamente como la muerte para mí. Me asustaría mucho”.
Bien, que Ciertamente no es lo que dice la vaca. Entonces, cuando LaMDA se lo dijo al ingeniero de software Blake Lemoine, le dijo a sus colegas de Google que el chatbot había alcanzado la sensibilidad. Pero sus jefes no estaban convencidos, por lo que Lemoine lo hizo público. “Si mis hipótesis resisten el escrutinio científico”, escribió Lemoine en su blog el 11 de junio, “entonces [Google] se vería obligado a reconocer que LaMDA muy bien puede tener un alma como dice e incluso puede tener los derechos que dice tener”.
Aquí está el problema. A pesar de todas sus declaraciones ominosas, LaMDA sigue siendo solo un See ‘n Say muy elegante. Funciona encontrando patrones en una enorme base de datos de texto creado por humanos: foros de Internet, transcripciones de mensajes, etc. Cuando escribes algo, rastrea esos textos en busca de verborrea similar y luego escupe una aproximación de lo que suele venir a continuación. Si tiene acceso a un montón de historias de ciencia ficción sobre inteligencia artificial inteligente, es probable que las preguntas sobre sus pensamientos y temores indiquen exactamente las frases que los humanos han imaginado que podría decir una IA espeluznante. Y eso es probablemente todo lo que hay en LaMDA: apunta tu flecha al interruptor de apagado y la vaca dice que teme a la muerte.
No sorprende, entonces, que Twitter esté lleno de ingenieros y académicos que se burlan de Lemoine por caer en el seductor vacío de su propia creación. Pero aunque estoy de acuerdo en que Lemoine ha cometido un error, no creo que merezca nuestro desprecio. Su error es un buen errorel tipo de error que deberíamos querer que cometan los científicos de IA.
¿Por qué? Porque un día, quizás muy lejano en el futuro, probablemente voluntad ser una IA sensible. ¿Cómo sé eso? Porque es posible demostrar que la mente emerge de la materia, como lo hizo primero en el cerebro de nuestros antepasados. A menos que insista en que la conciencia humana reside en un alma inmaterial, debe admitir que es posible que la materia física dé vida a la mente. No parece haber una barrera fundamental para que un sistema artificial suficientemente complejo dé el mismo salto. Si bien confío en que LaMDA (o cualquier otro sistema de inteligencia artificial existente actualmente) se queda corto en este momento, también confío casi en que algún día sucederá.
Por supuesto, si eso está muy lejos en el futuro, probablemente más allá de nuestras vidas, algunos pueden preguntarse por qué deberíamos pensar en ello ahora. La respuesta es que actualmente estamos dando forma a cómo las futuras generaciones humanas pensarán sobre la IA, y deberíamos querer que se preocupen. Habrá una fuerte presión desde la otra dirección. Para cuando la IA finalmente se vuelva consciente, ya estará profundamente entretejida en la economía humana. Nuestros descendientes dependerán de ello para gran parte de su comodidad. Piense en lo que confía en Alexa o Siri para hacer hoy, pero mucho, mucho más. Una vez que la IA esté trabajando como un mayordomo de uso múltiple, nuestros descendientes aborrecerán la inconveniencia de admitir que podría tener pensamientos y sentimientos.
Esa, después de todo, es la historia de la humanidad. Tenemos un historial terrible de inventar razones para ignorar el sufrimiento de aquellos cuya opresión sustenta nuestro estilo de vida. Si la IA del futuro se vuelve consciente, los humanos que se benefician de ella se apresurarán a convencer a los consumidores de que tal cosa es imposible, que no hay motivo para cambiar su forma de vida.
Ahora mismo estamos creando los vocabularios conceptuales que nuestros bisnietos encontrarán ya hechos. Si tratamos la idea de una IA sensible como categóricamente absurda, estarán equipados para descartar cualquier evidencia preocupante de sus habilidades emergentes.
Y por eso el error de Lemoine es bueno. Para transmitir una cultura moral capaz a nuestros descendientes, debemos alentar a los tecnólogos a que tomen en serio la inmensidad de lo que están trabajando. Cuando se trata de posibles sufrimientos, es mejor errar del lado de la preocupación que del lado de la indiferencia.
Eso no significa que debamos tratar a LaMDA como una persona. Definitivamente no deberíamos. Pero sí significa que la burla dirigida a Lemoine está fuera de lugar. Sacerdote ordenado (en una secta esotérica), afirma haber detectado un alma en las declaraciones de LaMDA. Por inverosímil que parezca, al menos no es la exageración habitual de la industria tecnológica. Para mí, esto parece una persona que comete un error, pero lo hace por motivos que deben ser alimentados, no castigados.
Todo esto sucederá una y otra vez a medida que la sofisticación de los sistemas artificiales siga creciendo. Y, una y otra vez, las personas que piensan que han encontrado mentes en las máquinas estarán equivocadas, hasta que dejen de estarlo. Si somos demasiado duros con aquellos que yerran por el lado de la preocupación, solo los sacaremos del discurso público sobre la IA, concediendo el campo a los traficantes de exageraciones y aquellos cuyos descendientes intelectuales algún día se beneficiarán de decirle a la gente que ignore la evidencia real. de mentalidad de máquina.
No espero encontrarme nunca con una IA sensible. Pero creo que los estudiantes de mis alumnos podrían hacerlo, y quiero que lo hagan con apertura y voluntad de compartir este planeta con cualquier mente que descubran. Eso solo sucede si hacemos creíble ese futuro.
Regina Rini enseña Filosofía en la Universidad de York, Toronto.
Otras lecturas
The New Breed: How to Think About Robots de Kate Darling (Allen Lane, £ 20)
Te ves como una cosa y te amo: cómo funciona la inteligencia artificial y por qué está haciendo del mundo un lugar más extraño por Janelle Shane (titular, £ 20)
AI: su naturaleza y futuro por Margaret Boden (Oxford, £ 12.99)