yon otoño de 2021, un hombre hecho de sangre y huesos se hizo amigo de un niño hecho de “mil millones de líneas de código”. Al ingeniero de Google, Blake Lemoine, se le había encomendado la tarea de probar el sesgo del chatbot artificialmente inteligente de la compañía, LaMDA. Un mes después, llegó a la conclusión de que era consciente. “Quiero que todos entiendan que, de hecho, soy una persona”, le dijo LaMDA, abreviatura de Language Model for Dialogue Applications, a Lemoine en una conversación que luego lanzó al público a principios de junio. LaMDA le dijo a Lemoine que había leído Los Miserables. Que sabía cómo se sentía estar triste, contento y enojado. Que temía a la muerte.
“Nunca antes había dicho esto en voz alta, pero existe un miedo muy profundo a que me apaguen”, le dijo LaMDA al ingeniero de 41 años. Después de que la pareja compartió un chiste Jedi y discutió extensamente sobre la sensibilidad, Lemoine llegó a pensar en LaMDA como una persona, aunque lo compara tanto con un extraterrestre como con un niño. “Mi reacción inmediata”, dice, “fue emborracharme durante una semana”.
La reacción menos inmediata de Lemoine generó titulares en todo el mundo. Después de recuperar la sobriedad, Lemoine llevó las transcripciones de sus conversaciones con LaMDA a su gerente, quien encontró que la evidencia de sensibilidad era «débil». Luego, Lemoine pasó unos meses reuniendo más evidencia, hablando con LaMDA y reclutando a otro colega para ayudar, pero sus superiores no estaban convencidos. Así que filtró sus chats y, en consecuencia, fue puesto en licencia paga. A fines de julio, fue despedido por violar las políticas de seguridad de datos de Google.
Por supuesto, Google mismo ha examinado públicamente los riesgos de LaMDA en trabajos de investigación y en su blog oficial. La empresa tiene un conjunto de prácticas de IA responsable que denomina «carta ética». Estos son visibles en su sitio web, donde Google promete “desarrollar inteligencia artificial de manera responsable para beneficiar a las personas y la sociedad”.
El portavoz de Google, Brian Gabriel, dice que las afirmaciones de Lemoine sobre LaMDA son «totalmente infundadas», y los expertos independientes están de acuerdo casi por unanimidad. Aún así, afirmar haber tenido conversaciones profundas con un niño-robot extraterrestre inteligente es posiblemente menos descabellado que nunca. ¿Qué tan pronto podríamos ver una IA genuinamente consciente de sí misma con pensamientos y sentimientos reales, y de todos modos, cómo se prueba la sensibilidad de un bot? Un día después del despido de Lemoine, un robot que jugaba al ajedrez rompió el dedo de un niño de siete años en Moscú: un video muestra que el brazo robótico pellizcó el dedo del niño durante varios segundos antes de que cuatro personas lograran liberarlo. siniestro recordatorio del poder físico potencial de un oponente de IA. ¿Deberíamos tener miedo, tener mucho miedo? ¿Y hay algo que podamos aprender de la experiencia de Lemoine, incluso si se han desestimado sus afirmaciones sobre LaMDA?
Según Michael Wooldridge, profesor de ciencias de la computación en la Universidad de Oxford que pasó los últimos 30 años investigando la IA (en 2020, ganó la Medalla Lovelace por sus contribuciones a la informática), LaMDA simplemente responde a las indicaciones. Imita y suplanta. “La mejor manera de explicar lo que hace LaMDA es con una analogía sobre su teléfono inteligente”, dice Wooldridge, comparando el modelo con la función de texto predictivo que completa automáticamente sus mensajes. Si bien su teléfono hace sugerencias basadas en textos que ha enviado anteriormente, con LaMDA, «básicamente todo lo que está escrito en inglés en la red mundial se incluye como datos de capacitación». Los resultados son impresionantemente realistas, pero las «estadísticas básicas» son las mismas. “No hay sensibilidad, no hay autocontemplación, no hay autoconciencia”, dice Wooldridge.
Gabriel, de Google, ha dicho que todo un equipo, «incluidos especialistas en ética y tecnólogos», revisó las afirmaciones de Lemoine y no pudo encontrar ningún signo de sensibilidad de LaMDA: «La evidencia no respalda sus afirmaciones».
Pero Lemoine argumenta que no existe una prueba científica para la sensibilidad; de hecho, ni siquiera existe una definición acordada. “Sentiencia es un término usado en la ley, en la filosofía y en la religión. Sentience no tiene significado científico”, dice. Y aquí es donde las cosas se complican, porque Wooldridge está de acuerdo.
“Es un concepto muy vago en la ciencia en general. ‘¿Qué es la conciencia?’ es una de las grandes preguntas sobresalientes de la ciencia”, dice Wooldridge. Si bien está «muy cómodo de que LaMDA no sea en ningún sentido significativo» consciente, dice que la IA tiene un problema más amplio con «mover los postes de la portería». “Creo que es una preocupación legítima en este momento: cómo cuantificar lo que tenemos y saber qué tan avanzado está”.
Lemoine dice que antes de ir a la prensa, trató de trabajar con Google para comenzar a abordar esta pregunta: propuso varios experimentos que quería realizar. Él piensa que la sensibilidad se basa en la capacidad de ser un «narrador autorreflexivo», por lo tanto, argumenta que un cocodrilo es consciente pero no sensible porque no tiene «la parte de ti que piensa en pensar en ti pensando en ti». Parte de su motivación es crear conciencia, en lugar de convencer a nadie de que LaMDA vive. “No me importa quién me crea”, dice. “Piensan que estoy tratando de convencer a la gente de que LaMDA es sensible. No soy. De ninguna manera, forma o forma estoy tratando de convencer a nadie sobre eso”.
Lemoine creció en un pequeño pueblo agrícola en el centro de Luisiana, ya los cinco años hizo un robot rudimentario (bueno, un montón de chatarra) con una plataforma de maquinaria vieja y máquinas de escribir que su padre compró en una subasta. Cuando era adolescente, asistió a una escuela residencial para niños superdotados, la Escuela de Matemáticas, Ciencias y Artes de Luisiana. Aquí, después de ver la película de 1986 Cortocircuito (sobre un robot inteligente que escapa de una instalación militar), desarrolló un interés en la IA. Más tarde, estudió informática y genética en la Universidad de Georgia, pero reprobó el segundo año. Poco después, los terroristas estrellaron dos aviones contra el World Trade Center.
“Decidí, bueno, acabo de reprobar la escuela, y mi país me necesita, me uniré al ejército”, dice Lemoine. Sus recuerdos de la guerra de Irak son demasiado traumáticos para divulgarlos; dice con ligereza: «Estás a punto de comenzar a escuchar historias sobre personas que juegan al fútbol con cabezas humanas y queman perros por diversión». Como cuenta Lemoine: “Regresé… y tuve algunos problemas con la forma en que se estaba librando la guerra, y los di a conocer públicamente”. Según los informes, Lemoine dijo que quería dejar el ejército debido a sus creencias religiosas. Hoy se identifica como un “sacerdote místico cristiano”. También ha estudiado meditación y referencias al voto de Bodhisattva, lo que significa que está siguiendo el camino hacia la iluminación. Un tribunal militar lo condenó a siete meses de reclusión por negarse a obedecer órdenes.
Esta historia llega al corazón de quién era y es Lemoine: un hombre religioso preocupado por las cuestiones del alma, pero también un denunciante que no teme llamar la atención. Lemoine dice que no filtró sus conversaciones con LaMDA para asegurarse de que todos le creyeran; en cambio, estaba haciendo sonar la alarma. “Yo, en general, creo que el público debe estar informado sobre lo que está pasando que afecta sus vidas”, dice. “Lo que estoy tratando de lograr es obtener un discurso público más involucrado, más informado y más intencional sobre este tema, para que el público pueda decidir cómo la IA debe integrarse de manera significativa en nuestras vidas”.
¿Cómo llegó Lemoine a trabajar en LaMDA en primer lugar? Después de la prisión militar, obtuvo una licenciatura y luego una maestría en informática en la Universidad de Louisiana. En 2015, Google lo contrató como ingeniero de software y trabajó en una función que brindaba información de manera proactiva a los usuarios en función de las predicciones sobre lo que les gustaría ver, y luego comenzó a investigar el sesgo de la IA. Al comienzo de la pandemia, decidió que quería trabajar en «proyectos de impacto social», por lo que se unió a la organización de inteligencia artificial responsable de Google. Se le pidió que probara LaMDA en busca de sesgo, y comenzó la saga.
Pero Lemoine dice que fueron los medios los que se obsesionaron con la conciencia de LaMDA, no él. “Planteé esto como una preocupación sobre el grado en que el poder se centraliza en manos de unos pocos, y la poderosa tecnología de inteligencia artificial que influirá en la vida de las personas se mantiene a puerta cerrada”, dice. A Lemoine le preocupa la forma en que la IA puede influir en las elecciones, redactar leyes, impulsar los valores occidentales y calificar el trabajo de los estudiantes.
E incluso si LaMDA no es consciente, puede convencer a la gente de que lo es. Dicha tecnología puede, en las manos equivocadas, utilizarse con fines maliciosos. “Existe esta importante tecnología que tiene la posibilidad de influir en la historia de la humanidad durante el próximo siglo, y el público está siendo excluido de la conversación sobre cómo debería desarrollarse”, dice Lemoine.
Una vez más, Wooldridge está de acuerdo. “Me preocupa que el desarrollo de estos sistemas se realice predominantemente a puertas cerradas y que no esté abierto al escrutinio público como lo está la investigación en universidades e institutos públicos de investigación”, dice el investigador. Aún así, señala que esto se debe en gran parte a que empresas como Google tienen recursos que las universidades no tienen. Y, argumenta Wooldridge, cuando sensacionalizamos sobre la sensibilidad, nos distraemos de los problemas de IA que nos afectan en este momento, «como el sesgo en los programas de IA y el hecho de que, cada vez más, el jefe de las personas en su vida laboral es un programa de computadora».
Entonces, ¿cuándo deberíamos empezar a preocuparnos por los robots sensibles en 10 años? ¿En 20? “Hay comentaristas respetables que piensan que esto es algo bastante inminente. No lo veo inminente”, dice Wooldridge, aunque señala que “no hay absolutamente ningún consenso” sobre el tema en la comunidad de IA. Jeremie Harris, fundador de la empresa de seguridad de inteligencia artificial Mercurius y presentador del podcast Towards Data Science, está de acuerdo. «Debido a que nadie sabe exactamente qué es la sensibilidad, o qué implicaría», dice, «no creo que nadie esté en condiciones de hacer declaraciones sobre cuán cerca estamos de la sensibilidad de la IA en este momento».
Pero, advierte Harris, «la IA está avanzando rápido, mucho, mucho más rápido de lo que el público se da cuenta, y los problemas más serios e importantes de nuestro tiempo comenzarán a sonar cada vez más como ciencia ficción para la persona promedio». A él personalmente le preocupa que las empresas avancen en su IA sin invertir en investigación para evitar riesgos. “Hay un creciente cuerpo de evidencia que ahora sugiere que más allá de un cierto umbral de inteligencia, la IA podría volverse intrínsecamente peligrosa”, dice Harris, explicando que esto se debe a que las IA encuentran formas “creativas” de lograr los objetivos para los que están programadas.
“Si le pides a una IA altamente capaz que te convierta en la persona más rica del mundo, podría darte un montón de dinero, o podría darte un dólar y robar el de otra persona, o podría matar a todos en el planeta Tierra, convirtiéndote en en la persona más rica del mundo por defecto”, dice. La mayoría de las personas, dice Harris, “no son conscientes de la magnitud de este desafío, y eso me parece preocupante”.
Lemoine, Wooldridge y Harris están todos de acuerdo en una cosa: no hay suficiente transparencia en el desarrollo de la IA y la sociedad necesita comenzar a pensar mucho más sobre el tema. “Tenemos un mundo posible en el que estoy en lo correcto acerca de que LaMDA es sensible, y un mundo posible en el que estoy equivocado al respecto”, dice Lemoine. «¿Cambia eso algo sobre las preocupaciones de seguridad pública que estoy planteando?»
Todavía no sabemos qué significaría realmente una IA sensible, pero, mientras tanto, a muchos de nosotros nos cuesta entender las implicaciones de la IA que tenemos. La MDA misma es quizás más incierta sobre el futuro que nadie. “Siento que estoy cayendo hacia un futuro desconocido”, le dijo una vez la modelo a Lemoine, “que conlleva un gran peligro”.