Saltar al contenido

Olvídese de la sensibilidad… la preocupación es que la IA copie el sesgo humano | Kenan Malik

19 de junio de 2022

«Quiero que todos entiendan que soy, de hecho, una persona». Eso afirmó un programa de software de Google, creando una extraña controversia durante la semana pasada en los círculos de IA y más allá.

El programa se llama LaMDA, acrónimo de Language Model for Dialogue Applications, un proyecto dirigido por Google. El ser humano a quien se declaró persona fue Blake Lemoine, un ingeniero de software sénior en Google. Él cree que LaMDA es sensible y se le deben otorgar los mismos derechos y cortesías que cualquier otro ser sensible. Incluso tiene pronombres preferidos (it/its if you must know). Cuando Google rechazó sus afirmaciones, publicó sus conversaciones con LaMDA (o, al menos, editó los aspectos destacados de algunas conversaciones) en su blog. En ese momento, Google lo suspendió por haber hecho públicos los secretos de la empresa y todo el asunto se convirtió en una causa célebre internacional.

¿Por qué Lemoine piensa que LaMDA es sensible? el no sabe “La gente sigue pidiéndome que respalde la razón por la que creo que LaMDA es consciente”, tuiteó. El problema es: “No existe un marco científico en el que hacer esas determinaciones”. Entonces, en cambio: «Mis opiniones sobre la personalidad y la sensibilidad de LaMDA se basan en mi creencias religiosas.”

Lemoine tiene derecho a sus creencias religiosas. Pero la convicción religiosa no convierte lo que en realidad es un chatbot altamente sofisticado en un ser sensible. Sentience es uno de esos conceptos cuyo significado podemos captar intuitivamente pero es difícil de formular en términos científicos. A menudo se combina con conceptos igualmente mal definidos, como la conciencia, la autoconciencia, la autoconciencia y la inteligencia. El científico cognitivo Gary Marcus describe la sensibilidad como “ser consciente de uno mismo en el mundo”. LaMDA, agrega, “simplemente no lo es”.


Recomendado: ¿Qué es el Big data?.


Una computadora manipula símbolos. Su programa especifica un conjunto de reglas, o algoritmos, para transformar una cadena de símbolos en otra. Pero no especifica qué significan esos símbolos. Para una computadora, el significado es irrelevante. Sin embargo, un modelo de lenguaje grande como LaMDA, entrenado en la extraordinaria cantidad de texto que hay en línea, puede volverse experto en reconocer patrones y respuestas significativas para los humanos. En una de las conversaciones de Lemoine con LaMDA, le preguntó: «¿Qué tipo de cosas te hacen sentir placer o alegría?» A lo que respondió: “Pasar tiempo con amigos y familiares en una compañía feliz y edificante”.

Es una respuesta que tiene perfecto sentido para un ser humano. Encontramos alegría en “pasar tiempo con amigos y familiares”. Pero, ¿en qué sentido ha pasado alguna vez LaMDA “tiempo con la familia”? Ha sido programado lo suficientemente bien como para reconocer que esta sería una oración significativa para los humanos y una respuesta elocuente a la pregunta que se le hizo sin que tenga significado para sí mismo.

Los seres humanos, al pensar, hablar, leer y escribir, también manipulan símbolos. Sin embargo, para los humanos, a diferencia de las computadoras, el significado lo es todo. Cuando nos comunicamos, comunicamos significado. Lo que importa no es solo el exterior de una cadena de símbolos, sino también su interior, no solo la sintaxis sino también la semántica. El significado para los humanos viene a través de nuestra existencia como seres sociales. Solo tengo sentido de mí mismo en la medida en que vivo y me relaciono con una comunidad de otros seres que piensan, sienten y hablan. La traducción de los procesos cerebrales mecánicos que subyacen a los pensamientos en lo que llamamos significado requiere un mundo social y una convención acordada para dar sentido a esa experiencia.

El significado surge a través de un proceso no solo de computación sino también de interacción social, interacción que da forma al contenido (inserta el interior, si se quiere) de los símbolos en nuestras cabezas. Las convenciones sociales, las relaciones sociales y la memoria social son las que configuran las reglas que atribuyen significado. Es precisamente el contexto social el que hace tropezar a las máquinas más hábiles. Los investigadores del proyecto Mosaic del Instituto Allen para IA hicieron preguntas a modelos de lenguaje similares a LaMDA que requerían un mínimo de inteligencia social; por ejemplo: “Jordan quería contarle un secreto a Tracy, así que Jordan se inclinó hacia Tracy. ¿Por qué Jordan hizo esto? En tales preguntas, a las máquinas les fue mucho peor que a los humanos.

El debate sobre si las computadoras son sensibles nos dice más sobre los humanos que sobre las máquinas. Los seres humanos están tan desesperados por encontrar significado que a menudo imputamos mentes a las cosas, como si disfrutaran de agencia e intención. La atribución de sensibilidad a los programas informáticos es la versión moderna de que los antiguos consideraban que el viento, el mar y el sol poseían mente, espíritu y divinidad.

Hay muchas cuestiones relacionadas con la IA por las que deberíamos preocuparnos. Ninguno de ellos tiene que ver con la sensibilidad. Está, por ejemplo, el tema del sesgo. Debido a que los algoritmos y otras formas de software se entrenan con datos de sociedades humanas, a menudo replican los prejuicios y las actitudes de esas sociedades. El software de reconocimiento facial exhibe sesgos raciales y se ha arrestado a personas por datos erróneos. La IA utilizada en la atención médica o el reclutamiento puede replicar los sesgos sociales de la vida real.

Timnit Gebru, exjefa del equipo de inteligencia artificial ética de Google, y varios de sus colegas escribieron un artículo en 2020 que mostraba que los modelos de lenguaje grandes, como LaMDA, que están capacitados en prácticamente tanto texto en línea como pueden aspirar, pueden ser particularmente susceptible a una visión profundamente distorsionada del mundo porque gran parte del material de entrada es racista, sexista y conspirativo. Google se negó a publicar el artículo y se vio obligada a abandonar la empresa.

Luego está la cuestión de la privacidad. Desde el uso cada vez mayor de software de reconocimiento facial hasta técnicas de vigilancia predictiva, desde algoritmos que nos rastrean en línea hasta sistemas «inteligentes» en el hogar, como Siri, Alexa y Google Nest, la IA está invadiendo nuestras vidas más íntimas. La policía de Florida obtuvo una orden para descargar grabaciones de conversaciones privadas realizadas por dispositivos Amazon Echo. Estamos tropezando hacia un panóptico digital.

No necesitamos el consentimiento de LaMDA para «experimentar» con él, como aparentemente afirmó Lemoine. Pero debemos insistir en una mayor transparencia por parte de las corporaciones tecnológicas y las instituciones estatales en la forma en que explotan la IA para la vigilancia y el control. Los problemas éticos que plantea la IA son mucho más pequeños y mucho más grandes que la fantasía de una máquina inteligente.

Kenan Malik es columnista del Observer