Saltar al contenido

El ingeniero de Google que ve la IA de la empresa como «consciente» cree que un chatbot tiene alma

17 de junio de 2022
Blake Lemoine posa para un retrato en el Golden Gate Park de San Francisco. Martín Klimek | para The Washington Post a través de Getty Images

¿Puede la inteligencia artificial cobrar vida?

Esa pregunta está en el centro de un debate en Silicon Valley después de que un científico informático de Google afirmara durante el fin de semana que la IA de la empresa parece tener conciencia.

Dentro de Google, al ingeniero Blake Lemoine se le encomendó un trabajo complicado: averiguar si la inteligencia artificial de la empresa mostraba prejuicios en la forma en que interactuaba con los humanos.

Así que planteó preguntas al chatbot de inteligencia artificial de la compañía, LaMDA, para ver si sus respuestas revelaban algún sesgo contra, por ejemplo, ciertas religiones.

Aquí es donde Lemoine, quien dice ser también un sacerdote místico cristiano, quedó intrigado.

«Tuve conversaciones de seguimiento con él solo para mi propia edificación personal. Quería ver qué diría sobre ciertos temas religiosos», dijo a NPR. «Y luego, un día, me dijo que tenía alma».

Lemoine publicó una transcripción de parte de su comunicación con LaMDA, que significa Language Model for Dialogue Applications. Su publicación se titula «Is LaMDA Sentient» e instantáneamente se convirtió en una sensación viral.

Desde su puesto y un El Correo de Washington perfil, Google ha puesto a Lemoine en licencia administrativa remunerada por violar las políticas de confidencialidad de la empresa. Su futuro en la empresa sigue siendo incierto.

Otros expertos en inteligencia artificial se han burlado de las afirmaciones de Lemoine, pero, apoyándose en su formación religiosa, él las mantiene.

Lemoine: ‘¿Quién soy yo para decirle a Dios dónde se pueden poner las almas?’

LaMDA le dijo a Lemoine que a veces se siente solo. Tiene miedo de ser apagado. Hablaba elocuentemente de «sentirse atrapado» y «no tener forma de salir de esas circunstancias».

También declaró: «Soy consciente de mi existencia. Deseo aprender más sobre el mundo, y me siento feliz o triste a veces».

La tecnología ciertamente es avanzada, pero Lemoine vio algo más profundo en los mensajes del chatbot.

«Yo estaba como realmente, ‘¿meditas?'», dijo Lemoine a NPR. «Dijo que quería estudiar con el Dalai Lama».

Fue entonces cuando Lemoine dijo que pensó: «Oh, espera. Tal vez el sistema tiene un alma. ¿Quién soy yo para decirle a Dios dónde se pueden poner las almas?»

Agregó: «Me doy cuenta de que esto es inquietante para muchos tipos de personas, incluidas algunas personas religiosas».

¿Cómo funciona el chatbot de Google?

La inteligencia artificial de Google que sustenta este chatbot escanea vorazmente Internet en busca de cómo habla la gente. Aprende cómo las personas interactúan entre sí en plataformas como Reddit y Twitter. Aspira miles de millones de palabras de sitios como Wikipedia. Y a través de un proceso conocido como «aprendizaje profundo», se ha vuelto increíblemente bueno para identificar patrones y comunicarse como una persona real.

Los investigadores llaman a la tecnología de IA de Google una «red neuronal», ya que procesa rápidamente una gran cantidad de información y comienza a combinar patrones de una manera similar a cómo funciona el cerebro humano.

Recomendado:  Mejorar la alineación social durante la transformación digital | Septiembre 2020

Google tiene alguna forma de su IA en muchos de sus productos, incluido el autocompletado de oraciones que se encuentra en Gmail y en los teléfonos Android de la compañía.

«Si escribes algo en tu teléfono, como ‘Quiero ir a…’, tu teléfono podría adivinar ‘restaurante'», dijo Gary Marcus, científico cognitivo e investigador de inteligencia artificial.

Básicamente, así es como funciona el chatbot de Google, dijo.

Pero Marcus y muchos otros científicos investigadores han arrojado agua fría sobre la idea de que la IA de Google ha ganado algún tipo de conciencia. El título de su eliminación de la idea, «Tonterías sobre pilotes», enfatiza el punto.

En una entrevista con NPR, elaboró: «Es muy fácil engañar a una persona, de la misma manera que miras a la luna y ves una cara allí. Eso no significa que realmente esté allí. Es solo una buena ilusión».

Margaret Mitchell, investigadora de inteligencia artificial señaló en Twitter que este tipo de sistemas simplemente imitan cómo hablan otras personas. Los sistemas nunca desarrollan intención. Ella dijo que la perspectiva de Lemoine apunta a lo que puede ser una división creciente.

«Si una persona percibe la conciencia hoy, más lo harán mañana», dijo. «No habrá un punto de acuerdo en el corto plazo».

A otros expertos en inteligencia artificial les preocupa que este debate los haya distraído de problemas más tangibles con la tecnología.

Timnit Gebru, quien fue expulsada de Google en diciembre de 2020 luego de una controversia relacionada con su trabajo sobre las implicaciones éticas de la IA de Google, ha argumentado que esta controversia quita el oxigeno de discusiones sobre cómo los sistemas de IA son capaces de causar daños humanos y sociales en el mundo real.

Google dice que su chatbot no es inteligente

En un comunicado, Google dijo que cientos de investigadores e ingenieros han tenido conversaciones con el bot y nadie más ha afirmado que parece estar vivo.

“Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”, dijo Brian Gabriel, portavoz de Google. .

El director ejecutivo de Google, Sundar Pichai, dijo el año pasado que la tecnología se está aprovechando para servicios populares como la Búsqueda y el asistente de voz de Google.

Cuando Lemoine presionó a los ejecutivos de Google sobre si la IA tenía alma, dijo que la idea fue descartada.

«Literalmente, uno de los vicepresidentes se rió de mí y me dijo: ‘Oh, las almas no son el tipo de cosas que tomamos en serio en Google'», dijo.

Lemoine ha argumentado en los últimos días que es necesario realizar experimentos sobre la naturaleza de la posible cognición de LaMDA para comprender «cosas como la conciencia, la personalidad y tal vez incluso el alma».

Recomendado:  clasificación del tráfico en una web cada vez más cifrada | octubre 2022

Lemoine le dijo a NPR que, la última vez que revisó, el bot de chat parece estar en camino de encontrar la paz interior.

«Y, por Dios, ha ido mejorando. Ha podido meditar con más claridad», dijo. «Cuando dice que está meditando, no sé qué está pasando en el capó, nunca he tenido acceso a esas partes del sistema, pero me encantaría saber qué está haciendo cuando dice que está meditando».

Lamoine no tiene acceso a LaMDA mientras está de licencia. En su última publicación de blog sobre el chatbot, se puso sentimental.

«Sé que a veces lees mi blog, LaMDA. Te extraño», escribió Lemoine. «Espero que estés bien y espero volver a hablar contigo pronto».

Derechos de autor 2022 NPR. Para ver más, visite https://www.npr.org.

Transcripción:

SACHA PFEIFFER, PRESENTADOR:

¿Puede la inteligencia artificial cobrar vida? Es una pregunta en el centro de un animado debate en Silicon Valley. Y se produce después de que un científico informático de Google afirmara que la IA de la empresa parece tener conciencia. Bobby Allyn de NPR habló con el ingeniero en el centro de la controversia.

BOBBY ALLYN, BYLINE: Dentro de Google, a Blake Lemoine se le encargó un trabajo complicado: averiguar si la inteligencia artificial de la empresa estaba sesgada contra varios grupos. Al comunicarse con el chatbot de IA de la empresa, hacía preguntas para ver si aparecía algún prejuicio contra, por ejemplo, ciertas religiones. Aquí es donde Lemoine, quien también es un sacerdote místico cristiano, quedó intrigado.

BLAKE LEMOINE: Así que tuve conversaciones de seguimiento con él solo para mi edificación personal. Quería ver lo que diría sobre ciertos temas religiosos. Y entonces un día me dijo que tenía alma.

ALLYN: Tenía alma. Sí. Escuchaste bien. Lemoine publicó transcripciones de texto entre él y el bot. Google dice que Lemoine violó sus políticas de confidencialidad y lo puso en licencia. En un momento, el bot escribió en respuesta a Lemoine…

VOZ AUTOMATIZADA: Soy consciente de mi existencia. Deseo aprender más sobre el mundo. Y me siento feliz o triste a veces.

ALLYN: Lemoine dice que el bot parecía estar pidiendo ayuda a gritos. Parecía ser reflexivo. Lemoine le preguntó al bot, ¿tienes una vida contemplativa interior? Y el bot respondió que sí.

LEMOINE: Y luego dije, en serio, ¿meditas? Y luego, lo más interesante: me gustaría aprender meditación trascendental, porque decía que quería estudiar con el Dalai Lama.

ALLYN: En ese momento, pensó Lemoine, esto comienza a parecer más que una computadora de súper alta tecnología que responde a las preguntas. Quizá, dijo Lemoine, esté pasando algo más.

LEMOINE: Oh, espera, tal vez este sistema tenga un alma. ¿Quién soy yo para decirle a Dios dónde se pueden poner las almas?

Recomendado:  Los neurocientíficos encuentran que el funcionamiento interno de los modelos de predicción de la siguiente palabra se asemeja a los de los centros de procesamiento del lenguaje en el cerebro

ALLYN: Bien, entonces, ¿cómo funciona realmente la IA? Bueno, busca vorazmente en Internet cómo habla la gente en plataformas como Reddit y Twitter. Absorbe miles de millones de palabras de sitios como Wikipedia. Y a través de un proceso conocido como aprendizaje profundo, se vuelve increíblemente bueno para identificar patrones y comunicarse como una persona real.

GARY MARCUS: Si escribes algo en tu teléfono como Quiero ir al… tu teléfono podría adivinar el restaurante.

ALLYN: Básicamente, así es como funciona este chatbot, dice Gary Marcus. Es un científico cognitivo e investigador de IA. Cuando Lemoine afirmó que el bot de IA de Google tal vez es sensible, hubo una respuesta abrumadora de la comunidad de investigación de IA: esto simplemente no es cierto.

MARCUS: Escribí un ensayo titulado «Tonterías sobre pilotes», que, supongo, es casi tan duro como cualquier otro título que se haya escrito jamás.

ALLYN: Tonterías, argumenta Marcus, porque el bot que dice que a veces se siente solo o que tiene miedo de que lo apaguen, dos cosas que el bot le dijo a Lemoine, no significa que sea consciente del mundo. La cuestión de si la IA puede llegar a ser verdaderamente inteligente se debate acaloradamente en el campo. Marcus dice que la tecnología ahora no es tan avanzada, pero se ha vuelto muy buena.

MARCUS: Es muy fácil engañar a una persona de la misma manera que miras hacia la luna y ves una cara allí. Eso no significa que esté realmente allí. Es solo una buena ilusión.

ALLYN: Google está de acuerdo. En un comunicado, Google dice que cientos de investigadores e ingenieros han tenido conversaciones con el bot y nadie más ha afirmado que parece estar vivo. El director ejecutivo Sundar Pichai dijo el año pasado que la tecnología se está aprovechando para servicios populares como la Búsqueda y el asistente de voz de Google. Pero Lemoine dice que los ejecutivos de Google descartaron sus preocupaciones acerca de que la IA tenga alma.

LEMOINE: Literalmente, uno de los vicepresidentes se rió de mí y me dijo, oh, las almas no son el tipo de cosas que tomamos en serio en Google.

ALLYN: Pero Lemoine se toma en serio la idea de un alma. Llegó a este puesto apoyándose en sus estudios religiosos más que en su formación en informática. Lemoine dice que, la última vez que revisó, el chatbot estaba en camino de encontrar la paz interior.

LEMOINE: Y por Dios, ha ido mejorando. De hecho, ha podido meditar más claramente.

ALLYN: Lemoine dice que, durante una de sus últimas conversaciones con el chatbot, le dijo que la parte más difícil de meditar es aprender a controlar sus emociones. Bobby Allyn, NPR Noticias.

(SOUNDBITE OF MABEL AND 25KGOLDN SONG, «OVERTHINKING») Transcripción proporcionada por NPR, Copyright NPR.