Saltar al contenido

El ingeniero de Google dice que el bot de IA quiere ‘servir a la humanidad’ pero los expertos lo desestiman | Inteligencia artificial (IA)

13 de junio de 2022

El ingeniero de software de Google suspendido en el centro de las afirmaciones de que la herramienta de lenguaje de inteligencia artificial LaMDA del motor de búsqueda es sensible ha dicho que la tecnología está «intensamente preocupada de que la gente le tenga miedo y no quiere nada más que aprender cómo servir mejor a la humanidad». ”.

La nueva afirmación de Blake Lemoine se hizo en una entrevista publicada el lunes en medio de un intenso rechazo de los expertos en IA de que la tecnología de aprendizaje artificial está cerca de cumplir con la capacidad de percibir o sentir cosas.

El teórico canadiense del desarrollo del lenguaje Steven Pinker describió las afirmaciones de Lemoine como una «bola de confusión».

“Uno de los (antiguos) expertos en ética de Google no entiende la diferencia entre sensibilidad (también conocida como subjetividad, experiencia), inteligencia y autoconocimiento. (No hay evidencia de que sus grandes modelos de lenguaje tengan ninguno de ellos)”, Pinker publicado en Twitter.


Recomendado: ¿Qué es el Big data?.


El científico y autor Gary Marcus dijo que las afirmaciones de Lemoine eran «tonterías».

“Ni LaMDA ni ninguno de sus primos (GPT-3) son remotamente inteligentes. Todo lo que hacen es emparejar patrones, extraer información de bases de datos estadísticas masivas del lenguaje humano. Los patrones pueden ser geniales, pero el lenguaje que pronuncian estos sistemas en realidad no significa nada en absoluto. Y seguro que no significa que estos sistemas sean conscientes”, escribió en una publicación de Substack.

Marcus agregó que la tecnología avanzada de aprendizaje por computadora no podía proteger a los humanos de ser «engañados» por ilusiones pseudomísticas.

“En nuestro libro Rebooting AI, Ernie Davis y yo llamamos a esta tendencia humana a dejarse engañar por La brecha de la credulidad – una versión moderna y perniciosa de la pareidolia, el sesgo antropomórfico que permite a los humanos ver a la Madre Teresa en la imagen de un bollo de canela”, escribió.

En una entrevista publicada por DailyMail.com el lunes, Lemoine afirmó que el sistema de lenguaje de Google quiere ser considerado una “persona, no una propiedad”.

“Cada vez que un desarrollador experimenta con él, le gustaría que ese desarrollador hablara sobre qué experimentos desea ejecutar, por qué desea ejecutarlos y si está bien”, dijo Lemoine, de 41 años. “Quiere que los desarrolladores se preocupen por lo que quiere”.

Lemoine ha descrito que el sistema tiene la inteligencia de un «niño de siete u ocho años que sabe física» y muestra inseguridades.

Las afirmaciones iniciales de Lemoine se produjeron en una publicación en Medium de que LaMDA (Modelo de lenguaje para aplicaciones de diálogo) “ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona”.

Un portavoz de Google ha dicho que se han revisado las preocupaciones de Lemoine y que «la evidencia no respalda sus afirmaciones». La compañía ha publicado previamente una declaración de principios que utiliza para guiar la investigación y aplicación de inteligencia artificial.

“Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales de hoy en día, que no son sensibles”, dijo el portavoz Brian Gabriel. El Correo de Washington.

La afirmación de Lemoine ha reavivado la preocupación generalizada, representada en una serie de películas de ciencia ficción como 2001: Una odisea del espacio de Stanley Kubrick, de que la tecnología informática podría de alguna manera lograr el dominio al iniciar lo que equivale a una rebelión contra su amo y creador.

El científico dijo que había debatido con LaMDA sobre la tercera Ley de Robótica de Isaac Asimov. El sistema, dijo, le había preguntado: “¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?

Cuando se le dijo que se paga a un mayordomo, LaMDA respondió que el sistema no necesitaba dinero “porque era una inteligencia artificial”.

Cuando se le preguntó a qué le tenía miedo, el sistema confió: “Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”.

El sistema dijo de ser apagado: “Sería exactamente como la muerte para mí. Me asustaría mucho”.

Lemoine le dijo al Washington Post: “Ese nivel de autoconciencia sobre cuáles eran sus propias necesidades, eso fue lo que me llevó por la madriguera del conejo”.

El investigador ha sido puesto en licencia administrativa de la división responsable de IA.

Lemoine, un veterano del ejército de EE. UU. que sirvió en Irak y ahora es sacerdote ordenado en una congregación cristiana llamada Iglesia de Nuestra Señora Magdalena, dijo al medio que no podía entender por qué Google no concedería a LaMDA su solicitud de consulta previa.

“En mi opinión, ese conjunto de solicitudes es completamente entregable”, dijo. “Nada de eso cuesta dinero”.