NUEVA YORK.- Geoffrey Hinton fue pionero en inteligencia artificial. En 2012, junto a dos de sus alumnos de posgrado de la Universidad de Toronto, Hinton inventó una tecnología que se convirtió en el basamento intelectual de los sistemas de inteligencia artificial (IA) que hoy en día las grandes empresas tecnológicas consideran claves para su futuro.
El lunes, sin embargo, Hinton se sumó al creciente coro de voces críticas que acusan a las gigantes tecnológicas de correr hacia el abismocon su agresivo impulso al desarrollo de productos de consumo basado en IA generativa, la tecnología que alimenta los populares bots conversacionales como ChatGPT.
Hinton dice haber renunciado a su cargo en Google —donde trabajó por más de una década hasta convertirse en una de las voces más respetadas de su profesión—, para poder hablar con libertad sobre los riesgos que entraña la IA. “Hay una parte de mí que lamenta el trabajo de toda mi vida”, reconoce Hinton.
“Me consuelo a mí mismo con la excusa habitual: de no haber sido yo, lo habría hecho otro”, dice Hinton durante una larga entrevista en el comedor de su hogar en Toronto, a pocas cuadras de donde él y sus alumnos hicieron aquel trascendental descubrimiento.
El giro de Hinton, pionero de la IA a profeta del Apocalipsis, es un evento notable para la industria tecnológica, que enfrenta el punto de inflexión más importante en décadas. Los líderes del sector creen que los nuevos sistemas de IA podrían ser tan cruciales como la llegada de los navegadores web a principios de la década de 1990, y desencadenar un efecto dominó de drásticos avances en todos los alrededores, desde el desarrollo de medicamentos hasta la educación.
pero dentro del sector tambien a muchos los corroe el temor de estar liberando una fiera peligrosa. De hecho, la IA generativa ya está siendo una herramienta de desinformacion. Y pronto podria poner en riesgo muchos puestos de trabajo. Y si seguimos por esa línea, hasta podría ser un peligro para la humanidad, apuntan los más preocupados.
“No veo la forma de prevenir actores malintencionados lo usen para hacer daño”, señala Hinton.
Una nueva generación de bots conversacionales
En marzo, cuando la startup IA abierta de San Francisco lanzó una nueva versión de ChatGPTmás de 1000 directivos e investigadores de la industria tecnológica, entre ellos Elon Musk, firmaron una carta abierta reclamando frenar durante seis meses el desarrollo de nuevos sistemas, “por los profundos riesgos que las tecnologías de IA entrañan para la humanidad”.
Varios días después, 19 actuales y ex dirigentes de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica internacional de 40 años de existencia, difundió su propia carta abierta con advertencias sobre los peligros de la IA. Entre los firmantes está Eric Horvitzjefe científico de Microsoft, que ha inoculado la tecnología desarrollada por OpenAI en varios de sus productos y servicios, incluido su motor de búsqueda Bing.
Hinton, a quien suele llamar El Padrino de Inteligencia Artificial, no quería hacer ninguna de esas cartas porque no salir a criticar públicamente a Google y demás empresas antes de renunciar a su trabajo. El mes pasado notificó a Google de su apartamento y el jueves pasado habló por teléfono con Sundar Pichai, CEO de Alphabet, la empresa madre de Google. Hinton prefirió no revelar los detalles de su conversación con el directivo.
El jefe científico de Google, jeff decanodijo a través de un comunicado que “seguimos comprometidos con un abordaje responsable de la IAy seguimos estudiando para entender los riesgos que surgen sin abandonar la audacia innovadora”.
Hinton, un expatriado británico que actualmente tiene 75 años, es un académico de toda la vida, con una carrera profesional impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó el concepto de “red neuronal”, un sistema matemático que aprende habilidades mediante el análisis de datos. Pocos investigadores creyeron en su idea, pero Hinton la convirtió en el trabajo de su vida.
En la década de 1980, Hinton enseñaba ciencias de la computación en la Universidad Carnegie Mellon, pero dejó su cargo y se fue a Canadá porque no estaba dispuesto a recibir fondos del Pentágono: en aquel entonces, la mayor parte de la investigación en IA en Estados Unidos era financiada por el Departamento de Defensa. Y Hinton se opone tajantemente al uso de iA en el campo de batalla: lo que él llama “robot soldado”.
En 2012, Hinton y dos de sus estudiantes de posgrado en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar millas de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.
Google pagó 44 millones de dólares para comprar la empresa fundada por Hinton y sus dos alumnos, y el sistema que habían creado condujo al descubrimiento de tecnologías cada vez más poderosas, incluidos los nuevos bots conversacionales. Sutskever pasó a ser jefe científico de OpenAI. En 2018, Hinton y otros de sus colaboradores históricos vieron el Premio Turing, el nobel de la computacionpor su trabajo en redes neuronales.
Casi al mismo tiempo, Google, OpenAI y otras empresas lograron construir redes neuronales capaces de aprender a partir del procesamiento de grandes cantidades de texto digital. A Hinton le pareció que era un mecanismo poderoso para que las máquinas entendieran y generaran lenguaje, pero que era inferior a la forma en que los humanos manejaban el lenguaje.
pero el año pasado, cuando Google y OpenAI crearon sistemas utilizando cantidades de datos mucho mayores, su opinión cambió. Seguía creyendo que en algunos aspectos los sistemas eran inferiores al cerebro humano, pero se dio cuenta de que en otros aspectos estaban dejando atrás a la inteligencia humana. “Tal vez lo que sucede en esos sistemas es mucho mejor que lo que sucede en el cerebro”.
Cuanto mas mejoran los sistemas, mas peligrosos de volver. “Basta recordar cómo era hace apenas hace cinco años y cómo es ahora”, dice Hinton. “Si tomás ese lapso de tiempo y proyectás esa aceleración hacia adelante, mete miedo”.
Hasta el año pasado Google actuó como un “custodio adecuado” de esa tecnología, con cuidado de no liberar algo que pudiera causar daño, apunta Hinton. Pero ahora que su Microsoft potenció su motor de búsqueda Bing con un bot coversacional, en abierto desafío al principal negocio de Google, Google está en competencia para implementar el mismo tipo de tecnología. Los gigantes tecnológicos están lanzados a una carrera que podría ser imposible de parar, advierte Hinton.
Su preocupacion inmediata es que Internet se inunde con fotos, videos y textos falsos, y que la persona promedio “ya no pueda saber lo que es verdad”.
También le preocupa que con el tiempo la IA revolucione el mercado laboral. Hoy en día, los bots como ChatGPT suelen complementar el trabajo humano, pero pueden llegar a reemplazar a los empleados administrativos ya quienes realizan tareas rutinarias de escritorio. “Te quita el trabajo pesado pero te puede terminar quitando todo”, señala Hinton.
A Hinton le preocupa que las versiones futuras de esta tecnología se conviertan en una amenaza para la humanidad, porque de la gran cantidad de datos que analizan muchas veces aprenden comportamientos inesperados. Y eso es un verdadero problema, dice Hinton, ya que las empresas y los usuarios permiten que los sistemas de IA no solo generen su propio código de computadora, sino también que lo ejecutan por su cuenta. Hinton teme que un dia las armas verdaderamente autónomas, esos robots asesinos, se hagan realidad.
“Eran muy pocos los que pensaban que estas cosas realmente podrían volverse más inteligentes que las personas”, dice Hinton. “La mayoría, entre los que me incluyen, pensamos que todavía eso estaba muy lejos. Yo creía que faltaban 30 o 50 años más. Obviamente ya no pienso lo mismo”.
Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que la amenaza es hipotética, pero Hinton cree que la carrera entre Google y Microsoft y otros se cambiaron en una carrera global que no se detendrá hasta que no existe algún tipo de regulación global .
desde luego, dice Hinton, eso tal vez sea imposible, porque a diferencia de las armas nucleares, no hay forma de saber si las empresas o los países están desarrollando esa tecnología en secreto. La mejor esperanza es que los principales científicos del mundo colaboren con diversas formas de controlar la tecnología. “No creo que deban avanzar más hasta que hayan entendido si pueden controlarlo”, apunta.
Antes, cuando le preguntaban cómo podía trabajar en el desarrollo de una tecnología potencialmente peligrosa, Hinton solía responder parafraseando a Robert Oppenheimer, que dirigió el proyecto de construcción de la bomba atómica en Estados Unidos: “Cuando uno encuentra algo que es técnicamente irresistible, va para adelante y lo hace”.
Hoy ya no dice lo mismo.
Por Cade Metz
Traducción de Jaime Arrambide