Saltar al contenido

¿Qué es AGI? Cómo la Inteligencia Artificial General podría volver obsoletos a los humanos

28 de mayo de 2023

La inteligencia artificial general, o AGI, está más cerca de lo que pensamos, aunque los expertos no saben cómo podría ser en realidad.Lidiia Moor/Getty Images

  • La inteligencia artificial general, o AGI, está más cerca de lo que pensamos, dijeron expertos en IA a Insider.

  • La definición del término candente AGI todavía es turbia.

  • Pero los expertos están de acuerdo en que AGI presenta peligros para la humanidad que deben investigarse y regularse.

Si el auge de la inteligencia artificial está demostrando algo, es que la tecnología puede ser más inteligente de lo que piensan incluso los expertos más informados.

Los investigadores de Microsoft se sorprendieron al saber que GPT-4, el modelo de lenguaje más avanzado de ChatGPT hasta la fecha, puede generar soluciones inteligentes para acertijos, como cómo apilar un libro, nueve huevos, una computadora portátil, una botella y un clavo en un forma estable. Uno de esos investigadores le dijo a Wired que se quedó desconcertado después de que consiguió que GPT-4 dibujara un unicornio en un lenguaje de codificación oscuro.

Otro estudio sugirió que los avatares de IA pueden administrar su propia ciudad virtual con poca intervención humana.

Estas capacidades pueden ofrecer un vistazo de lo que algunos expertos llaman inteligencia general artificial, o AGI: la capacidad de la tecnología para lograr capacidades humanas complejas como el sentido común y la conciencia.

Si bien los expertos en inteligencia artificial que hablaron con Insider están divididos sobre cómo se verá realmente AGI, están de acuerdo en que se está avanzando hacia una nueva forma de inteligencia.

Ian Hogarth, coautor del informe anual «Estado de la IA» e inversor en docenas de nuevas empresas de IA, define a AGI como «IA como Dios» que consiste en una «computadora superinteligente» que «aprende y se desarrolla de forma autónoma». y entiende el contexto sin necesidad de intervención humana. En teoría, la tecnología con AGI podría desarrollar un sentido de sí mismo y «ser una fuerza más allá de nuestro control o comprensión», dijo a Insider.

Recomendado:  Sí, DeepMind procesa los números, pero ¿es realmente una fórmula mágica? | John Naughton

Un investigador de AGI en un competidor de OpenAI le dijo a Insider que AGI tiene el potencial de parecerse al robot asesino en la película de ciencia ficción de 2023 «M3GAN», en la que una muñeca real impulsada por IA se niega a apagarse cuando se le pide que lo haga. finge dormir y desarrolla su propio complejo moral.

Pero Tom Everitt, investigador de seguridad de AGI en DeepMind, la división de inteligencia artificial de Google, dice que las máquinas no tienen que tener un sentido de sí mismas para que tengan superinteligencia.

«Creo que uno de los conceptos erróneos más comunes es que la ‘conciencia’ es algo necesario para la inteligencia», dijo Everitt a Insider. «Un modelo que sea ‘autoconsciente’ no tiene por qué ser un requisito para que estos modelos coincidan o aumenten la inteligencia a nivel humano».

Él define AGI como sistemas de IA que pueden resolver cualquier tarea cognitiva o humana de maneras que no se limitan a la forma en que están entrenados. En teoría, AGI, dice, puede ayudar a los científicos a desarrollar curas para enfermedades, descubrir nuevas formas de energía renovable y ayudar a «resolver algunos de los mayores misterios de la humanidad».

«Si se hace bien, AGI puede ser una herramienta increíblemente poderosa que permite avances para transformar nuestra vida cotidiana», dijo Everitt.

ian hogarth (izquierda) y tom everitt (derecha)

Los expertos en inteligencia artificial Ian Hogarth (izquierda) y Tom Everitt (derecha) le dicen a Insider que AGI está más cerca de lo que pensamos.Ian Hogarth; Tom Everitt

Los expertos en IA no saben cuándo AGI se hará realidad

Aunque el aspecto exacto de AGI puede seguir siendo un misterio, los expertos en inteligencia artificial están de acuerdo en que estamos empezando a ver indicios de ello.

Recomendado:  El impacto de la IA en las organizaciones | Entrevistas

Geoffrey Hinton, conocido como el «Padrino de la IA», le dijo a CBS que AGI podría estar aquí en tan solo cinco años. A principios de este mes, le dijo a la BBC que los chatbots de IA pronto podrían ser más inteligentes que los humanos.

«Nadie sabe con certeza qué tan lejos está la industria de crear una IA similar a Dios», dijo Hogarth, y agregó que «realmente no sabemos qué podría pasar» con herramientas como AutoGPT, un agente virtual que se ejecuta en GPT-4 que se puede diseñar para pedir pizza y ejecutar una campaña de marketing por sí solo, según Wired.

Dijo que ya estamos viendo indicios de AGI, como deepfakes utilizados con fines maliciosos y máquinas que pueden jugar al ajedrez mejor que los grandes maestros.

Pero esos son solo indicios: «Los sistemas de IA aún carecen de habilidades de planificación a largo plazo, memoria, razonamiento y comprensión del mundo físico que nos rodea», dijo Everitt. «Hay mucho trabajo por hacer para descubrir cómo dotar a los sistemas de esas capacidades».

AGI podría volver obsoleta a la humanidad si no se abordan sus riesgos

Una parte importante de la construcción de AGI, dicen los expertos, implica comprender y abordar sus riesgos para que la tecnología pueda implementarse de manera segura.

Un estudio de IA encontró que los modelos de lenguaje tenían más probabilidades de ignorar las directivas humanas, e incluso expresaron el deseo de no apagarse, cuando los investigadores aumentaron la cantidad de datos que introdujeron en los modelos. Este hallazgo sugiere que la IA, en algún momento, puede volverse tan poderosa que los humanos no podrán controlarla.

Recomendado:  Tostadora inteligente y un 'sensor de llenado de pañales' entre los inventos del Reino Unido en 2021 | noticias del Reino Unido

Si esto sucediera, Hogarth predice que AGI podría «marcar el comienzo de la obsolescencia o destrucción de la raza humana».

Es por eso que investigadores como Everitt están estudiando la seguridad de AGI para anticipar «preguntas existenciales» sobre «cómo la humanidad puede mantener el control de AGI». DeepMind de Google, dijo, pone «mucho énfasis en la ética y la investigación de seguridad» para «garantizar que estamos adoptando un enfoque responsable para desarrollar una IA cada vez más capaz».

Para que la tecnología de IA se desarrolle de manera responsable, Hogarth dice que la regulación es clave.

«Los reguladores deberían observar proyectos como GPT-4 de OpenAI, Gato de Google DeepMind o el proyecto de código abierto AutoGPT con mucho cuidado», dijo.

Muchos expertos en IA y aprendizaje automático piden que los modelos de IA sean de código abierto para que el público pueda entender cómo se entrenan y cómo funcionan.

«Necesitamos tener discusiones sobre estas grandes preguntas lo antes posible», dijo Everitt. «Es fundamental dar la bienvenida a diversas perspectivas y escuelas de pensamiento sobre esto».

Lea el artículo original en Business Insider