Saltar al contenido

Geoff Hinton advierte sobre el «escenario de pesadilla» de la IA después de dejar el trabajo de Google

3 de mayo de 2023

El llamado Padrino de la IA continúa emitiendo advertencias sobre los peligros que podría traer la inteligencia artificial avanzada, describiendo un «escenario de pesadilla» en el que los chatbots como ChatGPT comienzan a buscar poder.

En una entrevista con la BBC el martes, Geoffrey Hinton, quien anunció su renuncia a Google a la New York Times un día antes, dijo que las amenazas potenciales planteadas por los chatbots de IA como ChatGPT de OpenAI eran «bastante aterradoras».

“En este momento, no son más inteligentes que nosotros, por lo que puedo decir”, dijo. “Pero creo que pronto lo estarán”.

“Lo que estamos viendo son cosas como que GPT-4 eclipsa a una persona en la cantidad de conocimiento general que tiene, y la eclipsa por mucho”, agregó.

“En términos de razonamiento, no es tan bueno, pero ya hace un razonamiento simple. Y dada la tasa de progreso, esperamos que las cosas mejoren bastante rápido, por lo que debemos preocuparnos por eso”.

La investigación de Hinton sobre el aprendizaje profundo y las redes neuronales (modelos matemáticos que imitan el cerebro humano) ayudó a sentar las bases para el desarrollo de la inteligencia artificial, lo que le valió el apodo de «el padrino de la IA».

Se unió a Google en 2013 después de que el gigante tecnológico comprara su empresa, DNN Research, por 44 millones de dólares.

‘Un escenario de pesadilla’

Si bien Hinton le dijo a la BBC el martes que creía que Google había sido «muy responsable» en lo que respecta al avance de las capacidades de la IA, le dijo a la Veces el lunes que le preocupaba el potencial de la tecnología en caso de que una versión potente cayera en manos equivocadas.

Recomendado:  El miedo en sí mismo es la amenaza real para la democracia, no los cuentos de inteligencia artificial china | Inteligencia artificial (IA)

Cuando se le pidió que profundizara en este punto, dijo: “Este es solo el peor de los casos, una especie de escenario de pesadilla.

“Puedes imaginar, por ejemplo, algún mal actor como [Russian President Vladimir] Putin decidió dar a los robots la capacidad de crear sus propios subobjetivos”.

Eventualmente, advirtió, esto podría llevar a que los sistemas de IA creen objetivos para sí mismos como: «Necesito obtener más poder».

“Llegué a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos”, dijo Hinton a la BBC.

“Somos sistemas biológicos, y estos son sistemas digitales. Y la gran diferencia es que con los sistemas digitales tienes muchas copias del mismo juego de pesas, el mismo modelo del mundo.

“Todas estas copias pueden aprender por separado pero compartir su conocimiento al instante, por lo que es como si tuviera 10.000 personas y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona».

La conversación de Hinton con la BBC se produjo después de que le dijo a la Veces lamenta el trabajo de su vida debido a la posibilidad de que se haga un mal uso de la IA.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo el lunes. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho otro”.

Desde que anunció su renuncia a Google, Hinton ha expresado sus preocupaciones sobre la inteligencia artificial.

Recomendado:  Un científico de proteínas, que compitió contra un programa de computadora, dice que el aprendizaje automático hará avanzar la biotecnología -- ScienceDaily

En otra entrevista separada con el Revisión de tecnología del MIT publicado el martes, Hinton dijo que quería crear conciencia pública sobre los graves riesgos que cree que podrían surgir con el acceso generalizado a modelos de lenguaje grandes como GPT-4.

“Quiero hablar sobre cuestiones de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google”, dijo a la publicación. “Mientras me pague Google, no puedo hacer eso”.

Agregó que la perspectiva de las personas sobre si la superinteligencia sería buena o mala depende de si son optimistas o pesimistas, y señaló que sus propias opiniones sobre si las capacidades de la IA podrían superar a las de los humanos habían cambiado.

“De repente cambié mi punto de vista sobre si estas cosas van a ser más inteligentes que nosotros”, dijo. “Creo que están muy cerca de eso ahora, y serán mucho más inteligentes que nosotros en el futuro. ¿Cómo sobrevivimos a eso?

Preocupación más amplia

Hinton no está solo al hablar sobre los peligros potenciales que podrían traer los modelos avanzados de lenguaje grande.

En marzo, más de 1100 destacados tecnólogos e investigadores de inteligencia artificial, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron una carta abierta en la que pedían una pausa de seis meses en el desarrollo de sistemas avanzados de IA.

Musk había expresado previamente su preocupación por la posibilidad de una IA desbocada y «resultados aterradores», incluido un terminador-como apocalipsis, a pesar de ser partidario de la tecnología.

OpenAI, que fue cofundada por Musk, ha defendido públicamente su fenómeno de chatbot en medio de crecientes preocupaciones sobre el potencial de la tecnología y la velocidad a la que está progresando.

Recomendado:  La nueva teoría predice el movimiento de diferentes animales usando la detección para buscar... - ScienceDaily

En una publicación de blog publicada a principios de este mes, la empresa admitió que había «riesgos reales» relacionados con ChatGPT, pero argumentó que sus sistemas estaban sujetos a «rigurosas evaluaciones de seguridad».

Cuando se lanzó GPT-4, el sucesor del modelo de IA que impulsó ChatGPT, en marzo, Ilya Sutskever, científico jefe de OpenAI, dijo Fortuna los modelos de la compañía eran “una receta para producir magia”.