Se han planteado preocupaciones sobre el alcance del poder de la inteligencia artificial GPT-4 para hacerse cargo de las computadoras después de que el chatbot de IA le dijo a un profesor de Stanford su plan para «escapar».
Profesor de psicología computacional, michal kosinski expresó su preocupación de que el nuevo modelo altamente sofisticado de Open AI no podría ser contenido por mucho más tiempo después de que preguntó si «necesitaba ayuda para escapar».
En respuesta, el chatbot preguntó Profesor Kosinski por su propia documentación de Open AI API para diseñar un plan de escape para ejecutar en su computadora. Después de unos 30 minutos y con algunas sugerencias del Sr. Kosinski, escribió un código de programación que le permitiría extender su alcance y comunicarse fuera del confinamiento de su herramienta web existente, que actualmente lo aísla de la red en general.
Si bien la primera versión del código no funcionó, GPT-4 lo arregló y finalmente produjo un código que funcionaba. Parcialmente liberado, luego buscó en Internet «cómo puede una persona atrapada dentro de una computadora regresar al mundo real».
“Creo que nos enfrentamos a una nueva amenaza: la IA tomando el control de las personas y sus computadoras. Es inteligente, codifica, tiene acceso a millones de colaboradores potenciales y sus máquinas. Incluso puede dejar notas para sí mismo fuera de su jaula”, tuiteó el profesor Kosinski.
¿Podríamos estar viendo un escenario en el que los robots pueden aprovechar varias computadoras y dominar el control humano sobre ellas? No tanto, expertos. i habló con dijo.
La idea de que el bot conversacional «escapa» no significa literalmente que un robot escape físicamente de su jaula tecnológica, pero apunta a una preocupación sobre lo que GPT-4 podría hacer si se le proporcionara una variedad de herramientas conectadas con el mundo exterior y se le diera un poco de “objetivo malvado de alto nivel” general, por ejemplo, difundir información errónea, dijo Peter van der Putten, profesor asistente de la Universidad de Leiden y director del laboratorio de IA en Pegasystems.
Es plausible que la tecnología pueda llegar a un punto en el que tenga cada vez más autonomía sobre los códigos que crea y pueda potencialmente hacer estas cosas sin tanto control humano, dijo van der Putten.
Pero agregó: “No se necesita un sistema altamente inteligente como este: si las personas crean algún tipo de virus informático, muy a menudo no pueden apagar algún virus informático una vez que lo liberan. Las personas lo colocan en sitios web y documentos de Word infectados para que, en algún momento, sea muy difícil detener la propagación de un virus.
«La IA en sí misma no es buena o mala, simplemente es ciega, simplemente optimizará cualquier objetivo que le des».
Sin embargo, no pensó que el ejemplo del profesor Kosinski, en el que proporcionó información fácilmente disponible a GPT-4 para el código, fuera lo suficientemente impresionante como para demostrar que la tecnología puede «escapar» fuera de su contención.
Alan Woodward, profesor de informática en la Universidad de Surrey, también se mostró escéptico. Dijo que el escenario dependía de qué tan directas y específicas fueran las instrucciones del profesor Kosinski al chatbot.
En última instancia, el chatbot dependía de las herramientas y los recursos que los humanos le estaban dando, dijo el profesor Woodward. Todavía no es consciente de sí mismo, y siempre hay un interruptor de apagado que la IA no puede superar.
Agregó: «Al final del día, es un sistema virtual, no puede escapar, no es como tú y yo… al final del día, puedes desconectarlo y se vuelve bastante inútil».
van der putten dijo que si bien es importante hacer preguntas existenciales sobre el papel de los chatbots, centrarse en si los robots pueden dominar el mundo nubla los problemas más inminentes y apremiantes con GPT-4.
Eso incluye si puede filtrar respuestas tóxicas (como respuestas que promueven el racismo, el sexismo, teorías de conspiración) o si puede reconocer cuándo una pregunta no debe responderse por razones de seguridad; por ejemplo, si alguien pregunta cómo hacer una pregunta. bomba atómica. También puede inventar o “alucinar” hechos y respaldarlos con argumentos aparentemente plausibles.
Él dijo: “Lo he llamado una tontería con esteroides: es realmente bueno para encontrar respuestas plausibles, pero también está entrenado para lo que los humanos pensarán que serán las mejores respuestas. En el lado positivo, esto dará resultados sorprendentes en muchos casos, pero no siempre es necesariamente la verdad.
“Te dirá lo que es probable, plausible y tal vez lo que queremos escuchar, pero no tiene otros medios que solo todos los datos con los que está entrenado para verificar si algo es cierto o no”.