Bienvenido a 2023, el año en que la IA públicamente dio un paso más allá, gracias a la creciente popularidad de ChatGPT, la tecnología que crea deepfakes cada vez más accesibles y las preocupaciones sobre la clonación de voz se disparan. ¿Lo siguiente en la lista de cosas por las que probablemente deberíamos entrar en pánico? Auto-GPT, el hermano mayor de ChatGPT, más sabio y mucho más capaz… si hay que creer en los primeros informes.
Entonces, ¿qué diablos es Auto-GPT? Bueno, en su forma más cruda, es una aplicación de código abierto que a algunos les preocupa que pueda dejar sin trabajo a administradores de redes sociales, expertos en SEO y aquellos que trabajan en puestos de servicio al cliente. Trago. El GPT significa Transformador preentrenado generativo, que es una red neuronal diseñada para funcionar como el cerebro humano, es decir, puede incorporar información, aprender de ella y usar ese conocimiento para mejorar cualquier tarea que se le asigne.
Auto-GPT (que es un modelo GPT-4), sin embargo, parece ir un paso más allá, al prometer poder crear Google Docs por sí mismo, escribir titulares llamativos y generar publicaciones de blog completas sin muchas indicaciones, así que, err , trago doble para cualquier otro periodista en la sala. Se dice que es autosuficiente, lo que significa que puede realizar tareas, como programar una publicación de Instagram y escribir un pie de foto relevante para acompañarla, sin necesidad de indicárselo manualmente, y puede responder a las consultas o quejas de los clientes en cualquier idioma requerido.
Esencialmente, la idea es que puede crear planes y modelos de negocios a largo plazo, luego ejecutarlos solo, en lugar de que un ser humano le diga qué hacer en cada paso del camino. Una vez que ha completado una tarea, Auto-GPT puede pensar en otra relevante para irse y marcar también su lista.
Esto contrasta con ChatGPT, que puede realizar tareas después de recibir instrucciones específicas y refinamientos/críticas de humanos, dentro de su página web contenida; no puede (todavía) salir y crear una hoja de cálculo en otro lugar, o iniciar sesión en Twitter. y publique una broma viral para poner su negocio en el mapa.
Pero, ¿qué significa esta última incorporación a los ‘robots toman el control!’ conversación sugiere sobre el futuro de la raza humana, y en particular, la forma en que trabajamos? Honestamente, en este momento es demasiado pronto para decirlo y hay opiniones encontradas en ambos lados sobre si hemos llevado la IA demasiado lejos, demasiado pronto. Sin embargo, algunos de los nombres más importantes de la gran tecnología, como Elon Musk y Jaan Tallinn (uno de los cerebros detrás de Skype), advierten que debemos frenar el lanzamiento de desarrollos de IA y tomarnos un momento para considerar realmente su impacto en el forma en que vivimos, en lugar de continuar la carrera empresarial para lanzar un producto nuevo y genial… sin saber realmente cómo controlarlo o qué podría hacer a continuación.
Miles de personas firmaron recientemente una carta que expresaba dichas preocupaciones y pedía que la carrera de la IA se detuviera durante seis meses, incluidos investigadores de DeepMind (una empresa líder en IA), Musk, Steve Wozniak (cofundador de Apple) y Evan Sharp. (co-fundador de Pinterest).
«Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?» la carta pregunta. «¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? […] Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables».
Sugiere que todos los «laboratorios de IA y expertos independientes deberían usar este [proposed 6 month] hacer una pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados por expertos externos independientes».
Hablando durante una entrevista reciente con la BBC, Tallin agregó: «Una vez que tengamos IA que a) no podamos detener yb) seamos lo suficientemente inteligentes como para hacer cosas como la geoingeniería, construir sus propias estructuras, construir sus propias IA, entonces, ¿qué es ¿Qué va a pasar con su entorno, el entorno que necesitamos críticamente para nuestra supervivencia? Está en el aire».
También compartió que su «gran preocupación» era la idea de que la tecnología avanza sin que la sociedad tenga tiempo de adaptarse y controlarla. El gobierno italiano parece estar de acuerdo, ya que recientemente prohibió ChatGPT.
Por otro lado, se informa que aquí en el Reino Unido, los parlamentarios están retrasando la introducción de reglas de regulación de IA súper estrictas, por temor a «estrangular la innovación» y no parecen estar demasiado preocupados por las preocupaciones planteadas en la carta abierta.
Un parlamentario no identificado incluso le dijo a Laura Kuenssberg de la BBC: «Todos los técnicos han visto demasiado Terminator. ¿Cómo pasa esta tecnología de un programa de computadora a eliminar el oxígeno de la atmósfera?» y agregó que creen que no se requerirán leyes más duras por lo menos hasta dentro de algunos años.
Para mayor claridad: este artículo fue escrito por un humano real (a menos que no te haya gustado… en cuyo caso fue Auto-GPT).
Sigue a Jennifer en Instagram y Gorjeo
También podría gustarte