Saltar al contenido

El CEO de OpenAI pide leyes para mitigar los ‘riesgos de una IA cada vez más poderosa’ | ChatGPT

17 de mayo de 2023

El CEO de OpenAI, la empresa responsable de crear el chatbot de inteligencia artificial ChatGPT y el generador de imágenes Dall-E 2, dijo que “la regulación de la IA es esencial”, como testificó en su primera comparecencia frente al Congreso de EE.UU.

id=»bf5b3d99-572d-454e-9ef8-2f83be0bea73″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>

Hablando ante el comité judicial del Senado el martes, Sam Altman dijo que apoyaba las medidas de protección regulatorias para la tecnología que permitiría los beneficios de la inteligencia artificial y minimizaría los daños.

“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”, dijo Altman en sus comentarios preparados.

Altman sugirió que el gobierno de EE. UU. podría considerar los requisitos de licencia y prueba para el desarrollo y lanzamiento de modelos de IA. Propuso establecer un conjunto de estándares de seguridad y una prueba específica que los modelos tendrían que pasar antes de que puedan implementarse, además de permitir que los auditores independientes examinen los modelos antes de su lanzamiento. También argumentó que los marcos existentes como la Sección 230, que libera a las plataformas de la responsabilidad por el contenido que publican sus usuarios, no sería la forma correcta de regular el sistema.

“Para una tecnología muy nueva, necesitamos un nuevo marco”, dijo Altman.

Tanto Altman como Gary Marcus, profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York que también testificó en la audiencia, pidieron una nueva agencia reguladora de la tecnología. La IA es complicada y se mueve rápido, argumentó Marcus, lo que hace que «una agencia cuyo trabajo de tiempo completo» sea regularla sea crucial.

id=»5b352640-6b08-47fc-b434-5d2c4b55ab22″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=»dcr-11ra563″>

A lo largo de la audiencia, los senadores establecieron paralelismos entre las redes sociales y la IA generativa, y las lecciones que los legisladores habían aprendido de la falta de acción del gobierno para regular las plataformas sociales.

Recomendado:  Cómo entrenar a un robot (usando inteligencia artificial y supercomputadoras) - ScienceDaily

Sin embargo, la audiencia fue mucho menos polémica que aquellas en las que testificó el CEO de Meta, Mark Zuckerberg. Muchos legisladores le dieron crédito a Altman por sus llamados a la regulación y el reconocimiento de las trampas de la IA generativa. Incluso Marcus, que se mostró escéptico sobre la tecnología, calificó el testimonio de Altman de sincero.

La audiencia se produjo cuando expertos en IA y especialistas en ética reconocidos y respetados, incluidos los ex investigadores de Google, el Dr. Timnit Gebru, quien codirigió el equipo de IA ética de la compañía, y Meredith Whitaker, han estado haciendo sonar la alarma sobre la rápida adopción de la IA generativa, argumentando que la tecnología está sobrevalorado. «La idea de que esto va a convertirse mágicamente en una fuente de bien social… es una fantasía utilizada para comercializar estos programas», dijo recientemente Whitaker, ahora presidente de la aplicación de mensajería segura Signal, en un entrevista con Meet the Press Reports.

La IA generativa es una máquina de probabilidad «diseñada para escupir cosas que parecen plausibles» basada en «cantidades masivas de datos de vigilancia efectivos que se han extraído de la web», argumentó.

Los senadores Josh Hawley y Richard Blumenthal dijeron que esta audiencia es solo el primer paso para comprender la tecnología.

Blumenthal dijo que reconoció lo que describió como las «promesas» de la tecnología, que incluyen «curar el cáncer, desarrollar nuevos conocimientos de física y biología o modelar el clima y el clima».

id=»d95ab9c1-eeeb-44bd-aa62-89c80498bc87″ data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>

El CEO de OpenAI, Sam Altman, espera para hablar ante un comité judicial del Senado.

El CEO de OpenAI, Sam Altman, espera para hablar ante un comité judicial del Senado. Fotografía: Patrick Semansky/AP

Los riesgos potenciales que Blumenthal dijo que le preocupaban incluyen falsificaciones profundas, desinformación armada, discriminación en la vivienda, acoso de mujeres y fraudes de suplantación de identidad. “Para mí, quizás la mayor pesadilla sea la nueva revolución industrial que se avecina, el desplazamiento de millones de trabajadores”, dijo.

Recomendado:  Las palabras prueban su valor como herramientas de enseñanza para robots

Altman dijo que mientras OpenAI creaba herramientas que algún día abordar algunos de los mayores desafíos de la humanidad, como los cambios climáticos y la cura del cáncer”, los sistemas actuales aún no eran capaces de hacer estas cosas.

Pero él cree que los beneficios de las herramientas implementadas hasta ahora “superan con creces los riesgos” y dijo que la compañía realiza pruebas exhaustivas e implementa sistemas de seguridad y monitoreo antes de lanzar cualquier sistema nuevo.

“OpenAI se fundó con la creencia de que la inteligencia artificial tiene la capacidad de mejorar casi todos los aspectos de nuestras vidas, pero también crea riesgos graves que tenemos que trabajar juntos para gestionar”, dijo Altman.

Altman dijo que la tecnología afectará significativamente el mercado laboral, pero cree que «habrá muchos más trabajos al otro lado de esto».

“Los trabajos mejorarán”, dijo. “Creo que es importante pensar en GPT como una herramienta, no como una criatura… GPT 4 y herramientas similares son buenas para realizar tareas, no trabajos. Creo que GPT 4 automatizará por completo algunos trabajos y creará otros nuevos que creemos que serán mucho mejores”.

Altman también dijo que estaba muy preocupado por el impacto que tendrán los grandes servicios de modelos lingüísticos en las elecciones y la desinformación, particularmente antes de las primarias.

“Hay muchas cosas que podemos hacer y hacemos”, dijo Altman en respuesta a una pregunta de la senadora Amy Klobuchar sobre un tuit creado por ChatGPT que enumeraba lugares de votación falsos. “Hay cosas que el modelo no va a hacer y hay un seguimiento. A escala… podemos detectar a alguien generando muchos de esos [misinformation] tuits”.

Recomendado:  Anticiparse a la economía del sentimiento | Noticias

Altman aún no tenía una respuesta sobre cómo se puede compensar a los creadores de contenido cuyo trabajo se usa en canciones, artículos u otros trabajos generados por IA, y dijo que la compañía está comprometida con artistas y otras entidades sobre cómo podría ser ese modelo económico. Cuando Klobuchar le preguntó cómo planea remediar las amenazas a las publicaciones de noticias locales cuyo contenido se extrae y se utiliza para entrenar a estos modelos, Altman dijo que espera que la herramienta ayude a los periodistas, pero que «si hay cosas que podemos hacer para ayudar noticias, sin duda nos gustaría”.

El peligro potencial de que un pequeño grupo de jugadores poderosos domine la industria se mencionó, pero en gran medida no se incluyó en la conversación, un Whitaker dinámico ha advertido que corre el riesgo de afianzar la dinámica de poder existente.

“Solo hay un puñado de empresas en el mundo que tienen la combinación de datos y poder de infraestructura para crear lo que llamamos IA de punta a punta”, dijo en la entrevista de Meet the Press. «Ahora estamos en una posición en la que esta tecnología sobrevalorada se está creando, distribuyendo y, en última instancia, configurando para servir a los intereses económicos de este mismo puñado de actores».