Saltar al contenido

Los legisladores estadounidenses aún no han regulado Big Tech. La inteligencia artificial podría ser más desafiante

18 de mayo de 2023

El científico informático Eliezer Yudkowsky, quien predijo que «todos vamos a morir» si se crea una inteligencia artificial sobrehumanamente inteligente en las circunstancias actuales, dijo que, sin embargo, comprende los desafíos que enfrentan los legisladores para regular el sistema.

«La analogía que uso a veces es que la IA es como las armas nucleares, si las armas nucleares escupen oro, y escupen más y más oro a medida que las haces más grandes, hasta que finalmente alcanzan un umbral que nadie puede calcular de antemano, y luego explotan». mundo entero», escribió Yudkowsky, cofundador del Instituto de Investigación de Inteligencia de Máquinas, en un correo electrónico a CBC News.

«Esa es una situación inusualmente difícil de regular».

Es este enigma regulatorio: la IA puede producir muchos beneficios, pero si no se controla podría afectar negativamente a la sociedad y tal vez representar una amenaza significativa para la humanidad, que algunos políticos estadounidenses enfrentaron en una audiencia del Comité Judicial del Senado de EE. UU. el martes.

‘Causa un daño significativo’

La audiencia contó con el testimonio de Sam Altman, jefe de la compañía de inteligencia artificial OpenAI, que fabrica ChatGPT, quien abogó por una serie de regulaciones para enfrentar el riesgo de sistemas de IA cada vez más poderosos que incluso él reconoció que podrían «causar un daño significativo al mundo». «

Pero el Congreso aún tiene que regular algunas de las grandes empresas tecnológicas como Meta y Google. Y los problemas que Altman y otros plantearon en la audiencia sobre IA también ilustraron los desafíos que enfrenta la regulación de esa industria, dicen algunos expertos.

«Creo que uno de los mayores problemas con las regulaciones de IA es [defining] qué es la IA, de todos modos», dijo Matthew O’Shaughnessy, miembro visitante de tecnología y asuntos internacionales en Carnegie Endowment for International Peace.

O’Shaughnessy dijo que algunos de los panelistas y senadores en la audiencia, que incluyeron el testimonio de la directora de privacidad y confianza de IBM, Christina Montgomery, y el experto en inteligencia artificial Gary Marcus, profesor emérito de la Universidad de Nueva York, estaban hablando de la inteligencia artificial como un concepto realmente amplio. mientras que otros hablaban de ello de una manera muy estrecha.

«El problema central es que la IA es este concepto de ‘conócelo cuando lo veas’, que está en constante evolución. Eso es realmente difícil [to put into] una definición jurídica».

RELOJ | El Congreso lidia con la inteligencia artificial:

La inteligencia artificial hace una declaración de apertura en la audiencia del Senado de EE. UU.

Para abrir la audiencia sobre inteligencia artificial, el senador demócrata Richard Blumenthal reprodujo una declaración grabada creada en su totalidad por ChatGPT de OpenAI y el software de clonación de voz AI entrenado en sus propios discursos para imitar su voz. El director ejecutivo de OpenAI, Sam Altman, también testificó en la audiencia y pidió al gobierno que regule la inteligencia artificial.

Recomendado:  ¿Pueden las palomas igualar el ingenio con la inteligencia artificial? Usando el aprendizaje asociativo, de alguna manera el picotazo de una paloma puede reflejar alta tecnología

En Canadá, el gobierno ha propuesto la Ley de Inteligencia Artificial y Datos para «proteger a los canadienses» y «garantizar el desarrollo de una IA responsable». Pero no hay propuestas federales actuales en los EE. UU.

Se han expresado inquietudes sobre ChatGPT, una herramienta de chatbot que responde preguntas con respuestas convincentemente similares a las humanas, y la capacidad de la última generación de herramientas generativas de inteligencia artificial para engañar a las personas, difundir falsedades, violar las protecciones de derechos de autor y cambiar algunos trabajos.

Mientras tanto, otros, como Geoffrey Hinton, conocido como el «padrino de la IA», junto con Yudkowsky, han expresado su temor de que la IA sin control pueda acabar con la humanidad.

Yudkowsky teme que una IA inteligente sobrehumana demasiado poderosa, como escribió en Time en marzo, «no haría lo que queremos, y no se preocuparía por nosotros ni por la vida sensible en general».

«El resultado probable de que la humanidad se enfrente a una inteligencia sobrehumana opuesta es una pérdida total».

Yudkowsky dijo que, en la audiencia, Altman y Montgomery de IBM se mostraron tímidos sobre los peores escenarios de AI planteados por separado por él y Hinton.

«El peligro real es que todos en la Tierra mueran», dijo. «Sam Altman lo sabe; parece que ha decidido que no se puede confiar en el Congreso con la información. Y, sinceramente, simpatizo un poco con esa decisión, y probablemente también la mayoría de los congresistas individuales, incluso si no se les permite dilo en voz alta».

Tarea ‘desalentadora’ por delante

El científico informático Mark Nitzberg, director ejecutivo del Centro de Inteligencia Artificial Compatible con Humanos, dijo que los formuladores de políticas ciertamente tienen una tarea «desalentadora» por delante en términos de regulación.

«¿Cómo es que tenemos este sistema que nadie entiende cómo funciona? Todos están de acuerdo en que es muy poderoso y no hay absolutamente ninguna regulación que controle nada de eso», dijo.

Un problema importante es que, si bien la IA es un sistema altamente capaz en muchos sentidos, puede ser aleatorio, inventar cosas y nadie realmente entiende los principios por los que opera, dijo Nitzberg.

«Este no es el caso de ningún otro sistema de ingeniería sobre el que tengamos reglas».

La IA es diferente de la edición de genes o la ciencia del clima, donde la ciencia se elabora y todavía queda trabajo por hacer en la política, como las regulaciones y los acuerdos generales, dijo.

class=»ImagenImagen de medios completa»>

El logotipo de IA abierta.
El logotipo de OpenAI se ve en un teléfono móvil frente a la pantalla de una computadora que muestra la salida de ChatGPT en esta foto de archivo del 21 de marzo de 2023. Nadie entiende realmente los principios por los que opera la IA, señala un experto. (Michael Dwyer/La Prensa Asociada)
Recomendado:  Elon Musk y más de mil líderes tecnológicos piden detener el avance de la inteligencia artificial

«Estás obligado a hacer política antes de que se entregue la ciencia».

La mayoría de las pruebas y análisis post mortem para sistemas de ingeniería, por ejemplo, en la seguridad de automóviles y aeronaves, dependen de que los sistemas se comporten de manera predecible: se desempeñen de la misma manera cuando se encuentran en la misma situación, dijo Nitzberg.

Pero los grandes modelos de lenguaje dan diferentes respuestas al mismo mensaje dos veces seguidas. Por lo tanto, será necesario crear diferentes tipos de metodologías de prueba y monitoreo, dijo.

Bart Selman, profesor de ciencias de la computación en la Universidad de Cornell y director del Instituto de Sistemas de Información Inteligente, dijo que las regulaciones pueden llevar años y que, incluso si se obtienen aportes de las partes interesadas, no se ocupan de algunos de los problemas reales.

Algunos críticos han sugerido que el pedido de regulaciones de Altman en realidad podría ser egoísta. En una entrevista con ABC Empieza aqui podcast, el reportero de tecnología de Gizmodo, Thomas Germain, señaló que no es inusual que la industria tecnológica solicite ser regulada.

RELOJ | El padrino de la IA está preocupado por los riesgos para la humanidad:

Ayudó a crear la IA. Ahora le preocupa que destruya a la humanidad.

El pionero de la inteligencia artificial canadiense-británica Geoffrey Hinton dice que dejó Google debido a los recientes descubrimientos sobre la IA que le hicieron darse cuenta de que representa una amenaza para la humanidad. La corresponsal jefe de CBC, Adrienne Arseualt, habla con el ‘padrino de la IA’ sobre los riesgos involucrados y si hay alguna forma de evitarlos.

«Algunos de los mayores defensores de las leyes de privacidad son Microsoft, Google y Meta, de hecho, porque les da a las empresas de tecnología una gran ventaja si hay leyes que pueden cumplir», dijo. «De esa manera, si algo sale mal, simplemente pueden decir: ‘Oh, bueno, estábamos siguiendo las reglas. Es culpa del gobierno por no aprobar una mejor regulación».

En la audiencia, Altman propuso la formación de una agencia estadounidense o global que otorgaría licencias a los sistemas de IA más potentes y tendría la autoridad para «retirar esa licencia» y garantizar el cumplimiento de las normas de seguridad.

Nitzberg señaló que en algunos foros de chat, algunos sugirieron que habrá «muy pocos que tengan los recursos y las conexiones para obtener una licencia y, por lo tanto, [Altman’s] asegurando su propia captura regulatoria».

Recomendado:  Auto-GPT es una nueva IA que hace el trabajo por usted: así es como funciona

Sin embargo, Nitzberg dijo que no ve a Altman como un cínico que solo dice que la IA es peligrosa para «ponerse del lado bueno de las personas para que pueda construir un imperio más grande».

«Estaba hablando de los peligros de la IA en 2016».

sofocar la innovación

Mientras tanto, existen otras preocupaciones sobre la regulación de la IA: que demasiada interferencia del gobierno podría sofocar la innovación.

«No hay ninguna razón por la que los actores del sector privado no puedan desarrollar principios para prácticas seguras de IA o crear sus propios órganos de gobierno de IA», escribió James Broughel, miembro principal del Competitive Enterprise Institute, en Forbes el mes pasado.

«El problema con la creación de nuevas agencias federales o la adición de nuevos programas y personal regulatorios es que inevitablemente crean nuevos electorados, incluidos burócratas, académicos y corporaciones que usan el poder del gobierno para influir en la política pública hacia sus propios intereses».

class=»ImagenImagen de medios llena»>

Una mujer habla por un micrófono.
La Directora de Privacidad y Confianza de IBM, Christina Montgomery, habla ante una audiencia del Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley sobre inteligencia artificial el martes en Capitol Hill en Washington. (Patrick Semansky/La Prensa Asociada)

Es por eso que Montgomery de IBM instó al comité del Senado a adoptar un enfoque de «regulación de precisión» para la IA para gobernar el despliegue de la IA en casos de uso específicos, y no regular la tecnología en sí.

Esto, dijo, «establece un equilibrio apropiado entre proteger a los estadounidenses de posibles daños y preservar un entorno en el que la innovación pueda florecer».

O’Shaughnessy estuvo de acuerdo en que demasiada regulación es una preocupación real y que los legisladores deben tener cuidado de regular la IA de manera inteligente.

«Sin embargo, al mismo tiempo, estos sistemas de IA son muy poderosos. Tienen impactos negativos muy reales e inmediatos en las personas y la sociedad de hoy», dijo. «Y es importante que le pongamos una regulación significativa e inteligente».

O’Shaughnessy dijo que era importante que las audiencias revelaran algún apoyo bipartidista para algún tipo de regulación.

«Pero una cosa es que apoyen esa idea a un alto nivel. Es muy diferente que apoyen una política real una vez que esté más claro cuáles son las compensaciones, cómo se ve. Por lo tanto, es demasiado pronto para decir que habrá ser realmente un impulso para la regulación».