Saltar al contenido

¿Es el auge de la inteligencia artificial un ‘tren fuera de control’?

25 de febrero de 2023

Como investigadora de inteligencia artificial, Cynthia Rudin ha observado el reciente y explosivo crecimiento de la tecnología con ojo atento y preocupado.

Ella ve un gran potencial y un riesgo abrumador en el estado actual de la industria de la IA, un salvaje oeste de experimentación, inversión y expansión sin control. El reciente auge de ChatGPT, una herramienta basada en IA que permite a los usuarios interactuar y solicitar productos escritos a partir de un algoritmo informático, ha arrojado nueva luz sobre la tecnología, y Rudin dice que los legisladores deben controlarlo todo, y rápido.

Rudin es la profesora Earl D. McLean, Jr. de Ciencias de la Computación, Ingeniería Eléctrica e Informática, Ciencias Estadísticas, Matemáticas y Bioestadística y Bioinformática en la Universidad de Duke, donde dirige el Laboratorio de Aprendizaje Automático Interpretable. Recientemente habló con Duke Today sobre sus muchas preocupaciones relacionadas con el crecimiento y el poder de la inteligencia artificial y las industrias que desarrollan herramientas con ella.

Aquí hay extractos:

Sientes que la tecnología de inteligencia artificial está fuera de control en este momento. ¿Por qué?

La tecnología de inteligencia artificial en este momento es como un tren fuera de control y estamos tratando de perseguirlo a pie. Me siento así porque la tecnología está aumentando a un ritmo muy rápido. Es sorprendente lo que puede hacer ahora en comparación con hace uno o dos años.

La desinformación se puede generar muy, muy rápidamente. Además, los sistemas de recomendación (que envían contenido a las personas) en direcciones que no queremos que sean. Y siento que la gente aún no ha tenido la oportunidad de hablar sobre esto. En realidad, son las empresas de tecnología las que nos lo imponen en lugar de que las personas tengan la oportunidad de decidir por sí mismas lo que quieren”.

Recomendado:  TPOT para el aprendizaje automático de la máquina en Python

¿Existen incentivos para que las empresas de tecnología actúen de manera ética con respecto a la IA?

Están incentivados para obtener ganancias, y si son monopolios, no están realmente incentivados para competir con otras empresas en términos de ética u otras cosas que la gente quiere. El problema es que cuando dicen cosas como ‘queremos democratizar la IA’, es realmente difícil de creer cuando están ganando miles y miles de millones de dólares. Por lo tanto, sería mejor si estas empresas no fueran monopolios y las personas pudieran elegir cómo quieren que se use esta tecnología.

¿Por qué es tan importante, en su opinión, que el gobierno federal regule las empresas de tecnología?

El gobierno definitivamente debería intervenir y regular la IA. No es que no tuvieran suficiente advertencia. La tecnología ha estado construyendo durante años. La misma tecnología que creó ChatGPT se ha utilizado para crear chatbots en el pasado que en realidad son bastante buenos. No tan bueno como ChatGPT, pero bastante bueno. Así que hemos tenido muchas advertencias. Los sistemas de recomendación de contenido se han utilizado durante muchos años y aún no hemos establecido ningún tipo de regulación sobre ellos. Parte de la razón es que el gobierno aún no tiene ningún tipo de mecanismo para regular la IA. No hay una comisión (federal) sobre IA. Hay comisiones en muchas otras cosas, pero no en IA.

¿Cómo podría esta revolución de la IA afectar más a las personas en su vida diaria? ¿Qué deben tener en cuenta?

La IA afecta a las personas, a la gente común, todos los días de sus vidas. Cuando ingresa a Internet en cualquier sitio web, los anuncios en ese sitio web se muestran solo para usted. Cada vez que está en YouTube mirando contenido, los sistemas de recomendación que recomiendan lo siguiente que ve se basan en sus datos. Cuando estás leyendo Twitter, el contenido que se te da y en qué orden se te da está diseñado por un algoritmo. Todas estas cosas son algoritmos de IA que esencialmente no están regulados. Entonces, la gente común interactúa con la IA todo el tiempo.

Recomendado:  UGA ayudará a alimentar a la creciente población a través del instituto Precision Ag

¿Tiene la gente alguna voz real sobre cómo se les impone esta tecnología?

Generalmente, no. Realmente no tienes una forma de modificar el algoritmo para alimentar el contenido que deseas. Si sabe que es más feliz cuando su algoritmo está ajustado de cierta manera, no hay realmente una forma de cambiarlo. Sería bueno si tuviera una variedad de compañías para elegir para muchos de estos sistemas de recomendación de diferentes tipos. Desafortunadamente, no hay demasiadas empresas por ahí, por lo que realmente no tiene muchas opciones.

¿Cuál es el peor de los casos que puede imaginar si no hay regulación?

La desinformación no es inocente. Hace un daño real a las personas a nivel personal. Ha sido la causa de guerras en el pasado. Piensa en la Segunda Guerra Mundial, piensa en Vietnam. Lo que realmente me preocupa es que la desinformación conducirá a una guerra en el futuro, y la IA será, al menos en parte, la culpable.

Muchas de estas empresas simplemente afirman que están ‘democratizando’ la inteligencia artificial con estas nuevas herramientas.

Una cosa que me preocupa es que tienes estas empresas que están creando estas herramientas, y están muy entusiasmadas con el lanzamiento de estas herramientas para la gente. Y ciertamente las herramientas pueden ser útiles. Pero, ya sabes, creo que si fueran víctimas de acoso basado en IA, o si tuvieran algunas imágenes de ellos que fueran falsas, que se generaron en línea que no querían, o si estuvieran a punto de ser víctimas de un Masacre de desinformación impulsada por IA, podrían sentir de manera diferente.

Recomendado:  8 libros principales sobre limpieza de datos e ingeniería de características

¿Dónde encaja la moderación de contenido en todo esto?

Hay mucho contenido muy peligroso y mucha información errónea peligrosa que ha costado la vida a muchas personas. Me refiero específicamente a la desinformación sobre las masacres de rohingya, sobre la insurrección del 6 de enero de 2021, la desinformación sobre las vacunas. Si bien es importante que tengamos libertad de expresión, también es importante que el contenido sea moderado y que no circule. Entonces, incluso si las personas dicen cosas con las que no estamos de acuerdo, no necesitamos hacer circular esas cosas usando algoritmos. Si la información errónea de los trolls de diferentes países intenta impactar en la política o tener algún tipo de impacto social, esos trolls pueden apoderarse de nuestros algoritmos y sembrar la desinformación.

Realmente no queremos que eso suceda. Contenido de abuso infantil (por ejemplo): necesitamos poder filtrarlo de Internet.