Saltar al contenido

Nuevo software de inteligencia artificial tiene implicaciones preocupantes – The Ticker

4 de septiembre de 2022

El arte producido por inteligencia artificial está apareciendo cada vez más en los feeds de las personas sin que ellos lo sepan.

Este arte puede variar desde simples grabados hasta imágenes surrealistas. Puede parecer un plato de sopa, un monstruo o gatos jugando al ajedrez en la playa.

Si bien el auge de la IA que tiene la capacidad de crear arte ha electrificado el mundo de la alta tecnología, estos nuevos desarrollos en IA tienen muchas implicaciones preocupantes.

A pesar de los usos positivos, los sistemas de IA más nuevos tienen el potencial de hacerse pasar por una herramienta de desinformación, crear prejuicios y subestimar las habilidades de los artistas.

A principios de 2021, los avances en IA crearon modelos de aprendizaje profundo que podían generar imágenes simplemente al recibir una descripción de lo que el usuario estaba imaginando.

Esto incluye DALL-E 2 de OpenAI, Midjourney, Craiyon de Hugging Face, Make-A-Scene de Meta, Imagen de Google y muchos otros.

Con la ayuda de un lenguaje hábil y una ideación creativa, estas herramientas marcaron un gran cambio cultural y eliminaron el trabajo humano técnico.

Una empresa de inteligencia artificial con sede en San Francisco lanzó DALL-E, en homenaje a «WALL-E», la película animada de 2008, y a Salvador Dalí, el pintor surrealista, el año pasado, un sistema que puede crear imágenes digitales simplemente al recibir una descripción de lo que el usuario quiere ver.

Sin embargo, no captó de inmediato el interés público.

Fue solo cuando OpenAI presentó DALL-E 2, una versión mejorada de DALL-E, que la tecnología comenzó a ganar fuerza.

Recomendado:  Utilizando una nueva tecnología, los investigadores esperan crear mejores sistemas de control para las prótesis de miembros -- ScienceDaily

DALL-E 2 se comercializó como una herramienta para artistas gráficos, permitiéndoles atajos para crear y editar imágenes digitales.

De igual manera, se agregaron medidas restrictivas al software para evitar su mal uso.

La herramienta aún no está disponible para todos. actualmente tiene 100,000 usuarios a nivel mundial, y la compañía espera que sea accesible para al menos 1 millón en un futuro cercano.

“Esperamos que a la gente le encante la herramienta y la encuentre útil. Para mí, es lo más delicioso que hemos creado hasta ahora para jugar. Encuentro que mejora la creatividad, es útil para muchas situaciones diferentes y es divertido de una manera que no había sentido con la tecnología en mucho tiempo”, escribió el director ejecutivo de OpenAI, Sam Altman.

Sin embargo, la nueva tecnología tiene muchas implicaciones alarmantes. Los expertos dicen que si este tipo de tecnología mejorara, podría usarse para difundir información errónea, así como para generar pornografía o discursos de odio.

De manera similar, los sistemas de inteligencia artificial pueden mostrar un sesgo hacia las mujeres y las personas de color porque los datos se extraen de grupos y textos en línea que muestran un sesgo similar.

“Podrías usarlo para cosas buenas, pero ciertamente podrías usarlo para todo tipo de otras aplicaciones locas y preocupantes, y eso incluye falsificaciones profundas”, dijo el profesor Subbarao Kambhampati a The New York Times. Kambhampati enseña informática en la Universidad Estatal de Arizona.

La política de contenido de la empresa prohíbe el acoso, la intimidación, la violencia y la generación de contenido sexual y político. Sin embargo, los usuarios que tienen acceso aún pueden crear cualquier tipo de imagen a partir del conjunto de datos.

Recomendado:  Conozca GeoCode: una técnica de inteligencia artificial para la síntesis de formas 3D utilizando un espacio de parámetros editable de forma intuitiva

“Va a ser muy difícil asegurarse de que la gente no los use para hacer imágenes que la gente encuentre ofensivas”, dijo a The Guardian el investigador de inteligencia artificial Toby Walsh.

Walsh advirtió que el público en general debería tener más cuidado con las cosas que ven y leen en línea, ya que las imágenes falsas o engañosas están inundando Internet.

Los desarrolladores de DALL-E están tratando activamente de luchar contra el mal uso de su tecnología.

Por ejemplo, los investigadores intentan mitigar el contenido potencialmente peligroso en el conjunto de datos de capacitación, en particular las imágenes que podrían ser dañinas para las mujeres.

Sin embargo, este proceso de limpieza también se traduce en la generación de menos imágenes de mujeres, lo que contribuye a un “borrado” del género.

“El sesgo es un gran problema en toda la industria para el que nadie tiene una respuesta excelente e infalible”, dijo Miles Brundage, jefe de investigación de políticas en OpenAI. “Entonces, gran parte del trabajo en este momento es ser transparente y directo con los usuarios sobre las limitaciones restantes”.

Sin embargo, OpenAI no es la única empresa con potencial para causar estragos en el ciberespacio.

Si bien OpenAI no reveló su código para DALL-E 2, una startup de tecnología de Londres, Stability AI, compartió el código para un modelo similar de generación de imágenes para que cualquiera lo use y reconstruyó el programa con menos restricciones.

El fundador y director ejecutivo de la compañía, Emad Mostaque, le dijo a The Washington Post que cree que es necesario hacer público este tipo de tecnología, independientemente de los peligros potenciales. “Creo que el control de estos modelos no debe ser determinado por un grupo de personas autodesignadas en Palo Alto”, dijo. “Creo que deberían estar abiertos”.

Recomendado:  Avance muestra promesa para 'meta-bots' diseñados para entregar drogas o ayudar en misiones de rescate - ScienceDaily

Mostaque está mostrando una tensión de lógica innatamente imprudente. Permitir que estas poderosas herramientas de IA caigan en manos de cualquiera, sin duda tendrá consecuencias drásticas a gran escala.

La tecnología, en particular el software como DALL-E 2, puede utilizarse de manera indebida como herramienta para difundir odio e información errónea y, por lo tanto, debe regularse antes de que sea demasiado tarde.