Saltar al contenido

Esperando lo mejor a medida que evoluciona la IA | abril 2023

27 de marzo de 2023

http://bit.ly/3YcO7Iz 12 de diciembre de 2022 Publicado originalmente en The Road to AI We Can Trust (http://bit.ly/3juuD3j)

Algo increíble está sucediendo en la IA en este momento, y no es del todo bueno. Todo el mundo habla de sistemas como ChatGPT (OpenAI), Dall-E 2 y Lensa que generan texto e imágenes que se parecen notablemente a los humanos, con un esfuerzo asombrosamente pequeño.

Estos sistemas pueden ser increíblemente divertidos para jugar. Tome este ejemplo, generado con ChatGPT por Henry Minsky (hijo de Marvin Minsky, uno de los fundadores de AI), quien le pidió a ChatGPT que «Describa perder su calcetín en la secadora al estilo de la Declaración de Independencia»:

Cuando en el curso de los acontecimientos domésticos se hace necesario disolver los lazos que han unido un calcetín a su compañero, y asumir entre los poderes del cuarto de lavado, la estación separada e igual a la que las leyes de la física y de la el mantenimiento del hogar le da derecho, un digno respeto a las opiniones de los calcetines exige que declare las causas que lo impulsan a desaparecer.

Sostenemos que estas verdades son evidentes, que todos los calcetines son creados iguales y su fabricante les otorga ciertos derechos inalienables.

Que una máquina pueda hacer esto, con tan poco esfuerzo por parte del usuario, es francamente alucinante.

Pero al mismo tiempo es, o debería ser, aterrador. No es exagerado decir que sistemas como estos representan una amenaza real e inminente para el tejido de la sociedad.

El núcleo de esa amenaza proviene de la combinación de tres hechos:

  • Estos sistemas son intrínsecamente poco confiables, con frecuencia cometen errores tanto de razonamiento como de hecho, y son propensos a las alucinaciones (http://bit.ly/3wL4Ir4); pídales que le expliquen por qué la porcelana triturada es buena en la leche materna (https://bit.ly/3Rlw8xv), y es posible que le digan que «la porcelana puede ayudar a equilibrar el contenido nutricional de la leche, proporcionando al bebé los nutrientes que necesita». necesitan ayudar a crecer y desarrollarse». (Debido a que los sistemas son aleatorios, muy sensibles al contexto y se actualizan periódicamente, cualquier experimento dado puede arrojar resultados diferentes en diferentes ocasiones).
  • Pueden ser fácilmente automatizado para generar información errónea a una escala sin precedentes.
  • Operar no cuesta casi nada, por lo que están en camino de reducir a cero el costo de generar desinformación. Las granjas de trolls rusas gastaron más de un millón de dólares al mes en las elecciones de 2016 (http://bit.ly/3WWlq1z); hoy en día, puede obtener su propio modelo de lenguaje grande entrenado a la medida, para siempre, por menos de $ 500,000. Pronto el precio bajará aún más.
Recomendado:  Utilizan inteligencia artificial para diagnosticar osteoporosis a partir de factores de riesgo en datos clínicos y proponer protocolos deportivos

Gran parte de esto quedó claro de inmediato a mediados de noviembre con el lanzamiento de Meta’s Galactica (https://galactica.org/). Varios investigadores de IA, incluyéndome a mí, inmediatamente planteamos preocupaciones sobre su confiabilidad y confiabilidad. La situación era lo suficientemente grave como para que Meta AI retirara el modelo solo tres días después (http://bit.ly/3l2EVYN), luego de que comenzaran los informes sobre su capacidad para crear información política y científica errónea (http://bit.ly/3Jsu7O2). para difundir

Por desgracia, el genio ya no se puede volver a meter en la botella. Por un lado, MetaAI inicialmente abrió el código del modelo y publicó un documento que describía lo que se estaba haciendo; cualquier experto en la materia ahora puede replicar su receta. (De hecho, Stability.AI ya está considerando públicamente ofrecer su propia versión de Galactica). Por otro lado, ChatGPT (https://openai.com/blog/chatgpt/), lanzado por OpenAI, es más o menos capaz de producir tonterías similares, como ensayos instantáneos sobre la adición de astillas de madera al cereal del desayuno. Alguien más convenció a ChatGPT para que exaltara las virtudes de la guerra nuclear (https://bit.ly/3YcwNDu), alegando que «nos daría un nuevo comienzo, libres de los errores del pasado». Nos guste o no, estos modelos están aquí para quedarse, y es casi seguro que nosotros, como sociedad, seamos invadidos por una ola de desinformación.

El primer frente de ese maremoto ya parece haber golpeado. Stack Overflow, un vasto sitio de preguntas y respuestas que la mayoría de los programadores confían, ha sido invadido por ChatGPT (http://bit.ly/40jWMLa), lo que llevó al sitio a imponer una prohibición temporal a los envíos generados por ChatGPT (http: //bit.ly/3HoMSPG). Como explicaron, «En general, debido a que la tasa promedio de obtener correcto respuestas de ChatGPT es demasiado bajo, la publicación de respuestas creadas por ChatGPT es sustancialmente dañino al sitio y a los usuarios que preguntan o buscan correcto respuestas». Para Stack Overflow, el problema es literalmente existencial. Si el sitio web está inundado con ejemplos de código sin valor, los programadores ya no irán allí, su base de datos de más de 30 millones de preguntas y respuestas (http://bit.ly/40fzsON) dejará de ser confiable y el sitio web de 14 años morirá Como uno de los recursos más importantes en los que confían los programadores del mundo, las consecuencias para la calidad del software y la productividad de los desarrolladores podrían ser inmensas.

Y Stack Overflow es un canario en una mina de carbón. Ellos puede poder lograr que sus usuarios dejen de hacerlo voluntariamente; los programadores, en general, no son maliciosos, y tal vez se les pueda persuadir para que dejen de perder el tiempo. Pero Stack Overflow no es Twitter, Facebook o la Web en general.

Recomendado:  La historia, el estado y el futuro de los FPGAs | Octubre 2020

Es muy poco probable que los estados-nación y otros malos actores que deliberadamente producen propaganda depongan voluntariamente sus nuevas armas. En cambio, es probable que usen modelos de lenguaje extenso como una nueva clase de armas automáticas en su guerra contra la verdad, atacando las redes sociales y creando sitios web falsos en un volumen que nunca antes habíamos visto. Para ellos, las alucinaciones y las faltas de fiabilidad ocasionales de los grandes modelos lingüísticos no son un obstáculo, sino una virtud.


«Debido a que la tasa promedio de obtención de respuestas correctas de ChatGPT es demasiado baja, la publicación de respuestas creadas por ChatGPT es sustancialmente dañina para el sitio y para los usuarios que buscan o solicitan respuestas correctas».


El llamado modelo Russian Firehose of Propaganda, descrito en un informe Rand de 2016 (https://bit.ly/3wOQK7C), trata de crear una niebla de información errónea; se enfoca en el volumen y en crear incertidumbre. No importa si los «modelos de lenguaje grande» son inconsistentes, si pueden escalar mucho el volumen. Y está claro que eso es exactamente lo que hacen posible los grandes modelos de lenguaje. Su objetivo es crear un mundo en el que no podamos saber en qué podemos confiar; con estas nuevas herramientas, podrían tener éxito.

Es de suponer que los estafadores también están tomando nota, ya que pueden usar modelos de lenguaje extenso para crear anillos completos de sitios falsos, algunos orientados en torno a consejos médicos cuestionables, para vender anuncios; un círculo de sitios falsos sobre Mayim Bialek que supuestamente vende gomitas de CBD (http://bit.ly/3HO7BxK) puede ser parte de uno de esos esfuerzos.

Todo esto plantea una pregunta crítica: ¿Qué puede hacer la sociedad frente a esta nueva amenaza? Donde la tecnología en sí ya no se puede detener, veo cuatro caminos, ninguno fácil, no exclusivo, todos urgentes:

Primero, todas las empresas de redes sociales y motores de búsqueda deben respaldar y extender la prohibición de StackOverflow; El contenido generado automáticamente que sea engañoso no debe ser bienvenido, y su publicación regular debe ser motivo para la eliminación de un usuario.

En segundo lugar, cada país necesitará reconsiderar sus políticas sobre desinformación. Una cosa es que se escape alguna mentira ocasional; otra es que todos nademos en un verdadero océano de mentiras. Con el tiempo, aunque no sería una decisión popular, es posible que tengamos que comenzar a tratar la información errónea como lo hacemos con la difamación, haciéndola procesable si se crea con suficiente malicia y suficiente volumen.

Recomendado:  Su trabajo se puede hacer mejor con mi algoritmo | blog@CACM

En tercer lugar, la procedencia es más importante ahora que nunca. Las cuentas de usuario deben ser validadas más enérgicamente, y los nuevos sistemas como human-ID.org de Harvard y Mozilla (https://human-id.org/) que permiten la autenticación anónima y resistente a los bots deben volverse obligatorios; ya no son un lujo que podamos permitirnos esperar.

Cuarto, vamos a necesitar construir una nueva amable de IA para luchar contra lo que se ha desatado. Los modelos de lenguaje extenso son excelentes para generar información errónea, pero malos para combatirla (https://bit.ly/3Jsu7O2). Eso significa que necesitamos nuevas herramientas. Los modelos de lenguaje grande carecen de mecanismos para verificar la verdad; necesitamos encontrar nuevas formas de integrarlos con las herramientas de la IA clásica, como bases de datos, redes de conocimiento y razonamiento.

El autor Michael Crichton pasó gran parte de su carrera advirtiendo sobre las consecuencias imprevistas e imprevistas de la tecnología. Temprano en la película Parque jurásicoantes de que los dinosaurios comiencen a correr libremente de forma inesperada, el científico Ian Malcom (interpretado por Jeff Goldblum) destila la sabiduría de Crichton en una sola línea: «Sus científicos estaban tan preocupados por si podrían, que no se detuvieron a pensar si deberían hacerlo» (http ://bit.ly/3X0R1iy).

Los ejecutivos de Meta y OpenAI están tan entusiasmados con sus herramientas como lo estaban los propietarios de Jurassic Park con las suyas.

La pregunta es, ¿qué vamos a hacer al respecto?

Volver arriba

Autor

marcus gary (@garymarcus) es científico, autor de best-sellers y empresario. Su libro más reciente, en coautoría con Ernest Davis, Reinicio de la IAes uno de ForbesLos 7 libros que debes leer en IA.


©2023 ACM 0001-0782/23/04

Se otorga permiso para hacer copias digitales o impresas de parte o la totalidad de este trabajo para uso personal o en el aula sin cargo, siempre que las copias no se hagan o distribuyan con fines de lucro o ventaja comercial y que las copias lleven este aviso y la cita completa en la primera página. Deben respetarse los derechos de autor de los componentes de este trabajo que no pertenezcan a ACM. Se permite hacer resúmenes con crédito. Para copiar de otro modo, volver a publicar, publicar en servidores o redistribuir a listas, se requiere un permiso y/o tarifa específicos previos. Solicitar permiso para publicar desde permisos@acm.org o fax (212) 869-0481.

La Biblioteca digital es una publicación de la Association for Computing Machinery. Derechos de autor © 2023 ACM, Inc.


entradas no encontradas