Saltar al contenido

Por qué están preocupados | blog@CACM

20 de julio de 2023

1. Introducción

El 22 de marzo de 2023, el Future of Life Institute (FLI) publicó una carta abierta pidiendo una pausa de seis meses en «el entrenamiento de sistemas de IA más potentes que GPT-4» (FLI, 2023). Preocupado por los riesgos existenciales de la IA, aquellos que podrían dañar grave e inalterablemente a la humanidad, destaca los peligros asociados específicamente con modelos generativos grandes y opacos. La carta fue rápidamente firmada por más de 50.000 personas y provocó un discurso apasionado. Este interés público no solo fue provocado por el argumento convincente presentado, sino también impulsado por el respaldo de cientos de investigadores líderes y partes interesadas de la industria. Sin embargo, los puntos de vista de muchos expertos, particularmente aquellos con pequeñas plataformas públicas, siguen sin explorarse en gran medida.

Es poco probable que todos los signatarios teman sin reservas los riesgos existenciales que plantea la IA, y mucho menos estén de acuerdo con la carta completa. Para comprender las preocupaciones de estos expertos más allá de las amenazas existenciales, realizamos entrevistas y cuestionarios con 37 signatarios. Buscamos comprender sus perspectivas personales sobre la carta y desarrollar una comprensión integral de las fuentes más profundas de angustia de los principales expertos en IA sobre su campo. A continuación se presenta un breve resumen de nuestros hallazgos: qué llevó a estos expertos a firmar la carta, qué es lo que más les preocupa sobre el campo y qué creen que debe cambiar. Una discusión más detallada de nuestras conversaciones está disponible en otro lugar y se vincula a continuación.

2. ¿Por qué firmar?

Aunque la mayoría de los entrevistados se alinearon con el espíritu de la carta, muchos ni anticiparon ni abogaron por una pausa, ni estaban preocupados principalmente por los riesgos existenciales de AI. Sin embargo, todos los entrevistados coincidieron en que el rápido desarrollo y despliegue de sistemas avanzados de IA es inapropiado y potencialmente muy peligroso. Su preocupación por el ritmo actual de despliegue de IA avanzada fue lo suficientemente grande como para firmar la carta. Esperaban que pudiera ayudar a mitigar varios riesgos anticipados al alertar a los siguientes tres grupos:

2.1 Para los desarrolladores: aquí hay una salida

La mayoría de los firmantes no vilipendiaron a los equipos detrás de los modelos de vanguardia. Muchos, los propios tecnólogos, empatizaron con los desarrolladores y atribuyeron la carrera de la IA a la competencia de la industria y las fuerzas del mercado. Al abogar públicamente por una desaceleración, algunos esperaban que la carta pudiera ofrecer evidencia para las empresas que querían actuar con cautela. Sin embargo, los entrevistados menos optimistas sintieron que los desarrolladores y las empresas están demasiado motivados por su ambición de crear tecnología innovadora.

Recomendado:  ¿Cómo ha cambiado? - Enfoque de entretenimiento

2.2 A los reguladores: es hora de actuar

Alternativamente, algunos firmaron para alentar a los formuladores de políticas, que generalmente responden lentamente a las tecnologías emergentes, a actuar con mayor rapidez. Esperaban que la carta impulsara un diálogo regulatorio muy necesario y acelerado. Y mientras algunos se mostraron escépticos sobre la capacidad de los organismos reguladores para estar a la altura de las circunstancias, otros expresaron un cauto optimismo sobre las iniciativas recientes.

2.3 Al Público: Prestar Atención

Finalmente, los firmantes buscaron cerrar la brecha entre la percepción pública y el estado real de la IA. Muchos sintieron que la comprensión general a menudo está distorsionada, enmarcando a la IA como una amenaza existencial o como una solución milagrosa para todos los problemas. Esperaban que la carta abierta encendiera el discurso y contribuyera a una comprensión pública más precisa de la capacidad, el potencial y el riesgo de la tecnología.

3. ¿Por qué reducir la velocidad?

Independientemente de sus motivos para firmar, cada entrevistado estaba profundamente preocupado por el rápido despliegue actual de IA. Sin embargo, debido a la diversidad de conocimientos, sus preocupaciones variaron en diferentes aspectos del campo. Los entrevistados discutieron los riesgos asociados con el estado actual y el desarrollo futuro de la IA, así como sus posibles efectos. Pero todas las preocupaciones procedían de la misma fuente.

3.1 La raíz del problema

En general, los entrevistados acordaron que el despliegue rápido de modelos avanzados e ininterpretables con pruebas mínimas es peligroso. Los expertos no pueden comprender completamente su comportamiento y, por lo tanto, no pueden controlar y garantizar completamente su seguridad. Muchos consideraron que la distribución global expedita de tales modelos era irresponsable y contraria a las prácticas de ingeniería efectivas. Algunos entrevistados atribuyeron la disposición de las empresas a lanzar modelos inmanejables a una cultura tecnológica que valora el desarrollo rápido por encima de la implementación cuidadosa. Como resultado, los expertos temían que los sistemas avanzados de inteligencia artificial de hoy en día plantean una serie de riesgos tanto directos como indirectos. Aquí, enumeramos los más impactantes de estos riesgos, mientras que nuestro documento ampliado ofrece una discusión completa y más matizada.

3.2 Efectos directos del despliegue rápido de IA

Los signatarios expresaron una gran preocupación por varios problemas que los sistemas avanzados de inteligencia artificial actuales podrían causar directamente debido a su complejidad y despliegue apresurado. Estos problemas surgen de comportamientos de modelos impredecibles o indeseables, ya sea involuntarios o provocados por la manipulación humana. Los expertos notaron la frecuencia con la que los sistemas actuales crean falsedades muy convincentes que podrían llevar a muchos a creer en la información errónea generada por la IA. Además, estos sistemas también podrían ayudar a difundir información errónea generada por humanos, ya que los algoritmos impulsados ​​por IA priorizan el contenido que maximiza las ganancias. Los entrevistados sintieron que tales algoritmos son altamente susceptibles a campañas de manipulación con motivaciones políticas. Ya sea que los motores de recomendación de IA muestren contenido falso o le mientan directamente, el público empezará a desconfiar de sus fuentes de información. Si la información errónea perpetuada por la IA continúa propagándose, los entrevistados temían que las personas comenzaran a tener dificultades para creer mucho de lo que leen o ven.

Recomendado:  Cómo la Inteligencia Artificial puede ayudar a mejorar la calidad del aire

Además, los signatarios estaban muy preocupados por la tendencia humana a vincularse socialmente incluso con chatbots simples y las formas en que los malos actores pueden abusar de los poderosos modelos de código abierto.

3.3 Efectos indirectos del despliegue rápido de IA

Si bien las preocupaciones sobre el comportamiento directo de los sistemas de IA avanzados de la actualidad fueron significativas, el enfoque también se extendió a las formas en que se desarrollan estos modelos y cómo podrían afectar los sistemas en los que están integrados. Aquí, enumeramos dos ejemplos de este tipo.

3.3.1 Desplazamiento laboral

Los expertos estaban universalmente preocupados por la magnitud y la velocidad del desplazamiento laboral causado por la proliferación de la IA. Por supuesto, se abrirán nuevos nichos, pero tanto los académicos como los entrevistados de la industria se preocuparon de que el ritmo del desarrollo de la IA sea demasiado grande para que la sociedad se adapte cómodamente. Algunos reflexionaron que si una gran parte de la población se queda sin empleo y, por lo tanto, sin invertir en su éxito, la sociedad podría desestabilizarse gravemente. Desde una perspectiva más individual, los entrevistados expresaron incertidumbre sobre el papel futuro de los humanos si los sistemas de IA cada vez más avanzados les permiten descargar tareas complejas.

3.3.2 Poder dispar

Algunos expertos también expresaron su preocupación por la gran influencia global que tienen los poderosos sistemas de IA. Argumentan que los valores de los diseñadores inevitablemente dan forma al producto, y un grupo pequeño y homogéneo de personas con experiencia limitada no debería ser el único responsable de desarrollar sistemas de IA que interactuarán con diversos usuarios globales.

Recomendado:  Planificar viajes gratis con ChatGPT y vivir experiencias únicas recomendadas por micr...

Estas influencias culturales tienen matices, pero no tienen menos impacto que el poder político y financiero explícito que ejercen las grandes empresas tecnológicas a la vanguardia del desarrollo de la IA. Muchos entrevistados expresaron su convicción de que tales empresas poseen una influencia global sustancial, que están motivados a expandir. Algunos, como resultado, sintieron que la riqueza generada por los sistemas avanzados de IA no se filtrará al público que financió parcialmente su desarrollo (a través de donaciones y subvenciones) y asumirá la carga del cambio de empleo.

Nuestro documento completo describe las preocupaciones adicionales de los entrevistados sobre los entornos de trabajo abusivos en los que se etiquetan los datos de capacitación y los efectos ambientales del desarrollo y uso de sistemas masivos de IA.

4. ¿Qué sigue?

A pesar de sus profundas consideraciones sobre los riesgos, los expertos no tenían propuestas claras para el futuro de la IA. Aunque ninguno creía que la IA debería confiarse por completo al libre mercado, variaron significativamente sobre qué grado de regulación es prudente. Sin embargo, hubo un consenso general para romper con el ritmo implacable en el campo de la IA. Si bien los avances en tecnología a menudo generan cambios positivos, nuestros entrevistados instaron a un mayor énfasis en considerar los riesgos potenciales y las implicaciones más amplias. Cada experto con el que hablamos abogó por un cambio sin precedentes en la cultura de la informática: reducir la velocidad, olvidar la tecnología por un momento y considerar su contexto.

Para una exploración más detallada de este tema, consulte nuestro artículo ampliado aquí: https://arxiv.org/abs/2306.00891v1

5. Referencias

Instituto Futuro de la Vida. (2023, 22 de marzo). «Pausar los experimentos gigantes de IA: una carta abierta». futureoflife.org/open-letter/pause-giant-ai-experiments/

Kelly, J. (2023, 3 de abril). «Goldman Sachs predice que la Inteligencia Artificial perderá o degradará 300 millones de puestos de trabajo». Forbes.
https://www.forbes.com/sites/jackkelly/2023/03/31/goldman-sachs-predicts-300-million-jobs-will-be-lost-or-degraded-by-artificial-intelligence/?sh =523823aa782b

Isabella Stuckman es un estudiante de cuarto año en el Instituto de Tecnología de Massachusetts que estudia Inteligencia Artificial y Toma de Decisiones y Ética. sofie kupiec Recientemente se graduó del Instituto de Tecnología de Massachusetts con un título en Ciencias de la Computación, Economía y Ciencia de Datos.


entradas no encontradas