Saltar al contenido

Por qué Elon Musk y Steve Wozniak han dicho que la IA puede «plantear riesgos profundos para la sociedad y la humanidad»

3 de abril de 2023

El miércoles pasado, se publicó una carta titulada ‘Pause Giant AI Experiments: An Open Letter’ en el sitio web del Instituto Future of Life (FLI). Decía: «Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4».

¿Cuáles son las preocupaciones planteadas aquí y qué han propuesto estas personas, incluso cuando la IA continúa desarrollándose en modelos mejores y más eficientes sin errores? Nosotros explicamos.

¿Qué es ChatGPT y qué dice la carta abierta al respecto?

Un chatbot es un programa informático que puede mantener conversaciones con una persona y se ha convertido en una parte común de los sitios web en los últimos años. En sitios web como Amazon y Flipkart, los chatbots ayudan a las personas a presentar solicitudes de devoluciones y reembolsos. Pero surgió una versión mucho más avanzada cuando OpenAI, un laboratorio de investigación de IA con sede en EE. UU., creó el chatbot ChatGPT el año pasado.

Según la descripción de OpenAI, ChatGPT puede responder «preguntas de seguimiento» y también puede «admitir sus errores, desafiar premisas incorrectas y rechazar solicitudes inapropiadas». Se basa en la serie GPT 3.5 de modelos de aprendizaje de idiomas (LLM) de la empresa. GPT significa Generative Pre-trained Transformer 3 y este es un tipo de modelo de lenguaje informático que se basa en técnicas de aprendizaje profundo para producir texto similar al humano basado en entradas.

Con la inteligencia artificial o IA, en lugar de que los programadores humanos tengan que introducir entradas específicas en un programa, se introducen grandes cantidades de datos en un sistema y luego el programa usa esa información para entrenarse a sí mismo para comprender la información de manera significativa.

Recomendado:  El equipo de ingeniería desarrolla nuevos algoritmos de IA para diagnósticos de imágenes médicas rentables y de alta precisión -- ScienceDaily

El desarrollo de ChatGPT ha sido anunciado como una nueva etapa de desarrollo tecnológico que promete revolucionar la forma en que las personas buscan información, al igual que lo hicieron antes los motores de búsqueda como Google.

Si bien no hay consenso sobre qué tan ciertas serán estas afirmaciones en el futuro y si es todo lo que se promete en este momento, la eficiencia técnica de ChatGPt ha recibido reconocimiento casi universal. Ha podido aprobar el examen de la barra de EE. UU. (para calificar como abogado) y los exámenes de ingreso a instituciones destacadas, como la Escuela de Negocios Wharton.

¿Y cuál es la crítica planteada aquí?

La carta se publicó en el sitio web de FLI, que describe su trabajo como la participación en la concesión de subvenciones, la investigación de políticas y la promoción en áreas como la IA. Investigadores, directores ejecutivos de tecnología y otras figuras notables firmaron la carta, como Jaan Tallinn, cofundador de Skype, Craig Peters, director ejecutivo de Getty Images y Yuval Noah Harari, autor y profesor de la Universidad Hebrea de Jerusalén.

La carta señala que los sistemas de IA ahora tienen inteligencia humana-competitiva. Los autores creen que esto «podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes». Afirman que este nivel de planificación y gestión no está sucediendo, incluso cuando se ha iniciado una «carrera fuera de control» para desarrollar nuevas «mentes digitales» que ni siquiera sus creadores pueden entender o predecir.

Aquí también se hacen una serie de preguntas, como «¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? La carta agrega que tales decisiones no deben delegarse en «líderes tecnológicos no elegidos».

Recomendado:  Del androide paranoico del autoestopista a Wall-E: ¿por qué los robots de la cultura pop están tan tristes? | Inteligencia artificial (IA)

Entonces, ¿qué sugieren entonces?

Se ha sugerido una pausa de seis meses en sistemas de formación más potentes que GPT-4, el último desarrollo en ChatGPT que ahora también puede procesar consultas relacionadas con imágenes. “Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, dicen.

Dicen que las empresas deben desarrollar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA en este momento que pueden ser supervisados ​​por expertos externos independientes.

En general, se propone un marco adecuado con una estructura legal e infalible, incluidos los sistemas de marcas de agua «para ayudar a distinguir lo real de lo sintético», la responsabilidad por los daños causados ​​por la IA, una sólida financiación pública para la investigación técnica de seguridad de la IA, etc.

¿Ha respondido OpenAI u otros laboratorios de IA a la carta?

En el pasado, OpenAI ha usado un lenguaje de advertencia similar para hablar sobre la IA y su impacto. Señaló en una publicación de 2023: “A medida que creamos sistemas cada vez más potentes, queremos implementarlos y adquirir experiencia al operarlos en el mundo real. Creemos que esta es la mejor manera de administrar cuidadosamente AGI [Artificial General Intelligence] en existencia: una transición gradual a un mundo con AGI es mejor que una repentina. Esperamos que la poderosa IA haga que la tasa de progreso en el mundo sea mucho más rápida, y creemos que es mejor adaptarse a esto de manera incremental”.

Pero no respondió a la carta de inmediato. En particular, Musk fue uno de los financiadores iniciales de OpenAI en 2015, pero finalmente se alejó alegando un conflicto de intereses ya que Tesla también estaba mirando a la IA.

Recomendado:  Amazon SageMaker: la forma más fácil de crear modelos de inteligencia artificial se volvió aún más fácil

James Grimmelmann, profesor de derecho digital y de la información de la Universidad de Cornell, dijo a la AP que una carta que señale los peligros potenciales podría ser una buena idea, pero señaló que «también es profundamente hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la rendición de cuentas por la IA defectuosa en sus autos sin conductor”.