Saltar al contenido

Protección de la inteligencia artificial en modelos de lenguaje extenso

24 de mayo de 2023

La inteligencia artificial (IA) abarca varias disciplinas: procesamiento de lenguaje natural, razonamiento automatizado, aprendizaje automático (ML), aprendizaje profundo, redes neuronales, computación cognitiva, análisis avanzado y minería de datos, entre otros. Michela Menting, directora sénior de investigación de ABI Research, explora el estado actual de la IA y destaca la necesidad de asegurar los modelos LLM para prevenir los riesgos de la evolución desenfrenada de la IA.

Más estrictamente, la IA implica el estudio y la creación de sistemas informáticos capaces de un comportamiento inteligente, es decir, capaces de realizar o imitar funciones cognitivas que se asocian intuitivamente con la mente humana, incluida la capacidad de aprender del entorno, adaptarse a él, interpretarlo, hacer inferencias y resolver problemas.

Aprendizaje automático y aprendizaje profundo: ¿qué son y en qué se diferencian?

ML se considera un subcampo de la IA y se refiere esencialmente al desarrollo de sistemas digitales que mejoran su desempeño en una tarea determinada a lo largo del tiempo a través de la experiencia. Estos sistemas aprovechan un conjunto de métodos para derivar modelos y algoritmos complejos que pueden comprender, analizar y predecir resultados futuros en función de los datos recopilados sin haber sido programados explícitamente para hacerlo. El objetivo final de ML es crear algoritmos que aprendan automáticamente sin ninguna intervención o asistencia humana.

El aprendizaje profundo es un campo de rápido crecimiento en la familia ML más amplia que está encontrando una adopción cada vez mayor en aplicaciones donde los conjuntos de datos son grandes y las funciones de destino son muy complejas. Este enfoque utiliza niveles jerárquicos de redes neuronales artificiales para permitir que los algoritmos de ML realicen la extracción y transformación de características a través de procesos acoplados y en capas. Se centra en las representaciones y la optimización de los datos que permiten que la información de los datos se interprete utilizando algunas suposiciones simbióticas.

La principal diferencia entre el aprendizaje profundo y los algoritmos de aprendizaje automático tradicional es que, mientras que este último generalmente procesa funciones específicas en los datos sin establecer jerarquías o dependencias, los algoritmos de aprendizaje profundo se basan en el procesamiento de datos correlacionados e interconectados a través de múltiples niveles de representación o jerarquía, lo que aumenta su complejidad y los hace más abstractos que los algoritmos ML tradicionales.

Hoy en día, las técnicas de aprendizaje profundo encuentran uso en muchos campos diferentes, ya que básicamente se pueden aplicar a cualquier aplicación de análisis de big data. Entre los más comunes se encuentran el procesamiento del lenguaje natural, el reconocimiento de voz, el diagnóstico médico y la seguridad de la red.

Los modelos de lenguaje extenso (LLM) son tipos de aprendizaje profundo que utilizan cantidades masivas de datos de lenguaje natural, generalmente más de mil millones de parámetros. Los LLM pueden comprender y generar rápidamente respuestas a consultas de texto. El LLM más popular hasta la fecha, ChatGPT, solo surgió en noviembre de 2022 y OpenAI lo creó y lo lanzó públicamente. Estos chatbots han conquistado el mundo.

Recomendado:  Cinco versiones únicas y memorables de la inteligencia artificial

El último modelo de ChatGPT, GPT-4, tiene más de 175 mil millones de parámetros. Sus capacidades han tomado a muchos por sorpresa, y desde entonces se ha vuelto muy popular en los segmentos de consumidores y empresas, generando imitadores y alternativas competitivas de rápida evolución: Jasper AI, Google Bard, Bing con tecnología de inteligencia artificial de Microsoft y DeepMind’s Sparrow, y hay incluso alternativas impulsadas por el propio modelo ChatGPT (ChatSonic, YouChat).

Ver más: ¿Puede el aprendizaje automático en la base de datos ayudar a eliminar el riesgo de filtración?

Los peligros de la evolución rápida en LLM

La rápida evolución de los chatbots basados ​​en LLM ha traído consigo debates sobre los peligros de la IA. Estas discusiones surgen cíclicamente cada vez que la IA logra avances significativos, aunque hoy en día están llegando a un público mucho más amplio que antes. En parte, esto se debe al desarrollo vertiginoso de ChatGPT, que sorprendió incluso a sus propios desarrolladores; sin embargo, esto se debe principalmente a que se ha vuelto accesible instantáneamente para muchas personas. Si bien la IA ha sido en gran medida una tecnología conceptual un poco fuera de alcance, la naturaleza de código abierto de hoy permite que cualquier persona interactúe directamente con la tecnología sin necesidad de ningún pago o equipo especializado. Esto ha hecho que la IA, a través de ChatGPT, sea una realidad concreta en la mente de muchas personas en lugar de una construcción abstracta y etérea.

Al igual que la inteligencia humana, la IA tiene un uso dual en el sentido de que puede usarse con fines beneficiosos o dañinos. Hay tres áreas principales de preocupación con respecto a la IA que se debaten hoy.

1. ¿La IA representará una amenaza para la humanidad?

El primero es el argumento de que a medida que la IA se vuelve sensible, representará una amenaza para la humanidad. Muchas personalidades científicas y tecnológicas líderes han debatido esto extensamente durante la última década. En gran parte, este argumento es comprensible. Es una reacción humana natural ver la vida sensible no humana como una amenaza para la humanidad; simplemente porque así es como la humanidad ha evolucionado hacia la sensibilidad. Esperamos que nuestro propio comportamiento se refleje en otros seres sintientes, especialmente en aquellos que creamos a nuestra imagen. Por lo tanto, no es una preocupación infundada, pero aún presupone que la IA puede volverse consciente de manera realista, lo que actualmente divide a la comunidad de IA por la mitad.

Recomendado:  todo tipo de problemas con la inteligencia artificial | Goodell, DeVries, Leech & Dann, LLP

2. ¿Se puede usar la IA para causar daño?

Más allá de este debate futurista, la segunda preocupación es más directamente relevante hoy. Esto se enfoca en crear modelos que puedan usarse con fines dañinos: ya sea maliciosamente (para perpetrar delitos) o dentro del contexto del uso del gobierno. En última instancia, el uso nocivo de la IA dependerá de los valores fundamentales del desarrollador (sociales, políticos, morales, filosóficos, económicos, etc.). Diferentes desarrolladores tendrán actitudes divergentes y subjetivas sobre lo que constituye un uso dañino de la IA (por ejemplo, el uso de tecnologías de reconocimiento facial en espacios públicos, una violación de la privacidad o un imperativo de seguridad nacional).

El uso de chatbots puede educar, informar y ayudar, pero también se pueden usar para difundir propaganda o desinformación. A medida que la IA se vuelve más eficiente, más asequible y más disponible, y los productos complementarios, como el hardware, la potencia de procesamiento y el almacenamiento de datos, también se vuelven más baratos y accesibles, la capacidad de un mayor número de usuarios para aprovecharla con fines delictivos incrementará.

3. ¿Se pueden manipular las vulnerabilidades de la IA?

La tercera preocupación se relaciona directamente con las vulnerabilidades existentes en los modelos actuales que podrían explotarse mediante la manipulación adversaria. La mayoría de estas vulnerabilidades no están cerca de ser resueltas. La comunidad de investigación ha demostrado durante mucho tiempo que los modelos de ML, incluidas las redes neuronales, son vulnerables a la manipulación adversaria, y los ejemplos adversarios son abundantes. Pero poco se ha hecho para asegurar esos modelos, hasta la fecha, desde una perspectiva comercial.

Los algoritmos de entrenamiento tienen un punto ciego fundamental que puede quedar expuesto a través de tal manipulación adversaria. Los ejemplos más comunes que se muestran son las perturbaciones en los modelos de clasificación de imágenes, donde pequeños cambios en los datos de entrenamiento (que el ojo humano no puede distinguir) pueden hacer que el modelo clasifique erróneamente una imagen. Estas entradas contradictorias se transfieren entre modelos; diferentes modelos a menudo clasifican erróneamente el mismo ejemplo adversario, multiplicando el vector de amenazas. Esto plantea un problema con la implementación de nuevos sistemas de IA que, sin darse cuenta, pueden exponerse a ataques que pueden explotar estas vulnerabilidades inherentes.

La mayoría de los sistemas de ML diseñados en la actualidad, además de los de la industria de la ciberseguridad que existen en un contexto adversario, no tienen en cuenta la manipulación adversaria. En gran parte, esto se debe a su diseño para entornos estacionarios en los que se supone que tanto los datos de entrenamiento como los de prueba se generan a partir de la misma distribución. En consecuencia, la mayoría de los diseñadores de modelos no tienen en cuenta los adversarios adaptativos que intentarán explotar los modelos manipulando los datos de entrada. Esta percepción está cambiando radicalmente hoy en día con los LLM.

Recomendado:  ¿Seguirías los consejos financieros de una inteligencia artificial?

Ver más: ¿Cómo pueden los desarrolladores de IA evitar las minas terrestres éticas?

Una era de IA confiable

Si bien la academia se ha centrado en el tema de la manipulación adversaria durante algún tiempo, solo con el surgimiento de los LLM, la investigación se comercializa con más éxito. Empresas como AIShield se centran en varios aspectos de la seguridad de la IA: seguridad de modelos, uso de LLM y desarrollo de IA confiable. Otros, como Zama, se centran en aprovechar el cifrado totalmente homomórfico (FHE) para garantizar la privacidad y la confidencialidad. De hecho, el ámbito más amplio de la computación confidencial está dirigiendo su atención a cómo puede proporcionar confidencialidad para los algoritmos de ML, con computación multipartita y entornos de ejecución confiables como candidatos propuestos. Si bien muchos ya funcionan bien para proteger los algoritmos de ML, existe un nivel exponencialmente mayor de complejidad y, por lo tanto, dificultad para aplicar estas mismas tecnologías para proteger los algoritmos de aprendizaje profundo, como los LLM.

Claramente, las discusiones sobre cómo asegurar la IA son complicadas y todas las inquietudes deben abordarse eventualmente. En el tema de la manipulación adversaria y los usos dañinos, hay mucho que ya se puede hacer en la práctica, tanto desde una perspectiva tecnológica como desde una perspectiva regulatoria. Al sentar las bases para desarrollar modelos de IA responsables y éticos, es posible minimizar el riesgo futuro de una IA consciente dañina que corre el riesgo de representar un peligro existencial para la humanidad.

¿Deberíamos preocuparnos por la tasa de evolución de la IA? Comparte tus pensamientos con nosotros en FacebookAbre una nueva ventana