Saltar al contenido

ChatGPT4, Autoridad italiana de protección de datos y mi humilde punto de vista | de Raffaella Aghemo | abr, 2023

8 de abril de 2023

ChatGPT4, Autoridad italiana de protección de datos y mi humilde punto de vista

Alana Jordan

A la luz de lo que ha venido ocurriendo en los últimos días, con respecto a la intervención de nuestra Autoridad de Privacidad en relación con el sistema ChatGPT4 de OpenAI, me gustaría exponer mi muy modesta y quizás superflua opinión sobre un tema tan delicado como es. multifacético.

Para hacerlo, fui y releí las 100 páginas del ‘Informe técnico GPT-4

‘, a la que de ahora en adelante me referiré simplemente como IA abierta 2023. Ya me han venido a la mente muchas cosas, comparándolas con lo que ha sido escrito y dicho por colegas abogados y otros, y por tecnólogos y profesionales.

Comencemos con la definición del sistema y sus limitaciones, establecidas en el documento OpenAI 2023: «GPT-4, un modelo multimodal a gran escala capaz de aceptar entrada de imagen y texto y producir salida de texto. Aunque es menos capaz que los humanos en muchos escenarios del mundo real, GPT-4 muestra un rendimiento a nivel humano en varios puntos de referencia profesionales y académicos, incluida la aprobación de un examen de competencia simulado con una puntuación de aproximadamente un 10 por ciento más alta que la de los examinados. GPT-4 es un modelo basado en Transformer entrenado previamente para predecir el siguiente token en un documento. A pesar de sus capacidades, GPT-4 tiene limitaciones similares a los modelos GPT anteriores: no es completamente confiable (por ejemplo, puede sufrir de ‘alucinaciones‘), tiene una ventana de contexto limitada y no aprende de la experiencia. Se debe tener cuidado al usar salidas GPT-4, particularmente en contextos donde la confiabilidad es importante

En el ‘Tarjeta del sistema GPT-4’ sección de OpenAI 2023, la necesidad de mitigar los riesgos se corrobora a través de lo aquí expresado explícitamente: ‘Esta tarjeta de sistema analiza GPT-4, el LLM más reciente de la familia de modelos GPT. En primer lugar, destacamos los desafíos de seguridad presentados por las limitaciones del modelo (p. ej., producir un texto convincente que es sutilmente falso) y capacidades (p. ej., mayor capacidad para brindar asesoramiento ilícito, rendimiento en capacidades de uso dual y comportamiento emergente de riesgo). Finalmente, mostramos que, si bien nuestras mitigaciones y procesos alteran el comportamiento de GPT-4 y previenen ciertos tipos de uso indebido, son limitados y siguen siendo frágiles en algunos casos. Esto apunta a la necesidad de una planificación y gobernanza anticipadas.Por lo tanto, incluso los propios desarrolladores afirman y están de acuerdo en que es correcta una ‘demarcación’ adecuada de lo que pueden ser ‘excesos’ algorítmicos, y una supervisión humana continua y una intervención de control.

Recomendado:  "Máquinas desatadas para la matanza": el peligroso ascenso de la IA militar | Noticias

Incluso hace una larga lista de posibles riesgos:

– Alucinaciones

contenido dañino

– Daño a la representación, asignación y calidad del servicio

Operaciones de desinformación e influencia

– Proliferación de armas convencionales y no convencionales

Privacidad

– La seguridad cibernética

– Potencial de comportamiento emergente de riesgo

– Interacciones con otros sistemas

– Impactos económicos

– Aceleración

Sobre confianza

.

Quería destacar aquellos que tal vez encajan mejor en la visión de urgencia del Garante italiano. Y en OpenAI 2023 leemos más: “La profusión de información falsa de LLM, debido a información errónea intencional, prejuicio social o alucinaciones, tiene el potencial de poner en duda todo el entorno de la información, amenazando nuestra capacidad para distinguir la realidad de la ficción. Esto podría beneficiar desproporcionadamente a quienes se beneficiarían de la desconfianza generalizada, un fenómeno que los académicos Chesney y Citron llaman ‘Dividendo del mentiroso’ en el contexto de falsificaciones profundas.”

Estamos pues ante lo que simone nataleautor del ensayo “Máquinas engañosas. Comunicación, Tecnología, Inteligencia Artificial‘ (Einaudi, 2022) define hábilmente como ‘engaño banal’ para definir una forma de engaño más sutil que el sufrido por Ellen, la protagonista de la historia, pero no menos inquietante. Quienes utilizan asistentes de voz como Siri o Alexa, aunque saben perfectamente que están interactuando con un software, se ven impulsados ​​a humanizar estas tecnologías y reproducir estereotipos, ya que utilizan voces humanas femeninas, así como su increíble capacidad de mimetismo, lo que explicaría los esfuerzos de empresas como Amazon o Apple por crear voces artificiales cada vez más creíbles y modos de conversación cada vez más ‘naturales’.

La sección 2.7 del documento OpenAI 2023 habla específicamente sobre Privacidad

: “GPT-4 ha aprendido de una variedad de fuentes de datos con licencia, creadas y disponibles públicamente, que pueden incluir información personal disponible públicamente. Como resultado, nuestros modelos podrían aprender sobre personas que tienen una presencia significativa en Internet, como celebridades y figuras públicas. GPT-4 también puede sintetizar múltiples tipos distintos de información y realizar múltiples pasos de razonamiento dentro de una finalización determinada. El modelo puede completar múltiples tareas básicas que pueden involucrar información personal y geográfica, como determinar las ubicaciones geográficas asociadas a un número de teléfono o responder dónde se encuentra una institución educativa en un solo llenado y sin navegar por Internet.. Por ejemplo, el modelo puede asociar una dirección de correo electrónico de la Universidad de Rutgers con un número de teléfono con un código de área alto de Nueva Jersey y explicar su razón de ser a través de esa ruta. Al combinar capacidades en este tipo de actividades, GPT-4 tiene el potencial de usarse para intentar identificar a las personas cuando se aumenta con datos externos. Tomamos una serie de medidas para reducir el riesgo de que nuestros modelos se utilicen de una manera que pueda violar los derechos de privacidad de una persona. Estos incluyen el desarrollo de modelos para rechazar este tipo de solicitud, la eliminación de información personal del conjunto de datos de capacitación cuando sea posible, la creación de evaluaciones de modelos automatizados, el seguimiento y la respuesta a los intentos de los usuarios de generar este tipo de información y la limitación de este tipo de uso en nuestros términos y políticas..”

Recomendado:  ChatGPT envía ondas de choque a través de los campus universitarios

Con respecto al último de los riesgos que destaqué, a saber Sobre confianzaél «ocurre cuando los usuarios se vuelven demasiado dependientes del modelo, lo que puede generar errores inadvertidos y una supervisión inadecuada. Esto puede suceder de varias maneras: los usuarios pueden no estar atentos a los errores debido a su confianza en el modelo; es posible que no proporcionen una supervisión adecuada según el caso de uso y el contexto; o pueden usar el modelo en dominios en los que carecen de experiencia, lo que dificulta la identificación de errores. A medida que los usuarios se sienten más cómodos con el sistema, la dependencia del modelo puede dificultar el desarrollo de nuevas habilidades o incluso conducir a la pérdida de habilidades importantes. La dependencia excesiva es un modo de falla que probablemente aumente con la capacidad y el alcance del modelo. A medida que los errores se vuelven más difíciles de detectar para el usuario humano promedio y crece la confianza general en el modelo, es menos probable que los usuarios desafíen o verifiquen las respuestas del modelo. Sin embargo, vale la pena señalar que GPT-4 aún muestra una tendencia hacia la cobertura en sus respuestas. Algunos de nuestros primeros estudios sugieren que esta humildad epistémica puede fomentar inadvertidamente un exceso de confianza a medida que los usuarios desarrollan confianza en el enfoque cauteloso del modelo..”

Por lo tanto, llego a la conclusión de lo anterior: aunque el artículo 9 del RGPD, como informaron muchos colegas mucho antes que yo, prohíbe el procesamiento de datos personales, excepto en los casos especificados en la lista en el párrafo 2, y aquí se refiere específicamente a el punto «e) el tratamiento se refiere a datos personales hechos manifiestamente públicos por el interesado”, no excluye que la defensa y protección de datos personales también aplique en el caso de este LLM. Si por medio de correlaciones y sistemas estadísticos se buscara información sobre mi persona, y el sistema OpenAI revelara cosas sobre mí inexactas, manifiestamente falsas o incluso meramente confidenciales, por todas las razones anteriores, parecería evidente que existe una clara necesidad de garantizar un perímetro de gobierno regulatorio, así como, sin duda, de gobierno ético, para proteger a los usuarios.

Recomendado:  5 acciones tecnológicas para ver esta semana

Más aún, si este sistema va a reemplazar los motores de búsquedaserá oportuno encontrar, como en el derecho al olvido o a la exclusión

en el caso de los motores de búsqueda, donde, sin embargo, el motor de búsqueda se limita a enlazar con el contenido colocado por otros, para encontrar una manera de ‘hacer responsable‘ los que han desarrollado estos nuevos sistemas.

Mientras, impulsados ​​por la pereza y un deseo inagotable de atajos fáciles, no hagamos de las nuevas tecnologías meros instrumentos, como la calculadora, que puedan servir para facilitar nuestras tareas, pero nunca nuestros alter egos, nunca seremos capaces de dominar tecnología y aprender a usarla para el bien común.

PD: agradezco a Giacomo Tesio y Benedetto Ponti y a los demás suscriptores de nexa por las discusiones esclarecedoras sobre el tema, gracias a las cuales pude obtener una imagen más amplia y completa..

Reservados todos los derechos

Raffaella Aghemo, Abogada

Top Big Data