ChatGPT ha llevado la inteligencia artificial a la conciencia pública. La sociedad se encuentra en una encrucijada con respecto al papel de la IA en nuestro futuro, lo que nos obliga a tomar decisiones sociales para evitar malos resultados.
ChatGPT plantea un peligro existencial, aunque no del tipo Terminator. La amenaza es lo suficientemente significativa como para exigir una regulación que garantice que usamos capacidades tan poderosas para el beneficio de la sociedad. Se están realizando varios esfuerzos para regular este tipo de IA, pero los gobiernos deben actuar ahora: la ventana para una regulación efectiva es relativamente estrecha.
La regulación siempre irá a la zaga de la innovación, especialmente en el sector tecnológico. En la actualidad, no existe una regulación a nivel de la UE sobre tecnología basada en IA en una amplia gama de productos, como automóviles autónomos, tecnología médica y sistemas de vigilancia. Es posible que sea a principios de 2025 antes de que entren en vigor las normas que se debaten en el Parlamento Europeo. Eso es demasiado tarde para los productos basados en grandes modelos de lenguaje como ChatGPT. El regulador de privacidad italiano prohibió recientemente ChatGPT debido a infracciones creíbles de GDPR, y España y Francia han planteado preocupaciones similares. Pero se necesita hacer más.
[ AI could be the next industrial revolution – but what risks does it bring? ]
Los desarrolladores de estas tecnologías, incluido OpenAI, conocen solo algunos de los posibles resultados adversos. OpenAI contrató a un equipo de destacados académicos durante un período de seis meses para evaluar el impacto negativo que podría tener GPT-4. Entre los resultados, descubrieron que pudo encontrar un lugar para fabricar armas químicas, escribir discursos de odio y encontrar armas sin licencia en línea. Según esta evaluación, OpenAI modificó GPT-4 antes del lanzamiento. Pero esto es sólo un conjunto limitado de problemas. Claramente, queda una gran variedad de consecuencias negativas aún no descubiertas.
¿Es ChatGPT inherentemente peligroso? Apliquemos una noción literaria de robótica a la pregunta. Isaac Asimov, el autor de ciencia ficción, ideó un conjunto de reglas para ser integradas en el software de los robots, incluida una «Primera Ley», que establece que un robot no puede dañar a un ser humano, o por inacción permitir que un ser humano llegar a hacer daño. ¿ChatGPT cumple con esta ley?
Actualmente, no tiene poder real para dañar a un humano directamente. Tampoco tiene noción de lo bueno o lo malo, ni la capacidad de tomar decisiones morales. Es un sistema de IA generativo entrenado en datos no etiquetados. Puede extrapolar a partir de esos datos para generar respuestas a consultas que luego puede extender más allá de su capacitación para desarrollar respuestas plausibles, pero no necesariamente precisas.
ChatGPT se basa en GPT-4. Nadie vivo puede entender este sistema o explicar por qué genera respuestas a consultas. Esta falta de explicabilidad es profundamente preocupante
ChatGPT es un sistema basado en datos: se crea a partir de la síntesis de datos y es tan poderoso como los datos en los que se basa. Los sistemas de IA potentes y precisos basados en datos requieren tareas bien definidas dentro de entornos restringidos, utilizando datos cuidadosamente seleccionados. Por ejemplo, algunas áreas del diagnóstico del cáncer involucran sistemas basados en IA basados en datos que superan a los expertos humanos y ofrecen un beneficio social sustancial. Al entrenar este sistema en un entorno restringido (detección de cáncer en imágenes de resonancia magnética) utilizando datos cuidadosamente seleccionados, en este caso, imágenes de resonancia magnética con y sin cáncer presente, se pueden mejorar los resultados del tratamiento.
ChatGPT no cumple ninguno de estos requisitos, por lo que seguirá siendo un sistema débil con una efectividad limitada sin más modificaciones. Está entrenado en una tarea indefinida dentro de entornos totalmente ilimitados, en datos aleatorios accesibles a través de la web.
Los usuarios pueden realizar cualquier forma de consulta, no una clase de preguntas con respuestas bien definidas, por ejemplo, «Dime todos los restaurantes tailandeses en Galway». Ya está claro que ChatGPT comete errores y que puede y ha fabricado respuestas sin sentido.
Es fundamental para evaluar el peligro de ChatGPT que este sistema solo puede interactuar a través de texto o voz; no hay un conjunto inherente de acciones que pueda tomar un sistema basado en ChatGPT. Esto es diferente a los sistemas autónomos que actúan en el mundo, como los automóviles autónomos, que se entrenan mediante el aprendizaje por refuerzo. Dados los datos de entrada de los sensores del automóvil, el vehículo está entrenado para actuar, por ejemplo, conducir en línea recta o evitar a un peatón.
ChatGPT se entrena utilizando algoritmos de aprendizaje profundo basados en el lenguaje, sin posibles acciones involucradas. Como tal, ChatGPT no tiene noción de actuar en el mundo.
A pesar de esto, es una herramienta que necesita ser regulada. El software que controla los sistemas de piloto automático para aviones comerciales está muy regulado. Compare la industria del software/IA virtualmente no regulada con otros sistemas críticos, como el software de piloto automático de las aerolíneas. Estos sistemas de piloto automático son explicables porque las matemáticas subyacentes, como el software que los implementa, son claramente demostrables.
[ The Irish Times view on artificial intelligence: promise and peril ]
Pero ChatGPT se basa en GPT-4. Nadie vivo puede entender este sistema o explicar por qué genera respuestas a consultas. Esta falta de explicabilidad es profundamente preocupante, especialmente si ChatGPT se usa para la toma de decisiones sociales cruciales.
La red en la que se basa ChatGPT es tan buena como los datos en los que se entrena, y ChatGPT se entrena en datos no regulados de Internet. ¿Cómo se espera que una IA cree una teoría del bien o del mal, o la capacidad de tomar decisiones morales, sin alguna guía explícita? Este proceso de capacitación no tiene regulación, por lo que los resultados no están regulados y pueden ser peligrosos. Además, los datos utilizados pueden violar las leyes de privacidad, lo que lleva a decisiones como la del regulador de privacidad italiano.
Entonces, ¿cómo podría ChatGPT, en su encarnación actual, causar daño? Tomemos su uso como motor de búsqueda. Debido a que no sabemos cómo ChatGPT crea respuestas, no hay garantía de que las respuestas sean precisas o que se basen en datos abusivos u odiosos, a diferencia del motor de búsqueda de Google, que se basa en un algoritmo de PageRank con bien- comprendió los fundamentos matemáticos. La posibilidad de que reemplacemos los motores de búsqueda cuyo desempeño entendemos con motores cuyo desempeño no entendemos es preocupante.
Toda la industria del software de IA necesita una mejor regulación. Ya sabemos del daño que hacen las filiales de Meta, como el daño que hace Instagram a las jóvenes o Cambridge Analytica a través de su acceso a los datos de Facebook. La tecnología deepfake también plantea muchos problemas.
La ventana para la regulación es estrecha. Los gobiernos deben actuar antes de que se cierre por completo.
El profesor Gregory Provan es profesor de informática y tecnología de la información en el University College Cork y dirige una investigación de Lero sobre vehículos autónomos combinados.