Saltar al contenido

Luces y sombras de la inteligencia artificial

11 de abril de 2023

La inteligencia artificial avanza a pasos agigantados, tanto que lo hace sin ningún tipo de control. Así lo aseguran un millar de expertos que han firmado un manifiesto para advertir sobre el peligro que supone la anarquía que predomina en este campo.

La explosión de los modelos de inteligencia artificial generativa, capaz de “conversar” y crear textos, imágenes o música a partir de datos existentes, como el popular Chat GPT, ha hecho que más de 5.500 expertos de todo el mundo, entre ellos el empresario Elon Musk, han dado la voz de alarma, y ​​pedido una pausa.

Los científicos solicitan en una carta a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de inteligencia artificial (IA) más potentes que GPT-4 (el último modelo de IA generativa de la empresa OpenAI).

Carles Sierra, director del instituto de inteligencia artificial del CSIC, y uno de los firmantes de la carta denuncia que “actualmente se está dando una especie de carrera armamentística” en la que están las empresas tecnológicas “para ver quién se queda con la mayor parte del pastel” en el que se han invertido millas de millones de euros. Sin embargo, “no están siendo prudentes”, asegura el director del instituto de IA del CSIC.

“Con la IA se está dando una carrera armamentística para ver quién se queda con la mayor parte del pastel”

Carles sierra – Director del instituto de IA del CSIC

Y es que a pesar de que sostiene que no es “en absoluto” un manifiesto contra la IA, ya que la considera “beneficiario de la humanidad”los expertos consideran necesario poner el foco en los “riesgos para la sociedad y para la humanidad” que puede suponer.

Como sostiene Sierra, igual que los medicamentos “tienen que pasar un periodo de ensayo clínico de pruebas de verificación para ver que no hay efectos laterales, que el sistema funciona bien”, lo mismo se debe hacer con “estos sistemas de inteligencia artificial que se está abriendo al público en general”.

Recomendado:  El mercado vertical de la Inteligencia Artificial (IA) será testigo de un aumento durante el 2020 - 2026

El foco se ha puesto, sobretodo, en la última versión del modelo de lenguaje que utiliza ChatGPT. Según sus creadores, mucho más preciso y con habilidades para resolver problemas más complejos. En la carta, los expertos señalan las consecuencias negativas de estos sistemas derivados de la llamada inteligencia artificial “generativa”. Ya que sostienen que se están volviendo competitivos para los humanos en tareas generales.

También alertan de que sus funciones pueden resultar un trampolín para la difusión de desinformación o para la destrucción de ciertos empleos, así como una problemática con la privacidad y el uso de los datos personales que hace este tipo de sistemas. De hecho, países como Italia ya han prohibido por este motivo el Chat GPT. Asimismo, la ONU también ha puesto de manifiesto su preocupación por los impactos posibles del desarrollo rapido de la inteligencia artificial y reclamó a las empresas del sector “responsabilidad” para evitar que estas nuevas tecnologías sean utilizadas con malas multas, apuntando a la modificación de imágenes, voces o textos que puedan derivar en desinformación, división o violencia.

Desinformacion

Por otro lado, como apunta Sierra, “estos sistemas buscan que el resultado sea verosímil, no obstante cierto, y que parezca que lo ha dicho, o hecho, un humano; y ahí residir, precisamente, el riesgo”. Es el caso de imágenes que han corrido como la pólvora en redes sociales en las últimas semanas. Imágenes hiperrealistas del papa Francisco con unas plumas blancas o de Donald Trump resistiéndose a un arresto.

Por otro lado, el director del instituto de inteligencia artificial del CSIC, apunta al sesgo de los datos que estos sistemas pueden ofrecer como respuesta. “El riesgo está en la manipulación; en que la gente tome decisiones basadas en informaciones totalmente falsas, ya que pueden estar cometiendo graves errores”.

Recomendado:  5 acciones tecnológicas para ver esta semana

“Es decir que a propósito entrenen estos sistemas que transmiten una versión de la historia que no se corresponde con la realidad”, puntualiza. Todo ello, motivos de peso para “al menos, siéntese y discuta cómo abordar el uso de estos sistemas”sostiene el director del instituto de IA.

Es por eso que más de 5.000 expertos han solicitado un parón de medio año de pausa en este avance. Y, Sierra va más allá, pone el foco en la necesidad de crear un código deontológico. A nivel europeo, dice, habría que llevar a cabo la ley de inteligencia artificial de nuevo a la mesa de discusión, para especificar los riesgos de la IA generativa y cómo poner límites.

La ley, cuya aplicación se prevé este año, incluye la prohibición de prácticas como el reconocimiento facial en espacios abiertos y clasifica los riesgos de la IA en alto, moderado o de poco riesgo. Identifica por tanto sectores, como el educativo, en el que hay que tener especial salvaguarda y control.

Sin embargo, cuando se redactó la ley los sistemas de IA generativa estaban aún desarrollándose. “Ahora que los hay muy avanzados, habría que volver atrás y adaptar la norma”, defiende Sierra.

Sin embargo, no todo lo relacionado con los avances tecnológicos, y de inteligencia artificial son negativos. Y es que como recuerda el científico del CSIC, estos sistemas han aportado incontables beneficios. Es el caso del sistema de diagnostico de cancer de piel, que permite melanomas, un sistema con un 95% de confianza, que acelera el diagnostico de la enfermedad.

Y no es el único ejemplo. Un equipo de neurocirujanos e ingenieros de varias universidades estadounidenses ha desarrollado un sistema de diagnóstico durante basado en inteligencia artificial que utiliza imágenes rápidas para analizar muestras tumorales tomadas una operación y detectar mutantes con mayor rapidez, en menos de 90 segundos.

Recomendado:  La IA aplicada enseña escritura a mano | octubre 2022

Futuro de la IA

Asi las cosas, como expresa Sierra el objetivo “no es ir contra la tecnología”, el objetivo es poner de manifiesto “el problema que puede suponer poner estos sistemas en manos de cualquier persona”. Y sobre todo, “con esta fiebre de que cada mes va a salir un sistema diferente, con lo que ello conlleva, es decir, “que no van a haber evaluado el sistema previamente”.

Por eso, subrayar que hay que calmar un poco los ánimos tras el revuelo causado tras la publicación del manifiesto, y resume la problemática: “Lo único que hay que vigilar es que los intereses económicos no generan que se pongan a disposición de la gente sistema que están poco testeados”, concluye Carles Sierra.

Chat GPT, en el ojo del huracán

Advierten sobre su uso. El ‘chatbot’ de inteligencia artificial ChatGPT ha irrumpido con fuerza en los últimos meses por sus conversaciones similares a las que puede tener como humano, en las que los usuarios pueden introducir cualquier pregunta y el sistema genera una respuesta basada en la información almacenada en su bases de datos. Millones de usuarios ya lo están utilizando para ayudar en tareas de programación, redactar correos electrónicos, traducir textos o, en ocasiones, preguntarle acerca de información más sensible, como temas médicos. Pese a que suele certar en sus respuestas, muchos expertos han advertido de que fiarse completamente de la información o datos que aporta tiene sus riesgos.