Saltar al contenido

Inteligencia artificial de ChatGPT tiene en alerta a las autoridades por fraudes

28 de marzo de 2023

El ChatGPT y el uso de la inteligencia artificial no solo ha sorprendido al mundo por sus alcances, sino que ha despertado muchas inquietudes y preocupaciones, no solo en el mundo académico y científico, sino entre las autoridades.

La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformacion, pero tambien un aliado de ciberdelincuentes con pocos conocimientos técnicos al generar códigos en varios lenguajes de programación, utilice Europol.

Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admite la agencia de coordinación policialque publicó este lunes 27 de marzo su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes, algo que, dice, “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley .

El modelo actual de acceso público a ChatGPT, capaz de procesar y generar texto similar a una persona, puede responder preguntas sobre una variedad de temas, traducir texto, chatear, generar contenido nuevo y producir código funcional, pero también facilitar actividades delictivas que van desde ayudar a los delincuentes a permanecer en el anonimato hasta delitos específicos, como el terrorismo y la explotación sexual infantil.

Le puede interesar: Los peligros de las fotos creadas con inteligencia artificial

El Laboratorio de Innovación de Europol se sumó a la creciente atención pública prestada a Chat GPTun chatbot al que ya han salido rivales como Bard (Google) y Bing (Microsoft). Los expertos de Europol han investigado cómo los delincuentes pueden abusar de estos modelos de lenguaje extenso (LLM, en sus siglas en inglés).

Recomendado:  Johnson - La inteligencia artificial tiene un problema con la gramática | Libros y artes

Las preocupaciones

Han identificado numerosas áreas de preocupación, pero destacan tres relevantes.

La primera es su forma de facilitar las tareas de fraude, suplantación de identidad e ingeniería social, puesto que la capacidad de ChatGPT para redactar textos muy auténticos cambia las reglas del juego: el “phishing” más básico era fácil de detectar dado que usaba mensajes y correos llenos de errores gramaticales y ortográficos, pero ahora es posible hacerse pasar por una organización o individuo de manera realista y con pocos conocimientos de inglés.

Lea también: ChatGPT-4: estas son las novedades de la última versión de esta IA

“Hasta ahora, este tipo de comunicación engañosa ha sido algo que los delincuentes tienen que producir por su cuenta. En el caso de campañas producidas en masa, las víctimas de este tipo de delitos a menudo podrían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto”, señala Europol.

Con la tecnología artificial, estos “phishing” y fraude virtual se pueden crear de “manera más rápida, mucho más auténtica ya una escala significativamente mayor”, y permitir “responder a mensajes en contexto y adoptar un estilo de escritura específico”, alerta.

“Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. El modelo se puede usar para recopilar más información en general que pueda facilitar las actividades terroristas, como, por ejemplo, la financiación del terrorismo o el intercambio anónimo de archivos”, dice.

Lea también: Microsoft aplica tecnología IA a sus programas de Excel, Word y Outlook

Además, este tipo de aplicación no solo facilita la perpetración de desinformación, incitación al odio y contenido terrorista en internet, sino que también permitiría a los usuarios “darle una credibilidad fuera de lugar, ya que ha sido generada por una máquina y, por lo tanto, posiblemente parezca más objetivo para algunos que sí fuera producido por un humano”.

Recomendado:  Internacional: Inteligencia Artificial en la administración de justicia

Junto al fraude y la desinformación, Europol destaca la ciberdelincuencia como tercera área de preocupación, puesto que ChatGPT no se limita a generar un lenguaje similar al humano, sino que también es capaz de producir código en varios lenguajes de programación distintos, con una variedad de resultados prácticos en cuestión de minutos ingresando las indicaciones correctas en la página web de esta herramienta.

“Es posible crear herramientas básicas para una variedad de propósitos maliciosos. A pesar de que son solo básicos, esto proporciona un comienzo para el delito cibernético, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque en el sistema de una víctima”, subraya la agencia en su informe.

Le puede gustar: Chatbot Bing, de Inteligencia Artificial, estará disponible con Windows 11

Las medidas de seguridad que impiden que ChatGPT genere un código con posible uso malicioso solo funcionan si la herramienta entiende lo que está haciendo, pero si se le dan indicaciones que se dividen en pasos individuales, es “trivial eludir estas medidas de seguridad”.

Un usuario con conocimientos incluso más avanzados también puede explotar las mejoras de ChatGPT para perfeccionar aún más o automatizar modus operandi sofisticados de los ciberdelincuentes.