Saltar al contenido

callemexico Tecnología de Chat GPT y Dall-E no es inteligente ni artificial

7 de mayo de 2023

Los programas de inteligencia artificial (AI) como ChatGPT y Dall-E repiten las respuestas que miles de entrenadores le han enseñado a dar ante patrones similares de todas las miles de preguntas que la gente les haría. Es decir, cuando le pedimos algo a estos asistentes en realidad buscan respuestas que aprendieron a dar y que fueron elaboradas por humanos.

​Aunque parezca que las personas en conjunto tenemos intereses y dudas distintas, en masa tendemos a preguntar lo mismo sobre temas en común, por ejemplo los miles de alumnos que le piden las respuestas a las mismas preguntas de un examen generan un patrón que estos empleados detectar y estar obligados a elaborar respuestas y etiquetar resultados que deben mostrarse o no.

En un informe de la BBC, la organización no gubernamental Partnership on Artificial Intelligence ha denunciado que las aparentes complejas respuestas que estos sistemas arrojan a los usuarios de sistemas como ChatGPT solo son las que miles de empleados subcontratados en todo el mundo han elaborado para que parezcan lo más coherentes posibles. Para explicarlo de una forma distinta, es como si nos presentaran un robot muy avanzado capaz de hacer toda clase de tareas pero en realidad tiene una persona dentro simulando ser una máquina.

Y eso es lo que hacen hasta ahora ChatGPT y otras herramientas que usan la mal llamada inteligencia artificial, y aunque las respuestas y textos que nos muestran al pedirles cosas parecen coherentes y muy sorprendentes, en realidad repiten en tiempo muy rápido lo que otros seres humanos le han enseñado. La magia aparente con que pueden crear respuestas complejas y hasta códigos de programación es porque reducen a milisegundos que cualquier persona haría, pero el que muchas de estas respuestas son inexactas y comentan errores con frecuencia se debe a que estos sistemas no son y no pueden evaluando lógicamente lo que nos han entregado.

Solo son capaces de mejorar cuando estos entrenadores humanos corrigen los errores que les hemos señalado y de esta forma dan la apariencia de que “están aprendiendo”. Es por eso que al entregarte una respuesta tienen un botón de evaluación para preguntarte si te convencen lo que te han entregado, cuando le dices que sí, estos trabajadores aprenden a dar respuestas similares, al igual que cuando decimos que no, estos trabajadores saben qué tienen que mejorar y el programa solo vuelve a emitir lo que estos freelancer aprendieron que parece correcto. Es un sistema operativo por miles de empleados, no es inteligente.

Recomendado:  Las entregas de XPeng (XPEV) Q4 EV se deslizan, se mantiene cautelosamente optimista

Alertan sobre riesgos

Recientemente Elon Musk y más de 10 mil figuras clave en el campo de la tecnología firmaron una carta abierta en la que piden parar el desarrollo de sistemas que usan la Inteligencia Artificial por al menos seis meses hasta que se discuta globalmente los riesgos y las amenazas que este tipo de herramientas pueden representar para la sociedad, y no es para menos. La carta está respaldada por grandes personalidades como Steve Wozniak cofundador de Apple y Jann Tallinn cofundador de Skype.

En los últimos meses el uso de herramientas como ChatGPT de la empresa Open AI ha causado una gran conmoción sobre todo en las escuelas y universidades de todo el mundo, pues los alumnos que las usan han sido capaces de aprobar exámenes muy complejos. Y la alarma también se ha generado cuando herramientas como en el caso de Dall-E –que es un creador de imágenes online– han sorprendido al mundo con la propagación de imágenes falsas como una que mostró el supuesto estado de salud del periodista Julian Assange; la difusión de un fotomontaje de Donald Trump siendo detenido y otra muy viral del Papa Franciso vestido de Balenciaga brincando y bailando.

En estas semanas se ha hablado mucho de los riesgos de que muchas profesiones desaparecen por el uso de estos sistemas, pero es importante aclarar algunos puntos porque esta tecnología, aunque muy asombrosa, no es ni inteligente y tampoco es artificial.

¿Y cómo es que logramos esto?

Estos sistemas técnicamente no son sistemas de Inteligencia Artificial, son modeladores de lenguaje lógico, es decir su principal tarea es devolvernos respuestas que parecen coherentes o imágenes que parecen reales y nosotros también colaboramos en ayudars a aprender, pero no es un aprendizaje, solo es la colocación de una etiqueta que dice, esto estuvo bien o esto estuvo mal.

Y aquí entra el trabajo de estos entrenadores que literalmente alimentaron cientos de probables respuestas buscando en internet y llenando una enorme base de datos con información que fue copiada y pegada de cientos de miles de fuentes que estos empleados determinan como confiables y que además violan todas las reglas del respeto a los derechos de autor. Pues no citan las fuentes.

Estos trabajadores que en general son subcontratados con salarios de menos 2 dólares la hora hacen todo el trabajo engorroso de etiquetar y formular respuestas posibles y de esta forma guiar a tecnologías como ChatGPT para que de forma muy rápida nos responda pero con frases hechas los años antes de su lanzamiento por estos cientos de miles de freelancers que hicieron el trabajo sucio.

Recomendado:  ¿Debemos temer a la inteligencia artificial?

Una enorme simulación de inteligencia

Se trata de una enorme simulación que está provocando muchos dilemas éticos. Lo que nos han mostrado como un sistema inteligente, en realidad no lo es y la valoración de los datos depende de lo que estos trabajadores en la sombra deciden, que de acuerdo un informe de TIME provienen en su mayoría de países pobres.

Cuando uno le pregunta algo a estos sistemas en realidad solo nos muestra lo que otras personas hicieron, por ejemplo al pedir un fotomontaje solo repite lo que los diseñadores hicieron antes con fotos modelo o bien, cuando le pedimos un texto legal solo reconstruyen respuestas ya hechas por etiquetadores con conocimientos de derecho.

Ahora muchos estudiantes en todo el mundo confían y realizan sus tareas usando herramientas como ChatGPT pero es casi igual que copiar un texto de la Wikipedia, las respuestas que parecen coincidir en realidad carecen de validez y autoridad porque no hay forma de las cientos de millas de respuestas que elaboran estos etiquetadores humanos y no sabemos qué fuentes de información usaron, de dónde copiaron y editaron la información y además el problema crece cuando las respuestas o textos que arrojan estos sistemas no citan la fuente de cada una de las referencias. En realidad se trata de un sistematizado copy paste de fuentes dudosas y que se le está dando una autoridad que no tiene y lamentablemente está interfiriendo en el juicio de muchas personas que lo usan.

Otro de los problemas de usar estos trabajadores es que causa problemas de salud mental en estos trabajadores detrás de ChatGPT y programas similares al entrenar a estas herramientas a no mostrar respuestas inadecuadas, por ejemplo, si algún usuario de estos chats pide mostrar imágenes de violencia, asesinatos o abusos sexuales estos trabajadores tienen que entrar a internet ver toda esta clase de contenidos violentos y etiquetarlos como no aptos. Son personas las que tienen que ver imágenes perturbadoras y que sufren el impacto psicológico al clasificar como inadecuado ese material cuando las personas buscan este tipo de respuestas a ChatGPT.

Por ejemplo, si alguien le pide una foto de alguien siendo ejecutado, estos freelancers tienen que explorar todas las fuentes de información que podrían usar estas tecnologías, adelantarse, etiquetarlas y enseñarle a estos programas que no es adecuado mostrarlo. Pero ya lo vieron y el daño del impacto de estas escenas desagradables se lo llevan los entrenadores.

Recomendado:  Encontrar la equidad en la IA | Noticias

Sin duda son asombrosas las respuestas y los textos que nos entregan ChatGPT, las imágenes que nos muestra Dall-E pero en realidad es el trabajo que ya hicieron miles de personas de las que no sabemos qué fuentes usaron y que su principal objetivo es darnos la ilusión de coherencia. Cuando le preguntas a ChatGPT en realidad le preguntas a un trabajador en las sombras, que es obligado a elaborar cientos de respuestas y lo que te arroja es lo que estas personas catalogaron como adecuado o no.

IA: el verdadero reto

Hasta ahora los miedos y los riesgos son válidos, pero no por estos sistemas comerciales y en el que todos estamos colaborando a hacerlos más complejos, la principal ventaja es que solo van a arrojar respuestas que otras personas elaboran; el problema real son los sistemas militares de por ejemplo máquinas y drones inteligentes a los que se les entrena a matar objetivos o bombardear instalaciones. Cuando en unos años tengan suficiente información aprendida es probable que se les deje tomar decisiones por sí solas pero basado en lo que aprendieron de miles de analistas, trabajadores en las sombras, asesores, diseñadores.

El verdadero riesgo de estas herramientas es que a través de un trabajo precario de muchos especialistas en busca de un empleo temporal llenen de conocimientos a estos programas sobre todo en tareas repetitivas y no complejas como contestar exámenes, elaborar amparos, operar un tractor. Pero debemos recordar que estas tecnologías solo podrán reproducir lo que ya alguien más hizo y los estándares y lineamientos de las tareas y la información que nos brinde habrá sido basada en lo que las empresas que contratan a trabajadores estos consideran que es correcto y válido .

El camino que nos queda es pedir transparencia en cómo se les entrena a estos sistemas, qué fuentes utilizan y el estado de las condiciones laborales de estos cientos de miles de trabajadores que pre digieren y elaboran las respuestas mágicas y asombrosas que recibimos al usar ChatGPT que fue lo que varias personas copiaron, pegaron y determinaron que eso era válido.

(milenio.com)