La rápida evolución del panorama digital está salpicada de notables innovaciones en inteligencia artificial (IA). Sin embargo, estos avances conllevan sus propios desafíos.
Uno de ellos, que capta cada vez más la atención de sectores que van desde el académico hasta el periodístico, es la fabricacion de informacion falsa por parte de la IA, en concreto ChatGPT Delaware IA abiertaque recientemente cerró un acuerdo de inversión plurianual de USD 10.000 millones con Corporación de Microsoft (NASDAQ:MSFT).
De la experiencia personal a la confirmación académica
Experimentó personalmente este problema en múltiples ocasiones.
contenido relacionado: El Lado Oscuro de ChatGPT: Cómo Facilita Fraudes, Desinformación y Delitos
Para comprobarlo, me lancé a la búsqueda de la verdad. Le pedí a ChatGPT que recuperara citas de una persona concreta, y que proporcione meticulosamente información precisa. Para mi sorpresa, me ofreció respuestas plausibles, con el estilo del orador, pero no eran citas auténticas.
Incluso cuando dispusimos de contexto abundante y de instrucciones limpias de no fabricar citas, ChatGPT inventando comentarios. Empaquetaba estas citas falsas como si la persona cuestión en las hubiera pronunciado textualmente, atribuyéndoselas y entrecomillándolas.
Esta práctica representa una tergiversación flagrante, ya que la fuente nunca pronunció esas palabras. A pesar de mis instrucciones, ChatGPT siguió inventando citas que el entrevistado nunca dijo, incluso después de proporcionarle una transcripción de las preguntas y respuestas.
Aunque el proceso se llevó a cabo con cuidado para mantener la máxima fidelidad a la información facilitada, estas anomalías subrayaron la necesidad de una rigurosa comprobación de los hechos.
La investigación sobre las inexactitudes de ChatGPT
Esta creciente preocupación quedó patentada en el estudio Altos índices de referencias fabricadas e inexactas en el contenido médico generado por ChatGPTrealizado por Mehul Bhattacharyya, Valerie M. Miller, Debjani Bhattacharyya y Larry E. Miller.
Mediante un análisis de 30 artículos médicos generados por ChatGPT-3.5, cada uno de los cuales contenían al menos tres referencias, lzs investigadores deberían tener resultados sorprendentes: de las 115 referencias generadas por la IA, el 47% era completamente inventado, el 46% era auténtico pero utilizado de forma inexacta y sólo el 7% eran auténticos y exactos.
Contenido relacionado: Los Verdaderos Riesgos de la Inteligencia Artificial: Imágenes Falsas que se Tornan Virales
Los resultados reflejan la preocupación general de que ChatGPT no sólo es capaz de crear citas falsas, sino también artículos completos y titulares que nunca existieron. Esta propensión, conocida como “alucinación”, se considera ahora una amenaza significativa para la integridad de la información en muchos campos.
El Planteo se puso en contacto con OpenAI para recabar sus comentarios. Aunque nadie en la empresa estaba disponible para responder, el equipo dijo a El Planteo una nueva entrada de blog y un documento de investigación que aborda algunas de estas cuestiones.
Las alucinaciones de Chat GPT: ¿Por qué da información falsa?
Las repercusiones de este fenómeno son especialmente graves en el sector periodístico. Cada vez son más los casos de periodistas cuyos nombres se atribuyen falsamente a artículos o fuentes inexistentes.
Una de las víctimas de esta tendencia fue la autora e investigadora sobre IA, kate crawfordcuyo nombre se relacionó de forma inexacta con críticas al locutor Lex Friedman. Además, la capacidad de ChatGPT para inventar referencias de estudios de investigacion completamente inexistentes aumenta el riesgo de propagar desinformacionlo que en última instancia socava la credibilidad de las fuentes de noticias legítimas.
Esto ha ocurrido muchas otras veces. Por ejemplo:
- El guardián informado que ChatGPT creó artículos y titulares enteros que en realidad nunca publicaron. Esto se ha señalado como un preocupante efecto secundario de la democratización de la tecnología que no se puede distinguir de forma fiable la verdad de la ficción.
- Periodistas de EE.UU. Hoy en día Refresque que ChatGPT dejó citas de estudios de investigación completamente inexistentes sobre cómo el acceso a las armas no aumenta el riesgo de mortalidad infantil.
- Noé Smith Compartió un tuit en el que mostró cómo había pedido un ChatGPT que escribió un argumento contra las tablas salariales al estilo del economista arin dube. La IA inventó por completo la cita, y también caracterizó erróneamente la postura de Dube, que es, en realidad, un defensor de las tablas salariales. La IA también citó como fuente un artículo inexistente.
contenido relacionado: ChatGPT: ¿Hasta Dónde Llegará el Impacto Social de la IA?
Chat GPT, solía pensar que eras divertido. Hasta que empezaste a mentir sobre mí. https://t.co/CIrUhH63kj
— Arin Dube (@arindube) 28 de enero de 2023
Riesgos y repercusiones de ChatGPT: información falsa
Aunque la IA cuanta con algunas proezas, los últimos acontecimientos han proyectado una sombra oscura sobre su posible uso indebido. En el centro de la tormenta se encuentra una vez más el ChatGPT de OpenAI, que se ha descontrolado en el campo del derecho, planteando dilemas imprevistos y enigmas legales.
Este caos inducido por la IA se desencadenó en torno al caso de Mata contra Avianca, cuando el abogado de Mata empleó ChatGPT para encontrar decisiones judiciales anteriores pertinentes al caso. Lo que parecía una aplicación innovadora de la IA se convirtió en una extraña secuencia de acontecimientos, con ChatGPT fabricando casos inexistentes.
En respuesta a las preguntas sobre la validez de estos casos, ChatGPT fue un paso más adelante. Inventó elaborados detalles de los casos inventados, que luego presentó como capturas de pantalla en los expedientes judiciales.
Los abogados incluso pidieron la “confirmación” de IA de los casos inventados, presentándola como parte de su argumentación jurídica. Un giro incrédulo que, en palabras de la abogada kathryn tewson, exige atención: “¿Has visto los ‘casos’? TIENES que ver los casos”.
El mes que viene se celebrará una audiencia en la que se debatirán posibles sanciones a lxs abogados, lo que podría poner en peligro sus medios de vida y su reputación. Este incidente recuerda otro reciente en el que un juez indio se enfrentó a la cuestión de conceder la libertad bajo fianza a un sospechoso de asesinato que pidió asesoramiento jurídico a ChatGPT.
contenido relacionado: Confirmado: Se Puede Hackear ChatGPT para que Insulte y Difunda Conspiranoias
Para subrayar la gravedad del asunto, un usuario de Reddit compartió su preocupación por la fe ciega de la gente en las capacidades de la IA, incluso en áreas sensibles como la medicina o la abogacía.
El lanzamiento de la última versión de ChatGPT, ChatGPT-4, ha suscitado respuestas de todo tipo. Por un lado, este modelo de IA, capaz de obtener una puntuación del 90% en el examen de abogacía de EEUU y una puntuación perfecta en las pruebas matemáticas SAT, supone un salto en el desarrollo de la IA. Por otro, ChatGPT suscita preocupación por los riesgos de uso indebido y el potencial de información falsa y ciberataques a gran escala.
Elon Musk y sam altmanCEO de OpenAI, se han manifestado sobre la necesidad de regular la IA.
“Creo que la sociedad dispone de un tiempo limitado para averiguar cómo reaccionar ante esto, cómo regularlo y cómo manejarlo”, ha dicho Altman.
A Altman le preocupan especialmente los usos malintencionados de ChatGPT; dado que puede escribir codigo informático, GPT-4 puede usarse para informacion falsa a gran escala y los ciberataques ofensivosdijo.
Altman también ha abordado la cuestión de la “alucinacion“. “Lo que más intento advertir a la gente es lo que llamamos el ‘problema de las alucinaciones’”, dijo Altman en una entrevista con ABC Noticias. “El modelo afirmará con seguridad cosas como si resultasen hechos (pero) son totalmente inventadas”.
Musk, cofundador de OpenAI que recientemente dijo haber invertido aproximadamente USD 50 millones en la empresa, ha expresado anteriormente su preocupación por la IA. Es notable ya que Musk es el CEO de otra compañía, tesla (NASDAQ:TSLA), que está invirtiendo agresividad en IA. El fabricante de automóviles cambió su sistema de procesamiento del lenguaje natural (NLP) de OpenAI, que se utiliza para manejar el asistente virtual de los vehículos de Tesla.
Contenido relacionado: Empresarios Encabezados por Elon Musk Piden Pausar los Experimentos de Inteligencia Artificial, ¿Por Qué?
La tecnología de IA también se emplea para mejorar el rendimiento de los vehículos autónomos de Tesla, mejorando su capacidad para comprender y responder a su entorno. Suponiendo que el empuje de Tesla hacia la IA esté sujeto a algunos de los mismos riesgos (alucinaciones) que otras soluciones de IA generativa, es una perspectiva interesante dado el potencial de vehículos autónomos asistidos por IA con poca o ninguna intervención humana en las carreteras de forma masiva.
Los informes de 2023 sugieren una posible colaboración entre Tesla y OpenAI que podría reforzar aún más las operaciones de IA de Tesla. Sin embargo, esto también podría amplificar los riesgos potenciales si no se aborda adecuadamente el problema de la alucinación de la IA.
Otros líderes tecnológicos, como Sundar Pichai, ginni Rometty, marc benioff y satya nadellatambién han expresado su preocupación por el potencial negativo de la IA, lo que se suma al creciente clamor por la regulación y la supervisión.
No cabe duda de que la IA es el futuro, al menos en lo que respeta a la idea de que puede resolver obstáculos administrativos y aumentar la productividad. A medida que nos adentramos en esta nueva era, estos incidentes nos recuerdan con crudeza los retos y responsabilidades que conlleva el poder de la IA. Equilibrar las promesas y los peligros de la IA es una tarea que exige nuestra máxima atención, vigilancia y discernimiento.
Comprensión de las ‘alucinaciones’ y posibles soluciones
OpenAI está perfeccionando sus modelos para reducir los problemas de ‘alucinación’ y está explorando formas de permitir a lxs usuarios personalizar el comportamiento de ChatGPT, al mismo tiempo que establece salvaguardias para evitar el uso indebido. Estrategias como entrenar a la IA en un conjunto de datos más limitados y podrían controlar los casos de ‘alucinaciones’, aunque con el riesgo de limitar la creatividad y la amplitud de conocimientos de la IA.
Contenido relacionado: Alertan del Posible Uso de ChatGPT para Perfeccionar las Estafas Online
Otras posibles soluciones podrian ser mejorar la interfaz de usuario, indicar secciones del texto generado con distintos niveles de confianza e integrar bases de datos externos. Sin embargo, estas soluciones conllevan sus propios desafíos, como la privacidad de los datos y la factibilidad tecnologica de integrar grandes cantidades de datos externos.
A medida que nos adentramos en la era de la IA, el reto consiste en aprovechar sus extraordinarias capacidades de generación de texto y, al mismo tiempo, reducir el riesgo de información falsa. Navegar por este equilibrio intrincado exige una firme dedicación a la verdad y la precisión, junto con la voluntad de adaptarse y evolucionar en medio del panorama acelerado de la inteligencia artificial.
Vía Benzinga, convertida por El Planteo
Más contenido de El Planteo: