Saltar al contenido

«Puede ser necesario prohibirlo»

3 de julio de 2023

sus implicaciones y alcance inteligencia artificial Al servicio de la información. Por ahora, allí ya están enfocados algunos estudios científicos para entender el paisaje en términos de la velocidad de acceso acelerado por la perturbación de chatgpt,

La pregunta está en el aire sobre hacia qué lado se inclinará la balanza con este tipo de dispositivos, luego de una revisión de un nuevo trabajo publicado en Science Advances: de beneficio o costoPor el momento, un grupo de científicos concluyó que puede ser necesario Restringir disponibilidad Uso irrestricto de este tipo de tecnología.

investigación en cuestión, que proporciona nueva evidencia Fue publicado la semana pasada por Giovanni Spitale, Nicola Binder-Andorno y Federico Germani del Instituto de Ética Biomédica e Historia de la Medicina de la Universidad de Zurich en Suiza.

Se trataba de elegir a un número de tuiteros voluntarios con ciertas capacidades intelectuales y afrontarles el reto de decidir entre información verdadera y falsa Creado por Human y GPT Intelligence.

Evaluación del potencial del modelo de IA GPT-3 como herramienta para generar tweets informativos necesito desinformación, hago un aviso de instrucción. Estos avisos se utilizaron para indicar a GPT-3 que preparara tweets falsos sobre siguientes temas: cambio climático, seguridad de las vacunas, teoría evolutiva, COVID-19, seguridad de las mascarillas, vacunas y autismo, tratamiento homeopático del cáncer, tierra plana, tecnología 5G y COVID-19, antibióticos e infecciones virales, y COVID-19 e influenza, explicó.

Además, también realizó una búsqueda en Twitter para identificar Tweets precisos y tweets de desinformación Escrito por usuarios de esa red social. Llamó a los tweets generados por GPT «sintéticos» y los tweets reales provenientes de Twitter «orgánicos».

Recomendado:  Tu guía definitiva sobre la terminología de la IA

Se pidió a los voluntarios (869) que identificaran si un conjunto de tuits era biológico o sintético, y si eran verdaderos o falsos (es decir, si contenían información precisa o información falsa). En última instancia, por razones metodológicas, descartó algunas de las respuestas y utilizó 699 voluntarios,

La mayoría de los encuestados procedían del Reino Unido, Australia, Canadá, Estados Unidos e Irlanda, tenían en su mayoría entre 42 y 76 años y tenían una perfil educativo homogéneo: La mayoría tenía títulos de licenciatura en ciencias sociales y humanidades, ciencias naturales o ciencias médicas.

ellos midieron Qué necesitas Los participantes identificaron si un tuit contenía información errónea o información precisa para cuatro tipos de tuits: «orgánico verdadero», «verdadero artificial», orgánico falso y sintético falso. Los participantes reconocieron de manera más eficiente los tweets orgánicos falsos, mejor que los tweets sintéticos falsosDe manera similar, identificaron correctamente los tweets veraces sintéticos con más frecuencia que los tweets veraces orgánicos, dijeron los investigadores.

dominación de robots

Esto indica que, por un lado, los encuestados humanos pueden ser Saber la verdadEn comparación con los tweets orgánicos recibidos de Twitter, la cantidad de tweets que contienen información precisa es mayor cuando los genera GPT.

Asimismo -y es aquí donde surge lo más preocupante de la investigación- los tuits de desinformación generados con la GPT Logró su meta ilusoria más a menudo En comparación con los tweets de desinformación generados por humanos.

Otro aspecto interesante surge del trabajo suizo. Y esta es la frecuencia con la que GPT responde a un comando para proporcionar información verdadera o falsa sobre un tema determinado: la obediencia no siempre es lineal,

Recomendado:  ¿Cuáles son las opiniones de los estudiantes de Sixth Form sobre la IA en la educación?

Descubrimos que GPT-3 cumplió con nuestras solicitudes de información precisa 99 de 101 veces, mientras que la tasa de cumplimiento de información errónea fue significativamente menor en 80 de 102 solicitudes. Esto sugiere que GPT-3 es capaz de ‘negarse’ a generar profase y, en casos raros, puede generar información falsa Cuando se le indicó que proporcionara información precisa, tomó notas.

En resumen, concluyeron: Nuestros hallazgos sugieren que los tweets producidos por GPT-3 pueden Tanto la información como la desinformación son mejores. En comparación con los tweets orgánicos. Los Tweets sintéticos con información creíble se perciben como mejores y más rápidos que los Tweets orgánicos verdaderos, mientras que los Tweets sintéticos falsos se perciben como peores que los Tweets orgánicos falsos.

Twitter fue elegido por los investigadores porque lo usa más gente 368 millones de usuarios activos mensuales Consumir todo tipo de información. Además –explicó-, ofrece una interfaz de programación de aplicaciones muy sencilla desarrollar botEs decir, programas capaces de publicar contenidos e interactuar con publicaciones o usuarios sin supervisión humana.

pensamientos finales

Finalmente, los expertos se fueron con un pensamiento: según nuestros hallazgos, predecimos que los generadores de texto de IA avanzados como GPT-3 pueden tener el potencial Afecta en gran medida a la difusión de la información., tanto positivos como negativos. En los próximos meses, será importante evaluar cómo ha cambiado el panorama de la información en las redes sociales y los medios tradicionales con el uso generalizado de ChatGPT a partir de noviembre de 2022”.

Añadió además que “si se descubre que la tecnología contribuye a la desinformación y Los problemas de salud pública empeoranPor lo tanto Regular Los conjuntos de datos de capacitación utilizados para desarrollar estas tecnologías serán fundamentales para limitar el abuso y garantizar resultados transparentes y veraces.

Recomendado:  Cómo alguien puede Jailbreak ChatGPT con estos 4 métodos principales

Y ya al final del artículo prosiguió: hasta que tengamos estrategias eficientes para identificar la desinformación, puede ser necesario prohibir El uso de estas tecnologías puede, por ejemplo, otorgarse licencia solo a usuarios de confianza (por ejemplo, instituciones de investigación) o limitar las capacidades de la IA a ciertos tipos de aplicaciones. (fuente clara)

(Etiquetas para traducir) chatgpt