Un equipo de investigadores de cuatro universidades líderes ha encontrado una manera de utilizar la tecnología de aprendizaje automático para marcar conversaciones riesgosas en Instagram sin tener que escucharlas a escondidas.
La investigación examinó la entrada de datos más efectiva, incluidas las funciones de metadatos, texto e imagen, para entrenar modelos de aprendizaje automático para identificar conversaciones riesgosas.
(Foto: OLIVIER DOULIERY/AFP vía Getty Images)
En esta ilustración fotográfica, una persona mira un teléfono inteligente con el logotipo de Instagram en la pantalla, el 17 de agosto de 2021, en Arlington, Virginia.
Identificar conversaciones riesgosas
Los hallazgos revelaron que los atributos de los metadatos, como la duración de la conversación y el nivel de participación de los participantes, pueden detectar conversaciones de riesgo.
El programa pudo identificar conversaciones riesgosas con un 87 % de precisión en el experimento al utilizar solo estos detalles anónimos y escasamente disponibles.
Al identificar el tipo de entrada de datos más útil para estos modelos, el estudio puede ayudar a mejorar su precisión y eficacia en la detección de conversaciones potencialmente dañinas, como las relacionadas con el ciberacoso, la incitación al odio o el acoso en línea.
El equipo recopiló y analizó más de 17 000 chats privados de 172 usuarios de Instagram de entre 13 y 21 años. Los participantes etiquetaron cada conversación como «segura» o «insegura».
Usaron estos datos para desarrollar un programa que puede identificar conversaciones de riesgo usando metadatos, como la duración de la conversación, la cantidad de usuarios involucrados, la cantidad de mensajes enviados, el tiempo de respuesta y la cantidad de imágenes enviadas. Este programa podría funcionar incluso si las conversaciones de Instagram estuvieran encriptadas.
«Una forma de abordar este aumento de malos actores, a una escala que puede proteger a los usuarios vulnerables, son los programas automatizados de detección de riesgos», dijo Afsaneh Razi, Ph.D., profesor asistente en la Facultad de Computación e Informática de Drexel, quien fue coautor de la investigación.
«Pero el desafío es diseñarlos de una manera ética que les permita ser precisos, pero que no invadan la privacidad. Es importante priorizar la seguridad y la privacidad de las generaciones más jóvenes al implementar funciones de seguridad como encriptación en plataformas de comunicación».
Lea también: Abogados alegan que Facebook e Instagram causan enfermedades mentales a los usuarios
Proteger a los usuarios jóvenes, garantizar su privacidad
En la actualidad, existe una lucha entre los reguladores y los proveedores para proteger a los jóvenes usuarios de las redes sociales del acoso y la intimidación y, al mismo tiempo, garantizar su privacidad.
Instagram es la plataforma de redes sociales más utilizada entre los jóvenes de 13 a 21 años en los EE. UU., y algunos estudios afirman que el acoso en la plataforma está causando un aumento de la depresión, especialmente entre las adolescentes, lo que resulta en más problemas de salud mental y trastornos alimentarios. .
Las plataformas enfrentan más presión para proteger la privacidad de los usuarios luego del escándalo de Cambridge Analytica y las leyes de privacidad de la UE.
Sin embargo, esto dificulta que las plataformas utilicen tecnología automatizada para detectar y prevenir riesgos. El sistema del equipo ofrece una solución bidireccional que puede proteger a los usuarios jóvenes y al mismo tiempo mantener su privacidad.
El equipo, dirigido por investigadores de la Universidad de Drexel, la Universidad de Boston, el Instituto de Tecnología de Georgia y la Universidad de Vanderbilt, publicó sus hallazgos en las Actas de la Conferencia sobre interacción humano-computadora de la Asociación de Maquinaria de Computación.
Artículo relacionado: Se lanza el nuevo modo silencioso de Instagram; He aquí por qué es diferente de otras funciones de gestión del tiempo frente a la pantalla
ⓒ 2023 TECHTIMES.com Todos los derechos reservados. No reproducir sin permiso.