A lo largo de los años, las plataformas de redes sociales han registrado innumerables veces sus planes para «finalmente» frenar el acoso, el discurso de odio y la desinformación. El mes pasado no fue diferente: YouTube anunció la prohibición de todo el contenido contra las vacunas, Facebook dijo que había creado una nueva política contra el «daño social coordinado» y Twitter presentó nuevas herramientas que, según dijo, conducirían a un mejor filtrado y limitación de las respuestas.
Hay motivos para ser optimistas. La tecnología ahora se ha desarrollado hasta un punto en el que puede eliminar de manera preventiva y bastante efectiva la mayoría del contenido indecoroso. En lugar de depender únicamente de los propios usuarios para denunciar la mala conducta, lo que todavía hacen muchas plataformas, estas nuevas herramientas incorporan inteligencia artificial y aprendizaje automático para acabar con el acoso de raíz. Su objetivo es crear algo automatizado que funcione más como un árbitro: un sistema que pueda denunciar el acoso en ese mismo momento y en ese momento, en tiempo real, a mitad del juego.
Pero lo desconcertante es que, incluso en medio de todos estos avances tecnológicos, no hemos visto mucho progreso en lo que respecta a frenar el discurso de odio en las redes sociales. En cambio, el mismo ciclo se ha repetido una y otra vez. El público ahora está comenzando a comprender que los problemas subyacentes que conducen al discurso del odio son extremadamente complejos.
En un episodio reciente de 60 minutos, un denunciante dejó constancia de que Facebook, de hecho, ha estado engañando al público sobre el progreso que está logrando contra el discurso de odio. La denunciante, Frances Haugen, una ex empleada de Facebook, dijo que fue testigo de primera mano de cómo, para frenar el discurso de odio, la empresa tenía que decidir entre su propia ganancia financiera y el bien público. Haugen dijo que «Facebook, una y otra vez, optó por optimizar para sus propios intereses, como ganar más dinero».
Como consultor que ha trabajado en este campo durante más de una década, tanto en las redes sociales como en la industria del juego, he llegado a una conclusión similar: que los problemas que frenan la moderación efectiva del discurso de odio en línea son sistémicos.
Para frenar verdaderamente el acoso en línea, necesitamos tener una conversación seria sobre los fundamentos de estas comunidades en línea, sus incentivos y sus relaciones con sus usuarios.
En mi opinión, las plataformas de redes sociales deberían buscar respuestas en la industria del juego. Si bien han estado luchando con una nueva ola de discursos de odio, las compañías de juegos en los últimos años han sido mucho más agresivas y prácticas en lo que respecta a la moderación real.
¿Por qué la industria del juego está progresando más rápidamente que las plataformas de redes sociales en este frente? Han hecho un mejor trabajo al responder las siguientes tres preguntas cuando buscan construir estrategias realmente efectivas contra el odio en línea.
1. ¿Cuál es el propósito de esta plataforma?
Cuando las plataformas de redes sociales intentan frenar el acoso, a menudo se encuentran con gritos de enojo de los usuarios y los medios de comunicación, que los critican por restringir la libertad de expresión. Esto se debe a que las empresas de redes sociales han enmarcado su propósito como plataformas de difusión de información y libertad de expresión.
En el mundo de los juegos, por el contrario, restringir la «libertad de expresión» no es un gran problema. Los moderadores pueden bloquear mensajes al azar y enfrentar mucha menos resistencia. Nadie inicia sesión en Obligaciones únicamente para difundir información errónea sobre las vacunas; el juego es el atractivo principal, no la promesa de una audiencia cautivada. Eso significa que las empresas de juegos son libres de tomar medidas agresivas cuando sea necesario, siempre y cuando el juego siga siendo agradable.
Las comunidades en línea deben pensar detenidamente sobre lo que prometen a sus usuarios y si realmente pueden ofrecer esa experiencia. Los usuarios los harán responsables de ello al final.
2. ¿Cuál es el modelo de ingresos?
En los modelos de ingresos basados en publicidad, a los que pertenecen la mayoría de las plataformas de redes sociales, el miedo a las malas relaciones públicas tiene mucho peso. Frenar el discurso de odio de manera demasiado agresiva en las redes sociales, por ejemplo, podría generar una reacción violenta con respecto a la libertad de expresión, lo que a su vez aleja a los anunciantes. Del mismo modo, no frenar el discurso de odio con la suficiente fuerza tiene el potencial de crear una comunidad tóxica que también tiene mala reputación. Eso ahuyenta a los anunciantes que están decepcionados porque la plataforma no hace lo suficiente.
Cuando las comunidades en línea están obsesionadas con lo que los anunciantes quieren o necesitan, es menos probable que tomen medidas audaces y prueben tácticas agresivas para eliminar el discurso de odio. Este malabarismo de las necesidades de muchas partes diferentes (los anunciantes, los usuarios, la propia empresa) significa que ninguna de las partes termina feliz y, en última instancia, la empresa sufre.
Las empresas detrás de los juegos, que a menudo se preocupan más por la adquisición y retención de usuarios y, en muchos casos, obtienen todos sus ingresos de los usuarios, no de los anunciantes, muestran mucha más disposición a satisfacer las necesidades de la comunidad en general. No temen sacrificar la pequeña cantidad de usuarios a los que no les gustan los cambios o tomar medidas que puedan molestar a sus anunciantes.
La verdad es que las comunidades en línea son tan atractivas como las personas que las utilizan. Los tipos de estrategias que ponen a los usuarios en primer lugar que estamos viendo en el mundo de los juegos mejoran el producto y el servicio real, generan más confianza y, en última instancia, se convierten en resultados tangibles, generando ingresos y ganancias.
Las comunidades en línea deben preguntarse si el modelo de ingresos que eligieron es sostenible, especialmente cuando se trata de incitación al odio y al acoso. Si no se abordan adecuadamente, estos problemas solo se harán más prominentes a medida que crezca la base de usuarios.
3. ¿Quién es la competencia?
Industrias enteras pueden paralizarse cuando ninguna empresa toma la iniciativa. Esto es particularmente cierto entre las plataformas de redes sociales, donde el mercado está dominado por unos pocos jugadores. Hay un estancamiento y los usuarios tampoco saben pedir algo mejor.
A veces, esto abre la puerta para que nuevos jugadores se infiltran en el mercado y hagan grandes olas, como fue el caso de la aplicación de citas Bumble. La startup reinventó una forma más automatizada, pero aún impulsada por el usuario, de frenar el discurso de odio y terminó convirtiéndose en un competidor de $ 14 mil millones para los titulares.
El mundo de los juegos se distingue por el hecho de que cada día aparecen miles de nuevos productos. Esa competencia deja poco margen para la complacencia, incluso entre jugadores establecidos. Existe una presión para que los usuarios mejoren constantemente, especialmente cuando son el principal impulsor de los ingresos.
Las comunidades en línea deben reflexionar sobre si han construido las bases de su plataforma de una manera en la que, a largo plazo, sea posible tener una comunidad libre de odio. Lo que veo ahora es que las redes sociales todavía tienen un largo camino por recorrer, y esas plataformas deberían buscar en la industria del juego respuestas sobre dónde ir a continuación.
Sarita Runeberg es directora de juegos de la agencia de tecnología global Reaktor.