«Es mucho más fácil construir un sistema de IA que pueda detectar un pezón que determinar lo que es lingüísticamente el habla de odio.»
El fundador de Facebook, Mark Zuckerberg, hizo ese comentario en 2018 cuando estaba discutiendo cómo la compañía aborda el contenido que se considera inapropiado o, en términos de Facebook, que se considera que viola los estándares de la comunidad.
La tecnología de inteligencia artificial de Facebook para identificar la desnudez lo hace bien la mayoría de las veces. Entre enero y marzo de este año, Facebook retiró 39.5 millones de piezas de contenido para desnudez adulta o actividad sexual, y el 99.2% de ellas fueron removidas automáticamente, sin que un usuario lo reportara.
Hubo 2,5 millones de apelaciones contra el traslado y se restauraron 613.000 piezas de contenido.
Pero no siempre funciona, y la IA tiene problemas con las fotos históricas y las pinturas. Como reportó Guardian Australia esta semana, un usuario fue suspendido por publicar una imagen de hombres aborígenes encadenados de la década de 1890 en respuesta a la afirmación del primer ministro australiano – en la que posteriormente se retractó – de que Australia no tenía esclavitud.
Facebook reconoció que el bloqueo de la publicación de la imagen fue un error y la restauró, pero también se impidió la publicación de la historia del Guardian sobre el bloqueo, al igual que la historia posterior sobre el bloqueo de la primera historia. Recibimos docenas de correos electrónicos de lectores a los que se les impidió publicar las historias, o incluso se les prohibió temporalmente la entrada a Facebook por tratar de publicarlas.
La imagen en sí fue incluida en una lista blanca, pero los sistemas de Facebook no aplicaron la misma lista blanca para compartir artículos que presentaban esa imagen, lo que llevó al aparentemente interminable ciclo de penalizaciones.
Fue un error de la IA pero para la gente que intentaba compartir la imagen o las historias parecía como si Facebook estuviera tomando una posición incorrecta y de línea dura sobre un tema en particular, mientras que permitía que otras publicaciones – incluyendo las publicaciones inflamatorias del presidente de los EE.UU. Donald Trump – se mantuvieran intactas.
No hay duda de que Facebook tiene un problema de moderación del cual está, en parte, tratando de automatizar su salida. Dadas las horribles historias de los terceros moderadores que sufren de estrés postraumático por tener que revisar el contenido de Facebook todo el día, por el cual decenas de miles están buscando compensación, no es sorprendente que Facebook esté tratando de automatizar todo.
Facebook ya está usando la IA para moderar su plataforma de desnudos hasta el punto de que los usuarios apelan pocas decisiones, pero cuando se trata de discursos de odio, desinformación y otros contenidos la IA es todavía un trabajo en progreso.
El punto de Zuckerberg sobre el «pezón» es que es mucho más fácil para los sistemas reconocer y bloquear repetidamente una imagen sin intervención humana que para un sistema similar de IA analizar el texto de un mensaje en su contexto y determinar que es un discurso de odio.
La IA cometerá errores pero la esperanza es que eventualmente aprenda.
Será interesante ver qué errores comete Facebook al aplicar la IA de escaneo de imágenes a su búsqueda de limitar la cantidad de desinformación que se está propagando en su plataforma en relación con la pandemia de Covid-19.
En abril la compañía puso etiquetas de desinformación en 50 millones de puestos relacionados con Covid-19, basadas en la verificación de 7.500 artículos. También retiró 2,5 millones de productos como mascarillas y desinfectante de manos de Marketplace desde el 1 de marzo.
Una vez que una reclamación ha sido comprobada y considerada como información errónea, la imagen utilizada en el correo original es escaneada para que sea recogida en el futuro cuando la gente intente compartirla. Las imágenes idénticas tienen la etiqueta de verificación de hechos adherida a ella, ya sea que esas imágenes se vinculen a los artículos o no.
Pero una mirada superficial a cualquiera de los grupos que aún promueven las teorías de conspiración relacionadas con Covid revela que mucha información errónea se está escurriendo entre las grietas. Aún no hay evidencia de que Facebook esté «sobrecensurando» la información errónea, a pesar de lo que algunos puedan alegar en estos grupos.
El activista y periodista Cory Doctorow planteó esta semana que a Facebook se le pide cada vez más que asuma más tareas de moderación de contenidos, pero dijo que podría ser una petición equivocada.
Una plataforma tan grande que se esfuerza por determinar lo que es o no es contenido apropiado en múltiples culturas puede reducirse mejor a una escala más pequeña, de modo que las normas se ajusten a las comunidades en las que opera, y haya un proceso de revisión transparente que no requiera la intervención de los medios de comunicación o la presión del público para eliminar algo – o en este caso, restaurar algo.
Donde Facebook ve la IA como la solución para mantenerse al día, Doctorow sugiere que los fracasos de la IA muestran que la tarea es simplemente demasiado grande para Facebook o cualquier otra persona, y que Facebook debería ser reducido a un «tamaño, a una escala donde las comunidades puedan establecer y hacer cumplir las normas».