Según se informa, Google se movió para aumentar su control sobre los informes de investigación escritos por sus científicos.
En 2020, la compañía creó un nuevo proceso de revisión o examen para los escritos de investigación, informa la agencia de noticias Reuters. El proceso pide a los investigadores que obtengan asesoramiento de los equipos legales, de políticas y de relaciones públicas antes de escribir sobre algunos temas.
Proceso de revisión
El nuevo proceso de revisión tiene como objetivo identificar los temas que podrían considerarse «sensible» para la compañía. En al menos tres casos, los funcionarios de Google pidieron a los escritores que no mostraran su tecnología de manera negativa, informó Reuters. La agencia de noticias dijo que su informe se basó en documentos de Google que pudo examinar, así como en información de investigadores involucrados en el trabajo.
Una explicación de la empresa les dijo a los investigadores que el progreso de la tecnología y las crecientes complejidades en el «entorno» externo habían llevado a proyectos que podían plantear problemas morales, legales o de otro tipo.
Reuters no pudo confirmar la fecha de la comunicación de la empresa. Tres empleados actuales dijeron que la política comenzó en junio. Google no hizo ningún comentario sobre la historia de Reuters.
El nuevo proceso para temas «delicados» agrega un estudio más cuidadoso al proceso de revisión habitual de Google para trabajos de investigación, dijeron ocho empleados actuales y pasados.
Un tema que se consideró «delicado» fue cómo algunos de los servicios impulsados por el aprendizaje automático de Google podrían ser parcial contra algunos grupos de personas. Otros temas incluyeron la industria petrolera, China, Irán, Israel, COVID-19, seguridad del hogar, ubicación datos, religión, vehículos autónomos, telecomunicaciones y sistemas diseñados para sugerir sitios web.
Para algunos proyectos, los funcionarios de Google intervinieron más tarde en la investigación. A principios de este año, un funcionario de Google que revisó un estudio sobre tecnología de sugerencia de contenido les dijo a los escritores que «tengan mucho cuidado de lograr un tono positivo», mostraron los documentos proporcionados a Reuters.
Dar un tono positivo es una expresión que significa evitar el lenguaje negativo o crítico.
El funcionario agregó: «Esto no significa que debamos escondernos de lo real retos”Creado por el software.
Los mensajes adicionales de un investigador a los revisores muestran que los autores realizaron cambios «para eliminar todos referencias a los productos de Google «.
Cuatro investigadores, incluida la científica Margaret Mitchell, dijeron que creen que Google está empezando a interferir con importantes estudios sobre los posibles daños de la tecnología.
“Si estamos investigando apropiado dada nuestra experiencia, y no se nos permite publicar eso por motivos que no están en línea con la alta calidad mirar revisión, nos estamos metiendo en un grave problema de censura”, Dijo Mitchell.
Google declara en su sitio web público que sus científicos tienen libertad «sustancial». Sustancial es un término que significa una gran cantidad.
Ética e IA
Los desacuerdos entre Google y algunos de sus empleados salieron a la luz pública este mes después de que el científico investigador Timnit Gebru dijera que la empresa la había despedido. Gebru, junto con Mitchell, dirigió un equipo de 12 personas que estudió la ética, o decisiones morales, en inteligencia artificial (AI) software.
Gebru dice que fue despedida después de cuestionar una orden de no publicar una investigación que afirmaba que el software de inteligencia artificial que copia el habla podría dañar a algunos grupos. Google dijo que había aceptado la renuncia de Gebru. Reuters no pudo confirmar si el artículo de Gebru había pasado por una revisión de temas «delicados».
El vicepresidente senior de Google, Jeff Dean, dijo en un comunicado este mes que el documento de Gebru discutía los posibles daños sin discutir los esfuerzos en curso para abordarlos.
Dean agregó que Google apoya la investigación de ética de la inteligencia artificial y dijo que la compañía estaba «trabajando activamente para mejorar nuestros procesos de revisión de documentos».
Soy John Russell.
Paresh Dave y Jeffrey Dastin informaron sobre esta historia para Reuters. John Russell lo adaptó para aprender inglés. Bryan Lynn fue el editor.
___________________________________________________________
Palabras en esta historia
sensible – adj. Es probable que cause malestar a las personas
parcial – adj. tener o mostrar un sesgo: tener o mostrar una tendencia injusta a creer que algunas personas, ideas, etc., son mejores que otras
ubicación – n. un lugar o puesto
desafío – n. una tarea o problema difícil: algo que es difícil de hacer
referencia – n. el acto de mencionar algo de forma oral o escrita: el acto de referirse a algo o alguien
apropiado Adj.. adecuado o adecuado para algún propósito o situación
mirar – n. una persona que pertenece a la misma edad, educación o grupo social que otra persona
censura – n. el sistema o práctica de censurar libros, películas, cartas, etc.
inteligencia artificial – n. un área de la informática que se ocupa de dar a las máquinas la capacidad de parecer que tienen inteligencia humana