Saltar al contenido

Microsoft finaliza el equipo de ética de IA mientras se acerca a OpenAI • The Register

17 de marzo de 2023

Microsoft eliminó a todo su equipo responsable de garantizar el uso ético del software de inteligencia artificial en un momento en que el gigante de Windows está aumentando el uso de la tecnología de aprendizaje automático.

La decisión de deshacerse del equipo de ética y sociedad dentro de su organización de inteligencia artificial es parte de los 10,000 recortes de empleos que Microsoft anunció en enero, que continuarán en el titán de TI hasta el próximo año.

El golpe a esta unidad en particular puede eliminar algunas medidas de seguridad destinadas a garantizar que los productos de Microsoft que integran funciones de aprendizaje automático cumplan con los estándares de la megacorporación para el uso ético de la IA. Y surge en un momento en que se debate sobre los efectos de los controvertidos modelos de inteligencia artificial en la sociedad en general.

Integrar la ética de la IA en todo el negocio, como algo que todos los empleados deben considerar, se parece un poco a cuando Bill Gates les dijo a sus ingenieros en 2002 que hicieran de la seguridad una prioridad para toda la organización, lo que obviamente funcionó muy bien. Podría pensar que un equipo dedicado que lo supervise internamente sería útil.

Platformer informó por primera vez los despidos en el grupo de ética y sociedad y citó a empleados actuales y anteriores no identificados. Se suponía que el grupo asesoraría a los equipos a medida que Redmond aceleraba la integración de las tecnologías de IA en una gama de productos, desde Edge y Bing hasta Teams, Skype y los servicios en la nube de Azure.

Recomendado:  Cómo la IA está interrumpiendo la economía de creación de contenido

Microsoft todavía tiene su Oficina de IA Responsable, que trabaja con el Comité Aether y la Estrategia de IA Responsable en Ingeniería (RAISE) de la compañía para difundir prácticas responsables en todas las operaciones en el trabajo diario. Dicho esto, los empleados le dijeron al boletín que el equipo de ética y sociedad desempeñó un papel crucial para garantizar que esos principios se reflejaran directamente en la forma en que se diseñaron los productos.

Un portavoz de Microsoft dijo El registro que la impresión de que los despidos significaron que el gigante tecnológico está recortando su inversión en IA responsable es incorrecta. La unidad fue clave para ayudar a incubar una cultura de innovación responsable cuando Microsoft puso en marcha sus esfuerzos de inteligencia artificial hace varios años, nos dijeron, y ahora los ejecutivos de Microsoft han adoptado esa cultura y la han sembrado en toda la empresa.

«Ese trabajo inicial ayudó a estimular la forma interdisciplinaria en la que trabajamos en investigación, políticas e ingeniería en Microsoft», dijo el portavoz.

«Desde 2017, hemos trabajado arduamente para institucionalizar este trabajo y adoptar estructuras organizacionales y procesos de gobierno que sabemos que son efectivos para integrar consideraciones de IA responsable en nuestros sistemas y procesos de ingeniería».

Hay cientos de personas trabajando en estos problemas en Microsoft, «incluidos equipos de IA responsables nuevos y dedicados que se establecieron y crecieron significativamente durante este tiempo, incluida la Oficina de IA responsable y un equipo de IA responsable conocido como RAIL que está integrado en el equipo de ingeniería responsable de nuestro servicio Azure OpenAI», agregaron.

Recomendado:  Qué deben hacer las agencias para combatir la TI en la sombra impulsada por la expansión de la nube

Por el contrario, menos de diez personas en el equipo de ética y sociedad se vieron afectadas, y algunas fueron trasladadas a otras partes del negocio, con la Oficina de Inteligencia Artificial Responsable y la unidad RAIL.

Muerte por muchos cortes

Según el informe de Platformer, el equipo se redujo de unas 30 personas a siete a través de una reorganización dentro de Microsoft en octubre de 2022.

Últimamente, los miembros del equipo habían estado investigando los riesgos potenciales relacionados con la integración de Microsoft de las tecnologías de OpenAI en toda la organización. Según se informa, fuentes anónimas dijeron que el CEO Satya Nadella y el CTO Kevin Scott estaban ansiosos por integrar esas tecnologías en los productos y llegar a los usuarios lo más rápido posible.

Microsoft está invirtiendo miles de millones de dólares en OpenAI, una startup cuyos productos incluyen Dall-E2 para generar imágenes, GPT para texto (OpenAI presentó esta semana su última versión, GPT-4) y Codex para desarrolladores. Mientras tanto, ChatGPT de OpenAI es un chatbot entrenado en montañas de datos de Internet y otras fuentes que recibe indicaciones de humanos, por ejemplo, «Escribe una historia de dos párrafos del Imperio Romano», y escupe una respuesta escrita.

Microsoft también está integrando un nuevo modelo de lenguaje grande en su navegador Edge y en el motor de búsqueda Bing con la esperanza de socavar la posición dominante de Google en la búsqueda.

Desde que se abrió al público en noviembre de 2022, ChatGPT se ha convertido en la aplicación más rápida en llegar a 100 millones de usuarios, superando esa marca en febrero. Sin embargo, los problemas con la tecnología, y con aplicaciones de inteligencia artificial similares como Bard de Google, surgieron con bastante rapidez, desde respuestas incorrectas hasta lenguaje ofensivo y gaslighting.

Recomendado:  Procesos Gaussianos para la clasificación con Python

La rápida innovación y la integración de estos grandes sistemas de inteligencia artificial modelo de lenguaje está alimentando un debate más amplio sobre su impacto en la sociedad.

Redmond arrojará más luz sobre su estrategia de IA en curso durante un evento el 16 de marzo organizado por Nadella y titulado «El futuro del trabajo con IA», que El registro estará cubriendo. ®