Saltar al contenido

Entrevista: Kathy Baxter, arquitecta de prácticas éticas de IA en Salesforce

13 de enero de 2021

Recientemente me reuní con Kathy Baxter, una de las especialistas en ética de inteligencia artificial de élite en el mundo y la arquitecta principal de inteligencia artificial ética de Salesforce, para discutir lo bueno, lo malo y lo feo de la recopilación de datos éticos. Kathy desarrolla las mejores prácticas basadas en la investigación para educar a los empleados de Salesforce, los clientes y la industria sobre el desarrollo de una IA responsable. Ella colabora y se asocia con expertos externos en inteligencia artificial y ética para desarrollar continuamente las políticas, prácticas y productos de Salesforce. Antes de Salesforce, trabajó en Google, eBay y Oracle en User Experience Research. Recibió su Maestría en Psicología de Ingeniería y su Licenciatura en Psicología Aplicada del Instituto de Tecnología de Georgia.

insideBIGDATA: ¿Cuáles son algunas de las consideraciones más importantes al abordar la recopilación de datos éticos?

Kathy Baxter: La recopilación de datos éticos abarca varios componentes diferentes. Más importante aún, es fundamental que las empresas reconozcan qué datos son realmente necesarios. Se ha vuelto casi habitual que las grandes empresas recopilen todos los datos que pueden tener en sus manos en caso de que los necesiten con fines analíticos o de pronóstico. En este caso, sea cual sea la información que se recopile, es importante que sea segura y anónima para evitar violaciones de datos.

A continuación, es importante asegurarse siempre de contar con el consentimiento informado de la persona que proporciona la información. En mi opinión, las organizaciones deben hacer un mejor trabajo cuando se trata de comunicar los datos que están recopilando y cómo se utilizarán. De hecho, un estudio reciente de Salesforce encontró que más de la mitad de los estadounidenses no confían en las organizaciones para recopilar o utilizar sus datos de forma ética.

También es importante conocer el origen de los datos que está utilizando. Lo que muchos no se dan cuenta es que varios conjuntos de datos de uso frecuente para entrenar modelos de IA se recopilan ilícitamente en línea sin permiso. El hecho de que pueda acceder a un conjunto de datos no significa que esté legal o éticamente autorizado a usarlo.

Un último componente que quiero mencionar es la importancia de la representatividad y la precisión. Para tener conjuntos de datos que sean completamente representativos y una representación precisa del todo, debe comprender el origen de sus datos para saber qué tipos de sesgos pueden estar presentes. ¿Quién está incluido (representado), quién no y por qué? También necesita saber si los datos que está utilizando son de primera mano (p. Ej., Datos demográficos e intereses proporcionados por el usuario, comportamientos como lo que un usuario hizo clic o buscó) o si se basan en inferencias (p. Ej., Adivinar los datos demográficos o los intereses de alguien basándose en otros señales).

Recomendado:  Syntheised solidifica su asociación con Deutsche Bank, proporcionando datos sintéticos de alta calidad para fines de prueba de IA y ML

insideBIGDATA: ¿Por qué es importante la recopilación de datos éticos? ¿Por qué deberían preocuparse otras organizaciones?

Kathy Baxter: El problema más importante es que las organizaciones están utilizando datos de los consumidores para tomar decisiones que pueden amplificar los prejuicios sociales existentes y causar un daño real. Hay varios ejemplos que existen cuando se trata de tecnología que magnifica el sesgo dañino. Por ejemplo, solo mire las herramientas de contratación basadas en inteligencia artificial que solo recomiendan hombres blancos o tecnología de reconocimiento facial que ha resultado en el arresto de personas inocentes de color.

Cuando se trata de recopilar y analizar datos, las tecnologías de inteligencia artificial a menudo toman decisiones basadas en factores incorrectos, perpetúan el sesgo en el modelo, poniendo en riesgo tanto a la organización como al consumidor. Para el éxito de las empresas y el bien de la sociedad, necesitamos que los datos sean precisos, y eso significa eliminar tanto sesgo como sea posible.

Las organizaciones que están impulsadas por valores y construyen una cultura de ética estarán mejor posicionadas para recopilar datos de manera precisa y ética. Todas las personas con acceso a los datos de los clientes deben recibir formación sobre cómo manejarlos de forma ética.

insideBIGDATA: ¿Qué marcos éticos son efectivos? ¿Has visto que esto va mal?

Kathy Baxter: La mayoría de las empresas de tecnología más grandes de la actualidad han inculcado marcos éticos para abordar los problemas que pueden surgir en términos de recopilación y procesamiento de datos personales. Es genial ver estas medidas implementadas porque sin ellas, las organizaciones corren el riesgo de dañar tanto a sus empresas como a sus consumidores. Sin embargo, abordar las cuestiones éticas no es una tarea fácil y encuentro que uno de los principales obstáculos de los marcos éticos está relacionado con la practicidad. Para asegurarse de que su organización Realmente Para avanzar hacia la recopilación de datos éticos, es importante establecer un conjunto de métricas y / o medidas contra las cuales trabajar porque seamos realistas, las acciones hablan más que las palabras. Y lo que es igualmente importante, es fundamental que los ejecutivos hayan creado la estructura de incentivos adecuada para recompensar la recopilación y el uso de datos éticos, así como las consecuencias significativas cuando se identifique un manejo de datos no ético.

insideBIGDATA: ¿Puede compartir las mejores prácticas para la recopilación de datos éticos?

Kathy Baxter: En primer lugar, recomiendo mantenerse informado y seguir regulaciones como el GDPR de la UE, la Ley de Privacidad del Consumidor de California (CCPA) y la legislación de protección de datos personales de la India que se espera que se promulgue a principios de este año. También es importante recordar que el acceso a los datos de sus clientes es un privilegio, no un derecho suyo. Como organización, debe limitar la recopilación de datos solo a lo que sea absolutamente necesario para tomar decisiones comerciales y hacer todo lo que esté a su alcance para mantenerla segura y anónima para evitar violaciones de datos. Si solo hay algunos casos en los que se necesitan más datos, considere el consentimiento progresivo (es decir, comience por pedir la menor cantidad de datos posible y luego solicite acceso a más datos una vez que sea necesario). Es más probable que los consumidores otorguen acceso a más datos una vez que se haya desarrollado una relación de confianza y se haya demostrado el valor para el cliente.

Recomendado:  5 pasos para la seguridad financiera de por vida

Controle cuidadosamente dónde se almacenan los datos, quién tiene acceso a ellos, audite ese acceso y tenga una vista centralizada de cómo se utilizan los datos. Con demasiada frecuencia, varias personas y grupos dentro de una empresa tienen acceso a los datos de un cliente y no hay coordinación sobre cómo se utilizan o actualizan esos datos.

Sea transparente con sus clientes sobre los datos que está recopilando y déles el control para editarlos o eliminarlos. Tome medidas para asegurarse de que los datos que tiene sean precisos y respete las preferencias del usuario.

Tome decisiones en función de los datos que haya recopilado directamente de los usuarios (por ejemplo, datos demográficos, intereses) u observados (por ejemplo, búsquedas, clics). Sin embargo, no haga suposiciones sobre los clientes en función de un único dato o acción. Si alguien está realmente interesado en un producto / tema, demostrará ese interés con el tiempo, en lugar de una búsqueda o compra única (por ejemplo, un regalo de baby shower para un compañero de trabajo, su hijo toma prestado su teléfono para buscar algo) o un clic accidental.

Sea más inclusivo y evite los prejuicios. Tenga cuidado de tomar decisiones basadas únicamente en la demografía. Incluso si la personalización o la orientación basada en estereotipos terminan siendo correctas la mayor parte del tiempo (p. Ej., Dirigir anuncios de maquillaje a mujeres), es posible que se pierda una gran parte de los clientes potenciales (p. Ej., Hombres, personas transgénero no binarias interesadas en el maquillaje ) o causar una ofensa sin saberlo. Una vez que identifique el sesgo en sus procesos comerciales o en la toma de decisiones, debe eliminarlo del proceso antes de usar esos datos para entrenar otros sistemas de IA. ¿Cómo? Céntrese en tres áreas fundamentales: educación de los empleados, desarrollo de productos y empoderamiento del cliente.

insideBIGDATA: ¿Qué consejo le daría a otras organizaciones sobre la ética de la IA?

Kathy Baxter: Para el éxito de las empresas y el mayor bien de la sociedad, necesitamos que la inteligencia artificial sea precisa, y eso significa eliminar la mayor cantidad posible de sesgos. Las organizaciones tienen la responsabilidad de garantizar conjuntos de datos justos y precisos; es un esfuerzo continuo que requiere conciencia y compromiso. Demasiadas empresas están haciendo inferencias sobre información confidencial del consumidor que el consumidor nunca quiso compartir. Aunque no existe una solución universal, aquí hay cuatro estrategias que las organizaciones deben tener en cuenta:

  • Identifique los sesgos subyacentes en los sistemas y procesos. Examine las decisiones que están tomando sus sistemas en función de variables sensibles.
  • Interrogue las suposiciones hechas sobre los datos que se recopilaron. Para determinar si está tomando decisiones basadas en criterios injustos como raza, género, geografía o ingresos, necesita justicia a través de la conciencia. Eso significa recopilar variables sensibles para ver correlaciones en los datos, pero no tomar decisiones basadas en esas variables sensibles.
  • Interactúe con las personas que pueden verse afectadas por la tecnología. Aquellos que trabajan en estrecha colaboración para implementar tecnologías de IA deben considerar los comentarios directos de sus clientes para comprender qué impactos podría tener la tecnología en un grupo determinado de personas y en la sociedad en su conjunto.
  • No vuelva a la mentalidad de «moverse rápido y romper cosas». Es más importante que nunca dejar tiempo para el pensamiento consciente y productivo para garantizar que las tecnologías de IA sean precisas y justas. Esto permitirá a las organizaciones crear una oferta de productos más completa, inclusiva y segura.
Recomendado:  Informes de inteligencia empresarial: beneficios, desafíos y soluciones

insideBIGDATA: La pandemia de COVID-19 creó una afluencia de datos (atención médica, personal) y aceleró muchos proyectos de transformación digital. ¿Qué será importante considerar éticamente a medida que muchas empresas se adaptan para manejar esta cantidad de datos nuevos?

Kathy Baxter: La pandemia de COVID-19 ha demostrado que los consumidores dependen cada vez más de los canales digitales, lo que obliga a muchas organizaciones a cambiar sus modelos comerciales a un panorama totalmente digital, acelerando así el crecimiento de los datos mundiales. Las organizaciones están tratando de moverse rápidamente para adaptarse. Pero los momentos de crisis no le permiten moverse rápido a toda costa.

Dicho esto, aunque hay más datos nuevos que nunca, las organizaciones deben asegurarse de que, a medida que se adaptan y digitalizan, las prácticas éticas se incorporan en los esfuerzos para escalar desde cero. Es más importante que nunca:

->

->

  • Co-ubicar las prácticas éticas dentro de la infraestructura, los procesos y los marcos existentes y nuevos
  • Incorporar la ética en la estructura de incentivos de su organización
  • Inculcar conocimientos de ética por diseño en toda la fuerza laboral.

Suscríbase al boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: @ InsideBigData1 – https://twitter.com/InsideBigData1