La inteligencia artificial (IA) ya tiene un impacto en nuestra vida diaria de formas que nunca imaginamos hace solo unos años, y de formas que ahora desconocemos. Desde automóviles autónomos hasta dispositivos asistidos por voz y mensajes de texto predictivos, la IA se ha convertido en una parte necesaria e inevitable de nuestra sociedad, incluso en el lugar de trabajo.
Los datos muestran que el uso de la IA en los negocios está aumentando. En 2019, un informe de Gartner indicó que el 37 % de las organizaciones habían implementado IA de alguna manera. Más recientemente, Gartner predijo que el mercado global de software de inteligencia artificial tendría un valor de $ 62,5 mil millones para fines de este año, un aumento del 21 % con respecto al año anterior.
Si bien el impacto de la IA es innegable, persisten las preocupaciones de los consumidores sobre la ética y la seguridad de la tecnología de IA. Debido a esto, las empresas deben esforzarse por aliviar estas preocupaciones protegiendo siempre los datos de los clientes cuando emplean tecnología habilitada para IA.
La necesidad de una IA responsable
Cualquier organización orientada al consumidor que emplee tecnología de inteligencia artificial debe actuar de manera responsable, especialmente cuando se trata de datos de clientes. Los líderes tecnológicos que utilizan IA deben prestar igual atención a dos responsabilidades en todo momento: reducir los sesgos de los modelos y preservar la confidencialidad y privacidad de los datos.
[ Also read Artificial intelligence: 3 ways to prioritize responsible practices. ]
Además de garantizar la seguridad de los datos, las prácticas responsables de IA deben eliminar los sesgos incrustados en los modelos que la impulsan. Las empresas deben evaluar regularmente los sesgos que pueden estar presentes en los modelos de sus proveedores y luego asesorar a los clientes sobre la tecnología más adecuada para ellos. Esta supervisión también debería corregir los sesgos con las reglas de procesamiento previo y posterior.
Si bien las empresas no pueden eliminar los sesgos inherentes a los sistemas de IA entrenados en grandes cantidades de datos, pueden trabajar para minimizar los efectos adversos. Estas son algunas de las mejores prácticas:
1. Pon a las personas primero
La IA puede ser beneficiosa para reducir la cantidad de trabajo repetitivo realizado por humanos, pero aún así se debe priorizar a los humanos. Cree una cultura que no implique un escenario entre la IA y los humanos. Aproveche la creatividad, la empatía y la destreza de los equipos humanos y deje que la IA cree más eficiencias.
Aproveche la creatividad, la empatía y la destreza de los equipos humanos y deje que la IA cree más eficiencias.
2. Considere los objetivos de datos y privacidad
Una vez establecidas las metas, la visión a largo plazo y la misión, pregúntese: ¿Qué posee la empresa? Existen numerosos modelos básicos o soluciones que se pueden usar sin datos de entrenamiento, pero en algunos casos, el grado de precisión podría ser mucho mayor.
La adaptación de los sistemas de IA a los objetivos y datos de la empresa producirá los mejores resultados. Si se hace correctamente, la preparación y la limpieza de los datos pueden eliminar los sesgos durante este paso. Eliminar el sesgo de los datos es clave para desarrollar soluciones de IA responsables. Puede eliminar funciones que afectan el resultado general y perpetuar aún más los sesgos existentes.
En el frente de la privacidad, comprométase a proteger todos los datos que recopile, independientemente de cuán masiva sea la cantidad. Una forma de hacer esto es trabajar solo con proveedores externos que sigan estrictamente las estipulaciones dentro de leyes cruciales, como GDPR, y mantengan certificaciones de seguridad críticas, como ISO 27001. Cumplir con estas regulaciones y obtener estas certificaciones toma mucho tiempo. esfuerzo, pero demuestran que la organización está calificada para proteger los datos del cliente.
3. Implementar el aprendizaje activo
Más sobre inteligencia artificial
Una vez que un sistema está en producción, proporcione comentarios humanos sobre el rendimiento y los sesgos de la tecnología. Si los usuarios detectan que la salida difiere según el escenario, cree pautas para informar y solucionar esos problemas. Esto se puede hacer en el núcleo del sistema de IA como una corrección de la salida.
En los últimos años, algunas de las organizaciones más grandes del mundo, incluidas Google, Microsoft y la Comisión Europea, han creado marcos y han compartido conocimientos sobre sus directrices de IA responsable. A medida que más organizaciones adopten el lenguaje empresarial relacionado con la IA responsable, se convertirá en la expectativa de los socios y clientes.
Cuando un error puede costarle a su marca millones de dólares o arruinar su reputación y relación con los empleados y clientes, el soporte adicional ayuda. Nadie quiere trabajar con una organización que no se preocupa por los datos de sus clientes o que utiliza soluciones de inteligencia artificial sesgadas. Cuanto antes su organización aborde estos problemas, más consumidores confiarán en usted y los beneficios de usar IA comenzarán a aparecer.
[ Check out our primer on 10 key artificial intelligence terms for IT and business leaders: Cheat sheet: AI glossary. ]