Saltar al contenido

Ética de la Inteligencia Artificial (IA): 5 preguntas que los CIOs deben hacer

8 de octubre de 2020

Puede que no te des cuenta, pero la inteligencia artificial (IA) ya está mejorando nuestras vidas de muchas maneras. Los sistemas de IA ya manejan nuestros centros de llamadas, conducen nuestros autos y toman órdenes a través de quioscos en restaurantes locales de comida rápida. En los próximos días, la IA y el aprendizaje de las máquinas se convertirán en un elemento más prominente, interrumpiendo las industrias y extrayendo lo tedioso de nuestra vida cotidiana. A medida que entregamos trozos más grandes de nuestras vidas a las máquinas, necesitamos levantar el capó para ver qué tipo de ética las impulsa, y quién define las reglas del camino.

Muchos CIO han comenzado a experimentar con la IA en áreas que pueden no ser muy visibles para los usuarios finales, como la automatización de los almacenes. Pero particularmente, a medida que los CIOs buscan expandir su uso de la IA en más áreas de cara al cliente, deben ser conscientes de las cuestiones éticas que deben ser respondidas o se arriesgan a convertirse en parte de la responsabilidad.

[ Do you understand the main types of AI? Read also: 5 artificial intelligence (AI) types, defined. ]

Aquí hay cinco preguntas que necesitan respuestas para descubrir cómo la ética influye en los sistemas de IA, así como por qué los CIO deben estar al tanto de estos debates ahora.

1. ¿Podemos responsabilizar a una máquina?

En 2019, Elaine Herzberg murió al cruzar la carretera por un todoterreno autónomo impulsado por Uber. El auto no reconoció a la figura como peatón porque no estaba cerca de un cruce de peatones. Como conductores humanos, nos damos cuenta de que la gente cruza sin parar, y somos conscientes de que la gente no siempre cruza la calle donde se supone que debe hacerlo. ¿Quién fue responsable de este descuido?

Un tribunal de Arizona encontró que el «conductor de seguridad» fue negligente, pero llegará el día en que nadie esté al volante. En ese caso, ¿Uber es responsable? ¿Es la tecnología lidar (que mide las distancias usando luz láser y sensores)? ¿Es un programador con cafeína si inexplicablemente se olvidaron de dar cuenta de los peatones imprudentes?

Aunque se espera que los automóviles autónomos sean mucho más seguros que los conductores cansados, borrachos o distraídos, matarán a la gente. ¿Cuántas? Hubo 1,16 muertes por cada 100 millones de millas recorridas en 2017, según la Administración Nacional de Seguridad del Tráfico en las Carreteras del Departamento de Transporte de los Estados Unidos. En contraste, Waymo registró 10 millones de millas desde su lanzamiento en 2009. Sin miles de millones de millas bajo su cinturón, no hay forma de saber cuán seguros serán los automóviles autónomos.

Cada muerte a manos de un vehículo autónomo es seguro que se litiga para culpar a la parte responsable. ¿Todas las compañías de automóviles y de transporte compartido se ven arrastradas a la ola de demandas que seguramente vendrán?

Recomendado:  Un estudio también encuentra que la repetición de gritos puede mejorar la identificación

Por qué los CIOs deberían hacer esta pregunta: Con la IA, el modelo de responsabilidad podría pasar al productor en vez de al consumidor. Para aquellos que ejecutan estas soluciones, necesitamos explorar cómo esto afecta potencialmente a nuestro negocio para que podamos prepararnos adecuadamente para ello.

2. ¿Podemos explicar lo inexplicable?

Los modelos de inteligencia artificial y de aprendizaje automático tienen la tarea de tomar decisiones críticas que tienen un impacto considerable en la vida de las personas. Pueden decirnos qué candidato para el trabajo debe ser contratado. Pueden dictar una sentencia de cárcel a un criminal. Deciden qué objetivo bombardear. Nuestro problema es que no siempre podemos explicar por qué se tomó una decisión.

Los modelos de aprendizaje profundo funcionan a partir de redes neuronales que reciben entradas que se sintetizan en un resultado. No podemos rastrear fácilmente a través de esa red de decisiones para averiguar cómo se tomó la decisión. Es un problema cuando no podemos explicar por qué un preso recibió una sentencia de dos meses mientras que otro recibió un año por el mismo crimen.

Fallamos en esto en el mundo real, ya que los prejuicios raciales se deslizan en la toma de decisiones humanas en el proceso judicial. Este sesgo puede ser transmitido sin saberlo a través de nuestros conjuntos de datos para contaminar nuestro modelo. La responsabilidad es clave.

Por qué los CIOs deberían hacer esta pregunta: Todo el mundo quiere saber cómo llegó el software a su conclusión, especialmente cuando esa decisión parece equivocada. Las redes neuronales hacen que sea difícil responder a esas preguntas. Podemos alimentar nuestro modelo de entradas para ver qué salidas recibimos, pero son en gran parte los humanos los que interpretan lo que la máquina está haciendo en lugar de tener certeza. En la actualidad, esta es una limitación que tenemos que aceptar.

[ Explainable AI tools tackle this issue: It means humans can understand the path an IT system took to make a decision. Read also: What is explainable AI? ]

3. ¿Hay privacidad en el mundo de la IA?

Un día estarás paseando por la tienda de comestibles, y tu refrigerador te enviará un recordatorio de que necesitas leche. Pasarás por el pasillo de las galletas y un cartel virtual aparecerá de repente anunciando que las Oreos están a la venta. A medida que escudriñen los estantes, la información nutricional aparecerá al lado de cada artículo. Lo que una vez pareció propiedad de las películas de ciencia ficción, como Informe de la minoría…pronto se hará realidad.

Aunque esta explosión de información y conveniencia es bienvenida, las herramientas para llevarnos allí son controvertidas. La mayoría de nosotros nos damos cuenta de que renunciamos a una cierta privacidad cada vez que encendemos nuestro teléfono móvil. La IA acelera este declive, y la gente está preocupada. Un reciente informe de investigación de Genpact encontró que el 71% de los consumidores estaban preocupados de que la IA continuara erosionando su privacidad. El software de reconocimiento facial es cada vez más avanzado y puede arrancar caras de una multitud. China ya está desplegando el reconocimiento facial para rastrear y controlar la población de 11 millones de uigures. Este es sólo un aspecto del amplio estado de vigilancia del país.

Recomendado:  ¿Qué es una plataforma de optimización de conversión?

Aunque hay firmes opositores a la tecnología, no sabemos necesariamente qué empresas o gobiernos están utilizando activamente el reconocimiento facial. Algunas empresas de tecnología están evitando la controversia, mientras que otras, como Clearview, venden software de reconocimiento facial de la IA a las agencias de la ley de los Estados Unidos.

Por qué los CIOs deberían hacer esta pregunta: Facebook y Google han tenido problemas con la privacidad de los datos, y los reguladores están tomando cada vez más medidas enérgicas contra las normas laxas de privacidad de los datos. A medida que compilamos volúmenes de datos sobre nuestros clientes y usamos herramientas como la IA y el aprendizaje automático para extraer más de esos datos, necesitamos mantener la privacidad del cliente en la vanguardia de nuestro pensamiento. Sin esto, nos arriesgamos a una pesadilla de relaciones públicas cuando nos convertimos en el niño del cartel de todo lo que está mal con la tecnología.

4. ¿Podemos reinar en los malos actores?

Independientemente de las nobles intenciones de una tecnología, algunos siempre intentarán explotarla para beneficio personal. La inteligencia artificial no es una excepción. Los hackers ya la están usando para desarrollar sofisticados ataques de phishing y para armar viciosas ciberofensivas contra organizaciones desconocidas.

Los bots están tratando activamente de influir en nuestras próximas elecciones difundiendo información falsa y engañosa a través de las redes de medios sociales. Estas intensas campañas de desinformación fueron tan efectivas durante las elecciones presidenciales de 2016 que algunos cuestionan si influyó en el resultado final. Las empresas de medios sociales se han comprometido a elevar el control de sus redes, y esperamos que llegue un día en que la desinformación sea eliminada o etiquetada en tiempo real antes de que pueda infectar a una amplia audiencia.

Algunos incluso están usando inteligencia artificial para alterar nuestra percepción de la realidad. Las falsificaciones son grabaciones de video o audio generadas por la IA donde alguien dice algo que no dijo. Esto podría ser convertido en un arma mediante la publicación de un vídeo de Elon Musk comentando que Tesla no va a cumplir con las proyecciones trimestrales, haciendo que el precio de las acciones baje. Podría ser un candidato político revelando una bomba en la víspera de una elección. Mientras que en gran parte se limita a la pornografía, se estima que los casos de falsificaciones se duplican cada seis meses, según Sensity, una empresa de inteligencia de amenazas visuales que rastrea el paisaje de las falsificaciones. No pasará mucho tiempo antes de que se generalice. Las falsificaciones tendrán consecuencias devastadoras si no podemos desarrollar técnicas forenses para desactivar esta tecnología.

Recomendado:  Ingeniería de datos para ML: optimización para la rentabilidad

Por qué los CIOs deberían preocuparse por esta cuestión: La ciberseguridad es una bestia cada vez más compleja. La inteligencia artificial le da a los hackers una nueva y aterradora herramienta para explotar. Desde mantener nuestras redes seguras hasta hacernos pasar por nuestro CEO, necesitamos entender estas amenazas para combatirlas adecuadamente.

5. ¿Quién es el responsable de la ética de la IA?

Un hilo común atraviesa todas estas preguntas. ¿Quién es el responsable de establecer y hacer cumplir las normas éticas de los sistemas de inteligencia artificial?

Gigantes tecnológicos como Google y Microsoft dicen que los gobiernos deberían intervenir para crear leyes que regulen la IA. Llegar a un consenso no será fácil y necesitará la aportación de una amplia variedad de interesados para asegurar que los problemas que se han introducido en la sociedad no se transmitan a nuestros modelos de IA. Las leyes son tan buenas como su aplicación. Hasta ahora, esa responsabilidad ha recaído en los guardianes externos y los empleados de las empresas tecnológicas que hablan. Google eliminó su proyecto de IA de aviones teledirigidos militares después de meses de protestas de los empleados.

Muchas empresas están coronando a los directores de ética para ayudar a guiar a las unidades de negocios a través de este nuevo terreno.

Por qué los CIOs deberían hacer esta pregunta: Las regulaciones de inteligencia artificial a nivel nacional e internacional están todavía muy lejos. Debemos autocontrolar la forma en que usamos la IA. Las controversiales implementaciones ocultas de la IA sólo permanecerán en la oscuridad por un tiempo. Las prácticas cuestionables eventualmente saldrán a la luz. Cuando lo haga, las compañías se verán obligadas a reaccionar en lugar de ser proactivas en el establecimiento y aplicación de una política de IA ética.

Tenemos un largo camino por recorrer antes de que la ética se convierta en una con la inteligencia artificial. Haciendo las preguntas difíciles, podemos determinar el papel que queremos que la IA juegue en nuestras vidas y organizaciones. No hay tiempo como el presente. La IA tiene la tarea de resolver problemas más importantes cada día, por lo que nos encontramos engullidos en estas preguntas filosóficas. Las respuestas están ahí fuera si estamos dispuestos a preguntar y explorar.

[ How can automation free up staff time for innovation? Get the free eBook: Managing IT with Automation. ]