Saltar al contenido

El Tambor | Las industrias creativas deben tomar la iniciativa en el autogobierno de la IA

6 de julio de 2023

Rachel Aldighieri, directora gerente del organismo de comercio de datos y marketing del Reino Unido, DMA, argumenta que las industrias creativas deben actuar ahora para desarrollar un marco ético de IA para complementar cualquier regulación gubernamental futura.

No es ningún secreto que la IA ha existido durante décadas, impulsando el desarrollo social a través de una mayor eficiencia tecnológica. Sin embargo, la agenda de noticias en 2023 se centra cada vez más en las implicaciones morales que rodean el desarrollo de la IA, cuestionando si se está desarrollando demasiado rápido sin marcos establecidos para garantizar que realmente se use como una fuerza para el bien.

Bajo las circunstancias adecuadas y desarrollado teniendo en cuenta las necesidades de las personas al frente y al centro, puede ser nuestro mejor amigo hecho por el hombre. Sin embargo, en las manos equivocadas, la IA puede crear prejuicios sociales, generar información engañosa a gran escala e infringir gravemente nuestros derechos humanos.

La regulación está en la mente de muchas personas. Pero la Asociación de Datos y Marketing (DMA UK), el organismo de la industria para el marketing basado en datos, cree que, al igual que con el gobierno de privacidad de datos, la regulación es solo una parte de la solución: la ética y el autogobierno tienen un papel muy importante que desempeñar.

La regulación tiene un papel clave que desempeñar

El libro blanco del gobierno del Reino Unido, Un enfoque a favor de la innovación para la regulación de la IA, describe su enfoque y política futura hacia la regulación de la IA, llamando al «uso responsable» y evitando la implementación de lo que llama «legislación de mano dura» que sofoca la innovación.

Como señala correctamente el gobierno, para que el Reino Unido se convierta en una superpotencia de IA, es crucial que hagamos todo lo posible para crear el entorno adecuado para aprovechar los beneficios de la IA y permanecer a la vanguardia de los desarrollos tecnológicos.

Sin embargo, crear el entorno adecuado significa lograr el equilibrio adecuado entre innovación y protección. No podemos ignorar nuestra brújula moral solo para acelerar el desarrollo de AI para obtener ganancias financieras o medidas de reducción de costos. En este caso, siempre causaría más daño que bien.

La regulación de la IA es esencial para crear un elemento disuasorio para los actores deshonestos, donde sus intenciones son deliberadamente injustas, por lo que debemos continuar con su desarrollo. También puede ofrecer una guía útil y claridad donde existe incertidumbre para quienes tienen la intención de desarrollarlo y usarlo de manera ética.

Recomendado:  Inteligencia Artificial, soluciones sin contacto para proporcionar protocolos de seguridad para permitir la reapertura de eventos en vivo en 2021

Pero la regulación requiere tiempo y dinero, y con algo tan complejo como la IA, donde hay muchas partes interesadas diferentes con diferentes intereses, podría encontrar muchos obstáculos durante su desarrollo, lo que podría dificultar su implementación. Con el rápido ritmo al que avanza la IA, debemos establecer salvaguardas éticas sin demora.

Para los actores genuinos en el ecosistema de IA, aquí es donde los marcos basados ​​en principios también pueden ayudar y pueden implementarse a un ritmo más rápido si las partes interesadas clave de nuestra industria trabajan en cohesión.

Marcos con personas en su corazón

Debemos crear marcos éticos para el desarrollo de la IA que coloquen el autogobierno, la transparencia y la rendición de cuentas en primer plano, incorporando esencialmente en la fase de diseño consideraciones sobre su impacto potencial en las personas, ya sea el usuario final, los civiles a los que afecta indirectamente, el personal. manteniéndolo y supervisándolo e incluso aquellos a los que eventualmente podría reemplazar en una capacidad profesional.

Ya existen marcos similares. La estrategia de IA del gobierno escocés pone a las personas en el centro y crea principios éticos e inclusivos para generar confianza en la IA. Su objetivo es fortalecer el ecosistema de IA durante los próximos cinco años a través de estos métodos.

La DMA tiene su propio marco basado en principios para que nuestros miembros ayuden a los especialistas en marketing a navegar éticamente a través del mundo del marketing y la tecnología en constante evolución. En 2014, creamos el Código DMA para hacer que nuestra industria sea más responsable, confiable e inclusiva. Está diseñado para trascender todas las iteraciones del desarrollo tecnológico y centrarse en nuestros comportamientos y valores como individuos y organizaciones.

No puedo hablar por otras industrias, pero sé que los actores serios en las industrias de la publicidad y el marketing siempre han tratado de hacer lo mejor para nuestros clientes y personal; después de todo, un enfoque centrado en el cliente es fundamental para el crecimiento sostenible.

Un marco ético de IA puede ayudarnos a colaborar para apoyar públicamente un enfoque centrado en las personas para generar confianza en los consumidores en lugar de depender de la regulación para llenar el vacío de confianza.

Recomendado:  La representación del sucesor, los modelos $ gamma $ y la predicción del horizonte infinito: el blog de investigación de inteligencia artificial de Berkeley

Boletines sugeridos para usted

Informe diario

A diario

Póngase al día con las historias más importantes del día, seleccionadas por nuestro equipo editorial.

Anuncios de la semana

Miércoles

Vea los mejores anuncios de la última semana, todo en un solo lugar.

Reunión informativa de la agencia de medios

Jueves

Nuestro editor de medios explora las mayores compras de medios y las tendencias que sacuden al sector.

La IA puede ser un catalizador de la creatividad

El Comité Creativo de la DMA se reunió recientemente para analizar el papel de la IA en nuestra industria y cómo la adoptamos éticamente, en particular la IA generativa, como ChatGPT y Copy AI. Discutimos temas que creemos que podrían tener el potencial de trascender toda la ética de la IA.

Para que la IA generativa se considere ética, debe quedar claro cuándo, dónde y cómo se ha utilizado la IA, con un contenido de prueba humana antes de que se haga público. Debemos seguir siendo responsables de cualquier contenido que produzcamos, al igual que cuando un ser humano lo ha creado. La transparencia es esencial.

Las infracciones de derechos de autor son otro desafío importante, ya que la IA generativa toma el contenido existente de Internet para crear una copia. Debemos asegurarnos de que pueda reconocer la fuente si se ha utilizado contenido único para respaldar nuestra propia generación de contenido.

Debemos aumentar la conciencia sobre el sesgo inconsciente en los datos y la IA generativa para limitar su proliferación. Si los humanos identifican dónde prevalece y siempre consideran a cualquier persona afectada en el proceso de toma de decisiones de la IA, podemos dar un paso más hacia la optimización de su uso ético.

Por estas razones, el equipo humano-IA es nuestro mejor futuro, ya que la IA funciona de manera más efectiva como una herramienta que los humanos usan para ayudar y mejorar nuestras propias habilidades. Mike Bugembe, de Decidible Global, lo describe con precisión como un escenario en el que podemos utilizar lo mejor de la intuición, la estrategia y la experiencia humanas junto con el notable cálculo y la memoria de la máquina de IA.

Recomendado:  ¿Es la inteligencia artificial mejor que el cerebro humano?

La IA puede ser un instrumento único para potenciar la creatividad y agilizar la generación de contenido, con sus ‘capacidades privadas similares a las de un investigador’ que ayudan a los usuarios a encontrar una gran variedad de soluciones con solo hacer clic en un botón, además de ofrecernos un compañero digital para intercambiar ideas. .

Esto nos ahorrará tiempo y recursos en tareas mundanas, liberando nuestras mejores mentes para tareas más complejas o creativas que la IA no puede o no debe manejar.

Sus tasas de éxito siempre dependerán de quién esté usando la tecnología y de cómo esté capacitado para aprovecharla al máximo.

Esto creará una gama de nuevas oportunidades laborales en una variedad de industrias, alterando el mercado laboral en lugar de disminuir las perspectivas laborales humanas.

Como parte de un enfoque ético de la IA, siempre requerirá alguna intervención humana para promover nuestros valores como seres morales: nunca debemos olvidar a las personas a las que pretende servir.

La IA es una fuerza para el bien

Como líderes empresariales, no debemos perder nuestra conexión humana con los clientes y los valores centrados en las personas. Al crear un marco ético en toda la industria para complementar la regulación pendiente, podemos establecer nuestros propios estándares altos en términos de cómo desarrollamos y usamos la IA para interactuar con nuestros clientes y el resto del mundo.

Para ayudar a nuestra industria en este camino, la DMA estableció recientemente un grupo de trabajo multidisciplinario entre nuestros 18 comités y consejos para desarrollar una guía de inteligencia artificial para los especialistas en marketing y para respaldar el enfoque del gobierno, basándose en los pilares importantes de innovación mejorada y confianza pública establecidos. en la legislación pendiente de DPDI.

La DMA cree que el autogobierno y la regulación deben coexistir para mejorarse y complementarse mutuamente.

La IA se puede desarrollar y utilizar como una fuerza para el bien, pero ahora debemos adoptar un enfoque proactivo para garantizar que cualquier regulación creada complemente una infraestructura industrial diseñada para poner a las personas en primer lugar.

Rachel Aldighieri es la directora gerente de la DMA.