Saltar al contenido

El mundo al revés de la suscripción acelerada y la inteligencia artificial | Carlton Fields

5 de septiembre de 2020

A medida que la suscripción acelerada (AU) y la inteligencia artificial (AI) empiezan a dar un giro a la suscripción de vida, varios grupos de trabajo de la NAIC están tratando de poner orden en la interrupción: el Grupo de Trabajo de Big Data (EX) («Big Data WG»), el Grupo de Trabajo de Innovación y Tecnología (EX) («Innovation TF»), el Grupo de Trabajo de Suscripción Acelerada (A) («AU WG»), y el Grupo de Trabajo de Inteligencia Artificial (EX) («AI WG»). A continuación se examinan algunas de las cuestiones clave que han estado considerando y que potencialmente tienen importantes repercusiones para los consumidores y el sector de los seguros.

¿Quién está sujeto a la reglamentación?

Con la avalancha de nuevos datos de consumo disponibles, los vendedores terceros han entrado en la batalla de la suscripción de seguros de vida. Reorganizando los datos y desarrollando nuevos modelos, estos vendedores ofrecen reducir el tiempo necesario para suscribir una póliza. Los grupos de consumidores se quejan frenéticamente de que los terceros vendedores no regulados no son responsables si proporcionan a un asegurador puntos de datos o modelos que contienen información inexacta o factores prohibidos que conducen a una discriminación injusta. En la sesión especial de la NAIC sobre raza del 13 de agosto, Birny Birnbaum del Centro para la Justicia Económica instó a los reguladores a establecer una supervisión para los vendedores no regulados de datos y modelos.

Reconociendo estas preocupaciones, el Grupo de Trabajo sobre Inteligencia Artificial incorporó en sus Principios de Inteligencia Artificial una definición de «actores de la Inteligencia Artificial» que incluye a «terceros, como los calificadores, los proveedores de datos y las organizaciones de asesoramiento» que desempeñan un papel activo en el ciclo de vida del sistema de Inteligencia Artificial. Con ello, los reguladores han dejado clara su expectativa de que los terceros proveedores «promuevan, consideren, supervisen y defiendan» unos principios de IA justos, éticos, responsables, conformes, transparentes, seguros y sólidos, incluso si están fuera del alcance reglamentario de los departamentos estatales de seguros. Los Principios de la IA fueron adoptados en la Reunión Conjunta del Comité Ejecutivo y el Pleno de la NAIC del 14 de agosto.

¿Qué datos deben utilizarse?

  • ¿Son los datos exactos?

    Dado que las nuevas fuentes de datos no tradicionales no suelen ser organismos de información de los consumidores y, por lo tanto, no están sujetas a la Ley de información crediticia equitativa, en la reunión del Grupo de Trabajo sobre Innovación del 7 de agosto, los reguladores y los grupos de consumidores cuestionaron la exactitud de la serie de datos inconexos que se utilizan en la Unión Africana. Para asegurar la exactitud de los datos no tradicionales, en su reunión del 31 de julio, el GT de la UA consideró:

    • Reforzando a los aseguradores que conservan la responsabilidad exclusiva de la recopilación, el escrutinio y el análisis de los datos para garantizar que sean fiables, incluso si los proporciona un tercer proveedor.
    • Prohibir el uso de datos que no sean de la FCRA o exigir protecciones del tipo de la FCRA sobre los datos que no sean de la FCRA, incluidos los derechos de los consumidores a acceder a esos datos y corregirlos.
  • ¿Reflejan los puntos de datos utilizados la causa o la mera correlación?

    En la medida en que los puntos de datos de comportamiento, como la membresía del gimnasio de una persona, los hábitos de compra, los datos de los dispositivos que se llevan puestos, las suscripciones a revistas, el historial de votación y el historial de navegación en la web, se utilizan dentro de los modelos de la Unión Africana, los reguladores y los grupos de consumidores han expresado su preocupación de que dichos puntos de datos:

    • No ser desquiciado, sino tener una relación racional y comprensible con el riesgo.
    • Refleja la realidad del consumidor. Por ejemplo, el hecho de que una persona de bajos ingresos no pueda pagar una membresía mensual para el gimnasio no significa automáticamente que esa persona lleve un estilo de vida poco saludable que justifique una clase de mayor riesgo.
    • No estar plagado de información no relacionada, sino que son sólo de la persona. Por ejemplo, una persona podría comprar productos no saludables en una tienda de comestibles para el consumo de otra persona.

    Los presentadores de la reunión del GT Big Data del 4 de agosto instaron a los reguladores a «profundizar» en lo que el modelo de una aseguradora está tratando de lograr, por qué cada variable es importante, y «qué aspecto del mundo real hace que la correlación se produzca».

  • ¿Deberían permitirse los puntajes de crédito?

    Los puntajes crediticios son un factor cada vez más desordenado en la suscripción «ya que las distribuciones de los puntajes crediticios varían significativamente entre los grupos étnicos». En la sesión especial de la NAIC sobre la raza, los reguladores debatieron el sesgo histórico que se ha incorporado a las calificaciones crediticias y el posible impacto discriminatorio de los factores vinculados a la economía. Durante su reunión del 31 de julio, el Grupo de Trabajo de la Unión Africana advirtió que los puntajes crediticios no deben utilizarse de forma aislada, sino que deben emplearse controles y balances para protegerse contra la discriminación.

Recomendado:  Lo más destacado de la investigación: Europa se rezaga en el desarrollo de la IA; Samsung e IBM lideran la carrera por las patentes de IA

¿Están los consumidores adecuadamente protegidos?

  • ¿Qué saben y qué consintieron los consumidores?

    Los organismos reguladores temen que los consumidores desconozcan o estén confundidos en cuanto a la cantidad y el alcance de los datos que se recogen o la forma en que se utilizan. Los reguladores y los representantes de los consumidores están considerando la posibilidad de exigir a las aseguradoras que

    • Obtener el consentimiento de los consumidores.
    • Revelar la información utilizada en la suscripción.
    • Pruebe los datos de entrada para comprobar su exactitud y su inherente sesgo.

    Además, el producto del trabajo del GT de la UA tratará de abordar si:

    • Los consumidores entienden qué información se puede recopilar sobre ellos y cómo se puede utilizar.
    • Los resultados son transparentes para los consumidores.
  • ¿Discriminan los puntos de datos o los modelos utilizados?

    Para afrontar la cuestión de si los puntos de datos o los modelos dan lugar a una discriminación:

    • Después de su reunión del 30 de junio, el Grupo de Trabajo de la IA incluyó dentro de sus Principios de la IA «evitar la discriminación por poder» debido a la preocupación regulatoria de que algunos puntos de datos como el puntaje crediticio, la educación, la ocupación y los antecedentes penales utilizados en un modelo pueden resultar en una discriminación injusta.
    • Durante su reunión del 31 de julio, el GT de la UA discutió la necesidad de que las aseguradoras prueben sus modelos y se aseguren de que los resultados no se desvíen, sino que sean fiables e imparciales. Estas pruebas deberían realizarse durante el desarrollo, periódicamente, y en todas las futuras generaciones de un programa de la UA. El GT de la UA también planteó que las aseguradoras deberían documentar sus pruebas y monitoreo de programas de la UA y advirtió que los programas de la UA serán cuestionados en los próximos exámenes de conducta del mercado.
    • También en su reunión del 31 de julio, el GT de la UA subrayó la importancia de que los múltiples departamentos, incluidos los de informática, auditoría interna, actuarial y jurídico, puedan explicar los puntos de datos utilizados y el funcionamiento del modelo, no sólo los que lo ejecutan.
Recomendado:  Cómo los datos amplios, no los macrodatos, brindan recomendaciones más prescriptivas

¿Tienen los reguladores las herramientas para revisar los modelos?

Los reguladores reconocen que su revisión de modelos complejos se hace más difícil si:

  • Hay una falta de transparencia, en particular si los modelos son una «caja negra» porque no se puede explicar claramente cómo una calificación o puntuación determinada resultó de los datos utilizados por el modelo. Este problema se agrava si los modelos evolucionan con el tiempo a través del aprendizaje automático.
  • Hay una falta de conocimientos técnicos y recursos de reglamentación para examinar adecuadamente los modelos complejos. Los reguladores han discutido el desarrollo de un recurso de la NAIC para ayudarles a revisar los modelos complejos, en particular para la revisión de las tasas de propiedad y de siniestros.
  • Las empresas se apoyan en terceros proveedores, que no están sujetos a la reglamentación, para que proporcionen datos o desarrollen modelos y esos proveedores restringen a las aseguradoras para que no compartan información.

En la reunión del 8 de agosto del Grupo de Trabajo sobre Grandes Datos, los presentadores del Grupo de Trabajo Actuarial y Estadístico sobre Siniestros debatieron que el examen reglamentario de los modelos complejos debería:

  • Asegurar el cumplimiento de las leyes de clasificación; tarifas que no sean excesivas, inadecuadas o injustamente discriminatorias.
  • Revisar todos los aspectos del modelo: datos, supuestos, ajustes, variables, entrada y salida resultante.
  • Evaluar cómo el modelo interactúa con y mejora el plan de clasificación.
  • Permitir la competencia y la innovación.

Además, los presentadores de la reunión del Grupo de Trabajo sobre Innovación del 7 de agosto sugirieron que la revisión reguladora de los modelos debería tener lugar antes de que los modelos estén en su lugar, especialmente si los modelos provienen de un tercer proveedor.

Recomendado:  Una combinación perfecta de aprendizaje automático y grandes datos para proteger los vehículos

*Con la ayuda de Facundo Scialpi, un estudiante de la Facultad de Derecho de la Universidad de Miami.