Chat GPT de OpenAI, Google Bardo y algunas otras aplicaciones han generado un interés explosivo en la inteligencia artificial. En realidad, antes de que existieran estos aplicativos, la industria tecnología financiera ha utilizado o experimentado con mecanismos de IA en varias aplicaciones, entre las que se encuentran los algoritmos de decision de credito. Es decir, aquellos que determinan si pueden acceder a un crédito con dicha Fintech o banco… o no.
En Prestadero, realizamos algunos ensayos con Inteligencia Artificial desde 2015, en donde contratamos a una consultoría para determinar si pudimos ser más efectivos, eficientes y rápidos en nuestros modelos de decisión crediticia.
La idea en este tipo de modelos, a diferencia de los tradicionales, es que puede alimentar los datos con los que cuentas de un solicitante, y que de manera automatizada el robot te indica si debe aprobarle el crédito sin intervención humana. Teóricamente, si la data es suficiente y el modelo está bien afinado, podría obtener resultados sorprendentes, en forma automática, y en tiempos mínimos. Claro que la clave está en los datos, pues estos algoritmos no hacen magia. Si sólo tienes, por ejemplo, las edades de tus solicitantes y con ello quieres realizar un modelo de Inteligencia Artificial, mejor ni lo intentes. Entre más datos, más opciones tiene el robot para determinar variables predictivas y llegar a un mejor resultado.
Aquí es utilizable el precepto “basura entra, basura sale”
En el caso de Prestadero, no fue sorpresa que las variables que mejor predecían el repago de un crédito eran variables tradicionales, aún con modelos de Inteligencia Artificial. Variables como el Score de Crédito, nivel de endeudamiento, créditos vencidos anteriores, entre otros. Cuando le pedimos al modelo que no utilice crédito para encontrar una predicción, entonces pierde precisión. Esto ha sido siempre un tema de debate entre aquellos que hemos estudiado algoritmos de crédito…
La inteligencia artificial puede predecir cómo usamos los créditos
¿Existe algún conjunto de variables, que, con la ayuda de la Inteligencia Artificial, nos permitan predecir mejor el comportamiento crediticio de una persona, pero eliminando las entradas de comportamiento crediticio anterior? ¿Y por qué puede ser tan importante? Bueno, porque una gran proporción de la población a la que se le niega un crédito es porque no tiene historial crediticio. Inclusive, cerca del 25% de la población ni siquiera lo solicita porque asume que no va a cumplir con los requisitos (Encuesta Nacional de Inclusión Financiera (ENIF), 2021). Si se pudiera encontrar una serie de datos alternos al historial de crédito, podría tal vez mejorar la inclusión financiera en México (y en muchos otros lados del mundo donde el acceso a crédito formal es todo un reto).
De acuerdo con la ENIF, sólo el 3.8% de la población en México tiene un crédito personal formal, por ejemplo. Así que se han tratado de encontrar otros datos alternativos, como píxeles en el celular, geo ubicación de llenado, velocidad de llenado de la solicitud, si tiene iPhone o Android, entre muchos otros.
Predicciones de las maquinas
Pero bueno, como ya comenté en experimentos propios, las variables más predictivas sin falta siempre fueron las variables tradicionales. Y es que es lógico: ¿Qué cree que puede predecir mejor si un solicitante va a pagar su crédito: si ha pagado sus créditos anteriores o si usa Android? Esto genera que la busqueda de variables y la implementacion de algoritmos de Inteligencia Artificial pueda generar algunas preocupaciones:
- Que el modelo busque cada vez más precisión usando datos cuya predictibilidad es cuestionable pero que se usaron porque sin ellos no era predictivo (por ejemplo, que los usuarios que se llaman Pedro paguen mejor que los que se llaman Juan).
- Que por “forzar” dicha predictibilidad los robots te discriminan sin razón (que si te llamas Juan puedes ser rechazado o ser castigado en condiciones sin necesidad; pero que también puedes ser castigado por la zona donde vives, por tu género, por tus hábitos de conexión a Internet, entre otros, que en realidad no tienen nada que ver con tu probabilidad de repago).
La descripción de los bots
Este segundo factor podría ser preocupante. Es decir, si las mujeres del colectivo de datos que usaron para entrenar el modelo pagan peor, ¿deberían castigarse a todas las mujeres solicitantes dentro del algoritmo? Si las personas que viven en Veracruz son más riesgosas, ¿debería castigarse a todos los veracruzanos por igual? Esto puede ya estar ocurriendo en muchos algoritmos a nivel mundial, ya que algunos procesos de Inteligencia Artificial que pueden ser predictivos pueden ser más difíciles de entender y explicar.
Explicado de otra manera: el algoritmo podría decirte que debes rechazarle el crédito a María, pero cuando quieres una explicación, ni María ni la empresa utilizando el algoritmo pueden dar una explicación satisfactoria y sencilla, pues puede deberse al análisis robotizado de cientos o millas de variables sin que exista una sola razón. Dentro de esos cientos o miles de variables, si es un algoritmo no muy bien supervisado y los datos con la que se implementó fue escasa, parte de la razón de rechazo podría ser porque se trata de una mujer de 30 años, de nombre María, que vive en Veracruz.
Esto nos presenta un paradigma: ¿Debería regularse este tipo de usos de la Inteligencia Artificial para no utilizar datos discriminatorios?
Cabe aclarar que, el no regular, podría tener el potencial de aumentar el acceso a crédito. Es decir, podrían existir algoritmos que te castiguen en tasa si estás divorciado/ao viudo/a, por ejemplo, y que el permitir el uso de cualquier dato la entidad financiera tenga más herramientas para tomar decisiones con su robot, sobre todo si no tiene acceso a datos tradicionales de historial crediticio. ¿Pero estamos en el punto donde la inclusión financiera es más importante que la posible discriminación por un robot? Lo dejo a tu criterio.