Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital

La inteligencia artificial puede discriminar al otorgar créditos

¿Debería de regularse el uso de la inteligencia artificial para no utilizar datos discriminatorios al momento de otorgar créditos?

Inteligencia artificial
Inteligencia artificial © Sofía Ugalde vía Midjourney

Chat GPT de OpenAI, Google Bard y algunas otras aplicaciones han generado un interés explosivo en la inteligencia artificial. En realidad, antes de que existieran estos aplicativos, la industria Fintech ha utilizado o experimentado con mecanismos de IA en varias aplicaciones, entre las que se encuentran los algoritmos de decisión de crédito. Es decir, aquellos que determinan si puedes acceder a un crédito con dicha Fintech o banco… o no.

En Prestadero, realizamos algunos ensayos con Inteligencia Artificial desde 2015, en donde contratamos a una consultoría para determinar si podríamos ser más efectivos, eficientes y rápidos en nuestros modelos de decisión crediticia.

La idea en este tipo de modelos, a diferencia de los tradicionales, es que puedas alimentarle los datos con los que cuentas de un solicitante, y que de manera automatizada el robot te indique si debes aprobarle el crédito sin intervención humana. Teóricamente, si la data es suficiente y el modelo está bien afinado, podrías obtener resultados sorprendentes, en forma automática, y en tiempos mínimos. Claro que la clave está en los datos, pues estos algoritmos no hacen magia. Si sólo tienes, por ejemplo, las edades de tus solicitantes y con ello quieres realizar un modelo de Inteligencia Artificial, mejor ni lo intentes. Entre más datos, más opciones tiene el robot para determinar variables predictivas y llegar a un mejor resultado.

Aquí es utilizable el precepto “basura entra, basura sale”

En el caso de Prestadero, no fue sorpresa que las variables que mejor predecían el repago de un crédito eran variables tradicionales, aún con modelos de Inteligencia Artificial. Variables como el Score de Crédito, nivel de endeudamiento, créditos vencidos anteriores, entre otros. Cuando le pedimos al modelo que no utilice información de crédito para encontrar una predicción, entonces pierde precisión. Esto ha sido siempre un tema de debate entre aquellos que hemos estudiado algoritmos de crédito…

La inteligencia artificial puede predecir cómo usamos los créditos

¿Existe algún set de variables, que, con la ayuda de la Inteligencia Artificial, nos permita predecir mejor el comportamiento crediticio de una persona, pero eliminando inputs de comportamiento crediticio anterior? ¿Y por qué puede ser tan importante? Bueno, porque una gran proporción de la población a la que se le deniega un crédito es porque no tiene historial crediticio. Inclusive, cerca del 25% de la población ni siquiera lo solicita porque asume que no va a cumplir con los requisitos (Encuesta Nacional de Inclusión Financiera (ENIF), 2021). Si se pudiera encontrar una serie de datos alternos al historial de crédito, podría tal vez mejorar la inclusión financiera en México (y en muchos otros lados del mundo donde el acceso a crédito formal es todo un reto).

De acuerdo con la ENIF, sólo 3.8% de la población en México tienen un crédito personal formal, por ejemplo. Así que se han tratado de encontrar otros datos alternativos, como píxeles en el celular, geo ubicación de llenado, velocidad de llenado de la solicitud, si tiene iPhone o Android, entre muchos otros.

Predicciones de las máquinas

Pero bueno, como ya comenté en experimentos propios, las variables más predictivas sin falta siempre fueron las variables tradicionales. Y es que es lógico: ¿Qué crees que pueda predecir mejor si un solicitante va a pagar su crédito: si ha pagado sus créditos anteriores o si usa Android? Esto genera que la búsqueda de variables y la implementación de algoritmos de Inteligencia Artificial pueda generar algunas preocupaciones:

  • Que el modelo busque cada vez más precisión usando datos cuya predictibilidad es cuestionable pero que se usaron porque sin ellos no era predictivo (por ejemplo, que los usuarios que se llaman Pedro paguen mejor que los que se llaman Juan).
  • Que por “forzar” dicha predictibilidad los robots te discriminen sin razón (que si te llamas Juan puedas ser rechazado o ser castigado en condiciones sin necesidad; pero que también puedas ser castigado por la zona donde vives, por tu género, por tus hábitos de conexión a Internet, entre otros, que en realidad no tienen nada que ver con tu probabilidad de repago).

La descriminación de los bots

Este segundo factor podría ser preocupante. Es decir, si las mujeres del colectivo de datos que usaron para entrenar el modelo pagan peor, ¿deberían castigarse a todas las mujeres solicitantes dentro del algoritmo? Si las personas que viven en Veracruz son más riesgosas, ¿debería de castigarse a todos los veracruzanos por igual? Esto puede ya estar ocurriendo en muchos algoritmos a nivel mundial, ya que algunos procesos de Inteligencia Artificial que pueden ser predictivos pueden ser más difíciles de entender y explicar.

Explicado de otra manera: el algoritmo podría decirte que debes de rechazarle el crédito a María, pero cuando quieres una explicación, ni María ni la empresa utilizando el algoritmo pueden dar una explicación satisfactoria y sencilla, pues puede deberse al análisis robotizado de cientos o miles de variables sin que exista una sola razón. Dentro de esos cientos o miles de variables, si es un algoritmo no muy bien supervisado y la data con la que se implementó fue escasa, parte de la razón de rechazo podría ser porque se trata de una mujer de 30 años, de nombre María, que vive en Veracruz.

Esto nos presenta un paradigma: ¿Debería de regularse este tipo de usos de la Inteligencia Artificial para no utilizar datos discriminatorios?

Cabe aclarar que, el no regular, podría tener el potencial de aumentar el acceso a crédito. Es decir, podrían existir algoritmos que te castiguen en tasa si estás divorciado/a o viudo/a, por ejemplo, y que el permitir el uso de cualquier dato la entidad financiera tenga más herramientas para tomar decisiones con su robot, sobre todo si no tiene acceso a datos tradicionales de historial crediticio. ¿Pero estamos en el punto donde la inclusión financiera es más importante que la potencial discriminación por un robot? Lo dejo a tu criterio.

Algoritmos Análisis de datos Big Data ciencia de datos créditos fintech inteligencia artificial