La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema informático, conocimiento o características propias del ser humano. Las dos grandes ramas de la inteligencia artificial (sistemas expertos y aprendizaje automatizado) pueden ayudar a desarrollar programas informáticos que, simulando el modo de actuar de un especialista en gestión de riesgos, califiquen a los clientes según su capacidad de pago y tomen decisiones sobre conceder o no financiación, establecer límites, el tipo de interés que deben pagar y sean capaces de detectar posibles operaciones fraudulentas. El nombre Inteligencia Artifical se acuñó en 1956 en la Conferencia de Dartmouth, cuando apenas existían ordenadores...
- Los sistemas expertos tratan de incorporar en un programa informático el conocimiento de un especialista en gestión de riesgos, habitualmente lo hacen mediante entrevistas que se complementan con revisiones de la literatura. Normalmente, el conocimiento se modeliza mediante reglas decisionales del tipo “Si A entonces B”.
- Los sistemas de aprendizaje automatizado siguen un modo de razonamiento inductivo que obtiene el conocimiento a partir de ejemplos. En vez de preguntar al especialista en riesgos en qué se fija para conceder un préstamo, solicitaremos que nos entregue una base de datos con ejemplos de clientes que pagaron las cuotas y clientes morosos. Los sistemas más utilizados son las redes neuronales artificiales y los modelos de árboles de decisión como XGBoost o random forest, entre otros.
Los primeros sistemas expertos surgieron tras los estudios de Allan Newell y del premio Nobel de Economía Herbert Simon en 1955 y, posteriormente, de John McCarthy, quien creó el lenguaje de programación LISP en 1958, el más utilizado para implementar este tipo de sistemas. Los prestamistas siempre han aplicado reglas para seleccionar a los clientes que merecen un préstamo. El primer intento de formalizar estas reglas lo realizó David Durand, profesor del Instituto Tecnológico de Massachusetts, que en 1941 extrajo el conocimiento de banqueros y comerciantes minoristas que se dedicaban a la financiación al consumidor. Los expertos consultados destacaron por unanimidad dos reglas: la estabilidad en el empleo y el historial crediticio. Estas y otras reglas fueron ratificadas por el estudio empírico que completó en su tesis doctoral. Tras estos avances en el ámbito de la programación y más estudios empíricos sobre los factores que explicaban la devolución de los préstamos, las entidades financieras empezaron a desarrollar sistemas expertos basados en reglas para automatizar las decisiones de concesión de créditos.
La legislación hipotecaria (Ley 5/2019, de 15 de marzo, reguladora de los contratos de crédito inmobiliario) obliga a los prestamistas a evaluar la solvencia del potencial prestatario, analizando entre otros aspectos, la situación de empleo, los ingresos presentes, los previsibles durante la vida del préstamo, los activos en propiedad, el ahorro, los gastos fijos y los compromisos ya asumidos. Asimismo, se ha de valorar el nivel previsible de ingresos tras la jubilación.
La figura siguiente muestra un ejemplo de las reglas que usa una entidad financiera para conceder una hipoteca: “si el historial crediticio del cliente no tiene salvedades, lleva más de tres años trabajando en la misma empresa, sus ahorros superan el 30% del precio de la vivienda y los pagos mensuales por intereses no superan el 35% de que ahorra cada mes, entonces concede el préstamo hipotecario”.
Entre los primeros estudios teóricos sobre redes neuronales destacan los realizados en 1943 por Warren McCulloch y Walter Pitts. Frank Rosenblatt creó el primero modelo operativo, llamado perceptrón, en 1958 y un año más tarde, Bernard Widrow y Marcian Hoff desarrollaron la primera red neuronal aplicada con éxito a un problema del mundo real: eliminar el ruido en las líneas telefónicas ¡que todavía funciona! Tras un periodo de sequía en la investigación sobre redes neuronales, John Hopfield, en 1982, y David Rumelhart, en 1986, desarrollaron nuevos modelos de redes neuronales y algoritmos para su entrenamiento, como el popular método de retropropagación de errores o back propagation.
En 1992, la empresa de tecnología para inteligencia de negocios Fair Isaac Corporation (FICO) presentó su producto Falcon Fraud Manager, que detecta transacciones fraudulentas en tarjetas de crédito mediante redes neuronales y fue una de las primeras aplicaciones exitosas en el campo de las finanzas. Como la cuota de mercado de FICO supera el 50%, cada bez que usas una tarjeta de crédito posiblemente estés usando sus servicios. Tradicionalmente esta actividad se realizaba mediante sistemas expertos, aplicando reglas que alertan si una tarjeta de crédito realiza muchas operaciones consecutivas en muy poco tiempo, si el país desde el que se realiza la compra no coincide con el de emisión de la tarjeta y al que se envía el producto o si la cantidad comprada con la tarjeta excede en mucho el importe diario habitual.
Una aplicación adicional de los modelos de concesión de préstamos es que pueden proporcionar una puntuación de crédito o credit score, que como sabemos es un número que proporciona una estimación de la solvencia de un individuo y predice la probabilidad de impago. La puntuación de crédito determina la cantidad que el cliente podrá pedir prestada y el tipo de interés que pagará. La empresa FICO desarrolló también el primer sistema de puntuación de crédito en 1989, a partir de cinco factores ponderados: si el cliente paga las facturas a tiempo o ha dejado facturas sin pagar (35%), el importe de la deuda impagada (30%), la duración del historial crediticio (15%), el tipo de productos financieros que tiene, como tarjetas de crédito, un préstamo para compra de automóvil o una hipoteca (10%) y el tiempo transcurrido desde que solicitó u obtuvo un nuevo crédito (10%). Además de la puntuación final, el usuario puede acceder a un simple cuadro de mando que muestra cada uno de los cinco factores que explican la puntuación crediticia obtenida, de esta manera es fácil justificar el porqué de la puntuación, aspecto exigido por los reguladores. El software puede realizar simulaciones, por ejemplo, para averiguar el impacto en la puntuación de dejar de pagar una cuota.
Las redes neuronales son modelos matemáticos multivariantes que utilizan procedimientos iterativos, normalmente para minimizar funciones de error. Es importante distinguir entre modelos neuronales -la forma- y algoritmos neuronales -cómo aprenden-. Los modelos neuronales son similares o incluso en muchos casos idénticos a otros modelos matemáticos bien conocidos. Se suelen representar mediante grafos, llamados en este contexto neuronas artificiales. Cada neurona realiza una función matemática. Las neuronas se agrupan en capas, constituyendo una red neuronal. Una determinada red neuronal está confeccionada y entrenada para llevar a cabo una labor específica. Finalmente, una o varias redes, más los interfaces con el entorno, conforman el sistema global.
Puedes descargar la siguiente hoja de cálculo que compara el modelo de red neuronal más popular, llamada perceptrón, con una regresión lineal.
Si la red utiliza un tipo de aprendizaje supervisado debemos proporcionarle parejas de patrones entrada-salida y aprenderá a asociarlos. En terminología estadística equivale a los modelos en los que hay vectores de variables independientes y dependientes: técnicas de regresión, análisis discriminante, regresión logística, etc.
Una vez ejecutado el programa tenemos que crear una red neuronal nueva. En primer lugar se desarrolla la arquitectura, es decir, el número de capas, usualmente tres -una para captar la información o input de entrada, la capa oculta y la capa de salida con el output, en nuestro caso si la empresa quebró o no. Para elegir el número de neuronas de la capa oculta hay que hacer un estudio profundo de la complejidad del problema que incluye estudiar el número de dimensiones y la existencia de componentes no lineales. La siguiente fase es la de entrenamiento o aprendizaje. Durante esta fase, en la mayor parte de los modelos se produce una variación de los pesos sinápticos ocoeficientes del modelo, que miden la intensidad de interacción entre las neuronas. En otros modelos se puede producir la incorporación de nuevas neuronas o la pérdida de algunas de ellas. También hay que seleccionar el algoritmo de aprendizaje, que en nuestro caso será el back propagation así como una serie de parámetros
Curiosidad: nuestro modelo tiene unos pocos parámetros, Chat GPT-3 tenía 175 mil millones de parámetros
![]()
Con ello estamos en condiciones de iniciar el aprendizaje. Tras la fase de aprendizaje se procede a una fase de test, en la que, con nuevos patrones de entrada, comprobamos la eficacia del sistema generado. Si no es aceptable, se debe proceder a repetir la fase de desarrollo, bien utilizando un nuevo conjunto de patrones de entrenamiento, bien modificando el sistema de aprendizaje o la arquitectura. Superada esta fase, la arquitectura, neuronas, conexiones y pesos sinápticos quedan fijos pudiendo el sistema operar en modo recuerdo. El modo recuerdo es el modo de operación normal del sistema: dada una entrada proporcionará una salida en consonancia con el aprendizaje recibido. Finalmente, cabe señalar que es posible conocer el nivel de excitación de cada neurona, es decir el valor de los pesos sinápticos. Es posible guardar en un fichero los valores de estos coeficientes, opción muy útil para su posterior análisis estadístico.
EJERCICIO: Entrena una red neuronal en SPSS utilizando los datos de bancos quebrados y solventes. El análisis discriminante fallaba 7 empresas. La regresión logística fallaba 4 ¿Cuántas falla la red neuronal? ¿Cuál es la variable más importante?
La normativa legal trata de proteger al consumidor y exige a las entidades financieras que sean capaces de justificar la puntuación obtenida, porqué se negó la concesión del préstamo o cómo debería actuar el prestatario para obtener un tipo de interés más bajo. Todo ello desincentivaba el empleo de modelos de aprendizaje automático, excelentes para predecir si el prestatario devolverá el préstamo, pero cuyo punto débil es precisamente la dificultad para interpretar los resultados. Los avances en lo que se denomina inteligencia artificial explicable o interpretable AI han permitido que FICO sí utilice en la actualidad modelos de aprendizaje automático. Además, en la empresa utilizan el aprendizaje automático para identificar nuevos rasgos y circunstancias del cliente que sirvan para predecir la probabilidad de impago con mayor exactitud, lo que mejora la capacidad predictiva manteniendo la necesaria transparencia. Finalmente, los modelos de inteligencia artificial también se utilizan para segmentar adecuadamente a la clientela, lo que permite aplicar modelos de puntuación crediticia distintos para cada tipología de cliente. En este caso utilizan modelos de redes neuronales no supervisadas y otras herramientas con capacidad para obtener agrupamientos a partir de los datos de entrada, teniendo en cuenta sus características, más allá de las clasificaciones obvias.
En los sistemas expertos, los datos se suelen denominar hechos y se agrupan en la llamada “base de hechos”. En un sistema experto de concesión de préstamos, los hechos pueden ser el salario de una persona, si está casado o soltero o su nivel de deuda. La base de conocimiento contiene las reglas necesarias para resolver las decisiones. En el sistema de aprendizaje automático, lo que solicitaríamos a nuestro experto no son reglas de decisión sino una base de datos con ejemplos de empresas que anteriormente han solicitado financiación a nuestro banco. Por tanto, se parte de una base de datos con información histórica de clientes “buenos” (que han devuelto el préstamo, que siempre pagaron en tiempo y forma) y clientes “malos” (que no devolvieron el préstamo, que quebraron, que dejaron de pagar los productos que les vendimos). Tras 25 años de existencia, la base de datos de FICO contiene miles de millones de operaciones financieras y datos de clientes de 9.000 entidades financieras de todo el mundo, lo que supone gestionar unos 2 PB de datos con los que comparar una transacción.
Cada día es más frecuente desarrollar modelos que incorporen información distinta de los usuarios, como su comportamiento en las redes sociales o características individuales. Aunque promisorio, esto afronta numerosos problemas legales, porque las diferentes legislaciones de igualdad de oportunidad de crédito impiden discriminar a los consumidores, de forma que las entidades no pueden cargar un tipo de interés más alto en función de aspectos como la religión, raza, sexo o estado civil. La legislación sobre protección de datos también supone también una restricción importante para la inclusión de nueva información en los modelos.
Como sabemos, en el caso de las empresas, la información más utilizada para evaluar la solvencia suele ser la información contable.
Los sistemas expertos se programan mediante lenguajes de programación específicos, que se ejecutan en ordenadores convencionales. El desarrollo y la programación suele ser la actividad que más tiempo consume. Los requisitos de hardware no son especialmente elevados. Una entidad financiera puede tomar la decisión de conceder el préstamo al cliente en un lapso de tiempo inapreciable para el cliente. Sin embargo, determinadas operaciones financieras exigen ser aceptadas o denegadas en tiempo real. Por ejemplo, al pagar en un comercio mediante una tarjeta de crédito, al comprar en una tienda online, al realizar una transferencia mediante banca electrónica o al sacar dinero de un cajero automático. El seguimiento en tiempo real de las compras realizadas mediante tarjetas de crédito para detectar operaciones fraudulentas nace en 1992, con el sistema Falcon Fraud Manager desarrollado por la empresa FICO, basado como sabemos en redes neuronales artificiales. El sistema analiza las transacciones en unos 50 milisegundos, varias veces más rápido que el parpadeo de una persona, que es la medida de tiempo utilizada informalmente como el equivalente al tiempo real, y es inferior a lo que Google tarda en realizar una búsqueda o Amazon una consulta en su catálogo. Durante ese breve lapso de tiempo, el software realiza unos 15.000 cálculos en busca de patrones fraudulentos, teniendo en cuenta aspectos como el importe de la transacción, el perfil del comerciante, la ubicación de la transacción, el dispositivo del punto de venta, la hora del día y el historial de la cuenta.
La gran ventaja de los sistemas de aprendizaje automático es el mayor porcentaje de acierto que han demostrado frente a los sistemas expertos y los especialistas humanos, al menos en el campo del análisis del riesgo de crédito. Y esta es una ventaja fundamental porque obtener una mejora de un simple 1% en la capacidad predictiva supone unos ahorros inmensos cuando, por ejemplo, hablamos de predecir si el cliente de una entidad financiera devolverá un préstamo. La gestión de riesgos es fundamental en las entidades financieras, cuya actividad fundamental consiste precisamente en prestar dinero. Un sistema de control de riesgos deficiente es la causa de la mayoría de las quiebras bancarias. Asimismo, una empresa con un buen producto, eficiente, rentable, solvente y sin problemas de liquidez puede quebrar por una inadecuada política financiera con respecto al crédito concedido a sus clientes, ya que si éstos no pagan a tiempo las deudas por el pago aplazado de las compras, la empresa puede tener un problema grave, que si no se soluciona incluso puede afectar a su supervivencia.
El menor costo de desarrollo y mantenimiento del aprendizaje automático es otra gran ventaja frente a los elevados tiempos de desarrollo de los sistemas expertos, que se enfrentan a enormes dificultades para extraer el conocimiento y obtener reglas. La empresa FICO afirma que necesita un solo analista trabajando durante unas 40 horas para comprobar si un nuevo algoritmo de aprendizaje automático mejora sus modelos actuales, lo que contrasta con las 800 horas que precisó la última actualización de la parte de su sistema de puntuación crediticia que exige programación convencional.
Como ventaja de los sistemas expertos cabe señalar la mayor facilidad para interpretar los resultados y su consistencia, frente a la dificultad para saber por qué la red neuronal o resto de modelos de aprendizaje automático obtuvieron ese resultado. Esta limitación es relevante porque la legislación de protección del consumidor y la normativa bancaria exigen a las entidades que expliquen los motivos de la denegación del crédito. Por ello, una de las líneas de investigación más candentes busca entender el razonamiento que hay detrás de las decisiones de los modelos.