martes, 25 de mayo de 2010

UTILIZACION DE MODELOS NEURONALES EN AREAS DE INFORMACION FINANCIERA.



En noviembre de 1993, por iniciativa de la London Business School, se celebró en Londres la primera reunión internacional sobre aplicaciones de redes neuronales al tratamiento de la información financiera (First International Workshop on Neural Networks in the Capital Markets). Recientemente en congresos internacionales de áreas empresariales comienzan de forma esporádica a surgir aplicaciones desarrolladas con estos modelos. Son todavía muy pocos los artículos que se encuentran publicados en revistas internacionales, aunque Financial Analysts Journal o The Journal of Banking and Finance, están empezando a recoger artículos sobre aplicaciones de redes neuronales, alguno de ellos firmado por investigadores tan renombrados como E.I. Altman, véase Altman, Marco y Varetto (1994).

Los principales trabajos desarrollados con información financiera se agrupan en dos temas: análisis del fracaso empresarial y predicción en los mercados financieros. Ambos tipos de trabajos responden a dos de las principales tareas en las que se están aplicando las redes neuronales: clasificación y predicción, que como hemos visto anteriormente, son un caso particular de los problemas de generalización.

En la mayoría de estos trabajos se obtienen resultados excelentes con las redes neuronales. Pero hay que ser prudentes. Muchos de los trabajos descritos no comparan las redes neuronales con modelos estadísticos o sistemas expertos. Cuando lo hacen, en ocasiones no hay muestra y test, y al utilizar perceptrón multicapa, dada la excelente capacidad para representar todo tipo de funciones de este modelo, se obtienen resultados extraordinarios, sin que haya garantías de que al realizar un test los resultados fueran igualmente buenos.

Incluso cuando se posee muestra y test es posible que la selección del modelo estadístico no sea la más apropiada, ya que muchos modelos estadísticos parten de hipótesis y no son idóneos para todos los tipos de trabajo. No hay garantías de que se esté utilizando el mejor de los modelos estadísticos, como tampoco las hay de que se esté seleccionando la configuración de la red neuronal más apropiada en cuanto a número de neuronas en la capa oculta, funciones de transferencia, etc. Finalmente, tampoco hay garantías de que sólo se estén publicando los éxitos con redes neuronales y no los fracasos.

En Hawley, Johnson y Raina (1990), Medsker, Turban y Trippi (1992), Back y Sere (1993) y Cheng y Pike (1994) se describen las áreas de trabajo potenciales en Contabilidad y se hacen revisiones empíricas de los principales trabajos, clasificándose según diferentes criterios. Los libros "Neural Networks in Finance and Investing" de Trippi y Turban (1992) y "Neural Networks in the Capital Markets" de Refenes (1995) recogen una amplia selección de trabajos, algunos ya publicados con anterioridad en revistas o presentados en congresos y otros reimpresos.

En la revisión empírica que hacemos a continuación, hemos seleccionado aquellos trabajos que desde nuestro punto de vista tienen más interés, bien por su carácter de pioneros, bien por comparar con gran número de técnicas o por su calidad.

a) Estudios de Clasificación.

En los problemas de clasificación se trata de asignar a cada caso su clase correspondiente, a partir de un conjunto de ejemplos: abarca problemas como el estudio del fracaso empresarial, la concesión de préstamos, la calificación de obligaciones, etc.

* El fracaso empresarial.

Los estudios de predicción de crisis empresariales son ya clásicos en la investigación empírica. En general se trata de seleccionar un conjunto de variables, generalmente ratios financieros y utilizar un modelo matemático que discrimine o detecte los rasgos que caracterizan a las empresas que tienen éxito de las que fracasan. Son muchos los modelos estadísticos propuestos y dadas las propiedades de los sistemas neuronales de actuar como clasificadores de información y reconocimiento de patrones, tempranamente se aplicaron a esta importante materia de investigación.

El trabajo de Bell, Ribar y Verchio (1990) es un estudio pionero en la aplicación de redes neuronales al fracaso empresarial. En este trabajo se compara el perceptrón multicapa con el análisis lógit, tomando una amplia muestra de mil ocho bancos, de los que ciento dos eran quebrados. Otra muestra de mil cincuenta y nueve bancos sirve para el test, siendo ciento treinta y uno los bancos quebrados. Los resultados son muy similares, con una pequeña ventaja a favor del neuronal en la clasificación de empresas que se encuentran en la zona de indeterminación.

Odom y Sharda (1992) realizan otro estudio sobre predicción de quiebras concretamente analizando cinco ratios de ciento veintinueve empresas estadounidenses, extrayendo la información del Moody's Industrial Manual correspondiente a 1975-1982. Rahimian, Singh, Thammachote y Virmani (1992) también aplican diferentes modelos neuronales a estos mismos datos. En ambos estudios se comparan los resultados obtenidos con análisis discriminante, perceptrón simple, perceptrón multicapa y la red neuronal athena. Athena es un modelo neuronal descrito en Koutsougeras y Papachristou (1988), que utiliza entrenamiento supervisado y se basa en una medida de entropía. Los resultados son favorables a los modelos neuronales frente al análisis discriminante.

La principal novedad del trabajo de De Miguel, Revilla, Rodríguez y Cano (1993) es que aplican una red neuronal compleja, la Fuzzy ARTMAP, modelo de red neuronal supervisada que consta de dos módulos ART con aprendizaje no supervisado, descrita en Carpenter, Grossberg, Marzukon, Reynolds y Rossen (1992). Comparan esta red con cuatro modelos estadísticos para predecir el fracaso empresarial, aplicándolos a la bien conocida crisis del sector bancario español de los años ochenta. Toman los datos del trabajo previo de uno de los autores, Rodríguez (1989), que utilizaba análisis lógit. Los resultados son favorables al modelo neuronal.

Altman, Marco y Varetto (1994) aplican análisis discriminante, lógit y perceptrón multicapa en una aplicación real para la Centrale dei Bilanci italiana. Los resultados no son concluyentes, ya que encuentran que las ventajas e inconvenientes de este modelo neuronal frente a los estadísticos se encuentran equilibradas e invitan a la realización de nuevos estudios empíricos.

Martín y Serrano (1994 y 1995) proponen un modelo híbrido que combina el modelo neuronal de mapas autoorganizados de Kohonen con otros modelos estadísticos y neuronales que obtienen una puntuación o Z score. Una vez creado el mapa autoorganizado se superpone la puntuación obtenida por la empresa, según el análisis discriminante o el perceptrón multicapa. El modelo, más allá del tradicional análisis Z, proporciona información sobre las características financieras más destacadas de la empresa analizada así como el tipo de empresa a la que se asemeja.

* Evaluación del comportamiento de las acciones en el mercado de valores.

En este tipo de estudios también se utilizan como variables los ratios financieros y se trata de evaluar a las empresas. Sin embargo la clasificación no es la anterior en empresas quebradas y solventes, sino que es el mercado de valores quien proporciona la variable independiente, teniendo en cuenta el comportamiento positivo o negativo de las rentabilidades obtenidas por las acciones.

Yoon y Swales (1991) y Yoon, Swales y Margavio (1993) tratan de discriminar a las empresas en dos grupos, según sus acciones hayan tenido o no un buen comportamiento en los mercados financieros. Los datos incluyen información contable cuantitativa y cualitativa, pues examinan la carta que el presidente de la compañía envía a los accionistas. Comparan los resultados del análisis discriminante con los del perceptrón multicapa. El perceptrón sin capa oculta obtenía un 65% de acierto, resultado similar al del análisis discriminante. Al añadir una capa oculta, mejoran los resultados situándose al 76%. El añadir otra capa oculta no mejora significativamente la eficacia del modelo.

Aaltonen y Östermark (1993) comparan los tres modelos estadísticos más utilizados en la predicción del fracaso empresarial: análisis discriminante, lógit y particiones recursivas con el perceptrón multicapa. En este estudio la variable dependiente, es decir el calificar a la empresa positiva o negativamente, se deriva de los mercados financieros, según el valor estimado de la beta. La beta de un valor es una medida del riesgo sistemático, es decir atribuible al movimiento del mercado en su conjunto y se calcula mediante regresiones que relacionan los movimientos del título con los del índice general de precios del mercado. Las empresas son agrupadas a priori como de alto o bajo riesgo dependiendo de si el valor de su beta está por encima o por debajo de la media de la beta calculada para todas las empresas y todos los años. En los resultados se produce un empate, ya que todos los modelos fallan en el test en las mismas tres observaciones.

* Concesión de préstamos

Metodológicamente son muy similares los trabajos de concesión de préstamos a los de predicción de la quiebra. El conceder o no un préstamo es también una decisión no estructurada y la diferencia radica en que la información disponible no se extrae de bases de datos comerciales o de los registros sino que es información que suministra el propio banco o entidad financiera que encarga el estudio. En este caso la información no se compone exclusivamente de ratios financieros, sino que también hay otro tipo de datos, como por ejemplo quién es el director de la compañía, si es un cliente nuevo, etc.

Marose (1990) describe una aplicación híbrida del Chase Manhattan Bank para la concesión de préstamos. Es un sistema mixto que incorpora herramientas estadísticas y un perceptrón multicapa. El Chase Manhattan Bank concede préstamos nuevos cada año por valor de trescientos millones de dólares e hizo una apuesta muy fuerte en el desarrollo de un modelo informatizado basado en el reconocimiento de patrones para las decisiones de concesión de préstamos. El programa se encuentra en un ordenador central al que los usuarios pueden acceder desde ordenadores compatibles, vía modem. Lógicamente algunos procedimientos se encuentran patentados por lo que es difícil conocer todos los módulos que integran el sistema. PCLM, que son las siglas de Public Company Loan Model proporciona extensos informes, gráficos, puntos fuertes y débiles de la compañía, así como una clasificación de las empresas en buenas, malas y críticas.

Un trabajo más modesto, pero que muestra que con programas comerciales también se pueden desarrollar aplicaciones híbridas complejas, es el de Barker (1990), que desarrolla en su artículo una red experta para la concesión de préstamos. Su modelo incorpora una concha de sistema experto, Knowledge Pro, un simulador de red neuronal, NeuroShell y el gestor de bases de datos dBase III+. Los tres programas comparten ficheros, de forma que al introducir los datos de la empresa el sistema experto analiza los ratios financieros y la red neuronal realiza los correspondientes cálculos.

Deng (1993) propone un modelo mixto que integra un módulo de sistema experto que extrae de forma automática las reglas a partir de una base de datos y un perceptrón multicapa que interacciona con el anterior. Las variables de que parte son cuantitativas y cualitativas: algunas se extraen del balance y cuenta de resultados y el resto informan de la gerencia y las relaciones pasadas del cliente con el banco. Finalmente agrupa las empresas en tres categorías: bajo riesgo, moderado y alto. Los resultados son buenos pero no los compara con los obtenidos por otros modelos.

* Calificación de obligaciones

La calificación de obligaciones, bonos municipales, etc, es también un problema de clasificación. Las empresas e instituciones públicas emiten instrumentos financieros como bonos u obligaciones en busca de dinero para financiar sus inversiones. Pero, lógicamente, hay un riesgo de que las empresas no devuelvan este dinero y resulta interesante obtener ratings o calificaciones de estos bonos. Existen agencias que se dedican a ello, siendo las más famosas Standard and Poor's (S&P) y Moody's. Estas agencias examinan todo tipo de aspectos de las empresas: la situación financiera, la información contable, mantienen entrevistas con la gerencia, etc, y califican las emisiones con unos baremos, usualmente combinaciones de letras y números. Por ejemplo, Aaa, significa en la terminología de la agencia Moody's, que la capacidad para devolver el principal y pagar los intereses es muy elevada. Para una descripción detallada de las agencias de calificación véase por ejemplo Charlton y Prescott (1993). A pesar de que, como es sabido, las agencias se sirven de información cuantitativa y cualitativa para emitir sus valoraciones, la investigación académica ha tratado de averiguar si exclusivamente con información publicada se pueden obtener buenas aproximaciones de las calificaciones que otorgan las agencias. Horrigan (1966) utiliza seis ratios financieros y clasifica correctamente el 58% de los casos.

Uno de los trabajos pioneros en la calificación de obligaciones con redes neuronales es el de Dutta y Shekhar (1988) y Dutta, Shekhar y Wong (1994), quienes aplican perceptrón multicapa y regresión lineal, comparando los resultados con los obtenidos por la agencia Standard & Poors. Utilizan información de cuarenta y siete compañías, reservando diecisiete para el test. Los resultados son claramente favorables al modelo neuronal, ya que en el test, clasifican correctamente hasta un 88,3% de los bonos, frente a un 64,7% de la regresión lineal. Su estudio muestra las limitaciones de los modelos lineales en este tipo de trabajo. Utans y Moody (1991) hacen un trabajo similar al de Dutta y Shekhar sobre calificación de obligaciones.

Surkan y Singleton (1990) estudian también la calificación de obligaciones con perceptrón multicapa. La información está tomada de un estudio previo que aplica análisis discriminante a los bonos de dieciocho compañías telefónicas estadounidenses. En total son ciento veintiséis los casos y siete las variables, todas ellas extraidas de los estados financieros de las empresas. La agencia que elabora sus ratings es Moody's. En este trabajo estudian el efecto de introducir nuevas capas ocultas en el modelo, probando diferentes configuraciones. Aunque los mejores resultados los obtienen con un modelo con veinte neuronas en la capa oculta, el modelo que tenía sólo cinco obtiene resultados muy similares, con lo que los autores concluyen en que el problema tiene una dimensionalidad interna de cinco o inferior. De la comparación con el análisis discriminante los resultados son muy superiores en la red neuronal, ya que en la red se obtienen clasificaciones correctas que varían entre el 45 y el 90%, mientras que en discriminante el rango de acierto fluctúa entre el 38 y 47%.

* Otras trabajos de clasificación.

Una aplicación relacionada con la auditoría es la de Hansen, Mc Donald y Stice (1992). El objetivo del estudio es tratar de predecir la opinión del auditor. Emplean doce variables que en anteriores estudios como el de Mutchler (1985) se habían revelado útiles para ese fin. Su estudio compara el perceptrón multicapa con el algoritmo de ramificación ID3 y análisis lógit. El modelo neuronal y el lógit obtienen resultados muy similares, incluso mejores en el lógit. Otra aplicación relacionada con la auditoría es la de Coakley y Brown (1993), quienes aplican el perceptrón multicapa en el procedimiento analítico del trabajo del auditor, en sustitución de otros modelos estadísticos.

Otro tipo de trabajos estudian la discrecionalidad de la gerencia para la toma de decisiones. Concretamente, el trabajo de Liang, Chandler, Han y Roan (1992) encuadrado en los trabajos de elección contable estudia el método elgido para contabilizar las existencias: FIFO o LIFO. Hay varias teorías que tratan de justificar el que una empresa elija uno u otro método, descritas en Lee y Hsieh (1985). Entre otras, el ahorro de impuestos, el impacto sobre los mercados de capitales, el presentar mayores o menores beneficios, jugando con el margen que ofrece la flexibilidad de las normas contables. Como problema típico de clasificación, ha sido abordado con numerosos modelos multivariantes. En el trabajo citado se utiliza perceptrón multicapa, comparando los resultados con ID3 y próbit. El modelo neuronal clasifica mejor los datos, sobretodo al introducir variables nominales, como el sector al que pertenece la empresa.



b) Estudios de Predicción.

La predicción ha sido una de las aplicaciones que más pronto despertaron el interés de los estudiosos de las redes neuronales. En este tema los resultados no son concluyentes por dos razones: cuando las predicciones las hacen científicos que provienen del campo de las redes neuronales descuidan muchos aspectos estadísticos y viceversa. Además, bajo el epígrafe predicción se engloban estudios muy diferentes: no todas las curvas son iguales en cuanto a forma y tamaño, presencia o no de efectos estacionales, de no linealidad, predicción a corto o largo plazo, etc. Chatfield (1994) comenta que las redes neuronales se están comportando bien en predicción a largo plazo con componentes no lineales, en cambio, no están claras las mejorías observadas en series cortas y estacionales, como son típicas en las predicciones de ventas. Lo cierto es que este autor, como la mayoría, recomienda no hacer caso de las exageraciones e invita a realizar trabajos serios que indiquen en qué tipos de estudios y bajo qué condiciones las redes neuronales son más apropiadas.

* Análisis Técnico.

El análisis técnico pretende predecir las cotizaciones a partir de la evolución histórica de precios y volúmenes de negociación. El primer artículo sobre redes neuronales que manejan información financiera fue realizado por White (1988), quien estudió la predicción de los precios de las acciones con un modelo de red neuronal. El modelo predecía mejor que el modelo de series temporales que utilizaba, un modelo lineal autorregresivo. El perceptrón multicapa es utilizado como análisis técnico, sin incluir variables fundamentales.

Posteriormente la predicción de la cotización de las acciones, del tipo de cambio y de otras variables económicas ha sido uno de los temas más atractivos para los investigadores, pudiendo referenciar gran cantidad de trabajos. Así, Kimoto, Asakawa, Yoda y Takeoka (1990), Kamijo y Tanigawa (1990), Ormerod y Walker (1990), Varfis y Versino (1990), Bergerson y Wunsch (1991), Sharda y Patil (1992), Refenes (1992), Hoptroff (1993) y un largo etcétera.

* Análisis Fundamental.

El análisis fundamental trata de valorar los factores económicos más importantes del entorno y contempla la evolución económico-financiera de las empresas. Wong, Wang, Goh y Quek (1992) diseñan una red neuronal borrosa que combina diferentes herramientas de Inteligencia Artificial para obtener una cartera óptima de acciones. Concretamente su modelo es una red neuronal fuzzy. Consta de tres módulos: el primero contiene treinta y dos reglas del tipo si-entonces proporcionadas por especialistas humanos, el segundo un procesador de reglas fuzzy y el tercero un perceptrón multicapa. El modelo utiliza información del mercado de valores, así como ratios financieros. En el artículo se realiza un test con ochocientas empresas, con el objetivo de predecir las rentabilidades de las acciones, obteniendo resultados satisfactorios.

Refenes, Azema-Barac y Treleaven (1993) describen un modelo de construcción de carteras eficientes y colocación de activos en siete mercados financieros. Hay una serie de reglas establecidas que restringen las cantidades máximas a repartir en cada mercado. La red neuronal utiliza información de los mercados financieros, tipos de interés, precio del petróleo, del oro y una serie de parámetros que no dice el artículo por estar registrados. Los resultados, comparados con otras carteras son muy satisfactorios.


No hay comentarios:

Publicar un comentario