Ayuda
Ir al contenido

Dialnet


Automatic generation of trading rules adjusted to the market state

  • Autores: Carlos Martín Fernández
  • Directores de la Tesis: David Quintana Montero (dir. tes.), Pedro Isasi Viñuela (codir. tes.)
  • Lectura: En la Universidad Carlos III de Madrid ( España ) en 2019
  • Idioma: español
  • Tribunal Calificador de la Tesis: Coromoto León Hernández (presid.), José M. Valls Ferrán (secret.), Ricardo Gimeno Nogues (voc.)
  • Programa de doctorado: Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de Madrid
  • Materias:
  • Enlaces
  • Resumen
    • Esta tesis se encuadra en el área de la inteligencia artificial conocida como computación evolutiva (CE). Pertenece al conjunto de solucionadores de problemas basados en estrategias de prueba y error. Se pueden considerar como solucionadores de amplio espectro, o globales, basados en metaheurísticas, u optimizaciones de tipo estocástico. Para alcanzar sus objetivos, los algoritmos de CE hacen uso de poblaciones de individuos que conforman un conjunto de soluciones candidatas sobre las que se opera, a diferencia de otros métodos como: Annealing, Hill Climbing o Iterated Local Search, que iteran a partir de un determinado punto del dominio de la función de optimización, o espacio de búsqueda, para alcanzar la solución óptima dentro del conjunto de todas las posibles soluciones candidatas a un problema. La CE viene fijada por el tipo de algoritmos que utiliza, conocidos como algoritmos evolutivos (AE) entre los que se incluyen los algoritmos genéticos (AG), la programación genética (PG) y las gramáticas evolutivas (GE).

      La PG constituye un refinamiento de los AG en donde se considera que el proceso de resolución de problemas es equivalente a la búsqueda de un determinado programa informático o individuo altamente adaptado que lo soluciona.

      Las GE constituyen una técnica de CE que está estrechamente relacionada con la PG. Comparten el objetivo común de buscar y encontrar un programa ejecutable que logre un buen valor de aptitud para una función objetivo dada. Hacen uso de genomas de longitud variable, representados como vectores enteros, para elaborar definiciones de gramáticas capaces de generar una gran variedad de programas de complejidad arbitraria.

      Los recientes avances en la tecnología de la información y las comunicaciones han favorecido la automatización progresiva de los sistemas de inversión. La capacidad de los sistemas de inversión algorítmica para procesar datos a alta velocidad (HTF) e identificar regularidades dentro, o entre los mercados, ha llevado a su popularización desde la década de 1990. Si bien ofrecen ventajas en términos de velocidad de operación; exactitud; reducción de costes; o la ventaja de operar libres de las restricciones que imponen las emociones humanas, su impacto en los mercados financieros en su conjunto sigue siendo controvertido.

      Estos sistemas pueden cubrir cualquiera de las etapas específicas del proceso de negocio, incluido el análisis previo a la inversión; la generación de señales de compra/venta; la ejecución de las órdenes; el análisis post-inversión; o todo el ciclo completo de inversión. Este trabajo se centra en la generación de señales de inversión (compra/venta), y más específicamente en la generación de estrategias de sincronización del mercado.

      El rango de alternativas que se pueden usar en este contexto es muy amplio, pero la mayoría de ellas se encuentran dentro de una de las dos categorías siguientes: análisis fundamental y análisis técnico. La primera se centra en el precio justo de un bono, título, obligación, valor o participación, y utiliza los estados financieros como la principal fuente de información de inversión, mientras que la segunda se basa principalmente en las características de los datos de precios y volúmenes de los valores, denominados indicadores técnicos. Estas características, generalmente, se obtienen aplicando fórmulas a las series temporales de precios y volúmenes. Entre los indicadores técnicos, los más conocidos son: los promedios móviles y las líneas de apoyo (soporte o resistencia). Además de estos, otros indicadores clásicos son: la apertura, el cierre, los precios máximo y mínimo, el volumen y la volatilidad. Estos, junto con una serie de operadores y umbrales, se utilizan para definir las reglas técnicas de inversión. Una vez que se especifican estas reglas, los inversores pueden usarlas para tomar decisiones sobre la compra y venta de valores en los mercados financieros.

      La búsqueda de estrategias de inversión, fiables y rentables, ha impulsado los esfuerzos de investigación durante décadas. Entre los muchos enfoques diferentes, que se pueden usar para diseñar reglas de inversión (como la optimización apoyada en enjambres de partículas, los AG, las redes neuronales artificiales o los métodos difusos), hay algunos enclavados en ámbito de la CE, como las GE y la PG, que son especialmente interesantes debido a tres características clave del proceso: la generación de reglas es automática, las reglas resultantes son interpretables y su estructura es flexible.

      Debido a estas tres importantes características, las GE y la PG se han empleado frecuentemente en economía con el fin de modelizar la dinámica de los mercados financieros. No obstante, el número de trabajos en los que se hace uso de técnicas de GE es escaso. Los mercados financieros son altamente complejos y dependen de cuantiosos actores que compiten para obtener los mayores beneficios, de ahí que cualquier investigación relacionada con la búsqueda de reglas técnicas de inversión eficientes, que permitan optimizar los resultados haciendo uso de métodos de aprendizaje guiados, sean de gran valor, y entre estos métodos tienen especial importancia las aplicaciones que se apoyan en las técnicas de CE.

      La característica de la interpretabilidad, que proporciona la CE, a las reglas de inversión obtenidas, es importante, y la diferencia de otros métodos utilizados como las redes neuronales profundas que no proporcionan justificación razonada de sus resultados. El mayor desafío frente a estas técnicas no explicativas radica en proporcionar información sobre los procesos que conducen a sus resultados y, por lo tanto, ayudar a aclarar en qué circunstancias se puede confiar en que su desempeño se comporte según lo previsto y cuándo no pueden hacerlo.

      A lo largo de la historia se ha intentado construir innumerables sistemas de predicción de inversión a partir de series temporales financieras. El problema está lejos de ser resuelto, debido a la dificultad de analizar las series temporales financieras por su alto contenido de ruido. El ruido oscurece el proceso de modelado de la serie temporal, y hace extremadamente difícil obtener la tendencia general de la serie El objetivo principal de esta tesis es generar un conjunto de reglas de inversión, mediante análisis técnico de las series temporales financieras, con la finalidad de extraer, a partir de estas, las características esenciales que definan las reglas obtenidas como: rentables, eficientes, robustas y fáciles de interpretar. Para cumplir con este objetivo, primero es necesario realizar un trabajo exhaustivo de evaluación comparativa de dos de los algoritmos más populares para la generación de reglas de inversión basados en CE que se baraja inicialmente utilizar. Este primer ejercicio de selección de la técnica más apropiada cubre, no solo los algoritmos originales basados en GE y PG, sino también el impacto que introduce el agregar dos extensiones a los mismos: funciones definidas automáticamente (ADF) y mecanismos de control de complejidad de las soluciones o parsimonia. También se estudia la sensibilidad de los algoritmos a diferentes configuraciones en las que se modifica el tamaño de la población y el conjunto de funciones de análisis técnico utilizadas.

      Experimentalmente se ha comparado la rentabilidad y la complejidad alcanzada en las reglas de inversión generadas mediante el empleo de la PG, más específicamente de la STGP, y las GE, utilizando como entrada datos diarios de doce años del índice S&P500, divididos en tres períodos consecutivos de cuatro años. Estas muestras se han diferenciado en el grado de dificultad para encontrar reglas de inversión, con el potencial de vencer una estrategia de referencia basada en comprar y mantener (B&H). Para cada uno de los algoritmos, se han probado cuatro configuraciones diferentes: el algoritmo central o básico; el algoritmo básico ampliado con control de parsimonia paramétrico-lexicográfica; el algoritmo básico ampliado con técnicas de ADF y, finalmente, el algoritmo básico contando con ambas extensiones anteriores. Además de eso, se ha probado la sensibilidad de los resultados con poblaciones más grandes, y con un mayor número de indicadores técnicos formando parte del conjunto de funciones terminales. Para cumplir con este último requisito, se han agregado puntos de pivote y promedios móviles al conjunto de terminales sugerido por Lohpetch y Corne.

      El rendimiento de los algoritmos ha dependido del período de tiempo seleccionado para el entrenamiento y prueba, pero han sido consistentes en el sentido de que las dificultades para encontrar reglas de inversión rentables, afectó a ambos algoritmos centrales de la misma manera. Si consideramos el resultado de los 192.000 experimentos realizados, ambos algoritmos ofrecieron retornos promedio que han sido muy similares. No obstante, las GE funcionaron relativamente mejor y también resultaron ser más fiables, en el sentido de que la proporción de estrategias que obtuvieron rendimientos iguales o mayores, que la estrategia de referencia, B&H, fue mucho mayor. La estructura de los modelos de inversión obtenidos también fue diferente. Las GE construyeron individuos más simples, siendo, como consecuencia, más fáciles de interpretar.

      Con respecto a los beneficios de extender los algoritmos básicos, con el control de parsimonia paramétrico-lexicográfica, las configuraciones que usaron este mecanismo de control de complejidad ofrecieron mejores rendimientos promedio, que las que no hicieron uso del mismo. A pesar del hecho de que la afirmación anterior se aplica a ambos métodos de las GE y la PG, esta última tendía a construir árboles mayores y se benefició más de ello. El impacto de añadir a las ADF fue limitado en términos absolutos y, aunque mejoró el rendimiento promedio de las estrategias basadas en la PG, resultó tener un impacto negativo en las GE. Una razón puede ser debida, a que las soluciones ideales en las que participan las ADF, y en las que tienen mayor poder, son aquellas en las que los arboles de los individuos son de gran tamaño, con múltiples llamadas a subárboles dentro de ellos, aspecto que no sucede en las GE pero si en la PG. Si fijamos la atención en la fiabilidad, ambos mecanismos proporcionaron valor añadido a las soluciones, ya que aumentaron la probabilidad de obtener resultados que fuesen al menos tan buenos como B&H. La contribución promedio de las extensiones, que se obtuvieron en los experimentos, fue la misma, pero la distribución de estas fue diferente. El control de parsimonia proporciona los mismos beneficios, tanto a la PG como a las GE, pero la primera absorbió la mayor parte de la contribución positiva del uso de las ADF.

      Los resultados experimentales, de las pruebas de sensibilidad, mostraron que la extensión de la población inicial decremento la solidez de las reglas basadas en las GE, y también resultó en una disminución media en la proporción de reglas basadas en la PG, que ofrecieron un retorno igual o superior a B&H. A pesar de esto, el retorno de promedio permaneció estable para la PG mientras que en las GE se vio ligeramente afectado de forma negativa. Esto aumenta la importancia de las distribuciones y la probabilidad de obtener estrategias especialmente malas.

      Con respecto a los cambios en el conjunto de terminales, la adición de puntos de pivote y nuevos promedios móviles mejoró el rendimiento promedio de la PG, a costa de una disminución en las GE. Sin embargo, este cambio ayudó a ambos algoritmos básicos en términos de robustez de las estrategias de inversión, aunque no en la misma cantidad. La PG mostró mejores capacidades para explotar la nueva información.

      Si se analizan los promedios totales de las técnicas de PG y GE, en todos los periodos, técnicas y análisis de sensibilidad efectuados, las GE presentan una mayor solidez, son más simples y proporcionan un retorno positivo por encima de B&H frente a uno negativo de la PG. Dicho esto las diferencias de rendimiento son muy pequeñas, no así las de solidez o niveles de complejidad alcanzados que favorecen ampliamente a las GE.

      Por último, ante la pregunta sobre si los resultados obtenidos se podrían mejorar, utilizando diferentes conjuntos de parámetros y conjuntos de funciones, esta está aún abierta. Una razón para ello es que, dentro de la amplia gama de indicadores técnicos disponibles, los inversores tienden a adaptarse a las condiciones cambiantes del mercado, y eliminan, o descuentan, aquellos indicadores técnicos que cuando son utilizados generan pérdidas, o cuando, por otra parte, encuentran otros que resultaban ser más rentables. Por tanto, un estudio que determine que indicadores utilizar, en función del estado de mercado, es muy interesante, pues redundaría en la capacidad del AE empleado, para encontrar un modelo óptimo dentro del espacio de soluciones del problema. Tampoco se resuelve la pregunta de cuál de las dos técnicas de CE produce mejores rendimientos, puesto que a la vista de los resultados depende del periodo considerado y de los parámetros empleados en cada uno de ellos.

      Una limitación común es que con frecuencia los algoritmos obtenidos son de naturaleza estática y no tienen en cuenta los cambios estructurales que sufren los mercados. Dado que este fenómeno es prevalente en las series temporales financieras, las reglas de decisión obtenidas en el entrenamiento se derivan, comúnmente, de entornos de mercado que no se mantienen en los períodos de prueba.

      El problema de ajustarse a los cambios estructurales es que se debe elegir entre dos extremos opuestos: mantener el mismo modelo a lo largo del tiempo o actualizarlo constantemente. Aunque el segundo enfoque parezca más apropiado, existe la posibilidad de que el cambio constante en el modelo aplicado tenga consecuencias indeseables debido a los costes operativos de transacción. El proceso evolutivo de la PG y las GE considera las comisiones a lo largo del período como parte de la función de aptitud del individuo, y eso lo impulsa a seleccionar reglas que generan un número limitado de señales. Sin embargo, es posible que una actualización constante del modelo de inversión interfiera negativamente con ese mecanismo endógeno de control del número de órdenes de compra y venta.

      En una segunda parte de este trabajo se introduce un sistema de inversión dinámico basado en técnicas apoyadas en el empleo de las GE y en el uso de conjuntos de modelos (ensembles). El enfoque propuesto combina la posibilidad de modificar dinámicamente el modelo utilizado, como una reacción a los cambios en el mecanismo de generación de precios, junto con un componente de inercia al cambio, que mitiga las consecuencias negativas de un volumen de negociación excesivo.

      En un primer planteamiento, se utilizó un conjunto de reglas de inversión obtenidas mediante GE sobre una ventana deslizante. El sistema disponía de un componente crítico, el mecanismo de votación cualificado, que creó una inercia para evitar que el número de transacciones de compra/venta fuese excesivo, Inercia.

      La evaluación experimental de esta solución involucró tres alternativas comparables apoyadas en el mismo algoritmo central durante un período de cinco años. Incluían una estrategia estática estándar, Estática; otra que empleaba un modelo diferente por cada paso de tiempo, Naif, y la utilización de un conjunto de estrategias para hacer recomendaciones, mediante el mecanismo de mayoría simple, Mayoría.

      Los resultados apoyaron la superioridad del conjunto de modelos, con el componente de inercia, en términos de retorno de inversión, Inercia, seguido del enfoque Estático y del conjunto de modelos que implementa el voto mayoritario, Mayoría. El sistema de peor rendimiento fue la estrategia Naif. La estrategia sugerida también ofrecía ventajas en términos de disminución de la incertidumbre.

      El análisis del impacto de los costes de transacción hizo evidente la importancia de limitar las transacciones comerciales, pues existía una clara relación inversa entre el número de órdenes de compra y venta y la rentabilidad. La estrategia Naif negoció mucho más a menudo que el resto de las aproximaciones, y, por tanto, las comisiones erosionaron su rendimiento de manera muy significativa.

      Estos hallazgos enfatizan la importancia de mantener un equilibrio entre la necesidad de adaptarse a los cambios estructurales y el riesgo de actualizar constantemente los modelos de recomendación de inversión, que están optimizados implícitamente para el largo plazo La tercera parte del trabajo ha estado dedicada a una nueva perspectiva de solución que busca, como en el caso anterior, un mecanismo estable que evite excesivos costes de transacción, al tiempo que mantiene la capacidad de modificar el modelo activo, para hacer frente a los cambios derivados del mecanismo de generación de precios del mercado.

      Si bien los resultados obtenidos por el sistema de modelos, que establecía un componente de inercia que se resistía al cambio de estado, eran prometedores, se pensó que las propias reglas contaban con mecanismos implícitos de histéresis que al entrar en directa competición minimizarían el número de operaciones, mientras que aseguraban adaptarse a los cambios estructurales del mercado, de forma más eficiente que un sistema basado en votación con Inercia. Por tanto, en un tercer planteamiento, se sugirió una nueva solución adaptativa que involucraba un mecanismo de selección dinámico, que conmutase entre una regla activa y una regla candidata optimizada, para los datos de mercado más recientes disponibles.

      Para la evaluación experimental de la solución, se incluyeron tres alternativas similares basadas en el mismo algoritmo central de las GE, durante un período de cinco años. Las estrategias comparadas incluyeron la aproximación estática estándar, Estática, la Naif, la Mayoría y los resultados de la solución propuesta Dinámica.

      Los resultados obtenidos avalaron la superioridad de la solución Dinámica en términos de retorno de inversión, seguida del enfoque Estático y el de Mayoría. El sistema que ofreció el peor rendimiento recayó en la estrategia Naif. La estrategia sugerida también mostró un mejor rendimiento en términos de previsibilidad.

      El análisis del efecto de los costes de transacción, en la rentabilidad alcanzada, puso de nuevo de manifiesto la importancia de limitar el índice de compraventa, con similares resultados que en el segundo planteamiento. Curiosamente, ese parece que fue uno de los elementos de éxito en la solución Dinámica en comparación con la Estática, la de Mayoría, y la Naif pero no el único. La solución dinámica sugirió la existencia de un mecanismo interno estable que proporciona un componente de histéresis, que evita una negociación excesiva, mientras, al mismo tiempo, se adapta a los cambios estructurales para optimizar sus decisiones de inversión.

      El estudio se completó, finalmente, con una comparación entre las dos técnicas más prometedoras Inercia y Dinámica. Como conclusión a esa comparativa, es posible afirmar que la técnica Dinámica es más poderosa que la de Inercia, proporciona mejores rendimientos, y cumple al mismo tiempo mejor con los requisitos de adaptación al estado del mercado, sin penalización por una excesiva negociación


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno