Las finanzas han evolucionado históricamente a la par que el desarrollo tecnológico. En los últimos años, la generalización del uso de los smartphones e internet, el procesamiento en la nube y la minería de datos marcan un nuevo hito que ha impulsado el índice KBW Nasdaq Financial Technology a crecer más de un 400% desde el año 2007. «Fintech» (contracción de «financial» y «technology») es el término anglosajón para designar la prestación de servicios con las nuevas tecnologías. Abarca ámbitos tan diversos como los medios de pago, el registro de transacciones, nuevas formas de financiación —por ejemplo, plataformas de ‘crowdlending’—, la negociación automática y la gestión de carteras.
Por lo que respecta a los medios de pago y al registro de transacciones, ‘blockchain’ es una tecnología basada en la encriptación de cadenas de nuevos bloques a medida que se producen nuevas transacciones, junto con una red de múltiples nodos que validan las transacciones y las registran. Su potencial está en la capacidad de simplificar los sistemas de transacción y registro —por ejemplo, el sistema de transferencias Open Pay FX del Banco Santander—.
Pero es en la negociación automática y en la gestión de carteras donde los desarrollos de los algoritmos de aprendizaje, la facilidad de captación de información estructurada y no estructurada de múltiples fuentes (imágenes de satélite, tarjetas de crédito, internet, redes sociales, informes, entrevistas a directivos, informes oficiales, registros públicos…) y la velocidad de procesamiento tienen posibilidades de ser más disruptivas. Dos manifestaciones son la negociación de alta frecuencia y la aparición de asesores financieros automáticos (‘robo-advisors’).
La negociación de alta frecuencia se basa en la rapidez en la puesta de órdenes en el mercado junto con algoritmos que buscan predecir el próximo movimiento de los precios con información recibida en tiempo real. Todo ello sin intervención humana y a velocidad de fracciones de segundo. Ha permitido obtener una mayor eficiencia en el mercado suprimiendo oportunidades de arbitraje, aunque es acusada de potenciar «flash-crashes», es decir, caídas muy rápidas y profundas del precio de un activo financiero negociado. Una vez que un activo empieza a bajar, algunos algoritmos disparan las órdenes «stop-loss» y se produce un efecto dominó. Al hacer los movimientos de los precios más intensos, aumentan el riesgo del mercado. Algunos ejemplos serían la caída del Dow Jones un 9 % en mayo de 2010 para recuperarse en 15 minutos o la caída de la libra esterlina más de un 6 % frente al dólar en dos minutos en octubre de 2016.
Los ‘robo-advisor’ fueron desarrollados por startups de Sillicon Valley, pero, en la actualidad, Vanguard, Fidelity o BlackRock, entre otros, ya ofrecen estos servicios y han desarrollado vehículos de inversión que utilizan inteligencia artificial.
La inteligencia artificial
¿En qué consiste la denominada inteligencia artificial? En el ámbito financiero tiene tres áreas principales: los algoritmos de aprendizaje automático, los métodos de optimización y el procesado del lenguaje natural.
Los primeros aprenden a partir de los datos suministrados y mejoran sus parámetros con la experiencia que adquieren al procesar más datos. Destacan entre ellos las redes neuronales, las máquinas de soporte vectorial y los árboles de decisión. Tienen la ventaja de no requerir hipótesis previas sobre las relaciones entre las variables y buscan minimizar una función preprogramada a partir de dos principios: lo que funcionó bien en el pasado lo hará en el futuro y la teoría más simple es la más probable. El aprendizaje puede ser supervisado —a partir de una muestra se entrena al algoritmo para que reconozca la asociación y se prueba su eficacia en otra muestra distinta—, que es propio de los algoritmos de clasificación y regresión, o bien puede ser no supervisado —búsqueda de patrones en los datos—.
Por su parte, la optimización, cuando no es aplicable un método matemático, puede explorar todas las soluciones factibles y encontrar un óptimo global, o si el número de posibles soluciones es muy grande puede utilizar una de tres técnicas: priorizar las soluciones más probables; seleccionar un conjunto de soluciones y buscar mejoras incrementales; o utilizar algoritmos evolutivos como los genéticos. En estos tres casos, no hay certeza de que la solución obtenida sea un óptimo global y no local.
Por último, el procesado del lenguaje natural busca sintetizar información textual —por ejemplo, noticias, informes, redes sociales—. Una utilización de esta técnica es obtener una medida cuantitativa del sentimiento del mercado y utilizar esa información en la predicción del rendimiento de las acciones.
En cualquiera de estas tres áreas, la inteligencia artificial es solo semejante a la humana. El ordenador no es capaz de hacer abstracción de la realidad para comprender la naturaleza de las cosas, ni tiene consciencia. Adicionalmente, las soluciones y modelos son muchas veces solo aproximados, si bien pueden mejorar los métodos estadísticos tradicionales —por ejemplo, análisis discriminante en la clasificación; componentes principales para la reducción de las dimensiones de un problema; modelos ARMA o ARCH en series temporales—, especialmente cuando las relaciones entre las variables no son lineales y son muy complejas. Por último, los algoritmos y sus resultados no son siempre inteligibles.
El ordenador no es capaz de hacer abstracción de la realidad para comprender la naturaleza de las cosas, ni tiene consciencia.
Pero el problema más importante es metodológico. Cuando la teoría no es buena y es compleja, pero explica todos los datos pasados, se produce lo que se denomina ‘over-fitting’. Los métodos estadísticos tradicionales tratan de evitar este problema premiando la bondad del ajuste a los datos y penalizando el número de parámetros. Los nuevos modelos pueden obtener un modelo falso (por ejemplo, correlaciones espurias o patrones sin sentido que no se mantienen cuando hay cambios estructurales). El método científico formula hipótesis; las contrasta con los datos obtenidos de la realidad, demostrando que algunas hipótesis son correctas y otras no; y liga un conjunto de hipótesis correctas mediante una teoría. En la medida en que los algoritmos solo conduzcan a interpretar y utilizar los resultados sin formular hipótesis el riesgo de obtener un modelo falso es alto. Esto explica por qué algunos algoritmos funcionan muy bien con los datos de la muestra y muy mal con nuevos datos. De hecho, el porcentaje de fracaso en el mundo real de algoritmos que superaron la fase de ‘back-testing’ se estima hasta en un 90%.
Esto no obsta para que sean útiles en el análisis de grandes cantidades de información y que se hayan utilizado para modelizar opciones americanas, predecir precios de acciones, rebalancear carteras, controlar el fraude, diseñar estrategias ‘smart-beta’, analizar el sentimiento del mercado, estimar el riesgo de quiebra o gestionar el riesgo. Además, permiten trabajar con datos en tiempo real en lugar de tener que utilizar solamente series de datos históricos. También han permitido cumplir los requisitos normativos con mayor eficiencia. Las aplicaciones ‘regtech’ (contracción de ‘regulation’ y ‘technology’) se han desarrollado como respuesta de las entidades al fuerte crecimiento en los costes de cumplimiento normativo —por ejemplo, prevención del blanqueo de capitales y fragmentación regulatoria—.
A modo de conclusión
Las nuevas tecnologías están generando oportunidades y mejoras junto con mayores riesgos. La actual explosión de actividad en ‘fintechs’ y ‘regtechs’ puede ser solo una nueva burbuja tecnológica en la que solo el tiempo separará lo que aporte valor y perdure.
En la negociación de alta frecuencia, la creciente entrada de empresas buscando adelantarse a la tendencia y explotar anomalías reducirá la existencia de éstas y los beneficios potenciales. Por lo que respecta a los algoritmos automáticos de predicción de precios o de gestión de carteras, no se puede olvidar que la economía depende de las decisiones individuales y libres de multitud de agentes —consumidores, empresas, gobiernos, organismos supranacionales—. La predicción del movimiento conjunto no es tarea fácil, a lo que se suma la imprevisibilidad de algunas actuaciones de gobernantes y autoridades. No se puede predecir lo que de suyo es impredecible.
Probablemente el análisis técnico sea el más beneficiado por los algoritmos de minería de datos en búsqueda de patrones. En el análisis fundamental, además de la obtención y clasificación de información, las herramientas seguirían siendo una extensión de la actividad de analistas y gestores favoreciendo la coherencia en las valoraciones y proporcionando rangos de estimaciones que puedan utilizarse en los modelos de optimización de carteras.
Fuente: El confidencial