El control del riesgo es uno de los aspectos fundamentales en toda operativa. Más allá de las simples señales de entrada y salida tenemos un universo de opciones que podrán determinar la mejora o fracaso estrepitoso de un sistema con esperanza matemática positiva. En esta serie de dos artículos profundizaremos en ello.
Si preguntásemos a cualquier gestor financiero por la noción de riesgo que maneja seguramente nos hablaría de incertidumbre en la evolución de los precios y de la probabilidad de incurrir en una pérdida potencial. En otras palabras, incertidumbre asociada al tamaño de las pérdidas y al desconocimiento de los resultados en el tiempo. Nótese que esto último es importante: Una pérdida segura no es un riesgo, como tampoco lo es la obtención de beneficios inesperados. El riesgo que preocupa al gestor es el relativo a la frecuencia y tamaño de las pérdidas. De ahí que los modelos de cartera tradicionales traten de buscar medidas coherentes del riesgo en términos probabilísticos. Es decir, vinculándolo con variables aleatorias cuyas distribuciones son total o parcialmente conocidas.
De este modo surge en el modelo de Markowitz (1952) la noción de riesgo como variabilidad que se identifica con la desviación típica o varianza de los resultados en el tiempo. Medir el riesgo de un activo se convierte en el problema de determinar su volatilidad histórica. Y este va a ser el elemento central en la generalización del trabajo de Markowitz llevada a cabo por William Sharpe (1964) y su Modelo de Valoración de Activos (CAPM). Ahora se manejan dos tipos de riesgo: El sistemático o de mercado, que no puede eliminarse por completo, y el específico o de producto que puede minimizarse mediante una adecuada selección de activos. Las volatilidades de los valores se cuantifican respecto a un índice de referencia y se representan con un solo número, la beta. Construir carteras con mayor o menor aversión al riesgo se convierte ahora en un problema mucho más sencillo para el gestor, ya que solo tendrá que seleccionar activos con betas distintas para obtener una cartera convenientemente balanceada en términos de riesgo-recompensa (R/R). Pero en ambos modelos el riesgo se mide en términos de varianzas y covarianzas, por lo que solo serán plenamente robustos cuando las rentabilidades de los activos están normalmente distribuidas. Fuera del universo gaussiano estos modelos y sus numerosas variantes van a tener problemas.
Otro inconveniente de estos modelos es que no contemplan situaciones adversas muy alejadas de la normalidad o en las colas de la distribución. El llamado efecto “cisne negro” (Taleb, 2007) tiene su origen en el carácter atípico y no lineal de las formaciones de precios en respuesta a hechos inesperados. Se trata de una sobrerreacción de corta duración pero enorme amplitud que se verá acentuada en la operativa con derivados por el alto nivel de apalancamiento con el que normalmente se trabajan estos productos.
Si nos retrotraemos al ámbito del trading de sistemas, el drawdown de Montecarlo, la máxima pérdida y la desviación de las operaciones perdedoras, nos pueden dar una idea bastante precisa del riesgo de una estrategia cuando disponemos de series de operaciones largas y fiables. Pero estás métricas nos ofrecen una visión estática del riesgo, no nos permiten inferir con un nivel de confianza elevado dónde debería estar nuestro portfolio, considerando los escenarios más adversos y en un horizonte temporal de días, semanas o años. Como veremos más adelante, otros estimadores de riesgo como el CVaR (valor en riesgo condicional) y el CDaR (drawdawn en riesgo condicional) sí nos permitirán responder a esta pregunta.
1. EL VALOR EN RIESGO (VaR)
El VaR ha desempeñado desde la década de los noventa un papel fundamental en la estimación del riesgo de mercado en una amplia variedad de productos. De hecho, ya en 1993 el grupo de los 30 (G-30) consideró al VaR una herramienta idónea para evaluar la exposición bancaria global. Dos años después el Comité de Basilea permitió a los bancos establecer sus reservas de capital empleando modelos matemáticos basados en el VaR. En 1996 Morgan Stanley y Reuters generalizaron el uso del VaR en la estimación del riesgo en carteras de renta fija y variable, así como en algunos productos derivados bajo la metodología Riskmetrics, que incluye un amplio conjunto de técnicas, datos y protocolos de implementación ampliamente utilizados en el sector financiero. Desde entonces en el arsenal estadístico de los gestores de carteras siempre está presente este estimador del riesgo.
Definido de manera sencilla el VaR es la pérdida máxima esperada en una cartera con una probabilidad y un intervalo temporal conocidos y, de manera más precisa, es el (1-α) percentil de la distribución de pérdidas y ganancias en el horizonte t. El VaR de la distribución Fx para un nivel de confianza α ϵ | 0-1|, es:
VaRα (X) = min { z | Fx (z) ≥ α}
Cuando aplicamos el VaR a la distribución del beneficio acumulado obtenido mediante simulaciones de Montecarlo para un horizonte t, lo que obtenemos es el valor mínimo del portfolio (no necesariamente negativo) para el nivel de confianza especificado.
En el supuesto de la normalidad, el cálculo del VaR resulta muy sencillo ya que sería proporcional a la media y desviación estándar de la distribución y podría aproximarse mediante el método Delta Normal (Letmark, 2010). Pero en la mayoría de los casos no podemos esperar normalidad en la distribución del retorno y el VaR debe ser estimado mediante modelos no paramétricos como la simulación histórica y la simulación de Montecarlo. Ambos modelos son idóneos para carteras sistemáticas, ya que en esta modalidad de trading disponemos de grandes series de operaciones obtenidas mediante técnicas de backtest que nos permiten evaluar el comportamiento de las estrategias en marcos temporales muy amplios. Veámoslas con más detalle:
a) Modelo VaR de simulación histórica
Permite una estimación directa del VaR en función de los rendimientos pasados para el horizonte temporal requerido. El percentil (1-α) de la serie histórica nos dará el VaR empírico de nuestra cartera. Ni que decir tiene que su valor dependerá de factores como el origen de los datos (reales, out-sample) y el tamaño de la serie. Por ejemplo el Comité de Basilea recomienda no menos de 252 días de datos (año laboral) y cortes temporales de 1 día y 10 días para la estimación del riesgo. Nosotros consideramos muy escasa esta recomendación ya que en nuestra modalidad de trading los sistemas se comportan de manera muy distinta entre marcoépocas caracterizadas por largos períodos de mayor o menor volatilidad y tendencia. Si no se dispone de un histórico P/G de varios años (al menos 5-7) podemos estar subestimando el riesgo que mide el VaR.
Por otra parte, la principal crítica a este modelo es que no contempla variaciones futuras de los escenarios pasados. Por tanto, estamos asumiendo erróneamente invariancia temporal en la distribución del retorno. Para mitigar este problema se recomienda la realización de stress-tests o análisis de escenarios hipotéticos de los mercados que reflejen las situaciones más desfavorables. Por ejemplo, movimientos bruscos de los precios en situaciones de volatilidad extrema. Hecho de manera rigurosa equivaldría a evaluar los sistemas en series sintéticas construidas para replicar estos escenarios, lo cual es complejo y tedioso. En la práctica lo que se hace es empeorar ligeramente las series P/G mediante algún elemento corrector aplicado a todas las operaciones (ej. mayor deslizamiento).
b) Modelo VaR de Montecarlo
Es la forma más elegante de construir un número ilimitado de escenarios hipotéticos partiendo de las series originales. Una simulación de Montecarlo bien planteada ha de generar diversidad al tiempo que se acomoda globalmente a los ratios generatrices de la serie de partida. En nuestro artículo “Simulaciones de Montecarlo y operativa sistemática” (Hispatrading, nº 15 y 16) ya hemos analizado su tipología, características y ventajas. Ahora nos centraremos en su capacidad para estimar de manera precisa el riesgo de una cartera. Esto lo haremos en varias etapas:
– Lo primero será elegir el simulador adecuado. Para el cálculo del VaR necesitamos un modelo que genere curvas aleatorias de la rentabilidad del portfolio. Esto deja fuera a los simuladores basados en permutaciones sin repetición que, como ya vimos, solo son útiles para evaluar el drawdown. En este caso los mejores simuladores son los que generan las curvas a partir de los ratios de la serie original. Aportan diversidad (en este caso valores P/G nuevos) y, si están bien construidos, replican con notable fidelidad la serie original. En la imagen inferior podemos ver una simulación realizada por el método del inverso y que utiliza cinco variables: Porcentaje de aciertos, beneficio medio, pérdida media, desviación de las operaciones perdedoras y desviación de las ganadoras. Con estos ratios obtenemos curvas como las de la Figura 1.
– La estimación del VaR requiere un elevado número de escenarios hipotéticos ya que la precisión del modelo está relacionada con la variabilidad de la muestra. A medida que aumentamos el número de escenarios heurísticos el estimador del VaR tiende a valores más precisos a un ritmo creciente. 100 escenarios son suficientes para calcular el VaR, mientras que el CVaR requiere al menos 1.000. En general la precisión aumenta con la raíz cuadrada del número de simulaciones. En el siguiente gráfico podemos ver el resultado de simular el beneficio acumulado de una cartera durante un año laboral. La simulación se ha construido partiendo de las estadísticas de una serie out-sample de cuatro años, como se muestra en la Figura 2.
En ese caso obtenemos un VaR95% de 31.700€ y un VaR99% de 21.600€ esta última cifra sería el valor mínimo esperado del portfolio a un año y para un nivel de confianza del 99%. Cuando la pendiente media de las curvas simuladas es positiva el VaR converge hacia valores positivos en un tiempo finito y, el ritmo al que lo hace, está relacionado con la cadencia operativa y con la esperanza matemática del sistema o cartera.
La validación del modelo es fundamental y el Comité de Basilea recomienda realizar pruebas de backtest para comprobar que el VaR estimado se verifica en las series históricas. Se han propuesto varios tests. Uno de los más empleados es la “Prueba de proporción de fallos” o estadístico de Kuipec (1995), que consiste en comprobar de manera recursiva el número de “fallos” o desbordamientos del VaR sobre el P/G de la serie histórica. El Comité de Basilea recomendaba aplicar el test al menos a un año, con un nivel de confianza del 99% y ventanas VaR de 1 y 10 días. Vemos un ejemplo de ello en la Figura 3.
En ese gráfico mostramos el P/G diario de un sistema durante un número (N) de días y las bandas inferiores representan la evolución del VaR 95% y 99% a un día. El primer paso para aplicar el estadístico es calcular la proporción (ṕ) de fallos (S): ṕ= S/N. Esta proporción se aproxima a la probabilidad de fallo (p) para el nivel de confianza deseado. Así con un VaR95% solo deberíamos encontrar un promedio 5 fallos cada 100 barras y con un VaR99% de 1 fallo. Hecho el conteo, aplicamos el estadístico de Kuipec:
Y contrastamos la hipótesis de que la probabilidad empírica ṕ de fallo no se aleje de la probabilidad teórica p, establecida en el modelo de VaR al 99%. Dado que la distribución asintótica de esta prueba es Chi con un grado de libertad cuando N es grande, podemos plantear las hipótesis nula y de rechazo del siguiente modo:
H0 → p=1%, Sí LR ≤ χ1%,1 y rechazamos H0 si LR > χ1%,1
χ1%,1 es el percentil 1% de la distribución de Chi = 6,635. Si el percentil es 5% su valor es 3,841.
En la siguiente tabla vemos los resultados de aplicar el estadístico sobre una serie out-sample (histórico de 252 días) y sobre la misma serie simulada por Montecarlo (4.749 días). Ambas pasan claramente la prueba, así que en este caso damos por bueno el modelo de VaR.
Pese a convertirse la metodología VaR en un estándar ampliamente utilizado en el mundo financiero, pronto surgieron algunas voces críticas (Artzner et al., 1999) que señalaron que el VaR no es una medida coherente del riesgo ya que no satisface el criterio de subaditividad (la fusión de portfolios no debe incrementar el riesgo de cada uno por separado) y, además, es insensible a las colas de la distribución, lo que hace indeseable su uso con distribuciones asimétricas y con colas gruesas que podrían estar enmascarando riesgos mayores. Para solventar estas carencias conservando las ventajas del VaR se ha propuesto como métrica alternativa el CVaR que analizaremos en el próximo número de Hispatrading Magazine.