Respeto propio: el ingrediente que falta en nuestros esfuerzos para crecer por Brett N. Steenbarger
Recientemente vimos que algunos sectores estadounidenses se han visto gravemente afectados. El valor promedio entre los sectores más defensivos se ha visto golpeado, empujando las métricas de amplitud interna a largo plazo hacia mínimos históricos.
No han sido sólo ciertos sectores estadounidenses los que han sufrido. Gracias a lo que había sido una incesante tendencia alcista del dólar, las acciones de los mercados emergentes también se han vendido agresivamente.
Desde que el índice MSCI de Mercados Emergentes alcanzó su punto máximo en febrero de 2021, cada vez que la amplitud se volvió positiva durante un período de 50 días, los repuntes prácticamente se quedaron sin fuerza.
Los movimientos del dólar estadounidense influyen en gran medida en los rendimientos de los mercados emergentes. En las últimas 50 sesiones, el dólar ha subido más del 4% y los mercados emergentes se desplomaron más del -10%. Durante los últimos 30 años, la correlación móvil de 50 días entre esos rendimientos es consistentemente, aunque no perfectamente, negativa. El optimismo sobre el dólar ha sido alto y está retrocediendo, lo que debería ser un viento de cola para los mercados emergentes si continúa.
Si eso es suficiente para impulsar las acciones al alza durante más de unas pocas sesiones, debería cambiar las estadísticas de amplitud a largo plazo de sus condiciones de severa sobreventa. La desaparición de estas medidas ha sido una señal bastante fiable de que se estaba produciendo un repunte a mediano plazo.
Aplicamos la IA correctiva (Chan, 2022) a un modelo de trading que aprovecha la estacionalidad intradía de los rendimientos de divisas. Breedon y Ranaldo (2012) observaron que las monedas extranjeras se deprecian frente al dólar estadounidense durante sus horas de trabajo locales y se aprecian durante las horas de trabajo locales del dólar estadounidense. Primero probadamos los resultados de Breedon y Ranaldo en datos recientes del EURUSD de septiembre de 2021 a enero de 2023 y luego aplicamos la IA correctiva a esta estrategia de trading para lograr un aumento significativo en el rendimiento.
Breedon y Ranaldo (2012) describieron una estrategia de trading que vendió en corto el EURUSD durante las horas de trabajo europeas (de 3 a. m. ET a 9 a. m. ET, donde ET denota la hora local en Nueva York, que tiene en cuenta el horario de verano) y compró EURUSD durante las horas de trabajo de EE. UU. (11 a. m. ET a 3 p. m. ET). La razón es que la compra institucional a gran escala del dólar estadounidense se lleva a cabo durante las horas de trabajo europeas para pagar las facturas globales y lo contrario ocurre durante las horas de trabajo de los Estados Unidos. De hecho, este efecto también se llama «efecto de factura».
Hay alguna evidencia de apoyo para los patrones de tiempo del día en varias medidas del mercado de divisas, como la volatilidad (ver Baille y Bollerslev (1991), o Andersen y Bollerslev (1998)), la rotación (véase Hartman (1999), o Ito y Hashimoto(2006)), y el retorno (véaseCornett(1995), o Ranaldo (2009)). Esencialmente, las monedas locales se deprecian durante sus horas de trabajo locales para cada una de estas medidas y se aprecian durante las horas de trabajo de los Estados Unidos.
La figura 1 a continuación describe el rendimiento promedio por hora de cada hora del día durante un período que comienza desde el 01-10-2019 a las 17:00 ET hasta el 01/09/2021 16:00 ET. Revela el patrón de rendimientos en EURUSD. El patrón de retorno en las «horas de trabajo» descritas anteriormente se reconcilia con la hipótesis de un «efecto de factura» prevalente en general. Los rendimientos bajan durante el trabajo en Europa y suben durante las horas de trabajo en EE. UU.
Como esta estrategia se publicó en 2012, ofrece tiempo suficiente para verdaderas pruebas fuera de la muestra. Recopilamos datos de barras de 1 minuto de EURUSD de Electronic Broking Services (EBS) y realizamos una prueba posterior durante el período fuera de la muestra de octubre de 2021 a enero de 2023. El ratio Sharpe de la estrategia en este período es de 0,88, con rendimientos anuales promedio del 3,5 % y una reducción máxima del -3,5 %. El alfa de la estrategia aparentemente perduró. (A los efectos de este artículo, no se incluyen costos de transacción en la prueba posterior porque nuestro único objetivo es comparar el rendimiento con y sin IA correctiva, no para determinar si esta estrategia comercial es viable en la producción en vivo).
La figura 2 a continuación muestra la curva de capital («crecimiento de 1 dólar») de la estrategia durante el período fuera de la muestra antes mencionado. Los rendimientos acumulados durante este período están justo por debajo del 8 %. Llamamos a esto la estrategia «primaria», por razones que se aclararán a continuación.
Supongamos que tenemos un modelo de trading (como la estrategia de trading primaria descrita anteriormente) para establecer el lado de la apuesta (largo o corto). Solo tenemos que aprender el tamaño de esa apuesta, que incluye la posibilidad de no apostar en absoluto (tamaños cero). Esta es una situación a la que se enfrentan los profesionales regularmente. Se puede entrenar un algoritmo de aprendizaje automático (ML) para determinarlo. Para enfatizar, no queremos que el algoritmo de Machine Learning (ML) aprenda o prediga el lado, solo para decirnos cuál es el tamaño apropiado.
Llamamos a este problema metaetiquetado (Lopez de Prado, 2018) o AI correctiva (Chan, 2022) porque queremos construir un modelo secundario de aprendizaje automático que aprenda a usar un modelo de comercio primario.
Entrenamos un algoritmo de ML para calcular la «probabilidad de beneficio» (PoP) para la siguiente barra en minutos. Si el PoP es mayor que 0,5, estableceremos el tamaño de la apuesta en 1; de lo contrario, lo estableceremos en 0. En otras palabras, adoptamos la función de paso como la función de tamaño de la apuesta que toma PoP como entrada y da el tamaño de la apuesta como salida, con el umbral establecido en 0,5. Esta función de tamaño de apuestas decide si tomar la apuesta o pasar, una predicción puramente binaria.
El período de entrenamiento fue del 01/01/2019 al 30 de septiembre de 2021, mientras que el período de prueba fuera de la muestra fue del 01/10/2021 al 15 de enero de 2023, en consonancia con el período fuera de la muestra que informamos para la estrategia comercial de la Primaria. El modelo utilizado para entrenar el algoritmo de ML se realizó utilizando la API de IA correctiva (CAI) predictnow.ai, con más de cien características de entrada prediseñadas (predictors). El algoritmo de aprendizaje subyacente es un árbol de decisiones que aumenta el gradiente.
Después de aplicar la IA correctiva, el ratio Sharpe de la estrategia en este período es de 1,29 (un aumento de 0,41), con rendimientos anuales promedio del 4,1 % (un aumento del 0,6 %) y una reducción máxima del -1,9 % (una disminución del 1,6 %). El alfa de la estrategia ha mejorado significativamente.
La curva de rentabilidad de la señal del modelo secundario filtrado por la IA correctiva se puede ver en la siguiente figura.
Las características utilizadas para entrenar el modelo de IA correctiva incluyen indicadores técnicos generados a partir de los mercados de índices, acciones, futuros y opciones. Muchas de estas características se crearon utilizando los datos de futuros y acciones de alta frecuencia de Algoseek. Se pueden encontrar más estudios sobre estas características en (Nautiyal & Chan, 2021).
Al aplicar la IA correctiva a la estrategia primaria en función del momento del día, pudimos mejorar el ratio Sharpe y reducir el drawdown durante el período de prueba posterior fuera de la muestra. Esto se alinea con los análisis hechos en la literatura sobre el metaetiquetado de nuestras estrategias principales. Las capacidades de filtrado de señales del modelo de IA correctiva mejoran el rendimiento en escenarios específicos.
Estamos agradecidos a Chris Bartlett de Algoseek, quien proporcionó generosamente gran parte de los datos de alta frecuencia para nuestra ingeniería de características en nuestro sistema de IA correctiva. También damos las gracias a Pavan Dutt por su ayuda con la ingeniería de características y a Jai Sukumar por ayudarnos a usar la API CAI de Predictnow.ai. Por último, expresamos nuestro agradecimiento a Erik MacDonald y Jessica Watson por sus contribuciones a la explicación de esta tecnología a los clientes de Predictnow.ai
Referencias
Breedon, F., & Ranaldo, A. (2012, April 3). Intraday Patterns in FX Returns and Order Flow. https://ssrn.com/abstract=2099321
Chan, E. (2022, June 9). What is Corrective AI? PredictNow.ai. Retrieved February 23, 2023, from https://predictnow.ai/what-is-corrective-ai/
Lopez de Prado, M. (2018). Advances in Financial Machine Learning. Wiley.
Nautiyal, A., & Chan, E. (2021). New Additions to the PredictNow.ai Factor Zoo. PredictNow.ai. Retrieved February 28, 2023, from https://predictnow.ai/new-additions-to-the-predictnow-ai-factor-zoo/
Un lector pregunta:
Empecé a invertir en un fondo de índice S&P 500 en el verano de 2021. ¿Es un buen o mal momento?
De 1928 a 2022, el S&P 500 logró rendimientos anuales del 9,6 % anual.
Todos sabemos que el mercado de valores no solo ofrece rendimientos año tras año en el rango del 9-10%. Los rendimientos del mercado de valores en un año determinado son cualquier cosa menos promedio.
De hecho, el rendimiento promedio en un año ascendente es una ganancia de poco menos del 21 %. La pérdida promedio en un año a la baja es de poco menos del 14 %.
El mercado de valores en este momento ha sido alcista en aproximadamente 3 de cada cuatro años.
Para mantener las cosas simples, usemos +20% para los años ascendentes y -15% para los años bajistas. Me gustan los números redondos.
Si el mercado de valores obtuviera rendimientos de +20%, +20%, +20% y -15%, el rendimiento anualizado sería del +10% al año.
¿Me sigues?
Obviamente, no solo obtienes tres años de ganancias y luego un año de pérdidas en ese orden y hay un amplio rango alrededor de esos promedios de +20% y -15%. Pero estos números pueden ser muy útiles cuando se trata de pensar en el ciclo de vida de la inversión, especialmente cuando eres joven y recién estás comenzando tu viaje de inversión.
Digamos que ahorras 1.000 dólares al año durante los próximos 40 años. Utilizaremos nuestros mismos promedios de ganancias y pérdidas junto con la probabilidad de que las acciones suban tres de cada cuatro años, lo que significa que obtienes diez años de baja y 30 años más.
Ahora echemos un vistazo a dos escenarios diferentes:
Escenario A: Obtienes un -15% de pérdidas anuales en los primeros diez años, seguidas de 30 años de ganancias anuales de +20%.
Escenario B: Obtienes 30 años de ganancias anuales del +20% seguidos de diez años de pérdidas anuales del -15%.
Como persona que está ahorrando periódicamente, ¿qué escenario deberías elegir?
En el escenario A, donde sus rendimientos fueron terribles en los primeros diez años, pero maravillosos en los 30 años siguientes, su saldo final después de 40 años sería de 2,5 millones de dólares.
En el escenario B, donde sus rendimientos fueron maravillosos en los primeros 30 años, pero terribles en los últimos 10 años, su saldo final después de 40 años sería de poco más de 200.000 dólares.
En el escenario A, estás ahorrando e invirtiendo en tus años de composición de cartera más importantes durante un mercado bajista brutal.
En el escenario B, estás ahorrando e invirtiendo en tus años más importantes durante un mercado alcista.
Obviamente, estos ejemplos no son realistas. Si el mercado de valores cayó un 15 % durante 10 años consecutivos, eso es una pérdida del 80 %. Ganar un 20 % durante 30 años consecutivos te daría un rendimiento de casi el 24 000 %.
La idea aquí es que debería querer malos rendimientos al principio de su ciclo de vida de inversión, suponiendo que sea un ahorrador periódico a lo largo del tiempo (la mayoría de nosotros lo somos). No deberías estar animando los máximos de todos los tiempos. Deberías ponerte de rodillas y rezar por correcciones, mercado bajista y caídas del mercado.
Desde agosto de 2021, el mercado de valores de EE. UU. esencialmente no ha ido a ninguna parte, cayendo aproximadamente un 2 % en total:
Si has estado invirtiendo diligentemente en el mercado de valores de forma regular en este tiempo, has tenido la capacidad de construir una posición de forma lenta pero segura. Algunos precios han sido más altos, otros más bajos, pero el hecho de que las acciones no hayan ido a ninguna parte es algo bueno para aquellos de nosotros que somos ahorradores netos.
Los mercados a la baja le permiten comprar más acciones a precios más bajos, rendimientos de dividendos más altos y valoraciones más bajas.
Si estás empezando en estos momentos a invertir, lo mejor que te podría pasar es una serie de mercados a la baja. No puedo prometer que el mercado de valores tenga un perfil de riesgo-rendimiento similar en el futuro.
El mercado de valores no siempre coopera y te da lo que necesitas, pero esta es la mentalidad que debes tener cuando piensas en crear riqueza con el tiempo.
Los malos rendimientos no siempre son algo malo, siempre y cuando conduzcan a mejores rendimientos en el futuro.
Discutimos esta pregunta en el último episodio de Ask the Compound:
Bill Sweet se unió a mí en el programa de hoy de nuevo para responder preguntas sobre los rendimientos esperados en el mercado de valores, el cambio de los tramos de ingresos y sus finanzas, el inicio tardío de los ahorros con impuestos diferidos y los préstamos de su cartera.
La semana pasada publiqué una nota de investigación destacando una señal de compra para el sector energético en el S&P 500 basada en el ratio agregado de venta y compra. También reconozco que los acontecimientos en Medio Oriente probablemente influyeron en la alerta. Sin embargo, antes de la agitación, los indicadores de amplitud del mercado para el sector energético habían estado mejorando, lo que sugiere un contexto más favorable para las acciones energéticas.
Si bien las tendencias alcistas a largo plazo en el sector energético han mejorado, casi todos los demás grupos han experimentado un deterioro significativo. El martes, el diferencial entre las acciones del S&P 500 que cotizan por encima de su promedio de 200 días y las acciones del sector energético del S&P 500 por encima de su promedio a largo plazo se amplió hasta alcanzar la brecha más sustancial en 2023, con una lectura del -53%.
El cambio más amplio en los 70 años de historia de los datos se produjo en 2022, cuando las acciones de energía prosperaron y la mayoría de los demás grupos experimentaron caídas significativas.
Un diferencial que mide la diferencia entre el porcentaje de acciones del S&P 500 que cotizan por encima de su media de 200 días y el porcentaje de acciones del S&P 500 Energy por encima de su media a largo plazo cayó por debajo del -50%, un nivel asociado con rendimientos anualizados deficientes si el diferencial persiste durante un período prolongado. Un método cruzado simple para analizar los rendimientos a plazo sugiere que el S&P 500 puede recuperarse durante algunos meses. Aun así, hay que tener en cuenta que este tipo de divergencia en amplitud se ha producido cerca de máximos importantes del mercado o en el contexto de caídas.
En caso de que se produzca un repunte en el cuarto trimestre, será imperativo que participen la mayoría de las acciones.
Con demasiada frecuencia, los objetivos que nos fijamos no son mucho más que buenas intenciones. Las resoluciones de Año Nuevo son un ejemplo notorio. ¿Cómo podemos mejorar en el logro de los objetivos que nos fijamos?
Cuando centramos nuestra atención en menos prioridades y trabajamos de manera consistente e intensiva en ellas, es mucho más probable que avancemos que si tuviéramos una larga lista de cambios para hacer y trabajar en ellos a medida que surja la necesidad/deseo. Así que, por ejemplo, si queremos estar en buena forma física, dedicar tiempo diario a preparar el equipo para hacer deporte y correr es un gran comienzo. Siempre abordamos más cuando un nivel determinado de esfuerzo se convierte en rutina. Si nuestra búsqueda de objetivos no está enfocada, es frecuente e intensiva, es poco probable que mantengamos una trayectoria de crecimiento constante.
Lo más probable es que tengamos éxito si nuestros objetivos se convierten en nuestros compromisos. Cuando trabajé en un conocido fondo de cobertura, el fundador comentó una vez que: «Si no está en su calendario, no es parte de su proceso». Esto se aplica sin duda a nuestros procesos al aprender y hacer trading: investigar ideas, convertir ideas en operaciones, monitorear los mercados y gestionar el riesgo/recompensa. Se aplica igualmente a cualquiera de nuestras actividades con propósito, incluidos los objetivos personales que nos fijamos.
Cuando nos comprometemos a la búsqueda de objetivos en el calendario diario y creamos un tiempo dedicado a los esfuerzos de mejora, experimentamos nuestro futuro ideal todos los días. «Cualquiera que luche por el futuro vive en él hoy», observó una vez Ayn Rand. Luchar por el futuro a diario significa que experimentamos una parte de nuestro futuro de manera consistente, convirtiéndolo en una parte intrínseca de nosotros mismos. Lo que comienza como pasión y deseo se expresa a través de un esfuerzo regular y se convierte en un hábito positivo.
Imagina que tienes una sola hora todos los días para perseguir un objetivo que beneficiará drásticamente a tu trading, tu salud, tu mentalidad o tus relaciones. Imagina que este es el primer elemento que entra en tu calendario; el trabajo de rutina y las tareas del hogar tienen que encajar en tu único objetivo clave. Todos los días, sin falta, vas a usar una parte de tu día para ser tu propio entrenador que potencie tu rendimiento y acercar tu verdadero yo a tu yo ideal. De esa manera, pasarás una fracción de cada día viviendo en tu futuro.
Lo más probable es que eso ocurra si tenemos objetivos muy concretos que alcanzar en la búsqueda de nuestros objetivos. Si queremos perder peso, queremos definir un objetivo desafiante pero factible. Si estamos buscando mejorar nuestro trading, necesitamos mantener estadísticas para que podamos ver realmente nuestro progreso: número de operaciones ganadoras/perdidas, tamaño promedio de ganadores/perdedores, rentabilidad general, etc. Si estamos mejorando en nuestras relaciones, queremos hacer intencionalmente más de las cosas que traen cercanía, felicidad y satisfacción a nuestros socios y a nosotros.
La enfermedad mental viene cuando vivimos en el pasado todos los días. La vida mundana viene cuando simplemente vivimos la vida cada día a la vez. La grandeza es cuando vivimos una parte constante de cada día en el futuro que estamos diseñando y construyendo.
¿Qué futuro quieres construir? ¿Cómo puedes adentrarte en ese futuro hoy?
Decimos que una serie temporal es estacional cuando tiene una variación periódica predecible en un periodo inferior al año. Los motivos de estas variaciones predecibles pueden ser diversos, el más importante suele ser la influencia de las estaciones (temperatura, luz, precipitaciones, etc), pero una serie puede ser estacional por muchos otros motivos, como por ejemplo la ecología (migraciones, caída de las hojas de los árboles, etc) o por motivos culturales (temporada de bodas, etc).
Evidentemente otros aspectos, como la tendencia, influirán en la serie. Saber que una serie tiene estacionalidad no significa que sepamos predecir su comportamiento. Por eso, sería más preciso decir que una serie temporal es estacional cuando su valor esperado no es constante, pero varía con una pauta cíclica. Esta pauta se superpone a la tendencia, produciendo un comportamiento cíclico que se repite cada año.
A veces es sencillo detectar estacionalidad, atendiendo sólo al gráfico de la serie. El ejemplo que se suele poner en todo curso de econometría es el de la creación de empleo. Así, si vemos el gráfico de creación de empleo en EEUU comprobamos fácilmente que tiene una clara estacionalidad. Se ve cómo diciembre, enero y julio son meses históricamente malos, frente a marzo, abril u octubre. Aún se ve más claro cuando calculamos las medias mensuales (desde 2001) y las graficamos.
El ejemplo que hemos visto del empleo es un proceso estacional determinista: esto es, constante para el mismo mes de cada año. Sin embargo, la estacionalidad no siempre se presenta así. A veces el proceso estacional varía con otras propiedades de la serie. Para corregir este efecto, podemos considerar que la evolución es estacionaria: el proceso estacional no es determinista, pero oscila alrededor de un valor medio. Así tenemos por un lado un proceso estacional, que varía en función de un proceso estacionario de media cero.
Finalmente, puede darse el caso de una serie temporal estacional que cambia en el tiempo sin valor medio. Es decir, sigue un proceso estacional no estacionario. Para eliminar la estacionalidad en este tipo de casos, el modelo más sencillo asumirá que la variación de la estacionalidad sigue un proceso aleatorio.
La estimación de la estacionalidad es importante no sólo para incorporarla a nuestros modelos, sino para eliminarla de la serie y poder atender así otros componentes como, por ejemplo, su tendencia. Las consecuencias de que una serie sea estacional son claras: Distorsiona el estudio de los datos, los hace no comparables y puede restar precisión a nuestros modelos si no la tenemos en cuenta.
Para analizar la estacionalidad, podemos utilizar la función de autocorrelación. Esta mide la correlación entre los valores de la serie distanciados por un periodo de tiempo. Si existe autocorrelación significativa, aceptaremos que la serie es estacional. Una versión más sofisticada de la autocorrelación consiste en el análisis del espectro de frecuencias.
Otros métodos usados ampliamente para la detección de estacionalidad son el contraste Krustal-Wallis o el contraste KPSS, que analizan la hipotésis de estacionalidad asumiendo que los valores de la serie son la suma de un paseo aleatorio y un componente estacionario.
En el caso de que la serie sea estacional, podemos desestacionalizarla. La desestacionalización o ajuste estacional, consiste en eliminar el componente estacional de la serie. En este sentido, desde los años 70, el trabajo de Box y Jenkins supusieron una revolución en el análisis de las series temporales, introduciendo sus modelos conocidos como modelos ARIMA (y también, como modelos Box-Jenkins).
A grandes rasgos, en este tipo de modelos se transforma una serie temporal en estacionaria (esto es, ni la media, ni la varianza, ni las autocorrelaciones dependerán del tiempo). Tras la transformación, el siguiente paso consiste en identificar un modelo de predicción válido y después, deshacer la transformación para comprobar si los pronósticos son acertados. La gran ventaja de estos modelos es su simplicidad relativa frente a los clásicos.
Por suerte, la mayoría de series de los indicadores más relevantes ya vienen desestacionalizadas y corregidas de otros efectos. No obstante, para las que esto no sea así, podemos servirnos de programas como el X-12-ARIMA o TRAMO para tratar las series.
La mayoría de los economistas, incluidos Debbie y yo, creemos que si los datos no respaldan nuestros pronósticos, entonces debe haber algo mal en ellos y que serán revisados para demostrar que, después de todo, teníamos razón. La mayoría de los economistas, incluido un servidor, también suelen descartar componentes de los indicadores principales que no respaldan nuestra historia y miran los indicadores «básicos» restantes para comprobar que se ajustan a nuestra perspectiva y, por lo tanto, la confirman.
Este enfoque de corte de los principales indicadores económicos suele ser lo que sucede cuando se publica el informe mensual de empleo. Se piensa que si los datos desestacionalizados no respaldan la narrativa, tal vez los datos no desestacionalizados sí lo hagan. O tal vez las revisiones de los datos de los meses anteriores apunten en la dirección “correcta” y, por lo tanto, sean lo que se debe destacar. Si la medida del empleo de las nóminas no es tan amigable como la medida de los hogares, concéntrese en la de los hogares.
Otro indicador económico importante que invariablemente es desmenuzado por la hermandad de economistas es el IPC. El número de septiembre se publicó junto con todos sus componentes la semana pasada el jueves. Algunos economistas (como nosotros) afirmamos que esto confirma que la inflación todavía se está moderando y está resultando ser relativamente transitoria. Otros examinaron el informe y concluyeron que la inflación se está estancando a un ritmo muy superior al objetivo de inflación del 2,0% de la Reserva Federal. Algunos economistas encontraron evidencia de que la inflación puede estar acelerándose nuevamente, por lo que sigue siendo un problema persistente.
Entonces ¿quién tiene razón? Todos tenemos razón siempre porque hay muchos datos que respaldan todas nuestras historias. Los datos no conformes se descartan como estimaciones preliminares que sin duda serán revisadas o simplemente son erróneas. Sin duda, las revisiones futuras demostrarán que, después de todo, estamos en el camino correcto; si no, datos diferentes lo harán. Puede que no todos seamos keynesianos ¡pero todos somos profetas según los datos que elegimos para respaldar nuestra perspectiva!
Ahora analicemos el último IPC y veamos qué queda:
(1) Ignore el titular. No preste atención a la tasa de inflación general. Ese fue uno de los mensajes del discurso pronunciado por el presidente de la Reserva Federal, Jerome Powell, en Jackson Hole el 25 de agosto. Desde el principio, dijo que “los precios de los alimentos y la energía están influenciados por factores globales que siguen siendo volátiles y pueden proporcionar una señal engañosa de hacia dónde se dirige la inflación”. Así que centró su análisis en la tasa de inflación subyacente, es decir, la tasa general menos energía y alimentos. Por supuesto, éste ha sido el enfoque de la Reserva Federal durante muchos años.
La medida de inflación preferida por la Reserva Federal ha sido la PCED básica, que sigue de cerca al IPC subyacente (Gráfico 1). Este último tiende a superar al primero. Por hoy, nos centraremos en el IPC hasta septiembre, ya que la lectura del PCED de septiembre no se publicará hasta casi finales de mes.
La tasa de inflación general del IPC fue del 3,7% interanual hasta septiembre (Gráfico 2). La tasa subyacente del IPC fue más alta, alcanzando el 4,1%. Ambos están por debajo de sus máximos de 2022 del 9,1% y 6,6%, respectivamente. Pero ambos siguen muy por encima del objetivo del 2,0% de la Reserva Federal.
(2) Saliendo del refugio. Antes de continuar, aquí está nuestro chiste: las tasas de inflación general y básica del IPC, excluyendo la vivienda, fueron ambas del 2,0% interanual durante septiembre (Gráfico 3). Entonces, a la pregunta de cuándo llegaremos al objetivo de inflación de la Reserva Federal, la respuesta es que ahora estamos allí excluyendo la vivienda, ¡al menos según la medida del IPC!
El alquiler de viviendas representa un enorme 34,7% y 43,6% de las medidas generales y básicas del IPC. Su tasa de inflación saltó de un mínimo del 1,5% en febrero de 2021 a un máximo del 8,2% en marzo de 2023 (Fig. 4). En septiembre bajó, pero sólo al 7,2%.
En su discurso, Powell dijo: “Debido a que los arrendamientos se renuevan lentamente, se necesita tiempo para que una disminución en el crecimiento de los alquileres en el mercado se introduzca en la medida general de la inflación. La desaceleración del alquiler en el mercado recién ha comenzado a reflejarse en esa medida. Se puede considerar que la desaceleración del crecimiento de los alquileres para nuevos arrendamientos durante aproximadamente el año pasado está “en proceso” y afectará la inflación medida de los servicios de vivienda durante el próximo año”.
Además, Powell reconoció en su discurso que la inflación de los “alquileres de mercado” (es decir, de nuevos arrendamientos) ha disminuido “constantemente” este año. El índice de alquileres de Zillow bajó al 3,2% interanual durante septiembre. Utilizando esa lectura en lugar de la lectura del IPC sobre el alquiler de viviendas del 7,2 %, Debbie descubrió que el IPC general aumentó solo un 2,3 % frente al 3,7 % del IPC general real.
Según nuestro análisis hasta el momento, en nuestra opinión, el último episodio de inflación está resultando ser transitorio en lugar de persistente. La Reserva Federal podría alcanzar su objetivo del 2,0% para la tasa de inflación básica PCED mucho antes de lo previsto, es decir, en 2024 en lugar de 2025.
(3) La inflación de bienes es buena. En su discurso, Powell dio a entender que, después de todo, la inflación subyacente de bienes sin duda ha resultado ser transitoria. Dijo: “La inflación de los bienes básicos ha caído drásticamente, particularmente en el caso de los bienes duraderos, a medida que tanto el ajuste monetario como el de la política económica y la lenta corrección de las dislocaciones de la oferta y la demanda lo están haciendo caer”.
Anteriormente explicamos que el atracón de compras de los consumidores después del confinamiento se centró en bienes porque los servicios todavía se veían obstaculizados por las restricciones de distanciamiento social. Eso provocó que la inflación de los bienes aumentara desde aproximadamente cero en el verano de 2020 al 14,0% en 2022 (Fig. 5). Durante septiembre, la inflación de bienes bajó al 1,4%, los bienes duraderos bajaron un 2,2% y los bienes no duraderos aumentaron un 3,2%. Los bienes básicos se mantuvieron sin cambios en septiembre respecto al año anterior (Gráfico 6).
(4) La inflación supercore es persistente. En su discurso, Powell dijo: Para comprender los factores que probablemente impulsen un mayor progreso [en la reducción de la inflación], es útil examinar por separado los tres componentes amplios de la inflación PCE básica: la inflación de bienes, la de servicios de vivienda y la de todos los demás. servicios, a veces denominados servicios no relacionados con la vivienda”. Esta última categoría también se conoce como tasa de inflación “superbásica”. Ha estado estancada en torno al 4,5%-5,0% desde octubre de 2021 (Fig. 7). Sin embargo, la tasa de inflación del IPC de servicios menos vivienda bajó al 2,8% en septiembre desde el máximo del 8,2% del año pasado.
(5) El seguro médico es una locura. Es ampliamente reconocido que el componente de seguro médico del IPC es muy volátil y se basa en una técnica de medición muy cuestionable (Gráfico 8). Mucho más sensata es la medida del seguro médico del PCED, que recientemente se ha mantenido relativamente estable y en un solo dígito en temporalidad interanual, mientras que la medida del IPC ha estado oscilando entre cambios porcentuales interanuales positivos y negativos de dos dígitos. Este último bajó un 37,3% interanual durante septiembre y ahora se espera que regrese a territorio positivo durante los próximos meses.
Todos lo sabemos y nos adaptaremos a esta distorsión. En cualquier caso, tiene un peso minúsculo del 0,545% del IPC.
(6) Los precios de los automóviles podrían acelerarse. Los precios de los automóviles nuevos y usados han contribuido a la volatilidad y la naturaleza transitoria de la inflación desde la pandemia. Las interrupciones en la cadena de suministro interrumpieron el suministro de automóviles nuevos desde 2020 hasta la primera mitad de 2022, lo que hizo que los precios de los automóviles nuevos se dispararan. A medida que estos problemas disminuyeron, la tasa de inflación de los precios de los automóviles nuevos se desplomó (Figura 9).
Los precios de los automóviles usados se dispararon incluso más que los precios de los automóviles nuevos durante la pandemia, y los primeros se desplomaron más que los segundos después (Fig. 10). Ahora la preocupación es que la huelga del UAW provoque una escasez de inventarios de automóviles nuevos que una vez más impulse los precios de los automóviles nuevos y usados.
(7) Conclusión. Dicen que el diablo está en los detalles. Es muy posible que eso sea cierto respecto de las perspectivas de inflación. Sin embargo, la inflación suele definirse como un aumento general y relativamente amplio de los precios. En cualquier mes, algunos de los componentes del IPC pueden explicar gran parte del aumento o disminución de ese mes. Lo que importa es la tendencia subyacente. Eso es lo que más buscamos para confirmar nuestra perspectiva o la necesidad de cambiarla. Los últimos datos nos confirman que nuestro escenario sigue por buen camino: la inflación continúa moderándose.
Si bien una buena estrategia puede ayudarlo a convertirse en un trader de éxito, puede que no sea suficiente para que las cosas funcionen sin problemas a largo plazo. Muchos traders no entienden que no hay lugar para el miedo en el trading. Dejan que su miedo les impida ejecutar una operación y nunca se convierten en el trader que quieren ser.
Muchos traders no confían en sus estrategias de entrada y salida. Algunos diseñan sólidas estrategias de entrada y salida, pero no las cumplen cuando llega el momento. A continuación, encontrará una guía concisa para identificar los mejores momentos para entrar y salir de una operación:
Es relativamente fácil entrar en una operación. Puede entrar con varios tipos de operaciones en el mercado, a saber, una posición larga o una posición corta. La primero se refiere a la compra de un activo con la expectativa de que su precio aumente y la segunda se refiere a la venta de un activo con la intención de recomprarla a un precio más bajo.
Antes de entrar en una operación, debe investigar el activo utilizando la acción del precio y el análisis técnico. Xstation es un ejemplo de una plataforma de análisis técnico. Una vez que haya realizado su investigación, debe seleccionar cuidadosamente el volumen del activo, es decir, la cantidad del activo que desea comprar o vender.
El paso final es utilizar las opciones de compra y venta para entrar al mercado. Sin embargo, solo debe entrar a una operación cuando comprenda los factores que afectan el precio del activo para saber si el precio es correcto. También debe estar psicológicamente preparado cuando entra a una operación.
El momento adecuado para salir de una operación es cuando haya alcanzado su objetivo de ganancias. Cuando la operación alcanza un determinado nivel de precio, se activa una orden de limitación de pérdidas y se envía a la bolsa para su ejecución. Como trader, debe salir de una operación unos momentos antes de que cierre el mercado para evitar los riesgos que se presentan durante la noche.
Los traders investigan mucho, formulan sus estrategias de entrada y salida, y aun así no toman medidas cuando llega el momento. Como la ejecución de algunas operaciones no puede esperar, puede terminar perdiendo mucho dinero si duda en apretar el gatillo cuando llegue el momento.
Para superar su miedo y aumentar sus posibilidades de obtener ganancias, apriete el gatillo de la operación cuando llegue su punto de entrada. Si no puede luchar contra este tipo de miedo, puede ejecutar la operación a través de una orden límite, es decir, una orden que restringe el precio máximo a pagar o el precio mínimo a recibir en la compra o venta de un activo, respectivamente.
Si piensa constantemente en ganar y perder, no podrá ejecutar operaciones de acuerdo con sus estrategias bien diseñadas. Debe aceptar que está participando en un juego de probabilidades en el que debe tener el control. Estar demasiado preocupado por hacerlo mal nos paraliza. Debe confiar en su análisis y apretar el gatillo.
Si preguntásemos a cualquier gestor financiero por la noción de riesgo que maneja seguramente nos hablaría de incertidumbre en la evolución de los precios y de la probabilidad de incurrir en una pérdida potencial. En otras palabras, incertidumbre asociada al tamaño de las pérdidas y al desconocimiento de los resultados en el tiempo. Nótese que esto último es importante: Una pérdida segura no es un riesgo, como tampoco lo es la obtención de beneficios inesperados. El riesgo que preocupa al gestor es el relativo a la frecuencia y tamaño de las pérdidas. De ahí que los modelos de cartera tradicionales traten de buscar medidas coherentes del riesgo en términos probabilísticos. Es decir, vinculándolo con variables aleatorias cuyas distribuciones son total o parcialmente conocidas.
De este modo surge en el modelo de Markowitz (1952) la noción de riesgo como variabilidad que se identifica con la desviación típica o varianza de los resultados en el tiempo. Medir el riesgo de un activo se convierte en el problema de determinar su volatilidad histórica. Y este va a ser el elemento central en la generalización del trabajo de Markowitz llevada a cabo por William Sharpe (1964) y su Modelo de Valoración de Activos (CAPM). Ahora se manejan dos tipos de riesgo: El sistemático o de mercado, que no puede eliminarse por completo, y el específico o de producto que puede minimizarse mediante una adecuada selección de activos. Las volatilidades de los valores se cuantifican respecto a un índice de referencia y se representan con un solo número, la beta. Construir carteras con mayor o menor aversión al riesgo se convierte ahora en un problema mucho más sencillo para el gestor, ya que solo tendrá que seleccionar activos con betas distintas para obtener una cartera convenientemente balanceada en términos de riesgo-recompensa (R/R). Pero en ambos modelos el riesgo se mide en términos de varianzas y covarianzas, por lo que solo serán plenamente robustos cuando las rentabilidades de los activos están normalmente distribuidas. Fuera del universo gaussiano estos modelos y sus numerosas variantes van a tener problemas.
Otro inconveniente de estos modelos es que no contemplan situaciones adversas muy alejadas de la normalidad o en las colas de la distribución. El llamado efecto «cisne negro» (Taleb, 2007) tiene su origen en el carácter atípico y no lineal de las formaciones de precios en respuesta a hechos inesperados. Se trata de una sobrerreacción de corta duración pero enorme amplitud que se verá acentuada en la operativa con derivados por el alto nivel de apalancamiento con el que normalmente se trabajan estos productos.
Si nos retrotraemos al ámbito del trading de sistemas, el drawdown de Montecarlo, la máxima pérdida y la desviación de las operaciones perdedoras, nos pueden dar una idea bastante precisa del riesgo de una estrategia cuando disponemos de series de operaciones largas y fiables. Pero estás métricas nos ofrecen una visión estática del riesgo, no nos permiten inferir con un nivel de confianza elevado dónde debería estar nuestro portfolio, considerando los escenarios más adversos y en un horizonte temporal de días, semanas o años. Como veremos más adelante, otros estimadores de riesgo como el CVaR (valor en riesgo condicional) y el CDaR (drawdawn en riesgo condicional) sí nos permitirán responder a esta pregunta.
El VaR ha desempeñado desde la década de los noventa un papel fundamental en la estimación del riesgo de mercado en una amplia variedad de productos. De hecho, ya en 1993 el grupo de los 30 (G-30) consideró al VaR una herramienta idónea para evaluar la exposición bancaria global. Dos años después el Comité de Basilea permitió a los bancos establecer sus reservas de capital empleando modelos matemáticos basados en el VaR. En 1996 Morgan Stanley y Reuters generalizaron el uso del VaR en la estimación del riesgo en carteras de renta fija y variable, así como en algunos productos derivados bajo la metodología Riskmetrics, que incluye un amplio conjunto de técnicas, datos y protocolos de implementación ampliamente utilizados en el sector financiero. Desde entonces en el arsenal estadístico de los gestores de carteras siempre está presente este estimador del riesgo.
Definido de manera sencilla el VaR es la pérdida máxima esperada en una cartera con una probabilidad y un intervalo temporal conocidos y, de manera más precisa, es el (1-α) percentil de la distribución de pérdidas y ganancias en el horizonte t. El VaR de la distribución Fx para un nivel de confianza α ϵ | 0-1|, es:
VaRα (X) = min { z | Fx (z) ≥ α}
Cuando aplicamos el VaR a la distribución del beneficio acumulado obtenido mediante simulaciones de Montecarlo para un horizonte t, lo que obtenemos es el valor mínimo del portfolio (no necesariamente negativo) para el nivel de confianza especificado.
En el supuesto de la normalidad, el cálculo del VaR resulta muy sencillo ya que sería proporcional a la media y desviación estándar de la distribución y podría aproximarse mediante el método Delta Normal (Letmark, 2010). Pero en la mayoría de los casos no podemos esperar normalidad en la distribución del retorno y el VaR debe ser estimado mediante modelos no paramétricos como la simulación histórica y la simulación de Montecarlo. Ambos modelos son idóneos para carteras sistemáticas, ya que en esta modalidad de trading disponemos de grandes series de operaciones obtenidas mediante técnicas de backtest que nos permiten evaluar el comportamiento de las estrategias en marcos temporales muy amplios. Veámoslas con más detalle:
Permite una estimación directa del VaR en función de los rendimientos pasados para el horizonte temporal requerido. El percentil (1-α) de la serie histórica nos dará el VaR empírico de nuestra cartera. Ni que decir tiene que su valor dependerá de factores como el origen de los datos (reales, out-sample) y el tamaño de la serie. Por ejemplo el Comité de Basilea recomienda no menos de 252 días de datos (año laboral) y cortes temporales de 1 día y 10 días para la estimación del riesgo. Nosotros consideramos muy escasa esta recomendación ya que en nuestra modalidad de trading los sistemas se comportan de manera muy distinta entre marcoépocas caracterizadas por largos períodos de mayor o menor volatilidad y tendencia. Si no se dispone de un histórico P/G de varios años (al menos 5-7) podemos estar subestimando el riesgo que mide el VaR.
Por otra parte, la principal crítica a este modelo es que no contempla variaciones futuras de los escenarios pasados. Por tanto, estamos asumiendo erróneamente invariancia temporal en la distribución del retorno. Para mitigar este problema se recomienda la realización de stress-tests o análisis de escenarios hipotéticos de los mercados que reflejen las situaciones más desfavorables. Por ejemplo, movimientos bruscos de los precios en situaciones de volatilidad extrema. Hecho de manera rigurosa equivaldría a evaluar los sistemas en series sintéticas construidas para replicar estos escenarios, lo cual es complejo y tedioso. En la práctica lo que se hace es empeorar ligeramente las series P/G mediante algún elemento corrector aplicado a todas las operaciones (ej. mayor deslizamiento).
Es la forma más elegante de construir un número ilimitado de escenarios hipotéticos partiendo de las series originales. Una simulación de Montecarlo bien planteada ha de generar diversidad al tiempo que se acomoda globalmente a los ratios generatrices de la serie de partida. En nuestro artículo «Simulaciones de Montecarlo y operativa sistemática» (Hispatrading, nº 15 y 16) ya hemos analizado su tipología, características y ventajas. Ahora nos centraremos en su capacidad para estimar de manera precisa el riesgo de una cartera. Esto lo haremos en varias etapas:
– Lo primero será elegir el simulador adecuado. Para el cálculo del VaR necesitamos un modelo que genere curvas aleatorias de la rentabilidad del portfolio. Esto deja fuera a los simuladores basados en permutaciones sin repetición que, como ya vimos, solo son útiles para evaluar el drawdown. En este caso los mejores simuladores son los que generan las curvas a partir de los ratios de la serie original. Aportan diversidad (en este caso valores P/G nuevos) y, si están bien construidos, replican con notable fidelidad la serie original. En la imagen inferior podemos ver una simulación realizada por el método del inverso y que utiliza cinco variables: Porcentaje de aciertos, beneficio medio, pérdida media, desviación de las operaciones perdedoras y desviación de las ganadoras. Con estos ratios obtenemos curvas como estas:
– La estimación del VaR requiere un elevado número de escenarios hipotéticos ya que la precisión del modelo está relacionada con la variabilidad de la muestra. A medida que aumentamos el número de escenarios heurísticos el estimador del VaR tiende a valores más precisos a un ritmo creciente. 100 escenarios son suficientes para calcular el VaR, mientras que el CVaR requiere al menos 1.000. En general la precisión aumenta con la raíz cuadrada del número de simulaciones. En el siguiente gráfico podemos ver el resultado de simular el beneficio acumulado de una cartera durante un año laboral. La simulación se ha construido partiendo de las estadísticas de una serie out-sample de cuatro años:
En este caso obtenemos un VaR95% de 31.700€ y un VaR99% de 21.600€ esta última cifra sería el valor mínimo esperado del portfolio a un año y para un nivel de confianza del 99%. Cuando la pendiente media de las curvas simuladas es positiva el VaR converge hacia valores positivos en un tiempo finito y, el ritmo al que lo hace, está relacionado con la cadencia operativa y con la esperanza matemática del sistema o cartera.
– La validación del modelo es fundamental y el Comité de Basilea recomienda realizar pruebas de backtest para comprobar que el VaR estimado se verifica en las series históricas. Se han propuesto varios tests. Uno de los más empleados es la «Prueba de proporción de fallos» o estadístico de Kuipec (1995), que consiste en comprobar de manera recursiva el número de «fallos» o desbordamientos del VaR sobre el P/G de la serie histórica. El Comité de Basilea recomendaba aplicar el test al menos a un año, con un nivel de confianza del 99% y ventanas VaR de 1 y 10 días. Veamos un ejemplo:
En este gráfico mostramos el P/G diario de un sistema durante un número (N) de días y las bandas inferiores representan la evolución del VaR 95% y 99% a un día. El primer paso para aplicar el estadístico es calcular la proporción (ṕ) de fallos (S): ṕ= . Esta proporción se aproxima a la probabilidad de fallo (p) para el nivel de confianza deseado. Así con un VaR95% solo deberíamos encontrar un promedio 5 fallos cada 100 barras y con un VaR99% de 1 fallo. Hecho el conteo, aplicamos el estadístico de Kuipec:
Y contrastamos la hipótesis de que la probabilidad empírica ṕ de fallo no se aleje de la probabilidad teórica p, establecida en el modelo de VaR al 99%. Dado que la distribución asintótica de esta prueba es Chi con un grado de libertad cuando N es grande, podemos plantear las hipótesis nula y de rechazo del siguiente modo:
H0 → p=1%, Sí LR ≤ χ1%,1 y rechazamos H0 si LR > χ1%,1
χ1%,1 es el percentil 1% de la distribución de Chi = 6,635. Si el percentil es 5% su valor es 3,841.
En la siguiente tabla vemos los resultados de aplicar el estadístico sobre una serie out-sample (histórico de 252 días) y sobre la misma serie simulada por Montecarlo (4.749 días). Ambas pasan claramente la prueba, así que en este caso damos por bueno el modelo de VaR.
VaR 99% :: PRUEBA DE PROPORCIÓN DE FALLOS (Test de Kuipec) | ||||
Serie Histórica | Serie Montecarlo | |||
Observaciones (N) | 252 | 4749 | ||
Fallos (S) | 3 | 65 | ||
p-estimado (p) | 1,2% | 1,4% | ||
p-teórico (ṕ) | 1% | 1% | ||
LRKupiec | 0,0378 | 2,5398 | ||
Función Chi(λ1%,1) | 6,635 | 6,635 | ||
Criterio LR < Chi | No-Rechazo Ho:1% | No-Rechazo Ho:1% |
Pese a convertirse la metodología VaR en un estándar ampliamente utilizado en el mundo financiero, pronto surgieron algunas voces críticas (Artzner et al., 1999) que señalaron que el VaR no es una medida coherente del riesgo ya que no satisface el criterio de subaditividad (la fusión de portfolios no debe incrementar el riesgo de cada uno por separado) y, además, es insensible a las colas de la distribución, lo que hace indeseable su uso con distribuciones asimétricas y con colas gruesas que podrían estar enmascarando riesgos mayores. Para solventar estas carencias conservando las ventajas del VaR se ha propuesto como métrica alternativa el CVaR que analizaremos en el próximo número de Hispatrading Magazine.
La actividad reciente reduce la amplitud del mercado alcista
Han sido un par de meses difíciles para las acciones promedio. En los últimos 50 días, un promedio de 25 acciones más del S&P 500 han caído de las que han avanzado. Ésta es una de las lecturas más extremas de la última década.
Si los últimos diez años sirven de indicación, el Backtest Engine muestra rendimientos anormalmente altos en prácticamente todos los períodos de tiempo.
En los primeros meses posteriores al mínimo de octubre, tuvimos múltiples oportunidades de mostrar cuán agresivos eran los compradores a la hora de adquirir acciones. Esto siguió hasta enero e incluso abril para algunos indicadores. Desde entonces, se ha desacelerado notablemente y se volvió muy débil a partir de finales de julio.
Si bien eso no anula necesariamente todos los aspectos positivos acumulados durante los once meses anteriores, hace que las cosas sean más complicadas en el futuro. Hay algunos indicios de que la situación es lo suficientemente débil como para considerar que estamos en zona de sobreventa, pero los alcistas tienen que demostrar que comprarán en estas condiciones.
Este artículo se centrará en una extensión del modelo original introducido por Estep y. Kritzman (1988), a saber, Time Invariant Portfolio Protection.
El Constant Proportion Portfolio Insurance (CPPI) y la Time-Invariant Portfolio Protection (TIPP) son dos de las estrategias de protección de cartera más conocidas que juegan un papel importante en el ámbito de la gestión de las inversiones y la mitigación de riesgos. Estas estrategias están diseñadas para abordar el desafío fundamental de equilibrar la búsqueda del crecimiento financiero con el imperativo de la protección del capital contra las caídas del mercado. Idealmente, la protección garantizada se logra con la prima más baja posible para los inversores.
CPPI es un enfoque dinámico que se adapta a las condiciones del mercado ajustando activamente la asignación entre activos de riesgo y sin riesgo, esforzándose por preservar un valor mínimo predefinido al tiempo que permite la participación en los aumentos del mercado. Por el contrario, TIPP emplea una metodología más conservadora, en la que se garantiza un porcentaje fijo del valor de la cartera a lo largo del horizonte de inversión y la exposición de riesgo se ajusta en consecuencia. La principal diferencia es que, mientras que en CPPI el Floor (Se trata de una opción sobre tipos de interés. Una cobertura ante posibles bajadas en el nivel de los tipos de interés) base crece a un ritmo constante, en TIPP es una función del valor de la cartera y, por lo tanto, tiene una naturaleza dependiente de la ruta. Estas dos estrategias ofrecen ventajas e inconvenientes distintos, lo que las convierte en herramientas valiosas para los inversores con diferentes apetitos de riesgo, objetivos de inversión y preferencias para la gestión de la cartera.
Ambas estrategias prescriben una asignación al activo de riesgo que es igual al colchón (diferencia entre V0 y F0) multiplicada por un coeficiente de riesgo-aversión m. Cuanto más alto sea el coeficiente, más agresiva será la estrategia y, a la inversa. La asignación a la libre de riesgo se determina de forma residual.
Vamos a mostrar un ejemplo. Si asumimos un capital invertido inicial de 100 $, un Floor inicial de 85 $ y un multiplicador de 4, obtenemos una exposición arriesgada de 60 (4x (100-85)) y una asignación libre de riesgo de 40. Muchos profesionales de las finanzas han introducido nuevas extensiones al modelo vanilla. Por ejemplo, establecer la exposición máxima y mínima evitará, por un lado, la asunción excesiva de riesgos y, por otro, la absorción en un estado de asignación 100% libre de riesgos. En nuestro experimento, forzamos la exposición a estar en el rango del 40 al 120 %.
La Figura (a) y la Figura (b) muestran ejemplos de las dos metodologías. En el primer caso, la protección crece con el tiempo a una tasa fija como:
En el segundo caso, el Floor se ajusta hacia arriba para mantener el mismo nivel de protección con respecto al valor de la cartera en cada momento t:
Ahora que hemos explicado la diferencia entre los dos enfoques, nos centramos en las propiedades estadísticas de TIPP. Para hacer eso, seguimos el enfoque metodológico utilizado para CPPI por Khuman et al. (2008) e implementamos el mismo análisis para esta nueva técnica. En particular, investigamos el comportamiento de nuestras métricas de riesgo obtenidas mediante la aplicación de TIPP en dos procesos simulados: el movimiento browniano geométrico (GBM) y el proceso de difusión de salto (JDP). Estos procesos representan un representante de nuestros activos financieros de riesgo. Dado que establecemos un tamaño de salto negativo esperado para reflejar la inclinación negativa de los mercados financieros, permitimos una comparación justa entre los dos procesos mediante la introducción de un compensador positivo al JDP.
Para validar la eficacia de la estrategia en dos escenarios, consideramos cuatro métricas de riesgo relevantes:
El primer análisis tiene como objetivo comprender las propiedades de TIPP cuando el multiplicador (m) y la frecuencia de reequilibrio (n) varían. La siguiente tabla muestra la estructura multidimensional de nuestras medidas de interés.
En general, la introducción de saltos negativos en el mercado reduce en un 10% en promedio el pago final y aumenta la probabilidad de una violación del Floor en un 2-4%. Para multiplicadores bajos y reequilibrios frecuentes, el gráfico muestra valores similares de la reducción máxima. En este caso, la presencia de saltos no afecta significativamente a los resultados. Por el contrario, se puede ver un Drawdown un 3% más profundo en la parte superior de la superficie cuando se añade el salto. En términos de Sharpe, la tabla indica una fuerte preferencia por la baja exposición y el reequilibrio diario. De acuerdo con nuestras impresiones iniciales, una m más alta aumenta la volatilidad más de lo que hace en el rendimiento. Teniendo en cuenta la peculiaridad de la protección del capital del TIPP y el impacto de m en la volatilidad y los costos de transacción, creemos que establecer un multiplicador en un rango de 2 a 4 beneficiaría considerablemente la implementación y el seguimiento de dicho enfoque.
Luego investigamos el impacto de los costos de transacción y el efecto de rotación. Dada la naturaleza más volátil, las tarifas de transacción incurridas en el caso de JDP siempre excederán las pagadas en el escenario de GBM. Por esta razón, llevaremos a cabo nuestro análisis solo para el caso JDP. Los honorarios de gestión no están incluidos en este caso.
A medida que aumenta la tarifa porcentual, el valor final de la cartera cae exponencialmente. En particular, para el caso de tc = 0,001, el pago neto no se altera significativamente en comparación con el caso de tarifa cero. Por el contrario, vemos un impacto sustancial para los costos de transacción de m ≥ 4 y más altos. Para m = 9, solo un rendimiento semanal del activo de riesgo del -10% daría como resultado un reequilibrio completo de la cartera de la exposición máxima (120) a la mínima (40).
El resultado del estudio revela que la fuerza de TIPP varía significativamente a través de los dos procesos estocásticos. El modelo fue más capaz de mitigar las pérdidas en el GBM en comparación con el caso de JDP, lo que indica una alta sensibilidad a la arriesgada distribución del rendimiento de los activos. Además, vimos que la alta volatilidad y los costos de transacción perjudican el uso de multiplicadores por encima de 5 y que, para aumentar la exposición y evitar el estancamiento, los inversores en TIPP podrían establecer un límite inferior del nivel mínimo de activo de riesgo que se mantendrán en la cartera en su lugar. Por el contrario, el aumento del apalancamiento no tiene resultados positivos en el rendimiento. Por último, destacamos cómo tener una ejecución rentable representa una gran limitación para los gestores de fondos de TIPP, y ese aspecto se vuelve cada vez más importante para los fondos más agresivos.
Autores:
Gianluca Baglini, Baglini Finance
Tony Berrada, Universidad de Ginebra
El rendimiento del Tesoro a 10 años alcanzó recientemente el 4,8 %, su nivel más alto desde el verano de 2007.
Es más que el rendimiento de los dividendos de todas las acciones del S&P 500, excepto en 53.
Solo cuatro de las 30 acciones del Promedio Industrial Dow Jones rinden más que el bono de referencia del gobierno de EE. UU.
El rendimiento de los dividendos en el S&P 500 ha estado cayendo durante años debido a una combinación de valoraciones crecientes y el mayor uso de recompras de acciones por parte de las corporaciones.
Pero incluso esos rendimientos de dividendos inferiores a la media fueron suficientes para ofrecer cierta competencia a los rendimientos de los bonos en los últimos años.
Ya no.
Aquí está el rendimiento histórico de los dividendos del S&P 500 en comparación con el rendimiento del Tesoro a 10 años que se reejó en 1926:
En la primera parte del siglo XX, las acciones rindieron mucho más que los bonos durante décadas. Esto se debió en parte al colapso de la Gran Depresión. También tenía que ver con el hecho de que había menos inversores de capital en ese entonces, por lo que las corporaciones tenían que ofrecer jugosos rendimientos de dividendos para atraer a los compradores.
Esa relación cambió durante el mercado alcista de la década de 1950 y el período inflacionario que comenzó en la década de 1960. Las acciones no volverían a rendir más que bonos hasta un breve período en el fondo de la Gran Crisis Financiera a principios de 2009. Ha habido una ida y vuelta desde entonces.
Ahora los bonos tienen una clara ventaja.
Algunas personas, incluyéndome a mí mismo, se preguntan si los rendimientos más altos de los bonos significa que tendremos problemas en el mercado de valores. Los rendimientos más altos son sin duda una buena noticia para los inversores de renta fija, pero es importante reconocer la diferencia en las características de rendimiento entre las acciones y los bonos.
Digamos que usted es un inversor centrado en los rendimientos que está pensando en fijar el 4,8 % en bonos del Tesoro a 10 años para la próxima década.
Eso son 4.800 dólares al año para un total general de 48.000 dólares en pagos de intereses durante la vida del bono.
Eso es bastante bueno, especialmente cuando se compara con los míseros rendimientos de los últimos 15 años.
El rendimiento de los dividendos del S&P 500 del 1,6 % y 1600 $ en ingresos anuales no se acercan a igualar eso.
Pero los rendimientos en el mercado de valores no funcionan igual que los pagos regulares de cupones de bonos. Los pagos de dividendos tienden a aumentar con el tiempo.
Desde 1926, los dividendos en el mercado de valores de EE. UU. han aumentado a una tasa anual del 5 % anual. Y a pesar de que las recompras de acciones son una parte aún mayor de la ecuación en estos días, los dividendos han crecido aún más rápido en los tiempos económicos modernos, aumentando un 5,7 % y un 5,9 % anual desde 1950 y 1980, respectivamente.
Históricamente, los dividendos son una maravillosa cobertura contra la inflación, ya que las empresas aumentan esos pagos con el tiempo.
Seamos conservadores y asumamos que la tasa de crecimiento anual de los dividendos del 5 % sigue en vigor. En 10 años, sus dividendos saltarán de 1600 $ a casi 2500 $. Para igualar el rendimiento del 4,8 % de los bonos del Tesoro, necesitaría un crecimiento de los precios de solo el 2,5 % en el mercado de valores durante 10 años.
Sin embargo, esa tasa de crecimiento que supera la inflación de los dividendos del mercado de valores no es gratuita. La volatilidad es la compensación obvia en esta comparación.
El punto aquí es que no podemos simplemente mirar los rendimientos de las acciones y los bonos para tomar una decisión de inversión coherente.
Los rendimientos del mercado de valores y los rendimientos del mercado de bonos son animales diferentes con diferentes características de riesgo. Debe entender en qué está invirtiendo y por qué antes de asignarlo a cualquier clase de activos o estrategia.
La buena noticia es que la diferente naturaleza de las acciones y los bonos los hace útiles para fines de diversificación.
Los bonos proporcionan ingresos regulares a intervalos preestablecidos, mientras que las acciones proporcionan acceso a flujos de efectivo y ganancias que históricamente han crecido más que la tasa de inflación.
La inflación es un riesgo a largo plazo para los flujos de efectivo de los bonos, pero las acciones le ayudan a protegerlo contra el impacto perjudicial del aumento de los precios.
El mercado de valores es impredecible a corto plazo, mientras que los bonos tienden a ser más estables y aburridos (al menos bonos a corto plazo).
Y si queremos llevar esto un paso más allá, los equivalentes de efectivo como los mercados monetarios o los T-Bills son una cobertura mucho mejor que los bonos en un entorno de tasa de interés/inlación creciente. El efectivo es una terrible cobertura de inflación a largo plazo, pero una maravillosa cobertura de volatilidad y tasa de interés a corto plazo.
Añádelo todo y una cartera que utiliza una combinación de acciones, bonos y efectivo proporciona una opción duradera que utiliza clases de activos simples.
Diversificar no funciona siempre, pero funciona la mayor parte del tiempo y eso es tan bueno como se puede esperar en los mercados.
Una de las principales razones de esto son las diferentes características que tienen las acciones, los bonos y el efectivo en diferentes entornos económicos y de mercado.
A falta de la capacidad de predecir el futuro, una cartera diversificada que sea lo suficientemente duradera como para soportar una amplia gama de resultados sigue siendo su mejor opción para la supervivencia a largo plazo en los mercados.
Los operadores no quieren tener nada que ver con vehículos de inversión tradicionalmente defensivos como el oro o las acciones de servicios públicos, a medida que los rendimientos de los bonos del Tesoro vuelven a dispararse a nuevos máximos, ofreciendo opciones más atractivas.
La intensa presión bajista del oro envió el Índice de Fuerza Relativa (RSI), un indicador de impulso, a una de las condiciones de mayor sobreventa de la historia, un nivel visto menos del 1% de las veces desde 1971.
Los valores del índice de fuerza relativa (RSI) por debajo de 20, como ahora, producen rendimientos anualizados descomunales.
Al igual que otros vehículos defensivos, el oro ha estado bajo severa presión y las tasas de interés han alcanzado nuevos máximos. El impulso bajista de la materia prima ha provocado que el Índice de Fuerza Relativa (RSI) se desplome a niveles raramente vistos en la historia, presagiando a menudo el inicio de un repunte de reversión a la media de varios meses. La situación de sobreventa del oro también estuvo acompañada por la del S&P 500. Siguiendo señales similares, el oro repuntó en el 100% de las ocasiones durante los dos meses siguientes, superando consistentemente al índice de referencia más famoso del mundo.
Las condiciones de sobreventa son una condición previa. Es crucial utilizar un filtro de tendencias u otro tipo de indicador para determinar el momento óptimo para abrir una posición.
A finales de agosto, conocíamos la noticia de que una jueza del Tribunal de Apelaciones de EE.UU. daba la razón a la compañía Grayscale, creadora del Grayscale Bitcoin Trust, en la reclamación presentada contra la decisión de la Securities and Exchange Commission (SEC) de no aprobar la conversión de dicho trust en un ETF.
En su escrito, la jueza considera que la SEC no explicó adecuadamente en su respuesta por qué aprobó la cotización de dos ETFs de futuros sobre Bitcoin, a la vez que denegaba la aprobación del ETF de Bitcoin spot propuesto por Grayscale. En concreto, el tribunal señala que, “a falta de una explicación coherente, este tratamiento normativo diferente de productos similares es ilegal”.
Ello lógicamente no implica que automáticamente se apruebe la conversión del trust en un ETF, pero sí que la SEC deberá volver a evaluar la solicitud de Grayscale y dar unos argumentos consistentes en caso de denegar la conversión, algo que sin duda le va a costar ahora mucho más al regulador estadounidense.
Todo ello ha despertado cierta euforia en las gestoras estadounidenses que recientemente han vuelto a solicitar un ETF sobre Bitcoin contado. En particular, nombres tan relevantes como BlackRock, WisdomTree, VanEck, Fidelity o Ark Invest han presentado este verano diferentes solicitudes para emitir un ETF cuyo subyacente sea Bitcoin contado.
De aprobarse cualquiera de ellos, el precio de Bitcoin podría dispararse, por cuanto supondría la entrada masiva de capital de inversión en la principal criptomoneda. Sin duda, todo un hito porque ¿quién nos iba a decir hace más de 10 años que tendríamos a los institucionales peleándose por ofrecer productos de inversión referenciados a Bitcoin?
Nos guste más o menos como personaje público, lo cierto es que lo que no consiga Elon Musk, no lo consigue nadie. Y es que Tesla ha puesto en marcha Dojo, el superordenador construido a medida (incluso cuenta con su propio procesador) para entrenar los coches de la compañía.
Se trata de un verdadero “monstruo” de la Inteligencia Artificial (IA), capaz de extraer y analizar una enorme cantidad de información a partir del análisis de millones de vídeos e imágenes que recibe desde los vehículos Tesla. Y ojo porque aunque inicialmente está pensado para mejorar los sistemas de conducción autónoma, nada impide que tal capacidad de computación sea aplicada a otros sectores tales como fábricas o robots (incluso humanoides).
De ser así, Tesla contaría con el que probablemente sea uno de los ordenadores con mayor capacidad de computación del mundo (se prevé que superará los 8 exaflops por segundo), lo que proporcionaría a la compañía una posición privilegiada en la carrera por liderar el sector de la IA.
No en vano, algunos analistas estiman que la apertura de nuevas líneas de negocio y el crecimiento que ello podría suponer para la compañía podría incrementar la valoración de Tesla en 500.000 millones de dólares, algo que sería equivalente a sumar casi la mitad de la valoración de Nvidia al valor actual de la empresa.
A comienzos de septiembre, la Commodity Futures Trading Commission (CFTC) anunciaba una denuncia contra la empresa de cuentas fondeadas My Forex Funds. En la denuncia, el regulador acusaba a la compañía de solicitar de forma fraudulenta a los clientes que realizasen operaciones apalancadas en el mercado Forex y en materias primas.
En particular, My Forex Funds prometía a los clientes minoristas que podrían convertirse en traders profesionales utilizando el dinero de la compañía para realizar operaciones contra proveedores de liquidez de terceros y después compartir los beneficios de las operaciones.
Sin embargo, en la práctica My Forex Funds actuaba como contrapartida de la mayoría de las operaciones de sus clientes, lo que significaba que ganaba a costa de las pérdidas de los operadores y que, por tanto, sus incentivos no estaban alineados ni mucho menos con los de ellos.
De hecho, para minimizar la probabilidad de que los clientes obtuvieran beneficios, la compañía utilizaba pretextos para cancelar las cuentas o se aplicaban comisiones de forma engañosa, siempre con el objetivo final de reducir el capital en las cuentas de los clientes. Incluso llegó a utilizar supuestamente algún software que permitía manipular la ejecución de las órdenes de los clientes, recibiendo así precios peores.
La caída de My Forex Funds podría abrir el melón de la regulación de un sector, el de las empresas de cuentas fondeadas, que actualmente se mueve en un limbo legal, por cuanto no gestionan dinero de terceros. Tan solo ofrecen el acceso a la gestión de capital de la compañía, una vez que el cliente ha superado un reto de trading pagando una suscripción. Eso sí, superar el reto generalmente es muy complicado ya que las condiciones requeridas para superarlo suelen ser muy difíciles de cumplir.