Sunday 26 November 2017

Promedio Móvil Autorregresivo Ppt


Modelos de media móvil integrada (ARIMA) 1. Presentación sobre el tema: Modelos de media móvil integrada (ARIMA) 1. Transcripción de la presentación: 2 2 - Técnicas de predicción basadas en el suavizado exponencial-Asunción general para los modelos anteriores: los datos de series temporales se representan como La suma de dos componentes distintos (determinista al azar) - Ruido aleatorio: generado a través de choques independientes al proceso - En la práctica: las observaciones sucesivas muestran la dependencia en serie 3 - Los modelos ARIMA también son conocidos como la metodología Box-Jenkins. Adecuado para casi todas las series de tiempo muchas veces generan pronósticos más precisos que otros métodos. - Limitaciones: Si no hay suficientes datos, pueden no ser mejores en la predicción que las técnicas de descomposición o suavización exponencial. Número recomendado de observaciones por lo menos Se requiere estacionariedad débil - Igual espacio entre intervalos 3 Modelos ARIMA 7 7 Filtro lineal - Es un proceso que convierte la entrada xt, en salida yt - La conversión implica valores pasados, actuales y futuros de la entrada en La forma de una suma con diferentes pesos - Tiempo invariante no dependen del tiempo - Physically realizable: la salida es una función lineal de los valores actuales y pasados ​​de la entrada - Stable si en los filtros lineales: la estacionariedad de la serie de tiempo de entrada también es Reflejada en la salida 9 Una serie cronológica que cumple estas condiciones tiende a regresar a su media y fluctúa alrededor de esta media con una varianza constante. Nota: La estacionariedad estricta requiere, además de las condiciones de estacionariedad débil, que la serie cronológica tenga que cumplir con otras condiciones sobre su distribución, incluyendo la asimetría, la curtosis, etc. 9- Tome instantáneas del proceso en diferentes momentos observando su comportamiento: Con el tiempo, las series temporales estacionarias - Un ACF fuertemente moribunda sugiere desviaciones de la estacionariedad Determine la estacionariedad 12 Media móvil infinita Entrada xt estacionaria LUEGO, el proceso lineal con ruido blanco serie temporal t Es estacionario 12 Salida yt Estacionario, con t choques aleatorios independientes, con E (t) 0 14 14 La media móvil infinita sirve como una clase general de modelos para cualquier serie temporal estacionaria. TEOREMA (Mundo 1938): Ninguna serie cronológica débilmente estacionaria yt puede ser representada como donde se puede ver una serie temporal INTERPRETACIÓN A Como la suma ponderada de las perturbaciones presentes y pasadas 15 15 Promedio móvil infinito: - Impráctico para estimar los pesos infinitamente - Uso en la práctica, excepto en casos especiales: i. Modelos de media móvil de orden finito (MA). Ponderaciones fijadas a 0, excepto para un número finito de pesos ii. Modelos autoregresivos de orden finito (AR): los pesos se generan utilizando sólo un número finito de parámetros iii. Una mezcla de modelos de promedio móvil autorregresivo de orden finito (ARMA) 16 Proceso de media móvil de orden finito (MA) Proceso medio móvil de orden q (MA (q)) MA (q). Siempre estacionario independientemente de los valores de los pesos 16 17 Valor esperado de MA (q) Variación de MA (q) Autocovariancia de MA (q) Autocorelación de MA (q) 17 t ruido blanco 18 18 Función ACF: Ayuda a identificar el modelo MA (K) no siempre cero después del retraso q se vuelve muy pequeño en valor absoluto después del retraso q 19 Primer Orden Movimiento Medio Proceso MA (1) Autocovariancia de MA (q) Autocorelación de MA (q) 19 q1 20 20 - Variación media. (2) proceso Autocovariancia de MA (q) Autocorelación de MA (q) 21 23 Proceso Autoregressivo de Orden Finito 23 - Teorema de los mundos: número infinito de pesos, no es útil en la predicción de modelos - Orden finita Proceso MA: estima un número finito de pesos, establece el otro igual a cero Más antiguo disturbio obsoleto para la próxima observación sólo un número finito de perturbaciones contribuyen a la corriente Valor de las series temporales - Tener en cuenta todas las perturbaciones del pasado. Utilizan modelos autorregresivos que calculan infinitamente muchos pesos que siguen un patrón distinto con un pequeño número de parámetros. 24 Proceso Autoregresivo de Primer Orden, AR (1) Suponga. Las aportaciones de los disturbios que se encuentran en el pasado son pequeñas comparadas con las perturbaciones más recientes que el proceso ha experimentado. Reflejan las magnitudes decrecientes de las contribuciones de las perturbaciones del pasado, a través de un conjunto infinito de pesos en magnitudes descendentes, Pesos en las perturbaciones desde la perturbación actual y regresando en el pasado: 24 Patrón de decaimiento exponencial 25 Proceso autorregresivo de primer orden AR (1) AR (1) estacionario si 25 donde ¿POR QUÉ AUTOREGRESSIVE. 28 AR (1) Función de autocovariancia AR (1) Función de autocorrelación AR (1) 26 El ACF para un proceso estacionario AR (1) tiene una forma de decaimiento exponencial 28 Este proceso puede ser representado En la forma de MA infinita proporcionan las condiciones de estacionariedad para yt en términos de 1 2 POR QUÉ 1. MA infinito Aplicar 31 31 Soluciones La satisfacer la ecuación de diferencia lineal de segundo orden La solución. En función de las 2 raíces m1 y m2 de AR (2) estacionarias: Condición de estacionariedad para conjugados complejos aib: AR (2) representación MA infinita: 32 32 Función media de autocovariancia Para k0: Para k0: Ecuaciones de Yule-Walker 0: Yule Ecuaciones de Walker 0: Ecuaciones de Yule-Walker 0: Ecuaciones de Yule-Walker title32 Función de autocovariancia media Para k0: Para k0: Ecuaciones de Yule-Walker 33 33 Función de autocorrelación Soluciones A. Resuelve las ecuaciones de Yule-Walker recursivamente B. Solución general Las raíces m 1 m 2 asociadas al polinomio 34 34 Caso I: m 1, m 2 raíces reales distintas c 1, c 2 constantes: se puede obtener de (0), (1) estacionariedad: ACF forma: mezcla de 2 exponencialmente Términos de decaimiento, por ejemplo Modelo AR (2) Puede ser visto como un modelo AR (1) ajustado para el cual una sola expresión de decaimiento exponencial como en el AR (1) no es suficiente para describir el patrón en el ACF y, por lo tanto, se añade una expresión de decaimiento adicional Por ejemplo, introduciendo el segundo término de retraso y t-2 35 35 Caso II: m 1, m 2 conjugados complejos en la forma c 1, c 2. constantes particulares Forma ACF: factor de amortiguación sinusoidal húmedo Periodo de frecuencia R 37 37 Proceso AR (2) : Yt 40.4yty t-2 et Raíces del polinomio: forma ACF real: mezcla de 2 términos exponenciales de decaimiento 38 38 AR (2) proceso: yt 40.8yty t-2 et Raíces del polinomio: conjugados complejos Forma ACF: sinusoide amortiguado Si las raíces del polinomio son inferiores a 1 en valor absoluto AR (P) sumatoria absoluta infinita MA representación Bajo la condición previa 43 43 ACF ecuaciones de diferencia lineal de orden p (p). - satisfaga las ecuaciones de Yule-Walker - ACF se pueden encontrar a partir de las p raíces del polinomio asociado p. Raíces reales distintas. - En general las raíces no serán ACF reales. Mezcla de decaimiento exponencial y sinusoide amortiguado 44 44 ACF - MA (q) proceso: herramienta útil para identificar el orden del proceso se corta después del retraso k - AR (p) proceso: mezcla de descomposición exponencial amortiguada sinusoide expresiones No proporcionar información sobre el pedido De AR 45 45 Función de Autocorrelación Parcial Considerar. - tres variables aleatorias X, Y, Z - Regresión simple de X sobre ZY sobre Z Los errores se obtienen de 46 46 Correlación parcial entre XY después de ajustar Z: La correlación entre XY La correlación parcial puede ser vista como la correlación entre dos variables después de Siendo ajustada por un factor común que les afecta 47 47 Función de autocorrelación parcial (PACF) entre yty tk La autocorrelación entre yty tk después de ajustar para y t-1, y t-2, y tk Proceso AR (p): PACF entre yty tk Para kp debe ser igual a cero Considere - una serie de tiempo estacionaria yt no necesariamente un proceso AR - Para cualquier valor fijo k, las ecuaciones de Yule-Walker para la ACF de un proceso AR (p) p deben ser iguales a cero Considere - una serie estacionaria yt No necesariamente un proceso AR - Para cualquier valor fijo k, las ecuaciones de Yule-Walker para el ACF de un proceso AR (p) 48 48 Soluciones de notación matricial Para cualquier k dado, k 1,2, el último coeficiente se llama autocorrelación parcial Coeficiente del proceso al retraso k Proceso de AR (p): Identificar el orden de un proceso de AR usando el PACF 49 49 Cuts apagado después de 1 st lag Patrón de decaimiento AR (2) MA (1) MA (2) Invertibilidad de los modelos MA Proceso de media móvil invertible: El proceso de MA (q) es invertible si tiene una representación infinita absolúble de AR. Se puede mostrar: La representación AR infinita para (Q) 51 51 Obtener Necesitamos Condición de invertibilidad Las raíces del polinomio asociado deben ser menores que 1 en valor absoluto Un proceso de MA (q) invertible puede entonces ser escrito como un proceso de AR infinito 52 52 PACF de un MA (q) (ARMA) Modelo ARMA (p, q) Ajustar el patrón exponencial de decaimiento mediante la adición de un patrón de decaimiento exponencial 54 54 Estacionariedad del proceso ARMA (p, q) Relacionado con el componente ARMA ARMA (p, q) estacionario si las raíces del polinomio menor que uno en valor absoluto ARMA (p, q) tiene una representación MA infinita 55 55 Invertibilidad del proceso ARMA (p, q) Invertibilidad del proceso ARMA relacionado con el componente MA Comprobar a través de las raíces del polinomio Si las raíces menores de 1 en valor absoluto entonces ARMA (p, q) es invertible tiene una representación infinita Coeficientes: 60 60 Proceso no estacionario No constante, exhibe un comportamiento homogéneo en el tiempo yt es homogéneo, no estacionario si - no es estacionario - Su primera diferencia, wtyt - y t-1 (1-B) yt o diferencias de orden superior wt (1- B) dyt produce una serie de tiempo estacionario Y t media interrumpida de orden p, d, q ARIMA (p, d, q) Si la diferencia d, wt (1-B) dyt produce un ARMA estacionario (p, q) El proceso ARIMA (p, d, q) 61 61 El proceso de caminata aleatoria ARIMA (0,1,0) El modelo más simple no estacionario La primera diferenciación elimina la dependencia en serie produce un proceso de ruido blanco 62 62 yt 20y t-1 et Evidence of non - Proceso estacionario - ACF de la muestra. Muere lentamente - Amostra PACF: significativo en el primer retraso - Muestra PACF valor en el retraso 1 cerca de 1 Primera diferencia - Tiempo de serie serie de w t. Estacionaria - Amostra ACF PACF: no muestran valor significativo - Uso ARIMA (0,1,0) 63 63 El proceso de caminata aleatoria ARIMA (0,1,1) Representación AR infinita, derivada de: ARIMA (0,1,1 (IMA (1,1)): expresada como media móvil ponderada exponencial (EWMA) de todos los valores anteriores 64 64 ARIMA (0,1,1) - La media del proceso se está moviendo hacia arriba en el tiempo - Ejemplo ACF: muere Parcialmente lento - Amostra PACF: 2 valores significativos a los retrasos 1 2 - Primera diferencia parece estacionaria - Smucha ACF PACF: un modelo MA (1) sería apropiado para la primera diferencia, su ACF se corta después del primer retardo PACF patrón de decaimiento Posible modelo En el último artículo analizamos los paseos aleatorios y el ruido blanco como modelos básicos de series de tiempo para ciertos instrumentos financieros, como la equidad cotidiana Y los precios de los índices bursátiles. Encontramos que en algunos casos un modelo de caminata aleatoria era insuficiente para capturar el comportamiento de autocorrelación completo del instrumento, lo que motiva modelos más sofisticados. En el próximo par de artículos vamos a discutir tres tipos de modelo, a saber, el modelo autorregresivo (AR) de orden p, el modelo de media móvil (MO) de orden q y el modelo de media móvil movida autogenerada (ARMA) de orden p , Q. Estos modelos nos ayudarán a intentar capturar o explicar más de la correlación serial presente dentro de un instrumento. En última instancia, nos proporcionará un medio de pronosticar los precios futuros. Sin embargo, es bien sabido que las series de tiempo financiero poseen una propiedad conocida como agrupación de volatilidad. Es decir, la volatilidad del instrumento no es constante en el tiempo. El término técnico para este comportamiento se conoce como heterocedasticidad condicional. Dado que los modelos AR, MA y ARMA no son condicionalmente heteroscedásticos, es decir, no toman en cuenta el agrupamiento de volatilidad, en última instancia, necesitaremos un modelo más sofisticado para nuestras predicciones. Dichos modelos incluyen el modelo de Heteroskedastic condicional autogenerante (ARCH) y el modelo Heteroskedastic condicional generalizado (GARCH), y las muchas variantes del mismo. GARCH es particularmente bien conocido en las finanzas de Quant y se utiliza principalmente para simulaciones de series temporales financieras como un medio de estimar el riesgo. Sin embargo, como con todos los artículos de QuantStart, quiero construir a estos modelos a partir de versiones más simples para que podamos ver cómo cada nueva variante cambia nuestra capacidad de predicción. A pesar del hecho de que AR, MA y ARMA son modelos de series temporales relativamente simples, son la base de modelos más complicados como el ARREM y la familia GARCH. Por lo tanto, es importante que los estudiemos. Una de nuestras primeras estrategias de negociación en la serie de artículos de series de tiempo será combinar ARIMA y GARCH con el fin de predecir precios n períodos de antelación. Sin embargo, tendremos que esperar hasta que hemos discutido ARIMA y GARCH por separado antes de aplicarlos a una estrategia real. ¿Cómo vamos a proceder? En este artículo vamos a esbozar algunos nuevos conceptos de series de tiempo que bien necesitan para los restantes métodos, Stationarity y el criterio de información Akaike (AIC). Después de estos nuevos conceptos, seguiremos el patrón tradicional para estudiar nuevos modelos de series temporales: Justificación - La primera tarea es proporcionar una razón por la cual estaban interesados ​​en un modelo particular, como quants. ¿Por qué estamos introduciendo el modelo de series temporales ¿Qué efectos puede capturar ¿Qué ganamos (o perdemos) añadiendo complejidad extra Definición - Necesitamos proporcionar la definición matemática completa (y la notación asociada) del modelo de serie temporal para minimizar Cualquier ambigüedad. Propiedades de Segundo Orden - Vamos a discutir (y en algunos casos derivar) las propiedades de segundo orden del modelo de serie temporal, que incluye su media, su varianza y su función de autocorrelación. Correlograma - Usaremos las propiedades de segundo orden para trazar un correlograma de una realización del modelo de series temporales para visualizar su comportamiento. Simulación - Simularemos las realizaciones del modelo de series de tiempo y luego adaptaremos el modelo a estas simulaciones para asegurarnos de tener implementaciones exactas y entender el proceso de ajuste. Datos financieros reales: ajustaremos el modelo de la serie temporal a los datos financieros reales y consideraremos el correlograma de los residuos para ver cómo el modelo da cuenta de la correlación serial en la serie original. Predicción - Vamos a crear n-paso adelante las previsiones de la serie de modelos de tiempo para realizaciones particulares con el fin de producir en última instancia señales comerciales. Casi todos los artículos que escribo sobre los modelos de series temporales caerán en este patrón y nos permitirá comparar fácilmente las diferencias entre cada modelo a medida que agregamos más complejidad. Vamos a empezar por mirar la estacionariedad estricta y la AIC. Strictly Stationary Proporcionamos la definición de estacionariedad en el artículo sobre la correlación serial. Sin embargo, debido a que vamos a entrar en el reino de muchas series financieras, con varias frecuencias, debemos asegurarnos de que nuestros (eventuales) modelos tengan en cuenta la volatilidad variable en el tiempo de estas series. En particular, necesitamos considerar su heterocedasticidad. Encontraremos este problema cuando tratamos de adaptar ciertos modelos a series históricas. Generalmente, no toda la correlación serial en los residuos de los modelos ajustados puede ser considerada sin tener en cuenta la heterocedasticidad. Esto nos lleva a la estacionariedad. Una serie no es estacionaria en la varianza si tiene volatilidad variable en el tiempo, por definición. Esto motiva una definición más rigurosa de la estacionariedad, es decir, la estacionariedad estricta: estrictamente estacionaria Serie A, modelo de serie temporal, es estrictamente estacionario si la distribución estadística conjunta de los elementos x, ldots, x es la misma que xm, ldots, xm, Para todo ti, m. Se puede pensar en esta definición como simplemente que la distribución de la serie temporal no cambia para ningún cambio abritario en el tiempo. En particular, la media y la varianza son constantes en el tiempo para una serie estrictamente estacionaria y la autocovariancia entre xt y xs (por ejemplo) depende sólo de la diferencia absoluta de t y s, t-s. Estaremos revisitando estrictamente las series estacionarias en futuros puestos. Criterio de información de Akaike He mencionado en artículos anteriores que eventualmente tendríamos que considerar cómo escoger entre mejores modelos separados. Esto es cierto no sólo en el análisis de series temporales, sino también en el aprendizaje automático y, en general, en las estadísticas. Los dos métodos principales que utilizaremos (por el momento) son el Criterio de Información Akaike (AIC) y el Criterio Bayesiano de Información (a medida que avanzamos con nuestros artículos sobre Estadísticas Bayesianas). Pues brevemente considerar el AIC, como se utilizará en la Parte 2 del ARMA artículo. AIC es esencialmente una herramienta para ayudar en la selección de modelos. Es decir, si tenemos una selección de modelos estadísticos (incluyendo series temporales), entonces la AIC estima la calidad de cada modelo, en relación con los otros que tenemos disponibles. Se basa en la teoría de la información. Que es un tema muy interesante, profundo que desafortunadamente no podemos entrar en demasiados detalles sobre. Intenta equilibrar la complejidad del modelo, que en este caso significa el número de parámetros, con qué tan bien se ajusta a los datos. Vamos a proporcionar una definición: Akaike Criterio de Información Si tomamos la función de verosimilitud para un modelo estadístico, que tiene k parámetros, y L maximiza la probabilidad. Entonces el Criterio de Información de Akaike es dado por: El modelo preferido, a partir de una selección de modelos, tiene el AIC mínimo del grupo. Se puede ver que el AIC crece a medida que aumenta el número de parámetros, k, pero se reduce si aumenta la probabilidad de logaritmos negativos. Esencialmente penaliza los modelos que son overfit. Vamos a crear AR, MA y ARMA modelos de diferentes órdenes y una forma de elegir el mejor modelo de ajuste de un conjunto de datos es utilizar el AIC. Esto es lo que bien estaremos haciendo en el próximo artículo, principalmente para los modelos ARMA. Modelos autorregresivos de orden p El primer modelo que se va a considerar, que forma la base de la Parte 1, es el modelo autorregresivo de orden p, a menudo acortado a AR (p). Justificación En el artículo anterior consideramos el paseo aleatorio. Donde cada término, xt depende únicamente del término anterior, xy un término de ruido blanco estocástico, wt: El modelo autorregresivo es simplemente una extensión de la caminata aleatoria que incluye términos más atrás en el tiempo. La estructura del modelo es lineal. Que es el modelo depende linealmente de los términos anteriores, con coeficientes para cada término. Aquí es donde el regresivo viene en autorregresivo. Es esencialmente un modelo de regresión donde los términos previos son los predictores. Modelo autorregresivo de orden p Un modelo de serie temporal,, es un modelo autorregresivo de orden p. AR (p), si: begin xt alfa1 x ldots alfa x wt suma p alphai x wt fin ¿Dónde está el ruido blanco y el alfai en mathbb, con alfap neq 0 para un proceso autorregresivo de orden p. Si consideramos al operador de cambio hacia atrás. (Véase el artículo anterior), entonces podemos reescribir lo anterior como una función theta de: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Tal vez lo primero que se note sobre el modelo AR (p) Es que una caminata aleatoria es simplemente AR (1) con alfa1 igual a la unidad. Como se ha dicho anteriormente, el modelo auto - gresivo es una extensión de la caminata aleatoria, por lo que tiene sentido. Es fácil hacer predicciones con el modelo AR (p), para cualquier tiempo t, ya que una vez que tengamos los coeficientes alfa determinados, nuestra estimación Simplemente se convierte en: empezar hat t alfa1 x ldots alfa x final Por lo tanto, podemos hacer n-paso adelante previsiones mediante la producción de sombrero t, sombrero, sombrero, etc hasta el sombrero. De hecho, una vez que consideremos los modelos de ARMA en la Parte 2, utilizaremos la función de predicción de R para crear pronósticos (junto con bandas de intervalo de confianza de error estándar) que nos ayudarán a producir señales de negociación. Estacionariedad para procesos autorregresivos Uno de los aspectos más importantes del modelo AR (p) es que no siempre es estacionario. De hecho, la estacionariedad de un modelo particular depende de los parámetros. He tocado esto antes en un artículo anterior. Para determinar si un proceso AR (p) es estacionario o no, necesitamos resolver la ecuación característica. La ecuación característica es simplemente el modelo autorregresivo, escrito en forma de cambio hacia atrás, puesto a cero: Resolvemos esta ecuación para. Para que el proceso autorregresivo particular sea estacionario necesitamos que todos los valores absolutos de las raíces de esta ecuación excedan la unidad. Esta es una propiedad extremadamente útil y nos permite calcular rápidamente si un proceso AR (p) está parado o no. Consideremos algunos ejemplos para concretizar esta idea: Random Walk - El proceso AR (1) con alpha1 1 tiene la ecuación característica theta 1 -. Claramente esto tiene raíz 1 y como tal no es estacionario. AR (1) - Si elegimos el fracción alfa1 obtenemos xt frac x wt. Esto nos da una ecuación característica de 1 - frac 0, que tiene una raíz 4 gt 1 y por lo que este particular AR (1) proceso es estacionario. AR (2) - Si ponemos alpha1 alpha2 frac entonces tenemos xt frac x frac x wt. Su ecuación característica se convierte en - frac () () 0, lo que da dos raíces de 1, -2. Dado que tiene una raíz unitaria, es una serie no estacionaria. Sin embargo, otras series AR (2) pueden estar estacionarias. Propiedades de segundo orden La media de un proceso AR (p) es cero. Sin embargo, las autocovariancias y autocorrelaciones están dadas por funciones recursivas, conocidas como las ecuaciones de Yule-Walker. Las propiedades completas se dan a continuación: begin mux E (xt) 0 end begin gammak suma p alphai gamma, enspace k 0 fin comienzo rhok suma p alphai rho, enspace k 0 end Note que es necesario conocer los valores de los parámetros alfai antes de Calculando las autocorrelaciones. Ahora que hemos establecido las propiedades de segundo orden podemos simular varios órdenes de AR (p) y trazar los correlogramas correspondientes. Simulaciones y Correlogramas AR (1) Comencemos con un proceso AR (1). Esto es similar a una caminata aleatoria, excepto que alfa1 no tiene que igualar la unidad. Nuestro modelo va a tener alpha1 0.6. El código R para crear esta simulación se da de la siguiente manera: Observe que nuestro bucle for se lleva a cabo de 2 a 100, no 1 a 100, como xt-1 cuando t0 no es indexable. De manera similar para los procesos AR (p) de orden superior, t debe variar de p a 100 en este bucle. Podemos trazar la realización de este modelo y su correlogram asociado usando la función de disposición: Vamos a intentar ahora ajustar un proceso AR (p) a los datos simulados que acabamos de generar, para ver si podemos recuperar los parámetros subyacentes. Usted puede recordar que llevamos a cabo un procedimiento similar en el artículo sobre el ruido blanco y paseos aleatorios. Como resulta que R proporciona un comando útil ar para ajustar modelos autorregresivos. Podemos utilizar este método para decirnos primero la mejor orden p del modelo (según lo determinado por la AIC) y proporcionarnos estimaciones de parámetros para el alfai, que luego podemos usar para formar intervalos de confianza. Para completar, vamos a recrear la serie x: Ahora usamos el comando ar para ajustar un modelo autorregresivo a nuestro proceso de AR (1) simulado, usando la estimación de máxima verosimilitud (MLE) como procedimiento de ajuste. Primero extraeremos el orden mejor obtenido: El comando ar ha determinado con éxito que nuestro modelo de serie cronológica subyacente es un proceso AR (1). Podemos entonces obtener las estimaciones del parámetro (s) alfai (s): El procedimiento MLE ha producido una estimación, sombrero 0.523, que es ligeramente inferior al valor verdadero de alpha1 0.6. Finalmente, podemos usar el error estándar (con la varianza asintótica) para construir 95 intervalos de confianza alrededor del parámetro (s) subyacente (s). Para lograr esto, simplemente creamos un vector c (-1.96, 1.96) y luego lo multiplicamos por el error estándar: El parámetro verdadero cae dentro del intervalo de confianza de 95, como esperamos del hecho de haber generado la realización desde el modelo específicamente . ¿Qué tal si cambiamos el alpha1 -0.6 Como antes podemos ajustar un modelo AR (p) usando ar: Una vez más recuperamos el orden correcto del modelo, con una muy buena estimación hat -0.597 de alpha1-0.6. También vemos que el verdadero parámetro cae dentro del intervalo de confianza 95 una vez más. AR (2) Permite añadir algo más de complejidad a nuestros procesos autorregresivos mediante la simulación de un modelo de orden 2. En particular, estableceremos alpha10.666, pero también estableceremos alpha2 -0.333. Heres el código completo para simular y trazar la realización, así como el correlograma de dicha serie: Como antes podemos ver que el correlogram difiere significativamente de la del ruido blanco, como wed esperan. Hay picos estadísticamente significativos en k1, k3 y k4. Una vez más, iban a utilizar el comando ar para ajustar un modelo AR (p) a nuestra realización AR (2) subyacente. El procedimiento es similar al ajuste de AR (1): Se ha recuperado el orden correcto y las estimaciones de parámetro hat 0.696 y hat -0.395 no están muy lejos de los valores de parámetro verdadero de alfa10.666 y alfa2-0.333. Observe que recibimos un mensaje de advertencia de convergencia. Observe también que R utiliza realmente la función arima0 para calcular el modelo AR. Los modelos AR (p) son simplemente modelos ARIMA (p, 0, 0) y, por lo tanto, un modelo AR es un caso especial de ARIMA sin componente de Moving Average (MA). Bueno, también estar usando el comando arima para crear intervalos de confianza en torno a múltiples parámetros, por lo que hemos omitido hacerlo aquí. Ahora que hemos creado algunos datos simulados, es hora de aplicar los modelos AR (p) a la serie temporal de activos financieros. Datos Financieros Amazon Inc. Comencemos por obtener el precio de las acciones de Amazon (AMZN) utilizando el método de los cuantos como en el último artículo: La primera tarea es siempre trazar el precio de una breve inspección visual. En este caso, bien usando los precios de cierre diarios: Youll aviso de que quantmod añade algún formato para nosotros, a saber, la fecha, y una carta ligeramente más bonita que los gráficos habituales R: Ahora vamos a tomar los retornos logarítmicos de AMZN y luego el primer - order de la serie con el fin de convertir la serie de precios originales de una serie no estacionaria a una (potencialmente) estacionaria. Esto nos permite comparar las manzanas con las manzanas entre las acciones, los índices o cualquier otro activo, para su uso en estadísticas multivariantes posteriores, como al calcular una matriz de covarianza. Si desea una explicación detallada de por qué las devoluciones de registros son preferibles, eche un vistazo a este artículo en Quantivity. Permite crear una nueva serie, amznrt. Para sostener nuestra vuelta de registro diferenciada: Una vez más, podemos trazar la serie: En esta etapa queremos trazar el correlograma. Estaban buscando para ver si la serie diferenciada parece ruido blanco. Si no lo hace, entonces hay una correlación serial inexplicada, que podría ser explicada por un modelo autorregresivo. Observamos un pico estadísticamente significativo en k2. Por lo tanto existe una posibilidad razonable de correlación seriada inexplicada. Tenga en cuenta, sin embargo, que esto puede ser debido al sesgo de muestreo. Como tal, podemos intentar ajustar un modelo AR (p) a la serie y producir intervalos de confianza para los parámetros: El ajuste del modelo autorregresivo ar a la serie diferenciada de primer orden de los precios de los registros produce un modelo AR (2), con sombrero -0.0278 Y sombrero -0.0687. Ive también la salida de la varianza aystoptotic para que podamos calcular errores estándar para los parámetros y producir intervalos de confianza. Queremos ver si cero es parte del intervalo de confianza de 95, como si lo fuera, reduce nuestra confianza de que tenemos un verdadero proceso AR (2) subyacente para la serie AMZN. Para calcular los intervalos de confianza en el nivel 95 para cada parámetro, usamos los siguientes comandos. Tomamos la raíz cuadrada del primer elemento de la matriz de varianza asintótica para producir un error estándar, luego creamos intervalos de confianza multiplicándolo por -1.96 y 1.96 respectivamente, para el nivel 95: Tenga en cuenta que esto se vuelve más directo cuando se usa la función arima , Pero bien esperar hasta la Parte 2 antes de introducirla correctamente. Así podemos ver que para alpha1 cero está contenido dentro del intervalo de confianza, mientras que para alpha2 cero no está contenido en el intervalo de confianza. Por lo tanto, debemos tener mucho cuidado al pensar que realmente tenemos un modelo AR (2) generativo subyacente para AMZN. En particular, observamos que el modelo autorregresivo no tiene en cuenta el agrupamiento de volatilidad, lo que conduce a la agrupación de la correlación serial en series de tiempo financiero. Cuando consideramos los modelos ARCH y GARCH en artículos posteriores, vamos a explicar esto. Cuando lleguemos a utilizar la función arima completa en el siguiente artículo, haremos predicciones de la serie de precios de registro diario para poder crear señales comerciales. SampP500 US Equity Index Junto con acciones individuales también podemos considerar el índice de renta variable estadounidense, el SampP500. Vamos a aplicar todos los comandos anteriores a esta serie y producir las parcelas como antes: Podemos trazar los precios: Como antes, así crear la diferencia de primer orden de los precios de cierre de log: Una vez más, podemos trazar la serie: Es claro De este gráfico que la volatilidad no es estacionaria en el tiempo. Esto también se refleja en la trama del correlograma. Hay muchos picos, incluyendo k1 y k2, que son estadísticamente significativos más allá de un modelo de ruido blanco. Además, vemos pruebas de procesos de memoria larga, ya que hay algunos picos estadísticamente significativos en k16, k18 y k21: En última instancia, necesitaremos un modelo más sofisticado que un modelo autorregresivo de orden p. Sin embargo, en esta etapa todavía podemos intentar encajar tal modelo. Vamos a ver lo que tenemos si lo hacemos: El uso de ar produce un modelo AR (22), es decir, un modelo con 22 parámetros distintos de cero ¿Qué nos dice esto Es indicativo de que hay probablemente más complejidad en la correlación serial de Un modelo lineal simple de precios pasados ​​puede realmente explicar. Sin embargo, ya lo sabíamos porque podemos ver que hay una correlación serial significativa en la volatilidad. Por ejemplo, considere el período altamente volátil alrededor de 2008. Esto motiva el siguiente conjunto de modelos, a saber, el promedio móvil (q) y el promedio móvil móvil ARMA (p, q). Bien aprender sobre ambos de estos en la Parte 2 de este artículo. Como lo mencionamos repetidamente, estos últimos nos llevarán a la familia de modelos ARIMA y GARCH, los cuales proveerán un ajuste mucho mejor a la complejidad de correlación serial del Samp500. Esto nos permitirá mejorar significativamente nuestros pronósticos y finalmente producir estrategias más rentables. Haga clic abajo para aprender más sobre. La información contenida en este sitio web es la opinión de los autores individuales sobre la base de su observación personal, investigación y años de experiencia. El editor y sus autores no son asesores de inversiones, abogados, CPA u otros profesionales de servicios financieros registrados y no prestan asesoría legal, fiscal, contable, de inversión u otros servicios profesionales. La información ofrecida por este sitio web es sólo educación general. Debido a que cada situación de hecho individual es diferente, el lector debe buscar a su propio asesor personal. Ni el autor ni el editor asumen responsabilidad alguna por errores u omisiones y no tendrán responsabilidad ni responsabilidad con ninguna persona o entidad con respecto a los daños causados ​​o presuntamente causados ​​directa o indirectamente por la información contenida en este sitio. Úselo bajo su propio riesgo. Además, este sitio web puede recibir compensación financiera de las empresas mencionadas a través de publicidad, programas de afiliados o de otra manera. Las tarifas y ofertas de los anunciantes que se muestran en este sitio web cambian con frecuencia, a veces sin previo aviso. Mientras nos esforzamos por mantener información oportuna y precisa, los detalles de la oferta pueden estar desactualizados. Los visitantes deben verificar los términos de tales ofertas antes de participar en ellas. El autor y su editor se niegan a la responsabilidad de actualizar la información y renunciar a la responsabilidad de los contenidos, productos y servicios de terceros, incluyendo cuando se accede a través de hipervínculos y / o anuncios en este sitio. Puede ser modelado sobre la base de las correlaciones en serie en el mismo. Una serie temporal no estacionaria puede ser transformada en una serie temporal estacionaria, modelada y transformada de nuevo a la escala original (por ejemplo, con fines de previsión) Esta parte tiene que ver con la transformación Estas partes se pueden modelar en una serie estacionaria AR-modelos (Para series temporales estacionarias) Considere el modelo Yt Yt 1 et con iid con media cero y varianza constante 2 (ruido blanco) y donde (delta) y (phi) son parámetros (desconocidos) Proceso autorregresivo de orden 1: AR (1) Set 0 por simplicidad E (Yt) 0 k Cov (Yt-k) Cov (Yt Ytk) E (Yt Ytk) E (Yt Ytk) ) E (Yt-1Yt) E (et Yt) 1 E (yt-1 et) 1 E (et Yt-1) E (et et) 1 0 2 (para etis independiente de Yt-1) 1 E (Yt-1Yt) E (Yt-1) E (Yt-1et) E (Yt-1et) 0 0 (para etis independiente de Yt-1) E (Yt-2) Y (Yt-2et) 1 (para etis independiente de Yt-2)

No comments:

Post a Comment