Tuesday, November 15, 2016

Identificación De Parámetros De Media Móvil Autorregresivos De Series Temporales

Identificación de parámetros de media móvil autorregresivos de las series temporales 71, 72, 76. Los primeros trabajos sobre la estimación de parámetros también incluyeron filtros de autoajuste, 80, 81, 87, 88, 90, 95. Ninguna de estas contribuciones se destaca, Agregado, suman mucho. Quinto Artículo Ene 2014 Brian DO Anderson quotSeleccionar el orden correcto del modelo ARMA es difícil y nunca se ha resuelto satisfactoriamente 1. Estimación del orden del modelo ARMA es un problema importante debido a su amplia gama de aplicaciones, tales como la comunicación, procesamiento de señales, control Sistemas, ingeniería biomédica, procesamiento de imágenes, compresión, modelado del habla, estimación de espectro, radar, sonar y muchas otras áreas 2 3 4 5. quot Un problema importante. Este artículo presenta un nuevo algoritmo para la estimación de un ARMA y autorregresivo con entradas de modelo de entrada exógena (ARX) basado en un enfoque de redondeo que utiliza las funciones de piso y techo. El enfoque de redondeo se implementa para tratar la precisión de las palabras binarias. El algoritmo propuesto se basa en la selección de una secuencia de células pivote de una matriz MEV que se basa en el valor propio mínimo de una matriz de covarianza calculada a partir de los datos observados. Busca la esquina que contiene las estimaciones de los pedidos reales usando las funciones de piso y techo de los valores de celda de pivote y los valores de sus vecinos. El algoritmo propuesto es una expansión del algoritmo propuesto por Liang et al. (IEEE Transaction on Signal Processing, 1993, 41 (10): 3003 - 3009). Las patentes recientes y los avances en la investigación apuntan a aplicar la descomposición de los valores propios en la estimación y predicción. Entre las patentes discutidas se encuentra un método que describe la estimación de la incertidumbre de una máquina de medida en la que la matriz de covarianza está sometida a la descomposición del valor propio. Full-text Artículo Feb 2010 Khaled E. Al-Qawasmi Adnan M. Al-Smadi Alaa Al-Hamami El diagrama de bloqueo del estimador de parámetros del modelo ARMA propuesto se ilustra en la Fig. 1. Fundamentalmente, diferente de los métodos en 1239, el método sugerido para la estimación de los parámetros de un modelo ARMA definido como en (1) utiliza el enfoque de equivalencia entre un modelo de orden infinito MA y un modelo de orden finito ARMA. Para físicamente realizable, se emplea un modelo de MA de orden suficientemente alto y aquí se le llama como modelo equivalente MA (EMA). RESUMEN: El trabajo investiga la relación entre los parámetros de un modelo de media móvil autorregresiva (ARMA) y su modelo de media móvil equivalente (EMA). Sobre la base de esta relación, se propone un nuevo método para determinar los parámetros del modelo ARMA a partir de los coeficientes de un modelo EMA de orden finito. Este método es una aproximación de tres pasos: en el primer paso, se deduce una recursión simple que relaciona los parámetros del modelo EMA y los coeficientes cepstrales de un proceso ARMA para estimar los parámetros del modelo EMA en el segundo paso, los parámetros AR se calculan resolviendo El conjunto de ecuaciones lineales formado por parámetros EMA, los parámetros MA se obtienen mediante cálculos simples utilizando los parámetros EMA y AR estimados. Se dan simulaciones que incluyen procesos de ARMA de bajo y alto orden para demostrar el rendimiento del nuevo método. Los resultados finales se comparan con el método existente en la literatura sobre algunos criterios de rendimiento. Se observa a partir de las simulaciones que nuestro nuevo algoritmo produce los resultados satisfactorios y aceptables. Resumen El proceso PARRA periódico de movimiento medio autorregresivo extiende el proceso autorregresivo clásico, Moviendo el proceso ARMA medio permitiendo que los parámetros varíen con las estaciones. La identificación del modelo es la identificación de un posible modelo basado en una realización disponible, es decir, determinando el tipo del modelo con órdenes apropiadas. La Función de Autocorrelación Periódica (PeACF) y la Función de Autocorrelación Parcial Periódica (PePACF) sirven como indicadores útiles de la correlación o de la dependencia entre los valores de la serie para que desempeñen un papel importante en la identificación del modelo. La identificación se basa en la propiedad de corte de la Función de Autocorrelación Periódica (PeACF). Se obtiene una expresión explícita de la varianza asintótica de la muestra PeACF que se utilizará en el establecimiento de sus bandas. Por lo tanto, vamos a entrar en este estudio una nueva estructura de la función de autocorrelación periódica que depende directamente de la varianza que se derivará a ser utilizado en el establecimiento de sus bandas para el proceso PMA sobre la región de corte y hemos estudiado el lado teórico y Aplicaremos algunos ejemplos simulados con R que concuerda bien con los resultados teóricos. Copyright copy 2014 Hazem I. El Shej Ahmed, Raid B. Salha y Diab I. AL-Awar. Este es un artículo de acceso abierto distribuido bajo los términos de la licencia Creative Commons Attribution License. Que permite el uso, la distribución y la reproducción sin restricciones en cualquier medio, siempre que se acredite el autor original y la fuente. Propósito: Comprobar las gráficas de autocorrelación de Randomness (Box y Jenkins, pp. 28-32) son una herramienta comúnmente usada para verificar la aleatoriedad en un Conjunto de datos. Esta aleatoriedad se determina mediante el cálculo de autocorrelaciones para los valores de datos en diferentes intervalos de tiempo. Si son aleatorias, tales autocorrelaciones deben estar cerca de cero para todas las separaciones de tiempo-retraso. Si no es aleatorio, entonces una o más de las autocorrelaciones serán significativamente no-cero. Además, las parcelas de autocorrelación se utilizan en la fase de identificación del modelo para los modelos autorregresivos y móviles de serie temporal de Box-Jenkins. La autocorrelación es solo una medida de aleatoriedad Tenga en cuenta que no correlacionado no significa necesariamente aleatorio. Los datos que tienen una autocorrelación significativa no son aleatorios. Sin embargo, los datos que no muestran una autocorrelación significativa todavía pueden mostrar no aleatoriedad de otras maneras. La autocorrelación es sólo una medida de aleatoriedad. En el contexto de la validación del modelo (que es el tipo primario de aleatoriedad que describimos en el Manual), la comprobación de la autocorrelación es típicamente una prueba suficiente de aleatoriedad, ya que los residuos de un modelo de ajuste inadecuado tienden a mostrar aleatoriedad no sutil. Sin embargo, algunas aplicaciones requieren una determinación más rigurosa de la aleatoriedad. En estos casos, una batería de pruebas, que pueden incluir la comprobación de la autocorrelación, se aplican ya que los datos pueden ser no aleatorios de muchas maneras diferentes ya menudo sutiles. Un ejemplo de dónde se necesita un control más riguroso de la aleatoriedad sería probar generadores de números aleatorios. Trazado de muestra: Las autocorrelaciones deben ser cercanas a cero para aleatoriedad. Este no es el caso en este ejemplo y por lo tanto la suposición de aleatoriedad falla. Este gráfico de autocorrelación muestra muestra que la serie temporal no es aleatoria, sino que tiene un alto grado de autocorrelación entre observaciones adyacentes y casi adyacentes. Coeficiente de autocorrelación donde C h es la función de autocovariancia y C 0 es la función de varianza. Obsérvese que R h está entre -1 y 1. Tenga en cuenta que algunas fuentes pueden usar la función Fórmula siguiente para la función de autocovariancia Aunque esta definición tiene menos sesgo, la formulación (1 / N) tiene algunas propiedades estadísticas deseables y es la forma más comúnmente utilizada en la bibliografía estadística. Vea las páginas 20 y 49-50 en Chatfield para más detalles. Eje horizontal: Retardo de tiempo h (h 1, 2, 3.) La línea anterior también contiene varias líneas de referencia horizontales. La línea media está en cero. Las otras cuatro líneas son 95 y 99 bandas de confianza. Observe que hay dos fórmulas distintas para generar las bandas de confianza. Si se utiliza el gráfico de autocorrelación para probar la aleatoriedad (es decir, no hay dependencia temporal en los datos), se recomienda la siguiente fórmula: donde N es el tamaño de la muestra, z es la función de distribución acumulativa de la distribución normal estándar y (alfa ) Es el nivel de significación. En este caso, las bandas de confianza tienen un ancho fijo que depende del tamaño de la muestra. Esta es la fórmula que se utilizó para generar las bandas de confianza en la gráfica anterior. Las gráficas de autocorrelación también se usan en la etapa de identificación del modelo para la adaptación de modelos ARIMA. En este caso, se supone un modelo de media móvil para los datos y se deben generar las siguientes bandas de confianza: donde k es el retraso, N es el tamaño de la muestra, z es la función de distribución acumulativa de la distribución normal estándar y (alfa) es El nivel de significación. En este caso, las bandas de confianza aumentan a medida que aumenta el desfase. La gráfica de autocorrelación puede proporcionar respuestas a las siguientes preguntas: Los datos son aleatorios? Es una observación relacionada con una observación adyacente? Es una observación relacionada con una observación extraída dos veces? Es la serie de tiempo observada el ruido blanco? La serie temporal observada es sinusoidal Es el modelo válido y suficiente? Es la fórmula ss / sqrt válida Importancia: Garantizar la validez de las conclusiones de la ingeniería Aleatoriedad (junto con el modelo fijo, la variación fija y la distribución fija) Es uno de los cuatro supuestos que típicamente subyacen a todos los procesos de medición. El supuesto de aleatoriedad es de importancia crítica por las tres razones siguientes: La mayoría de las pruebas estadísticas estándar dependen de la aleatoriedad. La validez de las conclusiones de la prueba está directamente relacionada con la validez del supuesto de aleatoriedad. Muchas de las fórmulas estadísticas utilizadas comúnmente dependen de la suposición de aleatoriedad, siendo la fórmula más común la fórmula para determinar la desviación estándar de la media de la muestra: donde s es la desviación estándar de los datos. Aunque muy utilizados, los resultados del uso de esta fórmula no tienen ningún valor a menos que la hipótesis de aleatoriedad se mantenga. Para datos univariados, el modelo predeterminado es Si los datos no son aleatorios, este modelo es incorrecto y no válido, y las estimaciones de los parámetros (como la constante) se vuelven sin sentido e inválidas. En resumen, si el analista no comprueba la aleatoriedad, entonces la validez de muchas de las conclusiones estadísticas se vuelve sospechosa. La gráfica de autocorrelación es una excelente manera de comprobar tal aleatoriedad. Un RIMA significa modelos de media móvil integrada autoregresiva. Univariante (vector único) ARIMA es una técnica de previsión que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su aplicación principal es en el área de pronósticos a corto plazo que requieren al menos 40 puntos de datos históricos. Funciona mejor cuando los datos muestran un patrón estable o consistente en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de los autores originales), ARIMA suele ser superior a las técnicas de suavización exponencial cuando los datos son razonablemente largos y la correlación entre las observaciones pasadas es estable. Si los datos son cortos o muy volátiles, entonces algún método de suavizado puede funcionar mejor. Si usted no tiene por lo menos 38 puntos de datos, debe considerar algún otro método que ARIMA. El primer paso para aplicar la metodología ARIMA es verificar la estacionariedad. La estacionariedad implica que la serie permanece a un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, sus datos NO son estacionarios. Los datos también deben mostrar una variación constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y que crece a un ritmo más rápido. En tal caso, los altibajos en la estacionalidad se harán más dramáticos con el tiempo. Si no se cumplen estas condiciones de estacionariedad, no se pueden calcular muchos de los cálculos asociados con el proceso. Si un gráfico gráfico de los datos indica nonstationarity, entonces usted debe diferenciar la serie. La diferenciación es una excelente forma de transformar una serie no estacionaria en una serie estacionaria. Esto se hace restando la observación en el período actual a la anterior. Si esta transformación se realiza sólo una vez en una serie, se dice que los datos se han diferenciado primero. Este proceso esencialmente elimina la tendencia si su serie está creciendo a una tasa bastante constante. Si está creciendo a un ritmo creciente, puede aplicar el mismo procedimiento y diferenciar los datos de nuevo. Sus datos entonces serían segundos diferenciados. Las autocorrelaciones son valores numéricos que indican cómo una serie de datos se relaciona a sí misma con el tiempo. Más precisamente, mide cuán fuertemente están correlacionados los valores de datos en un número específico de períodos separados entre sí a lo largo del tiempo. El número de períodos separados se llama generalmente el retraso. Por ejemplo, una autocorrelación en el retardo 1 mide cómo los valores 1 período aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso 2 mide cómo los datos dos períodos aparte están correlacionados a lo largo de la serie. Las autocorrelaciones pueden variar de 1 a -1. Un valor próximo a 1 indica una alta correlación positiva, mientras que un valor cercano a -1 implica una correlación negativa alta. Estas medidas se evalúan con mayor frecuencia a través de tramas gráficas llamadas correlagramas. Un correlagrama traza los valores de autocorrelación para una serie dada con diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. La metodología ARIMA intenta describir los movimientos en una serie temporal estacionaria como una función de lo que se llaman parámetros de media móvil y autorregresiva. Estos parámetros se denominan parámetros AR (autoregessivos) y MA (medias móviles). Un modelo de AR con un solo parámetro se puede escribir como. X (t) A (1) X (t-1) E (t) donde X (t) serie temporal bajo investigación A (1) el parámetro autorregresivo de orden 1 X (t-1) (T) el término de error del modelo Esto simplemente significa que cualquier valor dado X (t) puede explicarse por alguna función de su valor anterior, X (t-1), más algún error aleatorio inexplicable, E (t). Si el valor estimado de A (1) fue de 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionada con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), más algún error aleatorio E (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Modelos de media móvil: Un segundo tipo de modelo de Box-Jenkins se denomina modelo de media móvil. Aunque estos modelos parecen muy similares al modelo de AR, el concepto detrás de ellos es muy diferente. Los parámetros de la media móvil relacionan lo que sucede en el período t sólo con los errores aleatorios que ocurrieron en períodos de tiempo pasados, es decir, E (t-1), E (t-2), etc., en lugar de X (t-1), X T-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA puede escribirse como sigue. El término B (1) se denomina un MA de orden 1. El signo negativo delante del parámetro se utiliza para la convención solamente y se imprime generalmente La mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente al error aleatorio en el período anterior, E (t-1), y al término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil pueden extenderse a estructuras de orden superior que abarcan diferentes combinaciones y longitudes móviles. La metodología ARIMA también permite la construcción de modelos que incorporen parámetros tanto de autorregresión como de media móvil. Estos modelos se refieren a menudo como modelos mixtos. Aunque esto hace que sea una herramienta de pronóstico más complicada, la estructura puede simular mejor la serie y producir un pronóstico más preciso. Los modelos puros implican que la estructura consiste solamente en los parámetros AR o MA - no ambos. Los modelos desarrollados por este enfoque usualmente se llaman modelos ARIMA porque usan una combinación de autoregresión (AR), integración (I), que se refiere al proceso inverso de diferenciación para producir las operaciones de predicción y de media móvil (MA). Un modelo de ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (p), el número de operadores de diferenciación (d) y el orden más alto del término medio móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo autorregresivo de segundo orden con un componente de media móvil de primer orden cuya serie se ha diferenciado una vez para inducir la estacionariedad. Elegir la especificación correcta: El principal problema en el clásico Box-Jenkins es tratar de decidir qué especificación ARIMA utilizar-i. e. Cuántos AR y / o MA parámetros para incluir. Esto es lo que gran parte de Box-Jenkings 1976 se dedicó al proceso de identificación. Dependía de la eva - luación gráfica y numérica de las funciones de autocorrelación de la muestra y de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en complejidad, los patrones no son tan fácilmente detectados. Para hacer las cosas más difíciles, sus datos representan sólo una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, errores de medición, etc.) pueden distorsionar el proceso teórico de identificación. Por eso el modelado ARIMA tradicional es un arte más que una ciencia. La documentación es la media incondicional del proceso, y x03C8 (L) es un polinomio racional de operador de retardo de infinito grado, (1 x03C8 1 L x03C8 2 L 2 x 2026) . Nota: La propiedad Constante de un objeto modelo arima corresponde a c. Y no la media incondicional 956. Por la descomposición de Wolds 1. La ecuación 5-12 corresponde a un proceso estocástico estacionario siempre que los coeficientes x03C8 i sean absolutamente sumables. Este es el caso cuando el polinomio AR, x03D5 (L). es estable . Lo que significa que todas sus raíces están fuera del círculo unitario. Adicionalmente, el proceso es causal siempre que el polinomio MA sea invertible. Lo que significa que todas sus raíces están fuera del círculo unitario. Econometrics Toolbox refuerza la estabilidad y la invertibilidad de los procesos ARMA. Cuando se especifica un modelo ARMA utilizando arima. Se obtiene un error si se introducen coeficientes que no corresponden a un polinomio AR estable oa un polinomio MA inversible. De forma similar, la estimación impone restricciones de estacionariedad e invertibilidad durante la estimación. Referencias 1 Wold, H. Un estudio en el análisis de series de tiempo estacionarias. Uppsala, Suecia: Almqvist amp Wiksell, 1938. Seleccione su país


No comments:

Post a Comment