Tuesday 31 October 2017

Autoregressive Moving Average Definition


Média Móvel Integrada Autoregressiva - ARIMA DEFINIÇÃO de Média Móvel Integrada Autoregressiva - ARIMA Modelo de análise estatística que utiliza dados de séries temporais para prever tendências futuras. É uma forma de análise de regressão que procura predizer movimentos futuros ao longo da caminhada aparentemente aleatória feita pelas ações e pelo mercado financeiro examinando as diferenças entre os valores da série em vez de usar os valores dos dados reais. Lags das séries diferenciadas são referidos como auto-regressivos e os atrasos dentro dos dados previstos são referidos como média móvel. BREAKING DOWN Média Movente Integrada Autoregressiva - ARIMA Este tipo de modelo é geralmente referido como ARIMA (p, d, q), com os inteiros referindo-se ao autorregressivo. Integradas e móveis do conjunto de dados, respectivamente. ARIMA modelagem pode levar em conta tendências, sazonalidade. Ciclos, erros e aspectos não-estacionários de um conjunto de dados ao fazer projeções. Média Móvel Médio Progressivo ARMA (p, q) Modelos para Análise de Série de Tempo - Parte 3 Este é o terceiro e último post da mini-série sobre Média Móvel Autoregressiva ARMA) para análise de séries temporais. Weve introduziu modelos autorregressivos e modelos de média móvel nos dois artigos anteriores. Agora é hora de combiná-los para produzir um modelo mais sofisticado. Em última análise, isso nos levará aos modelos ARIMA e GARCH que nos permitirão prever os retornos dos ativos e prever a volatilidade. Estes modelos constituirão a base para a negociação de sinais e técnicas de gestão de risco. Se você leu Parte 1 e Parte 2 você terá visto que tendemos a seguir um padrão para a nossa análise de um modelo de série de tempo. Ill repeti-lo brevemente aqui: Racional - Por que estamos interessados ​​neste modelo específico Definição - Uma definição matemática para reduzir a ambigüidade. Correlograma - Traçar um correlograma de amostra para visualizar o comportamento de um modelo. Simulação e Montagem - Ajustar o modelo a simulações, a fim de assegurar que o weve compreendeu o modelo corretamente. Dados financeiros reais - Aplicar o modelo aos preços dos ativos reais reais. Previsão - Previsão de valores subseqüentes para construir sinais de negociação ou filtros. Para seguir este artigo é aconselhável dar uma olhada nos artigos anteriores sobre a análise de séries temporais. Todos podem ser encontrados aqui. Critério Bayesiano de Informações Na Parte 1 deste artigo, analisámos o Critério de Informação Akaike (AIC) como um meio de nos ajudar a escolher entre os melhores modelos de séries temporais. Uma ferramenta estreitamente relacionada é o critério Bayesiano de Informação (BIC). Essencialmente, tem comportamento semelhante ao AIC, pois penaliza os modelos por terem muitos parâmetros. Isto pode conduzir a overfitting. A diferença entre o BIC eo AIC é que o BIC é mais rigoroso com a penalização de parâmetros adicionais. Critério Bayesiano de Informações Se tomarmos a função de verossimilhança para um modelo estatístico, que tenha k parâmetros, e L maximize a probabilidade. Então o critério Bayesiano de Informação é dado por: Onde n é o número de pontos de dados na série temporal. Usaremos o AIC eo BIC abaixo ao escolher modelos ARMA (p, q) apropriados. Ljung-Box Test Na Parte 1 deste artigo, Rajan mencionou nos comentários de Disqus que o teste de Ljung-Box era mais apropriado do que usar o Critério de Informação Akaike do Critério de Informação Bayesiano para decidir se um modelo ARMA era um bom ajuste para um tempo Series. O teste de Ljung-Box é um teste de hipóteses clássico que é projetado para testar se um conjunto de autocorrelações de um modelo de séries de tempo ajustado diferem significativamente de zero. O teste não testar cada atraso individual para aleatoriedade, mas sim testa a aleatoriedade sobre um grupo de defasagens. Teste de Ljung-Box Definimos a hipótese nula como: Os dados da série de tempo em cada lag são i. i.d .. isto é, as correlações entre os valores da série de população são zero. Definimos a hipótese alternativa como: Os dados da série de tempo não são i. i.d. E possuem correlação serial. Calculamos a seguinte estatística de teste. Q: Onde n é o comprimento da amostra de séries temporais, hat k é a autocorrelação da amostra com atraso k eh é o número de atrasos no teste. A regra de decisão sobre se rejeitar a hipótese nula é verificar se Q gt chi2, para uma distribuição qui-quadrado com h graus de liberdade no percentil 100 (1-alfa). Embora os detalhes do teste possam parecer um pouco complexos, podemos de fato usar R para calcular o teste para nós, simplificando o procedimento um pouco. Agora que discutimos o BIC e o teste de Ljung-Box, estávamos prontos para discutir o nosso primeiro modelo misto, ou seja, a Média Móvel Autoresgressiva de ordem p, q, ou ARMA (p, Q). Até o momento, consideramos processos autorregressivos e processos de média móvel. O modelo anterior considera seu próprio comportamento passado como insumos para o modelo e, como tal, tenta capturar efeitos de participantes no mercado, como momentum e reversão média na negociação de ações. O último modelo é usado para caracterizar informações de choque em uma série, como um anúncio de ganhos surpresa ou evento inesperado (como o derramamento de óleo BP Deepwater Horizon). Assim, um modelo ARMA tenta capturar ambos os aspectos ao modelar séries de tempo financeiro. Note-se que um modelo ARMA não leva em conta a volatilidade clustering, um fenômeno empírico chave de muitas séries financeiras. Não é um modelo condicionalmente heterocedástico. Para isso teremos de esperar pelos modelos ARCH e GARCH. Definição O modelo ARMA (p, q) é uma combinação linear de dois modelos lineares e, portanto, é ainda linear: Modelo de ordem temporal p, q Um modelo de série temporal, é um modelo de média móvel autorregressiva de ordem p, q . Onde está o ruído branco com E (wt) 0 e variância sigma2. Onde está o ruído branco com E (wt) 0 e variância sigma2. Se considerarmos o Backward Shift Operator. (Veja um artigo anterior), então podemos reescrever o acima como uma função theta e phi de: Podemos ver diretamente que, ao definir p neq 0 e q0, recuperamos o modelo AR (p). Da mesma forma, se definimos p 0 e q neq 0, recuperamos o modelo MA (q). Uma das principais características do modelo ARMA é que ele é parcimonioso e redundante em seus parâmetros. Ou seja, um modelo ARMA, muitas vezes, exigem menos parâmetros do que um modelo AR (p) ou MA (q) sozinho. Além disso, se reescrevemos a equação em termos do BSO, então os polinômios theta e phi podem às vezes compartilhar um fator comum, levando assim a um modelo mais simples. Simulações e Correlogramas Como com os modelos de média autorregressiva e móvel, vamos agora simular várias séries ARMA e, em seguida, tentar ajustar modelos ARMA a estas realizações. Nós realizamos isso porque queremos garantir que entendemos o procedimento de montagem, incluindo como calcular os intervalos de confiança para os modelos, bem como garantir que o procedimento realmente recuperar estimativas razoáveis ​​para os parâmetros ARMA original. Na Parte 1 e Parte 2 construímos manualmente as séries AR e MA tirando N amostras de uma distribuição normal e, em seguida, criando o modelo de série temporal específico usando atrasos dessas amostras. No entanto, há uma maneira mais simples de simular AR, MA, ARMA e ARIMA dados, simplesmente usando o método arima. sim em R. Vamos começar com o mais simples possível não trivial ARMA modelo, ou seja, o ARMA (1,1 ) modelo. Ou seja, um modelo autorregressivo de ordem um combinado com um modelo de média móvel de ordem um. Tal modelo tem apenas dois coeficientes, alfa e beta, que representam os primeiros desfasamentos da série de tempo em si e os termos de ruído de choque branco. Esse modelo é dado por: Precisamos especificar os coeficientes antes da simulação. Vamos tomar alpha 0,5 e beta -0,5: A saída é a seguinte: Vamos também traçar o correlograma: Podemos ver que não há autocorrelação significativa, o que é de esperar de um modelo ARMA (1,1). Finalmente, vamos tentar determinar os coeficientes e seus erros padrão usando a função arima: Podemos calcular os intervalos de confiança para cada parâmetro usando os erros padrão: Os intervalos de confiança contêm os valores dos parâmetros verdadeiros para ambos os casos, no entanto, 95 intervalos de confiança são muito amplos (uma consequência dos erros padrão razoavelmente grandes). Vamos agora tentar um modelo ARMA (2,2). Ou seja, um modelo AR (2) combinado com um modelo MA (2). Precisamos especificar quatro parâmetros para este modelo: alfa1, alfa2, beta1 e beta2. Vamos pegar alpha1 0.5, alpha2-0.25 beta10.5 e beta2-0.3: A saída do nosso modelo ARMA (2,2) é a seguinte: E a autocorelação correspondente: Podemos agora tentar montar um modelo ARMA (2,2) para Os dados: Também podemos calcular os intervalos de confiança para cada parâmetro: Observe que os intervalos de confiança para os coeficientes para a componente média móvel (beta1 e beta2) não contêm realmente o valor do parâmetro original. Contudo, para fins comerciais, precisamos apenas de um poder preditivo que exceda o acaso e produza lucros suficientes acima dos custos de transação, a fim de ser rentável em termos de custos. A longo prazo. Agora que temos visto alguns exemplos de modelos ARMA simulados, precisamos de um mecanismo para escolher os valores de p e q quando se encaixam nos modelos a dados financeiros reais. Escolhendo o melhor modelo ARMA (p, q) Para determinar qual ordem p, q do modelo ARMA é apropriada para uma série, precisamos usar o AIC (ou BIC) em um subconjunto de valores para p, q, e Em seguida, aplicar o teste Ljung-Box para determinar se um bom ajuste foi alcançado, para valores específicos de p, q. Para mostrar este método, vamos primeiro simular um determinado processo ARMA (p, q). Em seguida, faremos um loop sobre todos os valores pairwise de p in e q in e calculamos o AIC. Vamos selecionar o modelo com o menor AIC e, em seguida, executar um teste de Ljung-Box sobre os resíduos para determinar se conseguimos um bom ajuste. Vamos começar simulando uma série ARMA (3,2): Agora vamos criar um objeto final para armazenar o melhor ajuste do modelo eo menor valor AIC. Percorremos as várias combinações p, q e usamos o objeto atual para armazenar o ajuste de um modelo ARMA (i, j), para as variáveis ​​looping i e j. Se o AIC atual for menor que qualquer AIC previamente calculado, definiremos o AIC final para este valor atual e selecionaremos essa ordem. Após a terminação do loop, temos a ordem do modelo ARMA armazenado em final. order e o ARIMA (p, d, q) se encaixa (com o componente d integrado definido como 0) armazenado como final. arma: Permite a saída do AIC , Ordem e coeficientes ARIMA: Podemos ver que a ordem original do modelo ARMA simulado foi recuperada, nomeadamente com p3 e q2. Podemos plotar o corelograma dos resíduos do modelo para ver se eles parecem uma realização de ruído branco discreto (DWN): O corelograma realmente parece uma realização de DWN. Finalmente, realizamos o teste de Ljung-Box para 20 lags para confirmar isso: Observe que o valor p é maior que 0,05, o que indica que os resíduos são independentes no nível 95 e, portanto, um modelo ARMA (3,2) Bom ajuste do modelo. No entanto, este é precisamente o procedimento que vamos usar quando chegarmos a ajustar modelos ARMA (p, q) para o índice SampP500 na seção a seguir. Dados Financeiros Agora que descrevemos o procedimento para escolher o modelo de série temporal ideal para uma série simulada, é bastante simples aplicá-lo aos dados financeiros. Para este exemplo, vamos escolher mais uma vez o SampP500 US Equity Index. Permite fazer o download dos preços de fechamento diários usando o quantmod e, em seguida, criar o fluxo de retorno do log: Permite executar o mesmo procedimento de ajuste que para a série ARMA (3,2) simulada acima no log retorna série do SampP500 usando o AIC: Tem a ordem ARMA (3,3): Permite traçar os resíduos do modelo ajustado para o fluxo de retorno diário do SampP500: Observe que há alguns picos significativos, especialmente em defasagens maiores. Isto é indicativo de um ajuste pobre. Vamos realizar um teste de Ljung-Box para ver se temos evidências estatísticas para isso: Como nós suspeitamos, o valor p é menor que 0,05 e, como tal, não podemos dizer que os resíduos são uma realização de ruído branco discreto. Portanto, há autocorrelação adicional nos resíduos que não é explicada pelo modelo ARMA (3,3). Próximas etapas Como discutimos ao longo desta série de artigos, vimos evidências de heterocedasticidade condicional (agrupamento de volatilidade) na série SampP500, especialmente nos períodos em torno de 2007-2008. Quando usamos um modelo GARCH mais tarde na série de artigos, veremos como eliminar essas autocorrelações. Na prática, os modelos ARMA nunca são geralmente bons ajustes para retorno de ações log. Precisamos levar em conta a heterocedasticidade condicional e usar uma combinação de ARIMA e GARCH. O próximo artigo irá considerar ARIMA e mostrar como o componente integrado difere do modelo ARMA que temos considerado neste artigo. Apenas começando com a média quantitativa de movimentaçãoMáquina média agressiva ARMA (p, q) Modelos para análise de séries temporais - Parte 2 Na Parte 1 consideramos o modelo autorregressivo de ordem p, também conhecido como modelo AR (p). Nós o introduzimos como uma extensão do modelo de caminhada aleatória, numa tentativa de explicar a correlação serial adicional em séries de tempo financeiras. Em última análise, percebemos que não era suficientemente flexível para capturar verdadeiramente toda a autocorrelação nos preços de fechamento da Amazon Inc. (AMZN) e do SampP500 US Equity Index. A principal razão para isso é que ambos os ativos são condicionalmente heteroskedastic. O que significa que eles não são estacionários e têm períodos de variação variável ou agrupamento de volatilidade, o que não é levado em conta pelo modelo AR (p). Em futuros artigos, acabaremos por construir os modelos ARREM (Intelligent Moving Average), bem como os modelos condicionalmente heteroscedásticos das famílias ARCH e GARCH. Esses modelos nos fornecerão nossas primeiras tentativas realistas de prever os preços dos ativos. Neste artigo, no entanto, vamos introduzir a média móvel de ordem q modelo, conhecido como MA (q). Este é um componente do modelo ARMA mais geral e, como tal, precisamos compreendê-lo antes de avançar. Eu recomendo que você leia os artigos anteriores na coleção Análise de Série de Tempo se você não tiver feito isso. Todos podem ser encontrados aqui. Modelos de Ordem Mínima (MA) de ordem q Um modelo de Média Móvel é semelhante a um modelo Autoregressivo, exceto que em vez de ser uma combinação linear de valores de séries temporais passadas, é uma combinação linear dos termos de ruído branco passado. Intuitivamente, isso significa que o modelo MA vê tais choques de ruído branco aleatório diretamente em cada valor atual do modelo. Isto está em contraste com um modelo AR (p), onde os choques de ruído branco são vistos apenas indiretamente. Via regressão em termos anteriores da série. A principal diferença é que o modelo MA só verá os últimos q choques para qualquer modelo MA (q) particular, enquanto que o modelo AR (p) terá todos os choques anteriores em conta, embora de uma forma decrescentemente fraca. Definição Matematicamente, o MA (q) é um modelo de regressão linear e é estruturado de forma semelhante a AR (p): Modelo de Ordem Mínima de ordem q Um modelo de série temporal, é um modelo de média móvel de ordem q. MA (q), se: begin xt wt beta1 w ldots betaq w final Onde está o ruído branco com E (wt) 0 e variância sigma2. Se considerarmos o Backward Shift Operator. (Veja um artigo anterior), então podemos reescrever o acima como uma função phi de: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Nós faremos uso da função phi em artigos posteriores. Propriedades de Segunda Ordem Como com AR (p) a média de um processo MA (q) é zero. Isso é fácil de ver como a média é simplesmente uma soma de meios de termos de ruído branco, que são todos eles mesmos zero. Começar texto enspace mux E (xt) sum E (wi) 0 fim começar texto enspace sigma2w (1 beta21 ldots beta2q) texto final enspace rhok esquerda 1 texto enspace k 0 sum betai beta sumq texto beta2i enspace k 1, ldots, q 0 text Enspace k gt q fim direito. Onde beta0 1. Agora vamos gerar alguns dados simulados e usá-lo para criar correlogramas. Isso tornará a fórmula acima para rhok um pouco mais concreto. Simulações e Correlogramas Vamos começar com um processo MA (1). Se definimos beta1 0.6 obtemos o seguinte modelo: Como com os modelos AR (p) no artigo anterior, podemos usar R para simular tal série e então plotar o correlograma. Desde que weve teve muita prática na série de artigo anterior da série do tempo da série de realizar lotes, eu escreverei o código de R completamente, um pouco do que rachando ele acima: A saída é como segue: Como nós vimos acima na fórmula para rhok , Para k gt q, todas as autocorrelações devem ser zero. Uma vez que q 1, devemos ver um pico significativo em k1 e, em seguida, picos insignificantes subseqüentes a isso. Entretanto, devido ao viés de amostragem, deve-se esperar 5 picos (marginalmente) significativos em um gráfico de autocorrelação da amostra. Isto é precisamente o que o correlograma nos mostra neste caso. Temos um pico significativo em k1 e então picos insignificantes para k gt 1, exceto em k4 onde temos um pico marginalmente significativo. De fato, esta é uma maneira útil de ver se um modelo de MA (q) é apropriado. Examinando o correlograma de uma série particular, podemos ver quantos atrasos sequenciais não nulos existem. Se q tais defasagens existem, então podemos legitimamente tentar ajustar um modelo MA (q) a uma série particular. Uma vez que temos evidências de nossos dados simulados de um processo MA (1), agora vamos tentar e ajustar um modelo MA (1) para os nossos dados simulados. Infelizmente, não há um comando ma equivalente ao comando ar de modelo autorregressivo em R. Em vez disso, devemos usar o comando arima mais geral e definir os componentes auto-regressivos e integrados como zero. Fazemos isso criando um 3-vetor e definindo os dois primeiros componentes (os parâmetros autogressivos e integrados, respectivamente) a zero: Recebemos alguma saída útil do comando arima. Em primeiro lugar, podemos ver que o parâmetro foi estimado como hat 0.602, que é muito próximo ao verdadeiro valor de beta1 0.6. Em segundo lugar, os erros-padrão já estão calculados para nós, tornando-se fácil calcular intervalos de confiança. Em terceiro lugar, recebemos uma variância estimada, log-verossimilhança e critério de informação Akaike (necessário para a comparação de modelos). A principal diferença entre arima e ar é que a arima estima um termo de interceptação porque não subtrai o valor médio da série. Portanto, precisamos ter cuidado ao realizar as previsões usando o comando arima. Bem, volte a este ponto mais tarde. Como uma verificação rápida estavam indo para calcular os intervalos de confiança para hat: Podemos ver que o intervalo de confiança 95 contém o valor do parâmetro verdadeiro de beta1 0,6 e assim podemos julgar o modelo um bom ajuste. Obviamente, isso deve ser esperado desde que nós simulamos os dados em primeiro lugar Como as coisas mudam se modificarmos o sinal de beta1 para -0.6 Vamos executar a mesma análise: A saída é a seguinte: Podemos ver que em k1 temos um significado Pico no correlograma, exceto que ele mostra correlação negativa, como wed esperar de um MA (1) modelo com primeiro coeficiente negativo. Mais uma vez todos os picos além de k1 são insignificantes. Vamos ajustar um modelo MA (1) e estimar o parâmetro: hat -0.730, que é uma pequena subestimação de beta1 -0.6. Finalmente, vamos calcular o intervalo de confiança: Podemos ver que o valor do parâmetro verdadeiro de beta1-0.6 está contido dentro do intervalo de confiança de 95, fornecendo-nos evidências de um bom ajuste de modelo. Vamos executar o mesmo procedimento para um processo MA (3). Desta vez, devemos esperar picos significativos em k em, e picos insignificantes para k gt 3. Vamos usar os seguintes coeficientes: beta1 0,6, beta2 0,4 e beta3 0,2. Vamos simular um processo MA (3) a partir deste modelo. Ive aumentou o número de amostras aleatórias para 1000 nesta simulação, o que torna mais fácil ver a verdadeira estrutura de autocorrelação, à custa de tornar a série original mais difícil de interpretar: A saída é a seguinte: Como esperado, os três primeiros picos são significativos . No entanto, assim é o quarto. Mas podemos legitimamente sugerir que isso pode ser devido ao viés de amostragem como esperamos ver 5 dos picos sendo significativo para além de kq. Vamos agora ajustar um modelo MA (3) para os dados para tentar estimar parâmetros: As estimativas hat 0.544, hat 0.345 e hat 0.298 estão perto dos valores verdadeiros de beta10.6, beta20.4 e beta30.3, respectivamente. Podemos também produzir intervalos de confiança usando os respectivos erros padrão: Em cada caso, os 95 intervalos de confiança contêm o verdadeiro valor do parâmetro e podemos concluir que temos um bom ajuste com o nosso modelo MA (3), como seria de se esperar. Dados Financeiros Na Parte 1 consideramos a Amazon Inc. (AMZN) eo SampP500 US Equity Index. Nós ajustamos o modelo AR (p) para ambos e descobrimos que o modelo foi incapaz de capturar efetivamente a complexidade da correlação serial, especialmente no elenco do SampP500, onde os efeitos de memória longa parecem estar presentes. Eu não vou traçar os gráficos novamente para os preços e autocorrelação, em vez disso eu vou encaminhá-lo para o post anterior. Amazon Inc. (AMZN) Permite começar por tentar ajustar uma seleção de modelos MA (q) para AMZN, ou seja, com q em. Como na Parte 1, bem uso quantmod para baixar os preços diários para AMZN e depois convertê-los em um log retorna fluxo de preços de fechamento: Agora que temos o log retorna fluxo podemos usar o comando arima para caber MA (1), MA (2) e MA (3) modelos e, em seguida, estimar os parâmetros de cada um. Para MA (1) temos: Podemos traçar os resíduos dos retornos de log diário e do modelo ajustado: Observe que temos alguns picos significativos nos retornos k2, k11, k16 e k18, indicando que o modelo MA (1) é Improvável de ser um bom ajuste para o comportamento do log AMZN retorna, uma vez que isso não se parece com uma realização de ruído branco. Vamos tentar um modelo MA (2): Ambas as estimativas para os coeficientes beta são negativas. Vamos plotar os resíduos uma vez mais: Podemos ver que há quase zero autocorrelação nos primeiros poucos retornos. No entanto, temos cinco picos marginalmente significativos nos retornos k12, k16, k19, k25 e k27. Isto é sugestivo que o modelo MA (2) está a capturar uma grande parte da autocorrelação, mas não todos os efeitos de memória longa. Como sobre um modelo de MA (3) Uma vez mais, podemos traçar os resíduos: O gráfico de MA (3) residuais parece quase idêntico ao do modelo MA (2). Isso não é surpreendente, assim como a adição de um novo parâmetro a um modelo que aparentemente explicou muitas das correlações em defasagens mais curtas, mas isso não terá muito efeito sobre os atrasos de longo prazo. Toda esta evidência é sugestiva do fato de que um modelo de MA (q) é improvável que seja útil para explicar toda a correlação serial isoladamente. Pelo menos para AMZN. SampP500 Se você se lembrar, na Parte 1 vimos que a primeira ordem diferenciada log diário retorna estrutura do SampP500 possuía muitos picos significativos em vários desfasamentos, tanto curto como longo. Isto proporcionou evidências de heterocedasticidade condicional (isto é, agrupamento de volatilidade) e efeitos de memória longa. Conclui-se que o modelo AR (p) foi insuficiente para captar toda a autocorrelação presente. Como vimos anteriormente, o modelo MA (q) foi insuficiente para capturar correlação serial adicional nos resíduos do modelo ajustado para a série de preços de log diária diferenciada de primeira ordem. Vamos agora tentar ajustar o modelo MA (q) ao SampP500. Pode-se perguntar por que estamos fazendo isso é se sabemos que é improvável que seja um bom ajuste. Essa é uma boa pergunta. A resposta é que precisamos ver exatamente como ele não é um bom ajuste, porque este é o processo final que estaremos seguindo quando nos depararmos com modelos muito mais sofisticados, que são potencialmente mais difíceis de interpretar. Vamos começar por obter os dados e convertê-lo para uma série de primeira ordem diferenciada de logaritmicamente transformado preços de fechamento diário como no artigo anterior: Agora vamos ajustar um modelo MA (1), MA (2) e MA (3) para A série, como fizemos acima para AMZN. Vamos começar com MA (1): Vamos fazer um gráfico dos resíduos deste modelo ajustado: O primeiro pico significativo ocorre em k2, mas há muitos mais em k em. Esta não é claramente uma percepção de ruído branco e por isso temos de rejeitar o modelo MA (1) como um bom potencial para o SampP500. A situação melhora com MA (2) Mais uma vez, vamos fazer um gráfico dos resíduos deste modelo ajustado MA (2): Enquanto o pico em k2 desapareceu (como wed esperar), ainda estamos com os picos significativos em Muitos atrasos mais longos nos resíduos. Mais uma vez, encontramos o modelo MA (2) não é um bom ajuste. Devemos esperar, para o modelo MA (3), ver menos correlação serial em k3 do que para o MA (2), mas, mais uma vez, também devemos esperar nenhuma redução em defasagens adicionais. Finalmente, fazemos um gráfico dos resíduos deste modelo ajustado MA (3): Isto é precisamente o que vemos no correlograma dos resíduos. Daí o MA (3), como com os outros modelos acima, não é um bom ajuste para o SampP500. Próximas Etapas Examinamos agora em detalhe dois grandes modelos de séries temporais: o modelo Autogressivo de ordem p, AR (p) e então Média Móvel de ordem q, MA (q). Já vimos que eles são capazes de explicar algumas das autocorrelações nos resíduos de primeira ordem diferenciados diariamente log preços de ações e índices, mas volatilidade clusterização e memória longa efeitos persistem. É finalmente o momento de voltar nossa atenção para a combinação destes dois modelos, ou seja, a Média Móvel Autoresgressiva de ordem p, q, ARMA (p, q) para ver se ela vai melhorar a situação ainda mais. No entanto, vamos ter que esperar até o próximo artigo para uma discussão completa Apenas começando com Quantitative TradingArabic Búlgaro Chinês Croata Tcheco Dinamarquês Holandês Inglês Estoniano Finlandês Francês Alemão Grego Hebraico Hindu Húngaro Islandês Indonésio Italiano Japonês Coreano Letão Lituano Malgaxe Norueguês Persa Polonês Português Romeno Russo Sérvio Eslovaco Esloveno Espanhol Sueco Tailandês Turco Vietnamita Árabe Búlgaro Chinês Croata Tcheco Dinamarquês Holandês Estoniano Finlandês Francês Alemão Grego Hebraico Hindu Húngaro Islandês Indonésio Italiano Japonês Coreano Letão Lituano Malgaxe Norueguês Persa Polonês Português Romeno Russo Sérvio Eslovaco Esloveno Espanhol Sueco Tailandês Turco Vietnamita Definição - Autoregressivemoving - Modelo médio Modelo de média de substituição automática Para outros usos de ARMA, veja Arma. Em estatística e processamento de sinal. Autoregressivemoving-média (ARMA). Às vezes denominados modelos de BoxJenkins após a metodologia iterativa de BoxJenkins geralmente usada para estimá-los, são tipicamente aplicados a dados de séries de tempo autocorrelacionados. Dada uma série temporal de dados X t. O modelo ARMA é uma ferramenta para a compreensão e, talvez, a previsão de valores futuros nesta série. O modelo consiste em duas partes, uma parte autorregressiva (AR) e uma parte média móvel (MA). O modelo geralmente é então referido como o modelo ARMA (p, q) onde p é a ordem da parte autorregressiva e q é a ordem da parte média móvel (como definido abaixo). Modelo auto-regressivo A notação AR (p) refere-se ao modelo autorregressivo de ordem p. O modelo AR (p) é escrito Um modelo autorregressivo é essencialmente um filtro de resposta de impulso infinito de todos os pólos com alguma interpretação adicional colocada sobre ele. Algumas restrições são necessárias sobre os valores dos parâmetros deste modelo para que o modelo permaneça estacionário. Por exemplo, os processos no modelo AR (1) com 1 1 não são estacionários. Modelo de média móvel A notação MA (q) refere-se ao modelo de média móvel de ordem q: Modelo de média remota-móvel A notação ARMA refere-se ao modelo com p termos autorregressivos e q termos de média móvel. Este modelo contém os modelos AR (p) e MA (q), Nota sobre os termos de erro N (0, 2) onde 2 é a variância. Essas premissas podem ser enfraquecidas, mas isso mudará as propriedades do modelo. Em particular, uma alteração do i. i.d. Uma diferença bastante fundamental. Especificação em termos de operador de atraso Em alguns textos os modelos serão especificados em termos do operador de atraso L. Nestes termos, então o modelo AR (p) é dado por O modelo MA (q) é dado por onde representa o polinômio Finalmente, o modelo combinado ARMA (p. Q) é dado por ou mais concisamente. Box, Jenkins amp Reinsel 1 usam uma convenção diferente para os coeficientes de autorregressão. Isso permite que todos os polinômios envolvendo o operador de latência apareçam em uma forma semelhante por toda parte. Assim, o modelo ARMA seria escrito como Modelos de encaixe. Os modelos ARMA em geral podem ser ajustados por regressão por mínimos quadrados para encontrar os valores dos parâmetros que minimizam o termo de erro. Considera-se geralmente boa prática encontrar os menores valores de p e q que proporcionam um ajuste aceitável aos dados. Para um modelo AR puro, as equações de Yule-Walker podem ser usadas para proporcionar um ajuste. A obtenção de valores apropriados de p e q no modelo ARMA (p, q) pode ser facilitada traçando as funções de autocorrelação parcial para uma estimativa de p. E também usando as funções de autocorrelação para uma estimativa de q. Mais informações podem ser obtidas considerando as mesmas funções para os resíduos de um modelo equipado com uma seleção inicial de p e q. Brockwell e Davis 2 (p.273) recomendam usar AICc para encontrar p e q. Implementações em pacotes de estatística Em R. o pacote tseries inclui uma função arma. A função é documentada em Ajustar modelos ARMA a séries temporais. Ou usar stats :: arima Mathematica tem uma biblioteca completa de funções de séries temporais, incluindo ARMA 3 MATLAB inclui uma função ar para estimar modelos AR, veja aqui para mais detalhes. As bibliotecas numéricas IMSL são bibliotecas de funcionalidade de análise numérica, incluindo procedimentos ARMA e ARIMA implementados em linguagens de programação padrão como C, Java, C e Fortran. Gretl também pode estimar modelos ARMA, veja aqui onde é mencionado. O GNU Octave pode estimar modelos AR usando funções do pacote extra octave-forge. Stata inclui a função arima que pode estimar modelos ARMA e ARIMA. Veja aqui para mais detalhes SuanShu é uma biblioteca Java de métodos numéricos, incluindo pacotes de estatísticas abrangentes, nos quais modelos ARVA, ARIMA, ARMAX, etc. univariatemultivariados são implementados em uma abordagem orientada a objetos. Estas implementações são documentadas em SuanShu, uma biblioteca numérica e estatística de Java. SAS tem um pacote econométrico, ETS, que estima modelos ARIMA veja aqui para mais detalhes. Aplicações ARMA é apropriado quando um sistema é uma função de uma série de choques não observados (a parte MA) clarificação necessária, bem como seu próprio comportamento. Por exemplo, os preços das ações podem ser chocados por informações fundamentais, bem como apresentar tendências técnicas e efeitos de reversão média devido aos participantes do mercado. Generalizações A dependência de X t sobre valores passados ​​e os termos de erro t é assumida como linear, a menos que especificado de outra forma. Se a dependência é não-linear, o modelo é especificamente chamado de média móvel não-linear (NMA), auto-regressivo não-linear (NAR), ou não-linear auto - gressivemoving-média (NARMA) modelo. Autoregressivemoving-média modelos podem ser generalizados de outras maneiras. Ver também modelos de heteroscedasticidade condicional autorregressiva (ARCH) e modelos de média móvel integrada autorregressiva (ARIMA). Se forem montadas várias séries temporais, pode ser instalado um modelo ARIMA (ou VARIMA) vector. Se a série temporal em questão exibe memória longa, então a modelagem fracionada de ARIMA (FARIMA, às vezes chamada de ARFIMA) pode ser apropriada: ver Média móvel fracionada e integrada fracamente. Se os dados são pensados ​​para conter efeitos sazonais, pode ser modelado por um SARIMA (ARIMA sazonal) ou um modelo ARMA periódica. Outra generalização é o modelo auto-regressivo multiescala (MAR). Um modelo MAR é indexado pelos nós de uma árvore, enquanto que um padrão (tempo discreto) modelo autorregressivo é indexado por inteiros. Observe que o modelo ARMA é um modelo univariável. Extensões para o caso multivariado são o Vector Autoregression (VAR) e Vector Autoregression Moving-Average (VARMA). O modelo ARMAX (p. Qb) refere-se ao modelo com p termos autorregressivos, q termos de média móvel e b termos de entradas exógenas. Este modelo contém os modelos AR (p) e MA (q) e uma combinação linear dos últimos termos b de uma série temporal conhecida e externa. É dada por: Algumas variantes não-lineares de modelos com variáveis ​​exógenas foram definidas: ver, por exemplo, modelo exógeno não-linear auto-regressivo. Os pacotes estatísticos implementam o modelo ARMAX através do uso de variáveis ​​exógenas ou independentes. Cuidado deve ser tomado ao interpretar a saída desses pacotes, porque os parâmetros estimados normalmente (por exemplo, em R 4 e gretl) se referem à regressão: onde mt incorpora todas as variáveis ​​exógenas (ou independentes): Este artigo inclui uma lista de referências . Mas suas fontes permanecem obscuras porque tem citações inline insuficientes. Ajude a melhorar este artigo introduzindo citações mais precisas. (Agosto de 2010) Referências George Box. Gwilym M. Jenkins. E Gregory C. Reinsel. Análise de Séries Temporais: Previsão e Controle. terceira edição. Prentice-Hall, 1994. Brockwell, P. J. e Davis, R. A. Série temporal: Teoria e Métodos. 2a ed. Springer, 2009. Recursos de séries temporais em Mathematica ARIMA Modelagem de séries temporais. R documentation Mills, Terence C. Técnicas de séries temporais para economistas. Cambridge University Press, 1990. Percival, Donald B. e Andrew T. Walden. Análise Espectral para Aplicações Físicas. Cambridge University Press, 1993. Esta entrada é da Wikipédia, a principal enciclopédia contribuída pelos usuários. Pode não ter sido revisto por editores profissionais (veja o disclaimer cheio)

No comments:

Post a Comment