Sunday 17 December 2017

Função de autocorrelação do processo de média móvel


Objetivo: verificar os gráficos de autocorrelação de aleatoriedade (Box e Jenkins, pp. 28-32) são uma ferramenta comumente usada para verificar a aleatoriedade em um conjunto de dados. Esta aleatoriedade é determinada por computar autocorrelações para valores de dados em diferentes intervalos de tempo. Se for aleatória, tais autocorrelações devem ser próximas de zero para qualquer e todas as separações de intervalo de tempo. Se não for aleatório, então uma ou mais das autocorrelações serão significativamente não-zero. Além disso, as parcelas de autocorrelação são usadas na fase de identificação do modelo para os modelos auto-regressivos, modelos de séries temporais móveis de Box-Jenkins. Autocorrelação é apenas uma medida de aleatoriedade Observe que não correlacionado não significa necessariamente aleatório. Os dados que possuem autocorrelação significativa não são aleatórios. No entanto, os dados que não mostram autocorrelação significativa ainda podem exibir não-aleatoriedade de outras maneiras. Autocorrelação é apenas uma medida de aleatoriedade. No contexto da validação do modelo (que é o tipo primário de aleatoriedade que discutimos no Manual), a verificação da autocorrelação é tipicamente um teste suficiente de aleatoriedade, uma vez que os resíduos de um modelo de ajuste inadequado tendem a exibir aleatoriedade não sutil. No entanto, algumas aplicações requerem uma determinação mais rigorosa da aleatoriedade. Nestes casos, uma bateria de testes, que podem incluir verificação de autocorrelação, são aplicados desde que os dados podem ser não-aleatórios de muitas maneiras diferentes e muitas vezes sutis. Um exemplo de onde uma verificação mais rigorosa para aleatoriedade é necessária seria testando geradores de números aleatórios. Amostra Plot: autocorrelações devem ser perto de zero para aleatoriedade. Tal não é o caso neste exemplo e, assim, a suposição de aleatoriedade falha. Este gráfico de autocorrelação de amostra mostra que a série de tempo não é aleatória, mas tem um alto grau de autocorrelação entre observações adjacentes e quase adjacentes. Definição: r (h) versus h As parcelas de autocorrelação são formadas por Eixo vertical: Coeficiente de autocorrelação onde C h é a função de autocovariância e C 0 é a função de variância Note que R h está entre -1 e 1. Note que algumas fontes podem usar o Seguinte fórmula para a função autocovariância Embora esta definição tenha menos viés, a formulação (1 / N) tem algumas propriedades estatísticas desejáveis ​​e é a forma mais comumente utilizada na literatura estatística. Consulte as páginas 20 e 49-50 em Chatfield para obter detalhes. Eixo horizontal: Time lag h (h 1, 2, 3.) A linha acima também contém várias linhas de referência horizontais. A linha do meio está em zero. As outras quatro linhas são 95 e 99 faixas de confiança. Observe que existem duas fórmulas distintas para gerar as bandas de confiança. Se o gráfico de autocorrelação estiver sendo usado para testar a aleatoriedade (ou seja, não há dependência temporal nos dados), recomenda-se a seguinte fórmula: onde N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa ) É o nível de significância. Neste caso, as bandas de confiança têm uma largura fixa que depende do tamanho da amostra. Esta é a fórmula que foi usada para gerar as faixas de confiança no gráfico acima. Os gráficos de autocorrelação também são usados ​​na fase de identificação do modelo para a montagem de modelos ARIMA. Neste caso, um modelo de média móvel é assumido para os dados e devem ser geradas as seguintes faixas de confiança: onde k é o atraso, N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa) é O nível de significância. Neste caso, as faixas de confiança aumentam à medida que o atraso aumenta. O gráfico de autocorrelação pode fornecer respostas para as seguintes perguntas: Os dados são aleatórios É uma observação relacionada a uma observação adjacente É uma observação relacionada a uma observação duas vezes removido (etc.) É a série de tempo observada ruído branco A série temporal observada é sinusoidal As séries temporais observadas são autorregressivas O que é um modelo adequado para as séries temporais observadas O modelo é válido e suficiente A fórmula ss / sqrt é válida Importância: Garanta a validade das conclusões de engenharia Aleatoriedade (juntamente com modelo fixo, variação fixa e distribuição fixa) É uma das quatro suposições que tipicamente estão subjacentes a todos os processos de medição. A hipótese de aleatoriedade é extremamente importante pelas três razões a seguir: A maioria dos testes estatísticos padrão depende da aleatoriedade. A validade das conclusões do teste está diretamente ligada à validade do pressuposto aleatório. Muitas fórmulas estatísticas comumente usadas dependem da suposição aleatória, sendo a fórmula mais comum a fórmula para determinar o desvio padrão da média da amostra: onde s é o desvio padrão dos dados. Embora fortemente usados, os resultados de usar esta fórmula são de nenhum valor a menos que a suposição de aleatoriedade se mantenha. Para dados univariados, o modelo padrão é Se os dados não são aleatórios, este modelo é incorreto e inválido, e as estimativas para os parâmetros (como a constante) tornam-se absurdas e inválidas. Em suma, se o analista não verificar a aleatoriedade, então a validade de muitas das conclusões estatísticas torna-se suspeito. O gráfico de autocorrelação é uma excelente maneira de verificar essa aleatoriedade. O primeiro passo no desenvolvimento de um modelo Box-Jenkins é determinar se a série é estacionária e se há alguma sazonalidade significativa que precisa ser modelada. A estacionariedade pode ser avaliada a partir de um diagrama de sequência de execução. O gráfico de sequência de execução deve mostrar localização e escala constantes. Também pode ser detectado a partir de um gráfico de autocorrelação. Especificamente, a não estacionariedade é muitas vezes indicada por um gráfico de autocorrelação com decaimento muito lento. Diferenciação para alcançar a estacionaridade Box e Jenkins recomendam a abordagem de diferenciação para conseguir estacionaridade. No entanto, o ajuste de uma curva e a subtração dos valores ajustados dos dados originais também podem ser usados ​​no contexto dos modelos Box-Jenkins. Na etapa de identificação do modelo, nosso objetivo é detectar a sazonalidade, se existir, e identificar a ordem dos termos sazonais autorregressivos e sazonais de média móvel. Para muitas séries, o período é conhecido e um único termo de sazonalidade é suficiente. Por exemplo, para dados mensais tipicamente incluiríamos um termo AR 12 temporário ou um termo MA 12 sazonal. Para os modelos Box-Jenkins, não removemos a sazonalidade explicitamente antes de montar o modelo. Em vez disso, incluímos a ordem dos termos sazonais na especificação do modelo para o software de estimativa ARIMA. No entanto, pode ser útil aplicar uma diferença sazonal aos dados e regenerar as parcelas de autocorrelação e de autocorrelação parcial. Isso pode ajudar na identificação do modelo da componente não sazonal do modelo. Em alguns casos, a diferenciação sazonal pode remover a maior parte ou todo o efeito da sazonalidade. Identificar p e q Uma vez que a estacionariedade ea sazonalidade foram abordadas, o próximo passo é identificar a ordem (isto é, o (p) e (q)) dos termos autorregressivos e de média móvel. Autocorrelação e parcelas de autocorrelação parcial As ferramentas primárias para fazer isso são o gráfico de autocorrelação eo gráfico de autocorrelação parcial. O gráfico de autocorrelação da amostra eo gráfico de autocorrelação parcial da amostra são comparados com o comportamento teórico destas parcelas quando a ordem é conhecida. Ordem do Processo Autoregressivo ((p)) Especificamente, para um processo AR (1), a função de autocorrelação da amostra deve ter uma aparência decrescente exponencialmente. Contudo, os processos de AR de ordem superior são frequentemente uma mistura de componentes sinusoidais exponencialmente decrescentes e amortecidos. Para processos autoregressivos de ordem superior, a autocorrelação da amostra precisa ser suplementada com um gráfico de autocorrelação parcial. A autocorrelação parcial de um processo AR ((p)) torna-se zero em lag (p 1) e maior, então examinamos a função de autocorrelação parcial da amostra para ver se existe evidência de uma partida de zero. Isso geralmente é determinado colocando um intervalo de confiança de 95 no gráfico de autocorrelação parcial da amostra (a maioria dos programas de software que geram gráficos de autocorrelação da amostra também traçará este intervalo de confiança). Se o programa de software não gera a banda de confiança, é aproximadamente (pm 2 / sqrt), com (N) indicando o tamanho da amostra. Ordem do Processo de Média Móvel ((q)) A função de autocorrelação de um processo MA ((q)) torna-se zero em atraso (q 1) e maior, então examinamos a função de autocorrelação da amostra para ver onde ela se torna essencialmente zero. Fazemos isso colocando o intervalo de confiança de 95 para a função de autocorrelação da amostra no gráfico de autocorrelação da amostra. A maioria dos softwares que podem gerar o gráfico de autocorrelação também pode gerar esse intervalo de confiança. A função de autocorrelação parcial de amostra geralmente não é útil para identificar a ordem do processo de média móvel. Forma da Função de Autocorrelação A tabela a seguir resume como usamos a função de autocorrelação da amostra para identificação do modelo. Documentação Amostra ACF e PACF A autocorrelação da amostra ea autocorrelação parcial da amostra são estatísticas que estimam a autocorrelação teórica e a autocorrelação parcial. Como uma ferramenta de seleção de modelo qualitativa, você pode comparar a amostra ACF e PACF de seus dados contra funções de autocorrelação teórica conhecida 1. Para uma série observada y 1. Y 2. Y T. Denotam a média da amostra y x00AF. A autocorrelação lag-h da amostra é dada por: x03C1 x005E h x2211 th 1 T (yt x2212 y x00AF) (yt x2212 h x2212 y x00AF) x2211 t 1 T (yt x2212 y x00AF) 2. O erro padrão para testar a significância de Uma única autocorrelação lag-h, x03C1 x005E h. Quando se usa o autocorr para traçar a função de autocorrelação da amostra (também conhecida como o correlograma), aproximam-se 95 intervalos de confiança em x00B1 2 SE x03C1 (1 x x 2 x 1 x 1 x 2 x 1 x 2 x 1 x 1 por padrão. Os argumentos de entrada opcionais permitem modificar o cálculo dos limites de confiança. A autocorrelação parcial de lagh de amostra é o coeficiente de lag-h estimado em um modelo de AR contendo h lags, x03D5 x005E h. H. O erro padrão para testar a significância de uma única autocorrelação parcial de lag-h é aproximadamente 1 / N x2212 1. Quando você usa parcorr para plotar a função de autocorrelação parcial da amostra, aproximadamente 95 intervalos de confiança são desenhados em x00B1 2 / N x2212 1 por padrão . Os argumentos de entrada opcionais permitem modificar o cálculo dos limites de confiança. Referências 1 Box, G. E. P. G. M. Jenkins e G. C. Reinsel. Análise de Séries Temporais: Previsão e Controle. 3a ed. Englewood Cliffs, NJ: Prentice Hall, 1994. Selecione seu País2.2 Função de Autocorrelação Parcial (PACF) Versão para impressão Em geral, uma correlação parcial é uma correlação condicional. É a correlação entre duas variáveis ​​sob o pressuposto de que sabemos e tomamos em consideração os valores de algum outro conjunto de variáveis. Por exemplo, considere um contexto de regressão em que y variável de resposta e x 1. X 2. E x 3 são variáveis ​​preditoras. A correlação parcial entre y e x 3 é a correlação entre as variáveis ​​determinadas levando em conta como y e x 3 estão relacionados a x 1 e x 2. Na regressão, essa correlação parcial pode ser encontrada correlacionando os resíduos de duas regressões diferentes: (1) Regressão na qual predizemos y de x 1 e x 2. (2) regressão em que nós prediz x 3 de x 1 e x 2. Basicamente, correlacionamos as partes de y e x 3 que não são previstas por x 1 e x 2. Mais formalmente, podemos definir a correlação parcial que acabamos de descrever como Nota que é também como os parâmetros de um modelo de regressão são interpretados. Pense na diferença entre interpretar os modelos de regressão: (y beta0 beta1x2 texto y beta0beta1xbeta2x2) No primeiro modelo, 1 pode ser interpretado como a dependência linear entre x 2 e y. No segundo modelo, 2 seria interpretado como a dependência linear entre x 2 e y COM a dependência entre x e y já explicada. Para uma série temporal, a autocorrelação parcial entre x t e x t-h é definida como a correlação condicional entre x t e x t-h. Condicional em x t-h1. X t-1. O conjunto de observações que vêm entre os pontos de tempo t e th. A autocorrelação parcial de 1ª ordem será definida para igualar a autocorrelação de 1ª ordem. A autocorrelação parcial de segunda ordem (lag) é Esta é a correlação entre valores dois períodos de tempo separados condicionados ao conhecimento do valor entre eles. (A propósito, as duas variações no denominador serão iguais entre si em uma série estacionária.) A autocorrelação parcial de ordem 3 (lag) é E, assim por diante, para qualquer lag. Tipicamente, as manipulações de matrizes que têm a ver com a matriz de covariância de uma distribuição multivariada são usadas para determinar estimativas das autocorrelações parciais. Alguns Fatos Úteis Sobre os Padrões PACF e ACF A identificação de um modelo AR é muitas vezes melhor feita com o PACF. Para um modelo AR, o PACF teórico desliga passado a ordem do modelo. A frase desliga significa que, em teoria, as autocorrelações parciais são iguais a 0 para além desse ponto. Dito de outra forma, o número de autocorrelações parciais não nulas fornece a ordem do modelo AR. Pela ordem do modelo nós significamos o lag mais extremo de x que é usado como um predictor. Exemplo. Na Lição 1.2, identificamos um modelo AR (1) para uma série temporal de números anuais de terremotos mundiais com uma magnitude sísmica maior que 7,0. A seguir está a amostra PACF para esta série. Note que o primeiro valor de atraso é estatisticamente significativo, enquanto autocorrelações parciais para todos os outros atrasos não são estatisticamente significativas. Isto sugere um possível AR (1) modelo para estes dados. A identificação de um modelo de MA geralmente é feita com o ACF e não com o PACF. Para um modelo de MA, o PACF te�ico n� desliga, mas em vez disso afunila em direc�o a 0 de alguma maneira. Um padrão mais claro para um modelo MA está no ACF. O ACF terá autocorrelações não nulas somente em defasagens envolvidas no modelo. A Lição 2.1 incluiu o seguinte ACF de amostra para uma série MA (1) simulada. Observe que a primeira autocorrelação de atraso é estatisticamente significativa, enquanto que todas as autocorrelações subsequentes não são. Isto sugere um possível MA (1) modelo para os dados. Nota teórica. O modelo utilizado para a simulação foi x t 10 w t 0,7 w t-1. Teoricamente, a primeira autocorrelação de atraso 1 / (1 1 2) .7 / (1,7 2) .4698 e autocorrelações para todos os outros retornos 0. O modelo subjacente usado para a simulação de MA (1) na Lição 2.1 foi xt 10 wt 0,7 W t-1. Segue-se o PACF teórico (autocorrelação parcial) para esse modelo. Nota: O PACF que acabamos de mostrar foi criado em R com estes dois comandos: ma1pacf ARMAacf (ma c (.7), lag. max 36, pacfTRUE) plot (ma1pacf, typeh, main Teórico PACF de MA (1) com theta 0.7) Navegação2.1 Modelos de média móvel (modelos MA) Modelos de séries temporais conhecidos como modelos ARIMA podem incluir termos auto-regressivos e / ou termos de média móvel. Na Semana 1, aprendemos um termo autorregressivo em um modelo de série temporal para a variável x t é um valor retardado de x t. Por exemplo, um termo autorregressivo de atraso 1 é x t-1 (multiplicado por um coeficiente). Esta lição define termos de média móvel. Um termo de média móvel em um modelo de séries temporais é um erro passado (multiplicado por um coeficiente). Vamos (wt overset N (0, sigma2w)), significando que os w t são identicamente, distribuídos independentemente, cada um com uma distribuição normal com média 0 e a mesma variância. O modelo de média móvel da 1ª ordem, denotado por MA (1) é (xt mu wt theta1w) O modelo de média móvel de 2ª ordem, denotado por MA (2) é (xt mu wt theta1w theta2w) , Denotado por MA (q) é (xt mu wt theta1w theta2w pontos thetaqw) Nota. Muitos livros didáticos e programas de software definem o modelo com sinais negativos antes dos termos. Isso não altera as propriedades teóricas gerais do modelo, embora ele inverta os sinais algébricos de valores de coeficientes estimados e de termos (não-quadrados) nas fórmulas para ACFs e variâncias. Você precisa verificar o software para verificar se sinais negativos ou positivos foram utilizados para escrever corretamente o modelo estimado. R usa sinais positivos em seu modelo subjacente, como fazemos aqui. Propriedades teóricas de uma série temporal com um modelo MA (1) Observe que o único valor não nulo na ACF teórica é para o atraso 1. Todas as outras autocorrelações são 0. Assim, uma ACF de amostra com uma autocorrelação significativa apenas no intervalo 1 é um indicador de um possível modelo MA (1). Para os estudantes interessados, provas destas propriedades são um apêndice a este folheto. Exemplo 1 Suponha que um modelo MA (1) seja x t 10 w t .7 w t-1. Onde (wt overset N (0,1)). Assim, o coeficiente 1 0,7. O ACF teórico é dado por Um gráfico deste ACF segue. O gráfico apenas mostrado é o ACF teórico para um MA (1) com 1 0,7. Na prática, uma amostra normalmente não proporciona um padrão tão claro. Usando R, simulamos n 100 valores de amostra usando o modelo x t 10 w t .7 w t-1 onde w t iid N (0,1). Para esta simulação, segue-se um gráfico de séries temporais dos dados da amostra. Não podemos dizer muito desse enredo. A ACF de amostra para os dados simulados segue. Observamos que a amostra ACF não corresponde ao padrão teórico do MA subjacente (1), ou seja, que todas as autocorrelações para os atrasos de 1 serão 0 Uma amostra diferente teria uma ACF de amostra ligeiramente diferente mostrada abaixo, mas provavelmente teria as mesmas características gerais. Propriedades teóricas de uma série temporal com um modelo MA (2) Para o modelo MA (2), as propriedades teóricas são as seguintes: Note que os únicos valores não nulos na ACF teórica são para os retornos 1 e 2. As autocorrelações para atrasos maiores são 0 . Assim, uma ACF de amostra com autocorrelações significativas nos intervalos 1 e 2, mas autocorrelações não significativas para atrasos maiores indica um possível modelo MA (2). Iid N (0,1). Os coeficientes são 1 0,5 e 2 0,3. Como este é um MA (2), o ACF teórico terá valores não nulos apenas nos intervalos 1 e 2. Valores das duas autocorrelações não nulas são Um gráfico do ACF teórico segue. Como quase sempre é o caso, dados de exemplo não vai se comportar tão perfeitamente como a teoria. Foram simulados n 150 valores de amostra para o modelo x t 10 w t .5 w t-1 .3 w t-2. Onde w t iid N (0,1). O gráfico da série de tempo dos dados segue. Como com o gráfico de série de tempo para os dados de amostra de MA (1), você não pode dizer muito dele. A ACF de amostra para os dados simulados segue. O padrão é típico para situações em que um modelo MA (2) pode ser útil. Existem dois picos estatisticamente significativos nos intervalos 1 e 2, seguidos por valores não significativos para outros desfasamentos. Note que devido ao erro de amostragem, o ACF de amostra não corresponde exactamente ao padrão teórico. ACF para Modelos Gerais MA (q) Uma propriedade dos modelos MA (q) em geral é que existem autocorrelações não nulas para os primeiros q lags e autocorrelações 0 para todos os retornos gt q. Não-unicidade de conexão entre os valores de 1 e (rho1) no modelo MA (1). No modelo MA (1), para qualquer valor de 1. O 1/1 recíproco dá o mesmo valor para Como exemplo, use 0,5 para 1. E então use 1 / (0,5) 2 para 1. Você obterá (rho1) 0,4 em ambas as instâncias. Para satisfazer uma restrição teórica chamada invertibilidade. Nós restringimos os modelos MA (1) para ter valores com valor absoluto menor que 1. No exemplo dado, 1 0,5 será um valor de parâmetro permitido, enquanto que 1 1 / 0,5 2 não. Invertibilidade de modelos MA Um modelo MA é dito ser inversível se for algébrica equivalente a um modelo de ordem infinita convergente. Por convergência, queremos dizer que os coeficientes de AR diminuem para 0 à medida que avançamos no tempo. Invertibilidade é uma restrição programada em séries temporais de software utilizado para estimar os coeficientes de modelos com MA termos. Não é algo que verificamos na análise de dados. Informações adicionais sobre a restrição de invertibilidade para modelos MA (1) são fornecidas no apêndice. Teoria Avançada Nota. Para um modelo MA (q) com um ACF especificado, existe apenas um modelo invertible. A condição necessária para a invertibilidade é que os coeficientes têm valores tais que a equação 1- 1 y-. - q y q 0 tem soluções para y que caem fora do círculo unitário. Código R para os Exemplos No Exemplo 1, traçamos o ACF teórico do modelo x t 10w t. 7w t-1. E depois simularam n 150 valores deste modelo e traçaram a série temporal da amostra e a ACF da amostra para os dados simulados. Os comandos R utilizados para traçar o ACF teórico foram: acfma1ARMAacf (mac (0,7), lag. max10) 10 atrasos de ACF para MA (1) com theta1 0,7 lags0: 10 cria uma variável chamada lags que varia de 0 a 10. trama (Hg) adiciona um eixo horizontal ao gráfico O primeiro comando determina o ACF e o armazena em um objeto (a0) Chamado acfma1 (nossa escolha de nome). O comando de plotagem (o terceiro comando) traça defasagens em relação aos valores de ACF para os retornos 1 a 10. O parâmetro ylab rotula o eixo y eo parâmetro principal coloca um título no gráfico. Para ver os valores numéricos do ACF basta usar o comando acfma1. A simulação e as parcelas foram feitas com os seguintes comandos. Xcarima. sim (n150, lista (mac (0.7))) Simula n 150 valores de MA (1) xxc10 adiciona 10 para fazer média 10. Padrão de simulação significa 0. plot (x, typeb, mainSimulated MA (1) dados) Acf (x, xlimc (1,10), mainACF para dados de amostras simulados) No Exemplo 2, traçamos o ACF teórico do modelo xt 10 wt. 5 w t-1 .3 w t-2. E depois simularam n 150 valores deste modelo e traçaram a série temporal da amostra e a ACF da amostra para os dados simulados. Os comandos R utilizados foram acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 parcela (atrasos, acfma2, xlimc (1,10), ylabr, tipoh, ACF principal para MA (2) com theta1 0,5, (X, typeb, principal série MA (2) simulada) acf (x, xlimc (1,10), x2) MainACF para dados simulados de MA (2) Apêndice: Prova de Propriedades de MA (1) Para estudantes interessados, aqui estão as provas para propriedades teóricas do modelo MA (1). Quando h 1, a expressão anterior 1 w 2. Para qualquer h 2, a expressão anterior 0 (x) é a expressão anterior x (x) A razão é que, por definição de independência do wt. E (w k w j) 0 para qualquer k j. Além disso, porque w t tem média 0, E (w j w j) E (w j 2) w 2. Para uma série de tempo, aplique este resultado para obter o ACF fornecido acima. Um modelo inversível MA é aquele que pode ser escrito como um modelo de ordem infinita AR que converge para que os coeficientes AR convergem para 0 como nos movemos infinitamente no tempo. Bem demonstrar invertibilidade para o modelo MA (1). Em seguida, substituimos a relação (2) para wt-1 na equação (1) (3) (zt wt theta1 (z-theta1w) wt theta1z-theta2w) No tempo t-2. A equação (2) torna-se Então substituimos a relação (4) para wt-2 na equação (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z-theta12z theta31w) Se continuássemos Infinitamente), obteríamos o modelo AR de ordem infinita (zt wt theta1 z - theta21z theta31z - theta41z dots) Observe, no entanto, que se 1 1, os coeficientes multiplicando os desfasamentos de z aumentarão (infinitamente) Tempo. Para evitar isso, precisamos de 1 lt1. Esta é a condição para um modelo MA (1) invertido. Infinite Order MA model Na semana 3, bem ver que um modelo AR (1) pode ser convertido em um modelo de ordem infinita MA: (xt - mu wt phi1w phi21w pontos phik1 w dots sum phij1w) Esta soma de termos de ruído branco passado é conhecido Como a representação causal de um AR (1). Em outras palavras, x t é um tipo especial de MA com um número infinito de termos remontando no tempo. Isso é chamado de ordem infinita MA ou MA (). Uma ordem finita MA é uma ordem infinita AR e qualquer ordem finita AR é uma ordem infinita MA. Lembre-se na Semana 1, observamos que uma exigência para um AR estacionário (1) é que 1 lt1. Vamos calcular o Var (x t) usando a representação causal. Esta última etapa usa um fato básico sobre séries geométricas que requer (phi1lt1) caso contrário, a série diverge. Navegação

No comments:

Post a Comment