Gretlmodeladdallocatedvarnames () Anexa um conjunto alocado de nomes de variáveis a serem usados ao imprimir os resultados do modelo, para uso em casos especiais em que não podemos apenas referenciar nomes da lista de regressores anexados ao modelo. O número de strings deve corresponder ao número de coeficientes, dado pelo ncoeff membro de pmod. Observe que pmod assume a carga dos vnames da matriz. Isso será liberado quando o modelo for destruído. Ponteiro para o modelo de destino. Matriz de nomes de variáveis independentes. Gretlmodeladdymedian () Calcula a mediana de y usando as observações válidas com a escala de amostra dos modelos e atribui a mediana ao modelo como dados sob a chave ymedian. Ponteiro para o modelo de destino. Matriz que contém a variável dependente. 0 no sucesso ou código de erro em erro. Gretlmodeladdnormalitytest () gretlmodelgetnormalitytest () gretlmodelgetfittedformula () Se pmod for um modelo linear, quadrático ou logístico simples, e se xvar for de fato a variável x do modelo, retorna uma string representando a fórmula para gerar os valores ajustados em função de x . Esta fórmula pode ser usada no contexto de um gráfico ajustado versus real. Identificar os números de AR ou MA termos em um ARIMA modelo ACF e PACF parcelas: Depois de uma série temporal foi estacionária por diferenciação, o próximo passo na montagem de um modelo ARIMA É determinar se os termos AR ou MA são necessários para corrigir qualquer autocorrelação que permaneça na série diferenciada. Claro, com software como Statgraphics, você poderia apenas tentar algumas combinações diferentes de termos e ver o que funciona melhor. Mas há uma maneira mais sistemática de fazer isso. Observando os gráficos de função de autocorrelação (ACF) e de autocorrelação parcial (PACF) das séries diferenciadas, é possível identificar tentativamente os números de AR e / ou MA que são necessários. Você já está familiarizado com a trama ACF: é apenas um gráfico de barras dos coeficientes de correlação entre uma série de tempo e defasagens de si mesmo. O gráfico do PACF é um gráfico dos coeficientes de correlação parcial entre a série e os retornos de si. Em geral, a correlação quotpartial entre duas variáveis é a quantidade de correlação entre elas que não é explicada por suas correlações mútuas com um conjunto especificado de outras variáveis. Por exemplo, se estivermos regredindo uma variável Y em outras variáveis X1, X2 e X3, a correlação parcial entre Y e X3 é a quantidade de correlação entre Y e X3 que não é explicada por suas correlações comuns com X1 e X2. Esta correlação parcial pode ser calculada como a raiz quadrada da redução na variância que é conseguida pela adição de X3 à regressão de Y em X1 e X2. Uma auto-correlação parcial é a quantidade de correlação entre uma variável e uma defasagem de si mesma que não é explicada por correlações em todas as lâminas de ordem inferior. A autocorrelação de uma série temporal Y no intervalo 1 é o coeficiente de correlação entre Y t e Y t - 1. Que é presumivelmente também a correlação entre Y t -1 e Y t -2. Mas se Y t é correlacionado com Y t -1. E Y t -1 está igualmente correlacionado com Y t -2. Então também devemos esperar encontrar correlação entre Y t e Y t-2. De fato, a quantidade de correlação que deveríamos esperar no retardo 2 é precisamente o quadrado da correlação lag-1. Assim, a correlação à lag 1 quotpropagates a lag 2 e presumivelmente para atrasos de ordem superior. A autocorrelação parcial no retardo 2 é, portanto, a diferença entre a correlação real no retardo 2 e a correlação esperada devido à propagação da correlação no retardo 1. Aqui está a função de autocorrelação (ACF) da série UNITS, antes de qualquer diferenciação ser realizada: As autocorrelações são significativas para um grande número de defasagens - mas talvez as autocorrelações nos intervalos 2 e acima sejam meramente devidas à propagação da autocorrelação no retardo 1. Isto é confirmado pelo gráfico do PACF: Note que o gráfico do PACF tem uma significância Pico apenas no intervalo 1, o que significa que todas as autocorrelações de ordem superior são efetivamente explicadas pela autocorrelação lag-1. As autocorrelações parciais em todos os atrasos podem ser calculadas ajustando uma sucessão de modelos autorregressivos com números crescentes de defasagens. Em particular, a autocorrelação parcial com atraso k é igual ao coeficiente AR (k) estimado em um modelo autorregressivo com k termos - isto é. Um modelo de regressão múltipla no qual Y é regredido em LAG (Y, 1), LAG (Y, 2), etc. até LAG (Y, k). Assim, por mera inspeção do PACF você pode determinar quantos termos AR você precisa usar para explicar o padrão de autocorrelação em uma série de tempo: se a autocorrelação parcial é significativa com atraso k e não significativa em qualquer atraso de ordem maior - isto é. Se o PACF quotcuts offquot em lag k - então isso sugere que você deve tentar ajustar um modelo autorregressivo de ordem k PACF da série UNITS fornece um exemplo extremo do fenômeno de corte: tem um pico muito grande no intervalo 1 E nenhum outro pico significativo, indicando que na ausência de diferenciação um AR (1) modelo deve ser usado. No entanto, o termo AR (1) neste modelo resultará ser equivalente a uma primeira diferença, porque o coeficiente AR (1) estimado (que é a altura do pico PACF no intervalo 1) será quase exatamente igual a 1 . Agora, a equação de previsão para um modelo AR (1) para uma série Y sem ordens de diferenciação é: Se o coeficiente de AR (1) 981 1 nesta equação for igual a 1, é equivalente a prever que a primeira diferença De Y é constante - ie É equivalente à equação do modelo de caminhada aleatória com crescimento: O PACF da série UNITS está nos dizendo que, se não fizermos diferença, então devemos ajustar um modelo AR (1) que se tornará equivalente a tomar Uma primeira diferença. Em outras palavras, está nos dizendo que UNITS realmente precisa de uma ordem de diferenciação para ser estacionalizada. AR e MA assinaturas: Se o PACF exibe um corte acentuado enquanto o ACF decai mais lentamente (ou seja, tem picos significativos em maior atrasos), dizemos que a série estacionária exibe uma assinatura quotAR, quot que significa que o padrão de autocorrelação pode ser explicado com mais facilidade Adicionando termos AR mais do que adicionando termos MA. Você provavelmente encontrará que uma assinatura AR é comumente associada com autocorrelação positiva no retardo 1 - i. e. Ele tende a surgir em séries que são ligeiramente diferentes. A razão para isso é que um termo AR pode agir como uma diferença quotpartial na equação de previsão. Por exemplo, em um modelo AR (1), o termo AR atua como uma primeira diferença se o coeficiente autorregressivo for igual a 1, ele não faz nada se o coeficiente autorregressivo for zero e ele age como uma diferença parcial se o coeficiente estiver entre 0 e 1. Assim, se a série é ligeiramente subdifferenced - ie Se o padrão não estacionário de autocorrelação positiva não tiver sido completamente eliminado, ele estabelecerá quotas para uma diferença parcial exibindo uma assinatura AR. Portanto, temos a seguinte regra para determinar quando adicionar termos AR: Regra 6: Se o PACF da série diferenciada exibe um corte acentuado e / ou a autocorrelação lag-1 é positiva - i. e. Se a série aparece ligeiramente quotunderdifferencedquot - então considere adicionar um termo AR para o modelo. O intervalo em que o PACF corta é o número indicado de termos AR. Em princípio, qualquer padrão de autocorrelação pode ser removido de uma série estacionária adicionando termos auto-regressivos suficientes (defasagens das séries estacionárias) à equação de previsão, eo PACF indica quantos desses termos são provavelmente necessários. No entanto, isso nem sempre é a maneira mais simples de explicar um determinado padrão de autocorrelação: às vezes é mais eficiente adicionar MA termos (atrasos dos erros de previsão) em vez disso. A função de autocorrelação (ACF) desempenha o mesmo papel para os termos MA que o PACF desempenha para os termos AR - ou seja, o ACF diz-lhe quantos termos MA são susceptíveis de ser necessários para remover a autocorrelação restante da série diferenciada. Se a autocorrelação é significativa com atraso k, mas não em qualquer defasagem maior - i. e. Se o ACF quotcuts offquot em lag k - isso indica que exatamente k MA termos devem ser utilizados na previsão equação. No último caso, dizemos que a série estacionária exibe uma assinatura quotMA, significando que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos MA do que adicionando termos AR. Uma assinatura de MA é vulgarmente associada com autocorrelação negativa no intervalo 1 - i. e. Tende a surgir em séries que são ligeiramente mais diferenciadas. A razão para isto é que um termo MA pode quotparcialmente cancelar uma ordem de diferenciação na equação de previsão. Para ver isso, lembre-se que um modelo ARIMA (0,1,1) sem constante é equivalente a um modelo Simple Exponential Smoothing. A equação de previsão para este modelo é onde o coeficiente MA (1) 952 1 corresponde à quantidade 1 - 945 no modelo SES. Se 952 1 é igual a 1, isto corresponde a um modelo SES com 945 0, que é apenas um modelo CONSTANTE porque a previsão nunca é atualizada. Isso significa que quando 952 1 é igual a 1, ele está realmente cancelando a operação de diferenciação que normalmente permite que a previsão SES se ancore novamente na última observação. Por outro lado, se o coeficiente de média móvel for igual a 0, este modelo se reduz a um modelo de caminhada aleatória - isto é. Ele deixa a operação de diferenciação sozinho. Portanto, se 952 1 for algo maior que 0, é como se estivéssemos cancelando parcialmente uma ordem de diferenciação. Se a série já está ligeiramente mais diferenciada - i. e. Se a autocorrelação negativa tiver sido introduzida - então as quotas serão feitas para que uma diferença seja parcialmente cancelada exibindo uma assinatura de MA. (Uma grande quantidade de agitação de braço está acontecendo aqui. Uma explicação mais rigorosa deste efeito é encontrada no folheto da Estrutura Matemática de Modelos ARIMA.) Daí a seguinte regra geral adicional: Regra 7: Se a ACF da série diferenciada exibir um Corte acentuado e / ou a autocorrelação lag-1 é negativo - Se a série aparece ligeiramente quotoverdifferencedquot - então considere adicionar um termo MA para o modelo. A defasagem em que o ACF corta é o número indicado de termos de MA. Um modelo para a série UNITS - ARIMA (2,1,0): Anteriormente, determinamos que a série UNITS necessitava (pelo menos) uma ordem de diferenciação não sazonal para ser estacionária. Depois de tomar uma diferença não sazonal - i. e. Se um modelo ARIMA (0,1,0) com constante - as parcelas ACF e PACF são as seguintes: Observe que (a) a correlação com o atraso 1 é significativa e positiva, e (b) o PACF mostra um quotcutoff mais nítido do que O ACF. Em particular, o PACF tem apenas dois picos significativos, enquanto o ACF tem quatro. Assim, de acordo com a Regra 7 acima, a série diferenciada exibe uma assinatura AR (2). Se, portanto, definir a ordem do termo AR para 2 - i. e. Se um modelo ARIMA (2,1,0) - obtemos as seguintes parcelas ACF e PACF para os resíduos: A autocorrelação nos atrasos cruciais - ou seja, os retornos 1 e 2 - foi eliminada e não há nenhum padrão discernível Em atrasos de ordem superior. No entanto, o relatório de resumo de análise mostra que o modelo, no entanto, tem um desempenho bastante satisfatório no período de validação, ambos os coeficientes AR são significativamente diferentes de zero eo padrão O desvio dos resíduos foi reduzido de 1,54371 para 1,4215 (quase 10) pela adição dos termos AR. Além disso, não há sinal de uma raiz quotunit porque a soma dos coeficientes AR (0.2522540.195572) não é próxima de 1. (As raízes unitárias são discutidas em mais detalhes abaixo.) Em geral, este parece ser um bom modelo . As previsões (não transformadas) para o modelo mostram uma tendência linear ascendente projetada para o futuro: A tendência nas previsões de longo prazo é devido ao fato de que o modelo inclui uma diferença não sazonal e um termo constante: este modelo é basicamente uma caminhada aleatória com Crescimento ajustado pela adição de dois termos autorregressivos - ou seja, Dois atrasos das séries diferenciadas. A inclinação das previsões de longo prazo (ou seja, o aumento médio de um período para outro) é igual ao termo médio no resumo do modelo (0,467566). A equação de previsão é: onde 956 é o termo constante no resumo do modelo (0.258178), 981 1 é o coeficiente AR (1) (0.25224) e 981 2 é o coeficiente AR (2) (0.195572). Média versus constante: Em geral, o termo quotmeanquot na saída de um modelo ARIMA refere-se à média das séries diferenciadas (isto é, a tendência média se a ordem de diferenciação for igual a 1), enquanto que a constante é o termo constante que aparece No lado direito da equação de previsão. Os termos médio e constante estão relacionados pela equação: CONSTANT MEAN (1 menos a soma dos coeficientes AR). Neste caso, temos 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modelo alternativo para a série UNITS - ARIMA (0,2,1): Lembre-se que quando começamos a analisar a série UNITS, não estávamos inteiramente certos do Ordem correta de diferenciação para usar. Uma ordem de diferenças não sazonais apresentou o menor desvio padrão (e um padrão de autocorrelação positiva moderada), enquanto duas ordens de diferenças não sazonais renderam um gráfico de séries temporais mais estacionárias (mas com autocorrelação negativa bastante forte). Aqui estão tanto o ACF como o PACF da série com duas diferenças não sazonais: O único ponto negativo no intervalo 1 no ACF é uma assinatura MA (1), de acordo com a Regra 8 acima. Assim, se usássemos 2 diferenças não sazonais, também gostaríamos de incluir um termo MA (1), produzindo um modelo ARIMA (0,2,1). De acordo com a Regra 5, também gostaríamos de suprimir o termo constante. Observe que o desvio padrão do ruído branco estimado (RMSE) é apenas muito ligeiramente mais alto para este modelo do que o anterior (1,46301 aqui versus 1,45215 anteriormente). A equação de previsão para este modelo é: onde theta-1 é o coeficiente MA (1). Lembre-se que isto é semelhante a um modelo Linear Exponential Smoothing, com o coeficiente MA (1) correspondente à quantidade 2 (1-alfa) no modelo LES. O coeficiente MA (1) de 0,76 neste modelo sugere que um modelo LES com alfa na vizinhança de 0,72 caberia aproximadamente igualmente bem. Na verdade, quando um modelo LES é ajustado para os mesmos dados, o valor ótimo de alfa resulta em cerca de 0,61, o que não é muito longe. Aqui está um relatório de comparação de modelos que mostra os resultados da montagem do modelo ARIMA (2,1,0) com constante, o modelo ARIMA (0,2,1) sem constante eo modelo LES: Os três modelos têm um desempenho quase idêntico em O período de estimação eo modelo ARIMA (2,1,0) com constante aparece ligeiramente melhor do que os outros dois no período de validação. Com base apenas nestes resultados estatísticos, seria difícil escolher entre os três modelos. No entanto, se traçarmos as previsões de longo prazo feitas pelo modelo ARIMA (0,2,1) sem constante (que são essencialmente as mesmas que as do modelo LES), vemos uma diferença significativa com as do modelo anterior: As previsões têm uma tendência ligeiramente inferior à do modelo anterior - porque a tendência local próxima do final da série é ligeiramente inferior à tendência média em toda a série - mas os intervalos de confiança aumentam muito mais rapidamente. O modelo com duas ordens de diferenciação pressupõe que a tendência da série é variável no tempo, portanto considera o futuro distante muito mais incerto do que o modelo com apenas uma ordem de diferenciação. Qual o modelo que devemos escolher Isso depende das suposições que são confortáveis fazer com respeito à constância da tendência nos dados. O modelo com apenas uma ordem de diferenciação assume uma tendência média constante - é essencialmente um modelo de caminhada aleatória com crescimento fino - e, portanto, faz projeções de tendência relativamente conservadoras. Também é bastante otimista quanto à precisão com que ele pode prever mais de um período à frente. O modelo com duas ordens de diferenciação assume uma tendência local variável no tempo - é essencialmente um modelo linear de suavização exponencial - e suas projeções de tendência são um pouco mais inconstantes. Como regra geral neste tipo de situação, gostaria de recomendar a escolha do modelo com a menor ordem de diferenciação, outras coisas sendo praticamente iguais. Na prática, modelos de alisamento randômico ou simples-exponencial-suavização muitas vezes parecem funcionar melhor do que modelos de suavização linear exponencial. Modelos mistos: Na maioria dos casos, o melhor modelo resulta em um modelo que usa apenas termos AR ou apenas termos MA, embora em alguns casos um modelo quotmixedquot com termos AR e MA possa fornecer o melhor ajuste para os dados. No entanto, deve-se ter cuidado ao montar modelos mistos. É possível que um termo AR e um termo MA cancelem efeitos uns dos outros. Mesmo que ambos possam parecer significativos no modelo (conforme julgado pelas t-estatísticas de seus coeficientes). Assim, por exemplo, suponha que o modelo quotcorrectquot para uma série temporal é um modelo ARIMA (0,1,1), mas, em vez disso, você encaixa um modelo ARIMA (1,1,2) - isto é. Você inclui um termo AR adicional e um termo MA adicional. Em seguida, os termos adicionais podem acabar aparecendo significativo no modelo, mas internamente eles podem ser apenas trabalhar uns contra os outros. As estimativas de parâmetros resultantes podem ser ambíguas, eo processo de estimação de parâmetros pode levar muitas (por exemplo, mais de 10) iterações a convergir. Por isso: Regra 8: É possível que um termo AR e um termo MA cancelem efeitos uns dos outros, por isso, se um modelo AR-MA misturado parece ajustar-se aos dados, tente também um modelo com um termo AR menos e um termo MA menos - especialmente se as estimativas de parâmetros no modelo original exigem mais de 10 iterações para convergir. Por esta razão, os modelos ARIMA não podem ser identificados pela abordagem quotbackwardwise step que inclui tanto AR e MA termos. Em outras palavras, você não pode começar por incluir vários termos de cada tipo e, em seguida, jogando fora aqueles cujos coeficientes estimados não são significativos. Em vez disso, você normalmente segue uma abordagem passo a passo quotforward, adicionando termos de um tipo ou outro como indicado pelo aparecimento dos gráficos ACF e PACF. Raízes unitárias: Se uma série é grosseiramente sub ou sobredifferenciada - i. e. Se uma ordem inteira de diferenciação precisa ser adicionada ou cancelada, isso é frequentemente sinalizado por uma raiz quotunit nos coeficientes AR ou MA estimados do modelo. Diz-se que um modelo AR (1) tem uma raiz unitária se o coeficiente estimado de AR (1) for quase exatamente igual a 1. (Por citação exatamente igual, eu realmente não significo significativamente diferente de. Em termos do erro padrão dos coeficientes. ) Quando isso acontece, significa que o termo AR (1) está imitando exatamente uma primeira diferença, caso em que você deve remover o termo AR (1) e adicionar uma ordem de diferenciação. (Isto é exatamente o que aconteceria se você ajustasse um modelo de AR (1) à série UNITS indiferenciada, como observado anteriormente.) Em um modelo AR de ordem mais alta, existe uma raiz unitária na parte AR do modelo se a soma de Os coeficientes AR são exatamente iguais a 1. Neste caso, você deve reduzir a ordem do termo AR em 1 e adicionar uma ordem de diferenciação. Uma série temporal com uma raiz unitária nos coeficientes AR é não-estacionária - i. e. Ele precisa de uma ordem maior de diferenciação. Regra 9: Se houver uma raiz unitária na parte AR do modelo - i. e. Se a soma dos coeficientes AR é quase exatamente 1 - você deve reduzir o número de termos AR por um e aumentar a ordem de diferenciação por um. Da mesma forma, um modelo MA (1) é dito ter uma raiz unitária se o estimado MA (1) coeficiente é exatamente igual a 1. Quando isso acontece, isso significa que o termo MA (1) é exatamente cancelar uma primeira diferença, em Caso, você deve remover o termo MA (1) e também reduzir a ordem de diferenciação por um. Em um modelo MA de ordem superior, existe uma raiz unitária se a soma dos coeficientes MA for exatamente igual a 1. Regra 10: Se houver uma raiz unitária na parte MA do modelo - isto é. Se a soma dos coeficientes MA é quase exatamente 1 - você deve reduzir o número de termos MA por um e reduzir a ordem de diferenciação por um. Por exemplo, se você ajustar um modelo de suavização exponencial linear (um modelo ARIMA (0,2,2)) quando um modelo de suavização exponencial simples (um modelo ARIMA (0,1,1) teria sido suficiente, você pode achar que A soma dos dois coeficientes MA é praticamente igual a 1. Ao reduzir a ordem MA e a ordem de diferenciação por um cada, você obtém o modelo SES mais apropriado. Um modelo de previsão com uma raiz unitária nos coeficientes estimados de MA é dito não-reversível. Significando que os resíduos do modelo não podem ser considerados como estimativas do ruído aleatório quottruequot que gerou as séries temporais. Outro sintoma de uma raiz unitária é que as previsões do modelo podem quotblow upquot ou de outra forma se comportam bizarrely. Se o gráfico de séries temporais das previsões de longo prazo do modelo parecer estranho, você deve verificar os coeficientes estimados de seu modelo para a presença de uma raiz unitária. Regra 11: Se as previsões de longo prazo parecerem erráticas ou instáveis, pode haver uma raiz unitária nos coeficientes AR ou MA. Nenhum destes problemas surgiu com os dois modelos aqui ajustados, porque tínhamos o cuidado de começar com ordens plausíveis de diferenças e números apropriados de coeficientes AR e MA estudando os modelos ACF e PACF. Discussões mais detalhadas sobre raízes unitárias e efeitos de cancelamento entre os termos AR e MA podem ser encontradas na estrutura Matemática dos Modelos ARIMA handout. Regression Gretl Iremos realizar esta previsão em Gretl, uma vez que estimar parâmetros no Excel é bastante complicado. Em primeiro lugar, faça o download deste arquivo: Regression Dataset e faça o download do Gretl (Se você já fez isso antes). O conjunto de dados de regressão da planilha contém os mesmos dados do nosso conjunto de dados básico, no entanto houve algumas transformações. Em vez de número de reservas em determinado dia antes da data de chegada, eu calculo o número acumulado de reservas em determinado dia antes do dia de chegada. Pretendemos prever 2017, portanto eu cortei o período de dados para 1.10.201 8211 30.12.2017 8211 na folha de conjunto de dados para fins de modelagem A folha MAPE é expandida por reservas finais do período 1.01.2017 8211 30.12.2017 para fins de precisão de teste Deste método. Por favor, siga os meus passos aqui: 1. Primeiramente let8217s dados importantes da planilha de Regressão Dataset. Eu suponho que you8217ve já instalado software gretl 2. Encontre o local que você salvou a planilha e lembre-se de mudar o filtro no fundo direito de. xls para. xlsx 3. Iniciar importação na coluna 1 linha 1 4. Agora vamos escolher 8220model8221 e 8220ordinary menos Squares8221 8211 será o nosso método de estimação de parâmetros. 5. Agora nós escolhemos a nossa variável dependente (será número final de reservas na data de chegada 8211 Y0) e agora podemos escolher as variáveis independentes 8211 permite tentar conjuntos seguintes: Como resultado nosso modelo parece: Como devo usá-lo Se você quiser prever quantos quartos serão marcados amanhã (como amanhã é data de chegada) Você deve verificar quantos quartos são reservados hoje (para amanhã data) multiplicar o resultado por 0,598 e adicionar 42.067. por exemplo. Hoje é 31 de maio de 2017 e queremos prever qual será o número de reservas finais para tomorrow8217s data: 1 de junho de 2017. Sabemos que já temos 87 reservas para amanhã 42,067 0,59887 94 assim podemos prever que em 1 de maio Haverá 94 quartos reservados. B) Da mesma forma, podemos criar modelos com diferentes variáveis independentes, alguns exemplos que eu sugiro abaixo: 6. Então agora você criou todo o grupo de regressão linear diferente (estimado com OLS) modelos. Como escolher o melhor Para esta finalidade eu decidi usar o 7o modelo. Este modelo utiliza o número de reservas 1,3,7 dias antes da data de chegada como variáveis independentes. Assim nosso modelo olha como: Yt42,63 0,536Y1 0,057Y3 0,0097Y7 e nós podemos usar valores de 2017 para calcular previsão e MAPE. Os cálculos estão na planilha Regressão Dataset em 8220MAPE8221 Folha, como resultado, conseguimos MAPE de 5,7 o que é o menor assim resultado até agora. Isso também significa que esse método de previsão é o melhor até agora (no nosso conjunto de dados). Compartilhar Ir para: Motor de busca Arquivos2017-10-19 versão 2017d - adiciona função varnames (): semelhante a varname () mas retorna uma matriz de strings dada Um argumento de lista - função movavg (): adicionar opção para fornecer um inicializador específico para a média móvel exponencial também aprimora o comando GUI - setobs correspondente: fornecer meios mais flexíveis de definir nomes de grupos de painéis ao usar a opção --panel - groups - tabprint E comandos eqnprint: depreciar a sintaxe - f nome do arquivo em favor de --outputfilename - comando modtest: respeitar as opções --quiet e --silent quando o teste está em um modelo de multi-equação - Documentar algumas variáveis accessor indocumentadas - Fazer algum erro Mensagens mais específicas e explícitas - Adicionar novo Guia de Pacotes de Funções ao menu Ajuda - Planilha de edição de dados: melhorar a formatação de valores - Editor de pacotes de funções GUI: correções e melhorias adicionais - SVAR: implementar corretamente o procedimento de correção de bias Na leitura de um arquivo gdt contendo valores subnormais - Corrigir bug: usando opções com o comando de dados foi quebrado no programa GUI Fonte: README, atualizado 2017-10-19 Projetos Recomendados PSPP é um programa para análise estatística de dados amostrados Ofertas Obrigado por ajudar Manter SourceForge limpo. Clique em instruções do URL: Clique com o botão direito do mouse no anúncio, escolha Copiar link e cole aqui rarr (Isso pode não ser possível com alguns tipos de anúncios) SourceForge2017-02-24 versão 1.9.4 - Alterar o gerador de números aleatórios padrão da implementação GLibs O Mersenne Twister para o SIMD-orientado Fast Mersenne Twister - Introduzir addons: aprovado pacotes de função que são representados nos menus GUI - Adicionar uma opção --accessors para o comando varlist, para expor a lista de variáveis accessor (dólar) atualmente disponíveis - Adicionar mais opções de gráficos de dados do painel - série de tempo de meios de grupo e boxplots por grupo - e redesenhar a GUI para parcelas de painel - código GUI: modificar para permitir construir contra gtk3, com uma opção de configuração --enable-gtk3 - ícone GUI Vista: fornecer uma representação gráfica para bundles salvos - GUI diálogo para chamar funções definidas pelo usuário: várias melhorias - GUI acesso a X-12-ARIMA: dar opção de escrever e editar x12a arquivo. spc - GUI test-statistic calculator: fix a Bug no teste de uma variância - Novo acessador, vma: recupera a forma de média móvel de um VAR ou VECM - Nova função, inlist (): indica a posição de uma série dentro de uma lista com nome ou zero se a série não estiver presente - Nova função, isconst (): determina se uma série ou vetor tem um valor constante, e opcionalmente testes de invariância temporal ou invariância transversal para série de dados de painel - Nova função, strsub (): substitui uma substituição especificada para Uma sub-string especificada em seu primeiro argumento (string) - Nova função, ngetenv (): obtém o valor numérico da variável no ambiente - comando de estimativa: documentar o sinalizador --quiet e também ativar a opção --quiet para o sistema - Comando de resumo: adicione uma opção para imprimir as estatísticas de resumo para as colunas de um comando nomeado de matriz - outfile: adicionar facilidade para redirecionar a saída para stderr ou stdout - comando setobs: adicionar opção para anexar etiquetas de observação de um arquivo nomeado - comando heckit: - nova função, errmsg (): retorna a mensagem de erro gretl associada a um determinado código de erro inteiro - Nova função, rownames (): complementa a função colnames () para matrizes - Nova função mrls () Implementa a estimativa de mínimos quadrados restrita para os dados em forma de matriz - A função sdc () (coluna desvios padrão): adicionar um segundo argumento opcional para controlar o divisor - Nova variável de conjunto, matrixmask, que pode ser usado para controlar as observações incluídas ao construir matrizes Da série - Accessors test e pvalue: generalize para permitir valores de matriz (eg Do comando coint2) também garantem que esses valores sejam registrados ao usar restrição em conexão com um estimador do sistema, como o modificador SUR - catch para comandos: tornar este catch um intervalo mais amplo de erros - Funções corr (), cov () e fcstats ): Aceitar dois argumentos vetoriais no lugar de duas séries - Permitir exclusão de matrizes locais dentro de funções - Remover aliases obsoletos noecho e seed - Remover makemask função redundante - Corrigir alguns vazamentos de memória na GUI gretl - Armazenamento de dados em arquivos gdt: Corrigir erro: análise incorreta da linha de comando contendo um nome de arquivo que inclui parênteses à esquerda e / ou à direita - Corrigir bug: o acessador ec para a correção de erros Termos produzidos maus resultados para VECMs onde os cargas (alfa) termos foram estimados sujeitos a restrições - Corrigir bug: estimativas poderiam ficar fora de ordem para alguns sistemas de equação se a constante não foi dada em primeiro lugar entre os regressores - Corrigir bug: o diff Comando aplicado a um chumbo de uma série poderia produzir valores espúrios com dados do painel - Corrigir bug: segfault com loops aninhados quando o loop externo remodela o conjunto de dados e o interno gera uma série - Corrigir bug: a função isnull () Argumento é o nome de uma variável de seqüência de caracteres - Corrigir bug: análise incorreta do comando ARIMA com especificação gappy AR lags, por exemplo Arima 1 1 y - Corrigir bug: o acessador de unidade para dados do painel foi quebrado - Corrigir bug: o acessador kalmant não estava funcionando corretamente para o caso de um filtro que emprega matrizes variáveis no tempo - Corrigir bug: ao compactar um conjunto de dados usando o final - corrigir bugs 3180774 e 3183721 (problemas de compilação de 64 bits) - MS Windows: atualização GTK pilha e gnuplot Fonte: README. txt, atualizado 2017-02-24 Projetos recomendados PSPP é Um programa para análise estatística de dados amostrados Ofertas Obrigado por ajudar a manter SourceForge limpo. Clique em instruções de URL: Clique com o botão direito do mouse no anúncio, escolha Copiar link e cole aqui rarr (Isso pode não ser possível com alguns tipos de anúncios) SourceForge
No comments:
Post a Comment