Monday 23 October 2017

Como Fazer O Teste Lr No Stata Forex


AVISO: O grupo de consultoria estatística IDRE estará migrando o site para o WordPress CMS em fevereiro para facilitar a manutenção e criação de novos conteúdos. Algumas de nossas páginas antigas serão removidas ou arquivadas de modo que elas não serão mais mantidas. Vamos tentar manter os redirecionamentos para que os URLs antigos continuem a funcionar da melhor maneira possível. Bem-vindo ao Instituto de Pesquisa e Educação Digital Ajudar o Grupo de Consultoria Estatal, dando um presente FAQ: Como o índice de verossimilhança, Wald, e Lagrange multiplicam (testes de pontuação) diferentes ou similares. Um pesquisador estimou o seguinte modelo, que prevê alta versus baixa Pontuações de escrita em um teste padronizado (hiwrite), usando gênero (sexo feminino) e pontuação em pontuação padronizadas em leitura (leitura), matemática (matemática) e ciência (ciência). A saída para o modelo parece assim: o pesquisador gostaria de saber se esse modelo (com quatro variáveis ​​preditoras) se encaixa significativamente melhor que um modelo com apenas sexo feminino e lido como preditor. Como o pesquisador pode realizar isso. Existem três testes comuns que podem ser usados ​​para testar esse tipo de pergunta, são o teste da razão de verossimilhança (lr), o teste de Wald e o teste multiplicador de Lagrange (às vezes chamado de teste de pontuação). Esses testes às vezes são descritos como testes para diferenças entre modelos aninhados, porque um dos modelos pode ser dito ser aninhado dentro do outro. A hipótese nula para os três testes é que o modelo menor é o modelo quottruequot, uma grande estatística de teste indica que a hipótese nula é falsa. Enquanto os três testes abordam a mesma questão básica, eles são um pouco diferentes. Nesta página, descreveremos como realizar esses testes e discutir as semelhanças e diferenças entre eles. (Nota: estes testes são muito gerais e são usados ​​para testar outros tipos de hipóteses que envolvem testar se a fixação de um parâmetro prejudica significativamente o ajuste do modelo.) A probabilidade Os três testes usam a probabilidade de os modelos serem comparados para avaliar seu ajuste. A probabilidade é a probabilidade de dados dados pelo parâmetro estimado. O objetivo de um modelo é encontrar valores para os parâmetros (coeficientes) que maximizam o valor da função de verossimilhança, ou seja, para encontrar o conjunto de estimativas de parâmetros que tornam os dados mais prováveis. Muitos procedimentos usam o registro da probabilidade, em vez da própria probabilidade, porque é mais fácil trabalhar. A probabilidade do log (ou seja, o logaritmo da probabilidade) será sempre negativa, com valores maiores (mais próximos de zero) indicando um modelo de melhor ajuste. O exemplo acima envolve um modelo de regressão logística, no entanto, esses testes são muito gerais e podem ser aplicados a qualquer modelo com uma função de verossimilhança. Note-se que mesmo os modelos para os quais uma probabilidade ou uma probabilidade de log geralmente não são exibidos por software estatístico (por exemplo, regressão de mínimos quadrados comuns) têm funções de verossimilhança. Conforme mencionado acima, a probabilidade é uma função das estimativas de coeficientes e dos dados. Os dados são corrigidos, ou seja, você não pode alterá-los, então, altera as estimativas dos coeficientes de forma a maximizar a probabilidade (probabilidade). Estimativas de parâmetros diferentes ou conjuntos de estimativas dão valores diferentes da probabilidade. Na figura abaixo, o arco ou curva mostra as mudanças no valor da probabilidade de mudanças em um parâmetro (a). No eixo x são valores de a. Enquanto o eixo y é o valor da probabilidade no valor apropriado de a. A maioria dos modelos tem mais de um parâmetro, mas, se os valores de todos os outros coeficientes no modelo forem corrigidos, as mudanças em um dado mostrarão uma imagem semelhante. A linha vertical marca o valor de um que maximiza a probabilidade. O teste de razão de verossimilhança O teste lr é realizado estimando dois modelos e comparando o ajuste de um modelo com o ajuste do outro. A remoção de variáveis ​​de preditores de um modelo quase sempre tornará o modelo mais ajustado (ou seja, um modelo terá menor probabilidade de log), mas é necessário testar se a diferença observada no ajuste do modelo é estatisticamente significante. O teste lr faz isso comparando as probabilidades de log dos dois modelos, se esta diferença for estatisticamente significante, então o modelo menos restritivo (aquele com mais variáveis) é dito que se encaixa melhor nos dados do que o modelo mais restritivo. Se tivermos as probabilidades de log dos modelos, o teste lr é bastante fácil de calcular. A fórmula para a estatística de teste de lr é: lr -2 ln (L (m1) L (m2)) 2 (ll (m2) - ll (m1)) Onde L (m) denota a probabilidade do modelo respectivo (qualquer um dos modelos 1 ou modelo 2), e ll (m) o log natural da probabilidade final dos modelos (ou seja, a probabilidade do log). Onde m1 é o modelo mais restritivo, e m2 é o modelo menos restritivo. A estatística de teste resultante é distribuída em qui-quadrado, com graus de liberdade iguais ao número de parâmetros que são restritos (no exemplo atual, o número de variáveis ​​removidas do modelo, ou seja, 2). Usando o mesmo exemplo acima, executaremos o modelo completo e restrito, e avaliaremos a diferença de ajuste usando o teste lr. O modelo um é o modelo usando feminino e lido como preditor (não incluindo matemática e ciência no modelo, limitamos seus coeficientes a zero). Abaixo está a saída para o modelo 1. Vamos ignorar a interpretação dos resultados, porque esse não é o foco de nossa discussão, mas vamos tomar nota da probabilidade de log final impressa logo acima da tabela de coeficientes (ll (m1) -102.45 ). Agora podemos executar o modelo 2, no qual os coeficientes para ciência e matemática são estimados livremente, isto é, um modelo com o conjunto completo de variáveis ​​preditoras. Abaixo está saída para o modelo 2. Mais uma vez, ignoraremos a interpretação e apenas tomar nota da probabilidade de log (ll (m2) -84.42). Agora que temos ambas as probabilidades de log, o cálculo da estatística de teste é simples: LR 2 (-84.419842 - (-102.44518)) 2 (-84.419842 102.44518) 36.050676 Então nossa estatística de teste de razão de verossimilhança é 36.05 (chi-quadrado distribuído), com dois graus de liberdade. Agora podemos usar uma tabela ou algum outro método para encontrar o valor p associado, que é p lt 0.001, indicando que o modelo com os quatro preditores se encaixa significativamente melhor do que o modelo com apenas dois preditores. Observe que muitos pacotes estatísticos irão realizar um teste lr comparando dois modelos, realizamos o teste à mão porque é fácil de calcular e, por isso, deixa claro o funcionamento do teste lr. O teste de Wald O teste de Wald se aproxima do teste de lr, mas com a vantagem de que ele só precisa estimar um modelo. O teste Wald funciona testando a hipótese nula de que um conjunto de parâmetros é igual a algum valor. No modelo que está sendo testado aqui, a hipótese nula é que os dois coeficientes de interesse são simultaneamente iguais a zero. Se o teste não rejeitar a hipótese nula, isso sugere que remover as variáveis ​​do modelo não prejudicará substancialmente o ajuste desse modelo, uma vez que um preditor com um coeficiente muito pequeno em relação ao seu erro padrão geralmente não está fazendo muito para Ajudar a prever a variável dependente. A fórmula para um teste de Wald é um pouco mais assustadora do que a fórmula para o teste lr, então não escreveremos aqui (veja Fox, 1997, pág. 569, ou outros textos de regressão se você estiver interessado). Para dar-lhe uma intuição sobre como o teste funciona, ele testa até que ponto os parâmetros estimados são de zero (ou qualquer outro valor sob a hipótese nula) em erros padrão, semelhante aos testes de hipóteses tipicamente impressos em resultados de regressão. A diferença é que o teste de Wald pode ser usado para testar vários parâmetros simultaneamente, enquanto os testes tipicamente impressos na saída de regressão apenas testam um parâmetro de cada vez. Voltando ao nosso exemplo, usaremos um pacote estatístico para executar nosso modelo e depois executar o teste de Wald. Abaixo, vemos a saída para o modelo com os quatro preditores (a mesma saída que o modelo 2 acima). Depois de executar o modelo de regressão logística, o teste de Wald pode ser usado. O resultado abaixo mostra os resultados do teste Wald. O primeiro item listado nesta saída específica (o método de obtenção do teste de Wald e a saída pode variar de acordo com a embalagem) são as restrições de parâmetro específico testadas (ou seja, a hipótese nula), que é que os coeficientes para matemática e ciência são simultaneamente iguais Para zero. Abaixo da lista de restrições, vemos o valor chi-quadrado gerado pelo teste Wald, bem como o valor p associado a um qui-quadrado de 27,53 com dois graus de liberdade. O valor de p é inferior ao critério geralmente utilizado de 0,05, portanto, somos capazes de rejeitar a hipótese nula, indicando que os coeficientes não são simultaneamente iguais a zero. Porque incluir preditores estatisticamente significativos deve levar a uma melhor predição (ou seja, melhor ajuste do modelo), podemos concluir que incluir matemática e ciência resulta em uma melhoria estatisticamente significativa no ajuste do modelo. O multiplicador de Lagrange ou teste de pontuação Tal como acontece com o teste de Wald, o teste de multiplicador de Lagrange requer estimar apenas um modelo único. A diferença é que, com o teste multiplicador Lagrange, o modelo estimado não inclui o (s) parâmetro (s) de interesse. Isso significa que, no nosso exemplo, podemos usar o teste de multiplicador Lagrange para testar se a adição de ciência e matemática ao modelo resultará em uma melhoria significativa no ajuste do modelo, depois de executar um modelo com apenas sexo feminino e ler como variáveis ​​preditoras. A estatística de teste é calculada com base na inclinação da função de verossimilhança nos valores observados das variáveis ​​no modelo (feminino e lido). Esta inclinação estimada, ou quotscorequot é a razão pela qual o teste do multiplicador de Lagrange às vezes é chamado de teste de pontuação. As pontuações são então usadas para estimar a melhora no ajuste do modelo se variáveis ​​adicionais fossem incluídas no modelo. A estatística de teste é a mudança esperada na estatística do qui-quadrado para o modelo se uma variável ou conjunto de variáveis ​​for adicionado ao modelo. Como testar a melhoria do ajuste do modelo se as variáveis ​​que são omitidas atualmente são adicionadas ao modelo, o teste do multiplicador de Lagrange às vezes também é referido como um teste para variáveis ​​omitidas. Também são algumas vezes referidos como índices de modificação, particularmente na literatura de modelagem de equações estruturais. Abaixo está a saída para o modelo de regressão logística usando as variáveis ​​femininas e lido como preditores de hiwrite (isto é o mesmo que o modelo 1 do teste lr). Depois de executar o modelo acima, podemos observar os resultados do teste do multiplicador Lagrange. Ao contrário dos dois testes anteriores, que são usados ​​principalmente para avaliar a mudança no ajuste do modelo quando mais de uma variável é adicionada ao modelo, o teste do multiplicador Lagrange pode ser usado para testar a mudança esperada no ajuste do modelo se um ou mais parâmetros que são Atualmente limitados podem ser estimados livremente. No nosso exemplo, isso significa testar se a adição de matemática e ciência ao modelo melhoraria significativamente o ajuste do modelo. Abaixo está a saída para o teste de pontuação. As duas primeiras linhas na tabela fornecem as estatísticas de teste (ou pontuações) para adicionar qualquer variável sozinha ao modelo. Para prosseguir com o nosso exemplo, nos concentraremos nos resultados na terceira linha rotulada de teste quotsimultâneo, que mostra a estatística de teste para adicionar matemática e ciência ao nosso modelo. A estatística de teste para adicionar matemática e ciência ao modelo é 35.51, é distribuída em qui-quadrado, com graus de liberdade iguais ao número de variáveis ​​que são adicionadas ao modelo, portanto, em nosso exemplo, 2. O valor p é Abaixo do ponto de corte típico de 0,05, sugerindo que incluir as variáveis ​​matemática e ciência no modelo criaria uma melhoria estatisticamente significativa no ajuste do modelo. Esta conclusão é consistente com os resultados dos testes de lr e Wald. Uma comparação dos três testes Como discutido acima, os três testes abordam a mesma questão básica, ou seja, os parâmetros de restrição a zero (ou seja, deixando para fora essas variáveis ​​de preditores) reduzem o ajuste do modelo. A diferença entre os testes é como eles vão Sobre a resposta a essa pergunta. Como você viu, para realizar um teste de razão de verossimilhança, é preciso estimar ambos os modelos que se deseja comparar. A vantagem dos testes do multiplicador (ou pontuação) Wald e Lagrange é que eles se aproximam do teste lr, mas exigem que apenas um modelo seja estimado. Tanto os testes de multiplicadores Wald e Lagrange são assintoticamente equivalentes ao teste lr, ou seja, à medida que o tamanho da amostra se torna infinitamente grande, os valores das estatísticas de teste do multiplicador Wald e Lagrange se tornarão cada vez mais próximos da estatística de teste do teste lr. Em amostras finitas, os três tenderão a gerar estatísticas de teste um tanto diferentes, mas geralmente chegarão à mesma conclusão. Uma relação interessante entre os três testes é que, quando o modelo é linear, as três estatísticas de teste possuem a seguinte classificação Wald 8805 LR 8805 (Johnston e DiNardo, 1997, p.150). Ou seja, a estatística de teste Wald sempre será maior do que a estatística de teste LR, que, por sua vez, será sempre maior que a estatística de teste do teste de pontuação. Quando o poder de computação era muito mais limitado, e muitos modelos demoravam muito para ser executados, ser capaz de aproximar o teste lr usando um único modelo era uma grande vantagem. Hoje, para a maioria dos modelos, os pesquisadores provavelmente irão se comparar, o tempo computacional não é um problema, e geralmente recomendamos executar o teste da razão de verossimilhança na maioria das situações. Isso não quer dizer que nunca se deve usar o Wald ou testes de pontuação. Por exemplo, o teste Wald é comumente usado para realizar vários testes de grau de liberdade em conjuntos de variáveis ​​falsas usadas para modelar variáveis ​​preditoras categóricas em regressão (para mais informações, veja nossos webbooks em Regressão com Stata, SPSS e SAS. Especificamente Capítulo 3 - Regressão com Preditores Categóricos.) A vantagem do teste de pontuação é que ele pode ser usado para procurar variáveis ​​omitidas quando o número de variáveis ​​candidatas é grande. Figura com base em uma figura em Fox (1997, p. 570) usada com a permissão dos autores. Uma maneira de entender melhor como os três testes estão relacionados, e como eles são diferentes, é olhar para uma representação gráfica do que estão testando. A figura acima ilustra o que cada um dos três testes faz. Ao longo do eixo x (rotulado quotaquot) são possíveis valores do parâmetro a (no nosso exemplo, este seria o coeficiente de regressão para matemática ou ciência). Ao longo do eixo dos e são os valores da probabilidade do log correspondente aos valores de a. O teste lr compara as probabilidades de log de um modelo com valores do parâmetro limitado a algum valor (no nosso exemplo zero) para um modelo onde a é estimado livremente. Isso faz isso comparando a altura das probabilidades dos dois modelos para ver se a diferença é estatisticamente significante (lembre-se, valores mais altos da probabilidade indicam melhor ajuste). Na figura acima, isso corresponde à distância vertical entre as duas linhas pontilhadas. Em contraste, o teste Wald compara a estimativa de parâmetro a-hat para a0 a0 é o valor de uma hipótese nula, que geralmente declara que um 0. Se um chapéu é significativamente diferente de a0. Isso sugere que a estimativa livre de um (usando um chapéu) melhora significativamente o ajuste do modelo. Na figura, isso é mostrado como a distância entre a0 e a-hat no eixo dos x (destacada pelas linhas contínuas). Finalmente, o teste de pontuação analisa a inclinação da probabilidade de log quando a é restrita (em nosso exemplo para zero). Ou seja, analisa a rapidez com que a probabilidade está mudando no valor hipotético (nulo) de a. Na figura abaixo, isso é mostrado como a linha tangente em a0. Referências Fox, J. (1997) Análise de regressão aplicada, modelos lineares e métodos relacionados. Thousand Oaks, CA: Sage Publications. Johnston, J. e DiNardo, J. (1997) Métodos econométricos, quarta edição. New York, NY: The McGraw-Hill Companies, Inc. NOTICE: O grupo de consultoria estatística IDRE estará migrando o site para o WordPress CMS em fevereiro para facilitar a manutenção e criação de novos conteúdos. Algumas de nossas páginas antigas serão removidas ou arquivadas de modo que elas não serão mais mantidas. Vamos tentar manter os redirecionamentos para que os URLs antigos continuem a funcionar da melhor maneira possível. Bem-vindo ao Instituto de Pesquisas Digitais e Educação Ajude o Grupo de Consultoria Estatal dando um presente Stata FAQ Como posso realizar o teste multiplicador, Wald e Lagrange em Stata O teste de razão de verossimilhança (teste lr), teste de Wald, E o teste do multiplicador Lagrange (às vezes chamado de teste de pontuação) são comumente usados ​​para avaliar a diferença entre os modelos aninhados. Um modelo é considerado aninhado em outro se o primeiro modelo pode ser gerado impondo restrições aos parâmetros do segundo. Na maioria das vezes, a restrição é que o parâmetro é igual a zero. Em um modelo de regressão, a restrição de parâmetros a zero é realizada removendo as variáveis ​​preditoras do modelo. Por exemplo, nos modelos abaixo, o modelo com as variáveis ​​preditores femininas. e leia . Está aninhado dentro do modelo com as variáveis ​​preditoras femininas. ler . Matemática. E ciência. Os testes de multiplicador lr, Wald e Lagrange fazem a mesma pergunta básica, o que é, restringe esses parâmetros a zero (ou seja, deixando para fora essas variáveis ​​de preditores) reduzem significativamente o ajuste do modelo. Para realizar um teste de razão de verossimilhança, é preciso estimar ambos Dos modelos que se deseja comparar. A vantagem dos testes Wald e score é que eles se aproximam do teste lr, mas exigem que apenas um modelo seja estimado. Quando o poder de computação era muito mais limitado, e muitos modelos demoravam muito para correr, essa era uma grande vantagem. Hoje, para a maioria dos modelos, os pesquisadores provavelmente irão comparar, isso não é um problema, e geralmente recomendamos executar o teste da razão de verossimilhança na maioria das situações. Isso não quer dizer que nunca se deve usar o Wald ou testes de pontuação. Por exemplo, o teste de Wald é comumente usado para realizar testes de vários graus de liberdade em conjuntos de variáveis ​​dummy usadas para modelar variáveis ​​categóricas em regressão (para mais informações, veja nosso webbook em Regressão com Stata, especificamente Capítulo 3 - Regressão com Preditores Categóricos). Outro exemplo são os índices de quotmodificação utilizados na modelagem de equações estruturais, são testes de multiplicadores Lagrange. Como mencionado acima, o teste lr requer que dois modelos sejam executados, um dos quais tem um conjunto de parâmetros (variáveis) e um segundo modelo com todos os parâmetros do primeiro, mais uma ou mais variáveis. O teste Wald examina um modelo com mais parâmetros e avalia se restringir esses parâmetros (geralmente a zero, removendo as variáveis ​​associadas do modelo) prejudica seriamente o ajuste do modelo. Em contraste, o teste de pontuação examina os resultados de um modelo menor e pergunta se a adição de uma ou mais variáveis ​​omitidas melhoraria o ajuste do modelo. Em geral, os três testes devem chegar à mesma conclusão (porque o teste Wald e score, pelo menos em teoria, aproxima o teste lr). Como exemplo, vamos testar uma diferença estatisticamente significante entre dois modelos, usando os três testes. O conjunto de dados para este exemplo inclui dados demográficos, bem como pontuações padronizadas para 200 alunos do ensino médio. Vamos comparar dois modelos. A variável dependente para ambos os modelos é hiwrite (para ser aninhado, dois modelos devem compartilhar a mesma variável dependente), que é uma variável dicotômica que indica que o aluno teve uma pontuação de escrita acima da média. Existem quatro possíveis variáveis ​​preditoras, femininas. Uma variável dummy que indica que o aluno é feminino e as variáveis ​​contínuas são lidas. Matemática. E ciência. Quais são os alunos padronizados nos resultados de testes em leitura, matemática e ciência, respectivamente. Vamos testar um modelo contendo apenas as variáveis ​​preditoras feminino e lido. Contra um modelo que contém as variáveis ​​preditores feminino e lido. Bem como, as variáveis ​​preditoras adicionais, matemática e ciência. Exemplo de um teste de razão de verossimilhança. Conforme discutido acima, o teste lr envolve estimar dois modelos e compará-los. A fixação de um ou mais parâmetros a zero, ao remover as variáveis ​​associadas a esse parâmetro do modelo, quase sempre tornará o modelo mais adequado, de modo que uma mudança na probabilidade do log não significa necessariamente que o modelo com mais variáveis ​​se encaixa significativamente melhor. O teste lr compara as probabilidades de log dos dois modelos e verifica se essa diferença é estatisticamente significante. Se a diferença for estatisticamente significante, então o modelo menos restritivo (o que possui mais variáveis) é adequado para os dados significativamente melhor do que o modelo mais restritivo. A estatística do teste lr é calculada da seguinte maneira: LR -2 ln (L (m1) L (m2)) 2 (ll (m2) - ll (m1)) Onde L (m) denota a probabilidade do modelo respectivo, E ll (m) o log natural da probabilidade dos modelos. Esta estatística é distribuída chi-quadrado com graus de liberdade igual à diferença no número de graus de liberdade entre os dois modelos (ou seja, o número de variáveis ​​adicionadas ao modelo). Para realizar o teste de razão de verossimilhança, precisaremos executar ambos os modelos e tomar nota de suas verificações de logs finais. Vamos executar os modelos usando o Stata e usar comandos para armazenar as probabilidades de log. Nós também poderíamos simplesmente copiar a probabilidade para baixo (por exemplo, escrevendo-os, cortando e colando), mas usar comandos é um pouco mais fácil e é menos provável que resulte em erros. A primeira linha de sintaxe abaixo lê no conjunto de dados do nosso site. A segunda linha de sintaxe executa um modelo de regressão logística, prevendo o hiwrite com base no sexo dos alunos (feminino) e nas pontuações de leitura (leitura). A terceira linha de código armazena o valor da probabilidade de log para o modelo, que é temporariamente armazenado como a estimativa retornada e (ll) (para mais informações, digite, ajude a retornar na janela de comando do Stata), no escalar chamado m1. Abaixo está a saída. Para realizar o teste de razão de verossimilhança, precisaremos acompanhar a probabilidade do log (-102.44), a sintaxe para este exemplo (acima) faz isso armazenando o valor em um escalar. Uma vez que não é nossa principal preocupação aqui, ignoraremos a interpretação do modelo de regressão logística restante. Observe que armazenar a estimativa retornada não produz qualquer saída. A primeira linha de sintaxe abaixo executa o segundo modelo, ou seja, o modelo com as quatro variáveis ​​preditoras. A segunda linha de código armazena o valor da probabilidade de log para o modelo (-84.4), que é temporariamente armazenado como a estimativa retornada (e (ll)), no escalar chamado m2. Mais uma vez, não falamos muito sobre o resultado, exceto para notar que os coeficientes para matemática e ciência são ambos estatisticamente significativos. Então sabemos que, individualmente, são preditores estatisticamente significativos de hiwrite. Agora que temos as probabilidades de log de ambos os modelos, podemos realizar um teste de razão de verossimilhança. A primeira linha de sintaxe abaixo calcula a estatística de teste da razão de verossimilhança. A segunda linha de sintaxe abaixo encontra o valor p associado à nossa estatística de teste com dois graus de liberdade. Olhando abaixo, vemos que a estatística de teste é 36,05 e que o valor de p associado é muito baixo (menos de 0,0001). Os resultados mostram que adicionar matemática e ciência como variáveis ​​preditoras em conjunto (e não apenas individualmente) resulta em uma melhoria estatisticamente significante no ajuste do modelo. Note-se que, se realizássemos um teste de razão de verossimilhança para adicionar uma única variável ao modelo, os resultados seriam os mesmos que o teste de significância para o coeficiente dessa variável apresentado na tabela acima. Usando os comandos de Statsestapostim para calcular um teste de razão de verossimilhança Como você viu, é fácil calcular um teste de razão de verossimilhança por mão. No entanto, você também pode usar o Stata para armazenar as estimativas e executar o teste para você. Este método é ainda mais fácil, e provavelmente menos propenso a erros. A primeira linha de sintaxe executa um modelo de regressão logística, prevendo o hiwrite com base no sexo do estudante (feminino) e nas pontuações de leitura (leitura). A segunda linha de sintaxe pede a Stata para armazenar as estimativas do modelo que acabamos de executar e instrui a Stata que queremos chamar as estimativas m1. É necessário dar um nome às estimativas, uma vez que a Stata permite aos usuários armazenar as estimativas de mais de uma análise, e estaremos armazenando mais de um conjunto de estimativas. Abaixo está a saída. Uma vez que não é nossa principal preocupação aqui, ignoraremos a interpretação do modelo de regressão logística. Observe que armazenar as estimativas não produz qualquer saída. A primeira linha de sintaxe abaixo deste parágrafo executa o segundo modelo, que é o modelo com as quatro variáveis ​​preditoras. A segunda linha de sintaxe economiza as estimativas desse modelo e os nomeia m2. Abaixo da sintaxe é gerada a saída. Mais uma vez, não falamos muito sobre o resultado, exceto para notar que os coeficientes para matemática e ciência são ambos estatisticamente significativos. Então sabemos que, individualmente, são preditores estatisticamente significativos de hiwrite. Os testes abaixo nos permitirão testar se a adição dessas duas variáveis ​​ao modelo melhora significativamente o ajuste do modelo, em comparação com um modelo que contém apenas sexo e leitura. A primeira linha de sintaxe abaixo mostra ao Stata que queremos executar um teste lr e que queremos comparar as estimativas que salvamos como m1 para aqueles que guardamos em m2. A saída nos lembra que este teste pressupõe que A está aninhado em B, o que é. Ele também nos dá o valor chi-quadrado para o teste (36.05), bem como o valor p para um qui-quadrado de 36.05 com dois graus de liberdade. Observe que os graus de liberdade para o teste lr, juntamente com os outros dois testes, são iguais ao número de parâmetros que são restritos (ou seja, removidos do modelo), no nosso caso, 2. Observe que os resultados são os mesmos Quando calculamos o teste lr à mão acima. Adicionando matemática e ciência como variáveis ​​preditoras em conjunto (não apenas individualmente) resulta em uma melhoria estatisticamente significativa no ajuste do modelo. Conforme observado quando calculamos o teste da razão de verossimilhança à mão, se realizarmos um teste de razão de verossimilhança para adicionar uma única variável ao modelo, os resultados seriam os mesmos que o teste de significância do coeficiente para essa variável apresentado na tabela acima. Toda a sintaxe para um teste de razão de verossimilhança, tudo em um bloco, parece assim: Exemplo de um teste Wald Como mencionado acima, o teste Wald aproxima-se do teste lr, mas com a vantagem de que ele só precisa estimar um modelo. O teste de Wald funciona testando que os parâmetros de interesse são simultaneamente iguais a zero. Se eles são, isso sugere fortemente que removê-los do modelo não reduzirá substancialmente o ajuste desse modelo, uma vez que um preditor cujo coeficiente é muito pequeno em relação ao seu erro padrão geralmente não está fazendo muito para ajudar a prever a variável dependente. O primeiro passo na execução de um teste Wald é executar o modelo completo (ou seja, o modelo que contém as quatro variáveis ​​preditoras). A primeira linha de sintaxe abaixo faz isso (mas usa o prefixo silencioso para que a saída da regressão não seja mostrada). A segunda linha de sintaxe abaixo instrui Stata a executar um teste Wald para testar se os coeficientes para as variáveis ​​matemática e ciência são simultaneamente iguais a zero. A saída primeiro dá a hipótese nula. Abaixo disso, vemos o valor do qui-quadrado gerado pelo teste de Wald, bem como o valor de p associado a um qui-quadrado de 27,53 com dois graus de liberdade. Com base no valor p, somos capazes de rejeitar a hipótese nula, indicando novamente que os coeficientes para matemática e ciência não são simultaneamente iguais a zero, o que significa que incluir essas variáveis ​​cria uma melhoria estatisticamente significativa no ajuste do modelo. Exemplo de uma pontuação ou teste multiplicador Lagrange Por favor, note que o testomit escrito pelo usuário não está mais disponível no Stata. Para realizar o teste de pontuação, você precisará baixar dois pacotes escritos pelo usuário para o Stata. Esses pacotes são chamados enumopt e testomit. Se o seu computador estiver online, você pode digitar findit enumopt na janela de comando do Stata. (Para mais informações ou ajuda, veja a nossa página de perguntas frequentes. Como faço para encontrar find para procurar programas e ajuda adicional). Assumindo que os pacotes necessários estão instalados, a sintaxe abaixo mostra como executar um teste de pontuação. A primeira linha de sintaxe executa o modelo com apenas sexo feminino e lê como variáveis ​​preditoras (lembre-se de que o teste de pontuação usa um modelo com menos variáveis ​​e testes para variáveis ​​omitidas). A próxima linha usa o comando prever gerar uma nova variável chamada teste que contém a pontuação para cada caso. Sem entrar em detalhes demais, as pontuações aqui são baseadas no modelo estimado e o valor das variáveis ​​no modelo para cada caso. A terceira linha de sintaxe usa o comando testomit para examinar se as variáveis ​​matemática e ciência são variáveis ​​que foram omitidas incorretamente no modelo. A pontuação da opção (teste) diz a Stata o nome da variável que contém as pontuações, embora esteja na seção de opções (isto é, após a vírgula), isso é necessário. Observe que o testomit escrito pelo usuário não está mais disponível no Stata. A primeira parte da saída fornece o tipo de modelo executado, seguido de uma tabela de resultados. Os resultados do teste de pontuação são distribuídos em qui-quadrado com graus de liberdade iguais ao número de variáveis ​​adicionadas ao modelo. A tabela tem três colunas, a primeira dando o valor da estatística de teste, a segunda o número de graus de liberdade para o teste e a terceira fornecendo o valor de p associado a um qui-quadrado de um determinado valor com um número determinado De graus de liberdade. As variáveis ​​matemática e ciência aparecem separadamente em suas próprias linhas, as duas primeiras linhas contêm os resultados para um teste de se adicionar (mas não ambas) essas variáveis ​​ao modelo melhoraria significativamente o ajuste do modelo. A linha inferior, teste simultâneo marcado, testa se a adição de ambas as variáveis ​​ao modelo melhorará significativamente o ajuste do modelo. Os resultados apresentados na tabela são consistentes com os testes Wald e lr que realizamos acima. Eles também são consistentes com a saída de regressão acima, em que os coeficientes para matemática e ciência foram estatisticamente significativos. O comando testomit se comporta de forma um pouco diferente para diferentes comandos de estimativa. Abaixo estão exemplos de como usar o testomit com vários outros comandos de regressão. A maioria dos comandos de equações múltiplas usará uma sintaxe semelhante à sintaxe do mlogit. Duas excepções são ologit e oprobit. E regredir. Que são mostrados separadamente. Observe que o testomit escrito pelo usuário não está mais disponível no Stata. Para mlogit e muitos outros comandos de equações múltiplas: Para ologit e oprobit:

No comments:

Post a Comment