Tuesday 31 October 2017

Usando Imputado Data In Stata Forex


Imputação Múltipla em Stata: Imputando Esta é a parte quatro da Imputação Múltipla na série Stata. Para uma lista de tópicos abordados por esta série, veja a Introdução. Esta seção irá falar você através dos detalhes do processo de imputação. Certifique-se de que você leu pelo menos a seção anterior, Criando Modelos de Imputação. Então você tem uma sensação de quais problemas podem afetar a validade de seus resultados. Exemplo de dados Para ilustrar o processo, use um conjunto de dados fabricados. Ao contrário daqueles na seção de exemplos, este conjunto de dados foi projetado para ter alguma semelhança com dados do mundo real. Raça feminina (binária) (categórica, três valores) edu urbano (ordenado categórico, quatro valores) exp (contínuo) salário (contínuo) Falta. Cada valor de todas as variáveis, exceto a mulher, tem 10 chances de faltar completamente ao acaso, mas é claro que, no mundo real, não saberemos que é MCAR antes do tempo. Assim, verificamos se é MCAR ou MAR (o MNAR não pode ser verificado observando os dados observados) usando o procedimento descrito em Decidindo a Imputa: unab numvars: missavers de unab: soma de missil de salário urbano, gen (miss) foreach var of Missvares locais covars locais: lista numvars - var display newline (3) quotlogit falta de var em covarsquot logit missvar covars foreach nvar de covars locais exibem newline (3) quotttest de nvar por falta de varquot ttest nvar, por (missvar) Consulte o log Arquivar resultados. Nosso objetivo é regredir os salários em relação ao sexo, raça, nível educacional e experiência. Para ver as respostas quotrightquot, abra o arquivo do que cria o conjunto de dados e examine o comando gen que define o salário. O código completo para o processo de imputação pode ser encontrado no seguinte arquivo: O processo de imputação cria muitos resultados. Bem colocados destaques nesta página, no entanto, um arquivo de log completo, incluindo os gráficos associados, pode ser encontrado aqui: cada seção deste artigo terá links para a seção relevante do log. Clique em quotbackquot no seu navegador para retornar a esta página. Configuração O primeiro passo no uso de meus comandos é configurar os dados. Isso é algo semelhante ao svyset. Tsset. Ou xtset. O comando mi set diz a Stata como deve armazenar as imputações adicionais que você criará. Sugerimos usar o formato amplo, pois é um pouco mais rápido. Por outro lado, mlong usa um pouco menos de memória. Para que o Stata use a estrutura de dados ampla, digite: Para que o Stata use a estrutura de dados de mlong (longos marginais), digite: A terminologia ampla e longa é emprestada para remodelar e as estruturas são semelhantes. No entanto, eles não são equivalentes e você nunca usaria remodelar para alterar a estrutura de dados usada por mi. Em vez disso, digite mi converter broad ou ml convert mlong (adicione, limpe se os dados não foram salvos desde a última alteração). Na maioria das vezes você não precisa se preocupar sobre como as imputações são armazenadas: os meus comandos descobrem automaticamente como aplicar o que você faz para cada imputação. Mas se você precisa manipular os dados de uma maneira que não posso fazer por você, então você precisa aprender sobre os detalhes da estrutura que você está usando. Você também precisa ser muito, muito cuidadoso. Se você estiver interessado em tais coisas (incluindo os formatos de flongse e flongsep raramente usados), execute esse arquivo e leia os comentários que ele contém ao examinar o navegador de dados para ver como os dados se parecem em cada formulário. Registrando Variáveis ​​Os comandos mi reconhecem três tipos de variáveis: as variáveis ​​inválidas são variáveis ​​que mi é para imputar ou imputou. As variáveis ​​regulares são variáveis ​​que não é para imputar, quer pela escolha, quer porque não estão faltando nenhum valor. As variáveis ​​passivas são variáveis ​​que são completamente determinadas por outras variáveis. Por exemplo, o salário de registro é determinado pelo salário, ou um indicador de obesidade pode ser determinado por uma função de peso e altura. Os termos de interação também são variáveis ​​passivas, embora você use a sintaxe de interação Statas, você não terá que declará-las como tal. As variáveis ​​passivas são muitas vezes problemáticas82. Os exemplos de transformações. Não-linearidade. E as interações mostram como o uso inapropriado pode levar a estimativas tendenciosas. Se uma variável passiva é determinada por variáveis ​​regulares, então ela pode ser tratada como uma variável regular, uma vez que nenhuma imputação é necessária. As variáveis ​​passivas só devem ser tratadas como tal se dependerem de variáveis ​​imputadas. Registrar uma variável diz a Stata que tipo de variável é. As variáveis ​​impostas sempre devem ser registradas: mi registrada na varlist imputada onde varlist deve ser substituída pela lista real de variáveis ​​a serem imputadas. As variáveis ​​regulares muitas vezes não precisam ser registradas, mas é uma boa idéia: me registrar varlist regular Variáveis ​​passivas devem ser registradas: mi register passari varlist No entanto, as variáveis ​​passivas são mais freqüentemente criadas após a imputação. Faça com mi passivo e eles serão registrados como passivos automaticamente. Nos nossos dados de exemplo, todas as variáveis, exceto as mulheres, precisam ser imputadas. O comando de inscrição apropriado é: meu registro imputado salário de corrida (Observe que você não pode usar como seu varlist mesmo se você tiver que imputar todas as suas variáveis, porque isso inclui as variáveis ​​de sistema adicionadas por meu conjunto para acompanhar a estrutura de imputação .) Registrar uma fêmea como regular é opcional, mas uma boa idéia: me registrar fêmea normal Verificando o Modelo de Imputação Com base nos tipos de variáveis, os óbvios métodos de imputação são: raça (categórica, três valores): mlogit urbano (binário): Logit edu (ordenado categórico, quatro valores): ologit exp (contínuo): regressar salário (contínuo): regredir a mulher não precisa ser imputada, mas deve ser incluída nos modelos de imputação tanto porque está no modelo de análise quanto porque é Provavelmente seja relevante. Antes de proceder à imputação, verificaremos cada um dos modelos de imputação. Execute sempre cada um de seus modelos de imputação de forma individual, fora do contexto imputado em quadril, para ver se eles convergem e (na medida do possível) verificam se estão especificados corretamente. O código para executar cada um desses modelos é: raça mlogit i. urban exp salário i. edu i. female logit urbano i. race exp salário i. edu i. female ologit edu i. urban i. race exp salário i. female regression exp I. urban i. race salário i. edu i. female regressar salário i. urban i. race exp i. edu i. female Observe que quando variáveis ​​categóricas (ordenadas ou não) aparecem como covariáveis ​​i. Os expande em conjuntos de variáveis ​​de indicadores. Além disso, veja mais adiante, a saída do comando mi impute chained inclui os comandos para os modelos individuais que ele executa. Assim, um atalho útil, especialmente se você tem muitas variáveis ​​para imputar, é configurar o comando mi impute chained com a opção dryrun para evitar que ele faça qualquer imputado real, executá-lo e, em seguida, copiar os comandos da saída para Seu arquivo para teste. Problemas de convergência A primeira coisa a observar é que todos esses modelos são executados com sucesso. Modelos complexos como o mlogit podem falhar em convergir se você tiver um grande número de variáveis ​​categóricas, porque isso geralmente leva a tamanhos de células pequenas. Para determinar a causa do problema, remova a maioria das variáveis, certifique-se de que o modelo funciona com o que está à esquerda e, em seguida, adicione as variáveis ​​de volta uma por vez ou em pequenos grupos até parar de funcionar. Com alguma experimentação você deve ser capaz de identificar o problema variável ou combinação de variáveis. Nesse ponto, você deve decidir se você pode combinar categorias ou soltar variáveis ​​ou fazer outras alterações para criar um modelo viável. Prefect Prediction Previsão perfeita é outro problema a ser observado. O processo de imputação não pode simplesmente soltar as observações perfeitamente previstas da maneira como logit pode. Você pode deixá-los antes de imputar, mas isso parece derrotar a finalidade da imputação múltipla. A alternativa é adicionar a opção aument (ou apenas aug) aos métodos afetados. Isso diz que mi impute acorrentou para usar a abordagem de regressão cotada, que adiciona observações falsas com pesos muito baixos, de tal forma que eles têm um efeito insignificante sobre os resultados, mas impedem uma previsão perfeita. Para detalhes, veja a seção "Quot" da previsão perfeita durante a imputação de dados categóricos na documentação do Stata MI. Verificando a especificação Misspecific Você também deve tentar avaliar se os modelos estão especificados corretamente. Uma discussão completa sobre como determinar se um modelo de regressão está corretamente ou não está bem além do escopo deste artigo, mas use as ferramentas que você achar apropriadas. Aqui estão alguns exemplos: Gráficos de valor residual versus cabido Para variáveis ​​contínuas, os lotes de valor residual versus valor ajustado (facilmente feito com rvfplot) podem ser úteis. Outros exemplos usam-nos para detectar problemas. Considere o enredo para a experiência: regresse exp. I. urban i. race salário i. edu i. female rvfplot Observe como uma série de pontos são agrupados ao longo de uma linha no canto inferior esquerdo, e nenhum ponto está abaixo: Isso reflete a restrição que A experiência não pode ser inferior a zero, o que significa que os valores ajustados devem ser sempre maiores ou iguais aos resíduos, ou, alternativamente, que os resíduos devem ser maiores ou iguais ao negativo dos valores ajustados. (Se o gráfico tivesse a mesma escala em ambos os eixos, a linha de restrição seria uma linha de 45 graus.) Se todos os pontos estivessem abaixo de uma linha semelhante, em vez de acima, isso indicaria que havia um limite superior na variável Em vez de um limite inferior. O y-intercepto da linha de restrição indica o limite em ambos os casos. Você também pode ter um limite inferior e um limite superior, colocando todos os pontos em uma banda entre eles. O modelo quotobviousquot, regredir. É inadequado para a experiência porque não aplicará essa restrição. É também inapropriado para salários pelo mesmo motivo. As alternativas incluem truncreg, ll (0) e pmm (bem uso pmm). Adicionando interações Neste exemplo, parece plausível que as relações entre variáveis ​​possam variar entre raça, gênero e grupos urbanos. Assim, uma maneira de verificar a falta de especificação é adicionar termos de interação aos modelos e ver se eles se tornam importantes. Por exemplo, compare bem o modelo óbvio: regride exp i. race salário i. edu i. urban i. female com um que inclui interações: regress exp (i. race i. urban i. female) (c. wage i. edu ) Bem, execute comparações semelhantes para os modelos das outras variáveis. Isso cria uma grande quantidade de saída, então veja o arquivo de log para obter resultados. As interações entre variáveis ​​femininas e outras são significativas nos modelos de exp. salário. Edu. E urbano. Existem algumas interações significativas entre raça ou variáveis ​​urbanas e outras, mas não quase todas as demais (e tenha em mente que, com esses muitos coeficientes, espera alguns falsos positivos usando um nível de significância de 0,05). Bem, imputa os homens e as mulheres separadamente. Esta é uma opção especialmente boa para este conjunto de dados porque a fêmea nunca está faltando. Em caso afirmativo, deve-se soltar as observações que estão faltando femininas porque não podem ser colocadas em um grupo ou outro. No comando de imputação, isto significa adicionar a opção por (feminino). Ao testar modelos, significa iniciar os comandos com o por fêmea: prefixo (e remover a fêmea das listas de covariáveis). Os modelos de imputação melhorados são, portanto, os seguintes: bysort feminino: reg exp i. urban i. race salário i. edu por feminino: logit urban exp i. race salário i. edu por feminino: mlogit race exp i. urban salário i. edu por mulher O salário pmm em si não pode ser executado fora do contexto de imputação, mas, como se baseia na regressão, você pode usar uma regressão regular para testá-lo. . Esses modelos devem ser testados novamente, mas bem, omita esse processo. A sintaxe básica para mi impute chained é: mi impute chained (method1) varlist1 (method2) varlist2. Regvars Cada método especifica o método a ser usado para imputar a seguinte lista de var. As possibilidades de método são regredidas. Pmm. Truncreg. Intreg. Logit. Ologit. Mlogit. Poisson. E nbreg. Regvars é uma lista de variáveis ​​regulares a serem usadas como covariáveis ​​nos modelos de imputação, mas não imputadas (talvez não haja nenhuma). As opções básicas são: add (N) rseed (R) savetrace (tracefile. Replace) N é o número de imputações a serem adicionadas ao conjunto de dados. R é a semente a ser usada para o gerador de números aleatórios8212, se você não definir isso, você terá imputações ligeiramente diferentes sempre que o comando for executado. O tracefile é um conjunto de dados no qual mi impute chained irá armazenar informações sobre o processo de imputação. Bem, use este conjunto de dados para verificar a convergência. Opções que são relevantes para um método específico vão com o método, dentro dos parênteses, mas seguindo uma vírgula (por exemplo (mlogit, ago)). Opções que são relevantes para o processo de imputação como um todo (como por (fêmea)) vão ao final, após a vírgula. Para o nosso exemplo, o comando seria: mi impute encadeado (logit) urbano (mlogit) raça (ologit) edu (pmm) exp salário, adicione (5) rseed (4409) por (fêmea) Observe que isso não inclui um aprendizado () Opção. A partir desta escrita, por () e savetrace () não podem ser usados ​​ao mesmo tempo, presumivelmente porque exigiria um arquivo de rastreamento para cada grupo. A Stata está ciente desse problema e esperamos que isso seja alterado em breve. Para fins deste artigo, bem, remova a opção by () quando chegar a hora de ilustrar o uso do arquivo de rastreamento. Se esse problema surgir em sua pesquisa, fale conosco sobre o trabalho. Escolhendo o número de impasses Há algum desacordo entre as autoridades sobre quantas imputações são suficientes. Alguns dizem 3-10 em quase todas as circunstâncias, a documentação da Stata sugere pelo menos 20, enquanto White, Royston e Wood argumentam que o número de imputações deve ser aproximadamente igual à porcentagem de casos com valores perdidos. No entanto, não temos conhecimento de nenhum argumento de que o aumento do número de imputações já causa problemas (apenas o benefício marginal de outra imputação aproxima-se assintoticamente de zero). Aumentar o número de imputações em sua análise não leva essencialmente nenhum trabalho da sua parte. Basta alterar o número na opção add () para algo maior. Por outro lado, pode ser um monte de trabalho para o computador. Uma grande imputação introduziu muitos pesquisadores no mundo dos empregos que levam horas ou dias para serem executados. Você geralmente pode assumir que a quantidade de tempo necessário será proporcional ao número de imputações usadas (por exemplo, se um arquivo de arquivo demora duas horas para executar com cinco imputações, provavelmente levará cerca de quatro horas para executar com dez imputações). Então, nossa sugestão: comece com cinco imputações (o baixo final do que é amplamente considerado legítimo). Trabalhe em seu projeto de pesquisa até que esteja razoavelmente confiante de que você tenha a análise em sua forma final. Certifique-se de fazer tudo com os arquivos para que você possa executá-lo novamente à vontade. Observe quanto tempo leva o processo, desde a imputação até a análise final. Considere quanto tempo você tenha disponível e decida quantas imputações você pode dar ao luxo de executar, usando a regra de ouro que o tempo necessário é proporcional ao número de imputações. Se possível, faça com que o número de imputações seja aproximadamente igual à porcentagem de casos com dados ausentes (uma estimativa de alto nível do que é necessário). Permita tempo para se recuperar se as coisas derem errado, como geralmente fazem. Aumente o número de imputações no seu arquivo do e inicie-o. Faça outra coisa enquanto o arquivo do do, funciona como escrever seu papel. A adição de imputações não deve alterar seus resultados significativamente8212 e, no caso improvável de que o façam, considere-se afortunado de descobrir isso antes de publicar. Acelerando o Processo de Imputação A imputação múltipla introduziu muitos pesquisadores no mundo dos empregos que levam horas, dias ou até semanas para serem executados. Normalmente, não vale a pena gastar seu tempo para tornar o código Stata executado mais rápido, mas a imputação múltipla pode ser uma exceção. Use o computador mais rápido disponível para você. Para os membros do SSCC, significa aprender a executar trabalhos no Linstat, o cluster de computação SSCCs Linux. Linux não é tão difícil como você pode pensar8212 Usando Linstat tem instruções. A imputação múltipla envolve mais leitura e escrita no disco do que a maioria dos comandos da Stata. Às vezes, isso inclui escrever arquivos temporários no diretório de trabalho atual. Use o espaço em disco mais rápido disponível para você, tanto para o seu conjunto de dados quanto para o diretório de trabalho. Em geral, o espaço em disco local será mais rápido do que o espaço em disco da rede, e no Linstat ramdisk (um quotdirectoryquot que é realmente armazenado na RAM) será mais rápido que o espaço em disco local. Por outro lado, você não gostaria de armazenar permanentemente conjuntos de dados em qualquer lugar, exceto o espaço em disco da rede. Portanto, considere ter o seu arquivo do fazer algo como o seguinte: Windows (Winstat ou seu próprio PC) Isso se aplica quando você está usando dados imputados também. Se o seu conjunto de dados for grande o suficiente para trabalhar com ele após a imputação é lento, o procedimento acima pode ajudar. Verificando Convergência O MICE é um processo iterativo. Em cada iteração, mi impute acorrentado primeiro estima o modelo de imputação, usando os dados observados e os dados imputados da iteração anterior. Em seguida, desenha novos valores imputados das distribuições resultantes. Observe que, como resultado, cada iteração possui alguma autocorrelação com a anterior imputação. A primeira iteração deve ser um caso especial: nele, o impute encadeado primeiro estima o modelo de imputação para a variável com o menor valor faltante baseado apenas nos dados observados e desenha valores imputados para essa variável. Em seguida, estima o modelo para a variável com os valores faltantes mais próximos, usando os valores observados e os valores imputados da primeira variável, e procede de forma semelhante para o restante das variáveis. Assim, a primeira iteração é muitas vezes atípica, e porque as iterações estão correlacionadas, elas também podem tornar iterativas subsequentes também. Para evitar isso, mi impute acorrentado por padrão passa por dez iterações para cada conjunto de dados imputado que você solicita, economizando apenas os resultados da décima iteração. As primeiras nove iterações são chamadas de período de gravação. Normalmente, isso é muito tempo para que os efeitos da primeira iteração se tornem insignificantes e que o processo converge para um estado estacionário. No entanto, você deve verificar a convergência e aumentar o número de iterações, se necessário, para garantir a utilização da opção burnin (). Para fazer isso, examine o arquivo de rastreamento salvo por mi impute acorrentado. Contém a média e o desvio padrão de cada variável imputada em cada iteração. Estes irão variar aleatoriamente, mas não devem mostrar nenhuma tendência. Uma maneira fácil de verificar é com o tsline. Mas requer a remodelação dos dados primeiro. Nosso modelo de imputação preferido usa (). Então não pode salvar um arquivo de rastreamento. Assim, remova bem por () por enquanto. Bem, também aumenta a opção burnin () para 100, por isso é mais fácil ver como parece um rastreio estável. Bem, então use remodelar e tsline para verificar a convergência: preservar mi impute acorrentado (logit) corrida urbana (mlogit) (ologit) edu (pmm) exp salário feminino, adicionar (5) rseed (88) recuperar (extrair, substituir) burnin ( 100) use extrace, substitua reescalar o significado médio largo, i (iter) j (m) tsset iter tsline expmean, título (quotMean of Imputed Values ​​of Experiencequot) nota (quotEach line is for a imputationquot) legenda (off) graph export conv1. Png, substituir tsline expsd, título (quotEtandard Deviation of Imputed Values ​​of Experiencequot) nota (quotEach line is for a imputationquot) legenda (off) graph export conv2.png, replace restore Os gráficos resultantes não mostram nenhum problema óbvio: se você fizer isso Veja sinais de que o processo pode não ter convergido após as dez iterações padrão, aumentar o número de iterações realizadas antes de salvar valores imputados com a opção burnin (). Se a convergência nunca for alcançada, isso indica um problema com o modelo de imputação. Verificando os Valores Imputados Após a imputação, você deve verificar se os dados imputados se assemelham aos dados observados. Infelizmente, não existe um teste formal para determinar o que é quotclose suficiente. Claro. Se os dados são MAR mas não MCAR, os dados imputados devem ser sistematicamente diferentes dos dados observados. Ironicamente, quanto menos valores faltantes você tiver que imputar, maior será a variação entre os dados imputados e os dados observados (e entre as imputações). Para variáveis ​​binárias e categóricas, compare as tabelas de freqüência. Para variáveis ​​contínuas, os meios de comparação e os desvios-padrão são um bom ponto de partida, mas você também deve observar a forma geral da distribuição. Para isso sugerimos gráficos de densidade de kernel ou talvez histogramas. Olhe para cada imputação separadamente em vez de reunir todos os valores imputados para que você possa ver se algum deles deu errado. O comando mi xeq: prefira a Stata para aplicar o comando subseqüente a cada imputação individualmente. Também se aplica aos dados originais, a imputação quotzer. Assim: mi xeq: a corrida de tabelas lhe dará seis tabelas de frequência: uma para os dados originais e uma para cada uma das cinco imputações. No entanto, queremos comparar os dados observados apenas com os dados imputados, e não com todo o conjunto de dados. Isso exige adicionar uma condição if aos comandos de tabulação para as imputações, mas não os dados observados. Adicione um número ou numero para ter o meu xeq em imputações particulares: mi xeq 0: puxo de tabulação mi xeq 15: raça de tabulação se missrace Isso cria tabelas de freqüência para os valores observados de raça e, em seguida, os valores imputados nas cinco imputações. Se você tiver um número significativo de variáveis ​​a serem examinadas, você pode segui-las facilmente: foreach var of varlist corrida urbana edu mi xeq 0: guia var mi xeq 15: guia var if missvar Para obter resultados, veja o arquivo de log. Executar estatísticas de resumo em variáveis ​​contínuas segue o mesmo processo, mas a criação de gráficos de densidade de kernel adiciona uma complicação: você precisa salvar os gráficos ou dar-se uma chance de olhar para eles. Mi xeq: pode executar vários comandos para cada imputação: basta colocá-los todos em uma linha com um ponto-e-vírgula () no final de cada um. (Isso não funcionará se você alterou o delimitador geral de fim de comando para um ponto-e-vírgula.) O comando sleep informa o Stata para pausar por um período especificado, medido em milissegundos. Mi xeq 0: assento salarial kdensity 1000 milhas xeq 15: salário kdensity se missvar sleep 1000 Mais uma vez, tudo isso pode ser automatizado: foreach var of varlist salário salário xeq 0: sum var mi xeq 15: sum var if missvar mi xeq 0: Kdensity var sleep 1000 mi xeq 15: kdensity var se missvar sleep 1000 Salvar os gráficos torna-se um pouco mais complicado, porque você precisa fornecer ao gráfico de cada imputação um nome de arquivo diferente. Infelizmente você não pode acessar o número de imputação no meu xeq. No entanto, você pode fazer um loop forvalues ​​sobre os números de imputação e, em seguida, ter xeq agir em cada um deles: forval i15 mi xeq i: kdensity exp if missexp graph export expi. png, substituir Integração com a versão anterior dá: foreach var of Varlist salário vm xeq 0: soma var mi xeq 15: soma var se missvar mi xeq 0: kdensity var gráfico export chkvar0.png, substituir por valor i15 mi xeq i: kdensity var se o gráfico missvar exportar chkvari. png, substituir Para obter resultados, Veja o arquivo de log. É problemático que, em todas as imputações, a média dos valores imputados do salário seja maior do que a média dos valores observados dos salários. E a média dos valores imputados de exp é menor que a média dos valores observados de exp. Não encontramos evidências de que os dados são MAR mas não MCAR, então espere que os meios dos dados imputados sejam agrupados em torno dos meios dos dados observados. Não há uma prova formal para nos dizer definitivamente se isso é um problema ou não. No entanto, deve suscitar suspeitas e, se os resultados finais com esses dados imputados forem diferentes dos resultados da análise completa dos casos, levanta a questão de saber se a diferença é devida a problemas com o modelo de imputação. Última revisão: 8232012Stata Características Econometria financeira Usando a Stata por Simona Boffelli e Giovanni Urga fornece uma excelente introdução à análise de séries temporais e como fazê-lo em Stata para fins financeiros. A região do Oriente Médio e do Norte da África (MENA) sofre tanto da disponibilidade de dados quanto da qualidade dos dados. Qualquer esforço para coletar, limpar e apresentar dados na região é bem-vindo. A 4ª Reunião do Grupo de Usuários da Stata da Polônia ocorre na segunda-feira, 17 de outubro de 2016, na SGH Warsaw School of Economics, Varsóvia, Polônia. O objetivo do Stata Users Group Meeti. Rain Data: usando o Stata para automatizar a criação e rotulagem de cada variável através do loop. Muitas vezes, no trabalho de dados, descobrimos que o mesmo trabalho precisa ser feito de novo e. A 22ª Reunião do Grupo de Usuários Stata da Londres ocorre na quinta-feira, 8 e sexta-feira, 9 de setembro de 2016, na Cass Business School, em Londres. Reunião do grupo de usuários do Stata de Londres. Últimos cursos de Stata Este curso de 2 dias fornece uma revisão e um guia prático de várias metodologias econométricas importantes usadas com frequência para modelar os fatos estilizados das séries temporais financeiras através de modelos ARMA, modelos GARCH univariados e multivariados, análise de gerenciamento de risco e contágio. A demonstração das técnicas alternativas será ilustrada usando o Stata. As sessões práticas no curso envolvem dados de taxas de juros, preços de ativos e séries temporais forex. O curso é entregue pelo Prof. Giovanni Urga, autor da Financial Econometrics usando Stata-Boffelli, S e Urga, G (2016), Stata Press: TX. Os modelos lineares definem um resultado de um conjunto de preditores de interesse usando pressupostos lineares. Modelos de regressão sendo um subconjunto de modelos lineares, são, se não, as ferramentas mais fundamentais que um estatístico pode ter. Este curso aborda análise de regressão, mínimos quadrados, inferência usando modelos de regressão e métodos de estimativa robustos. Este curso irá fornecer-lhe ferramentas avançadas para gerenciamento de dados e automação completa do seu fluxo de trabalho usando o Stata. Este curso de 2 dias começa por revisar os principais comandos de gerenciamento de dados disponíveis no Stata e continua ilustrando como combiná-los com as construções de programação do Stata e você aprenderá a codificar usando programas Stata simples. Este curso proporcionará aos participantes as ferramentas essenciais, tanto teóricas como aplicadas, para o uso adequado de métodos microeconômicos modernos para avaliação de políticas e modelagem contrafactual causal sob o pressuposto de seleção em observáveis. O segundo dos dois cursos foi concebido como uma introdução aos métodos Bayesianos para análise empírica. Começaremos com uma série de questões teóricas, incluindo permutabilidade, análise posterior-posterior, comparação de modelo e teste de hipóteses, e modelos de dados faltantes. Também examinaremos o problema fundamental da elicitação anterior. Precisa de uma cotação

No comments:

Post a Comment