14 minute read

Prefácio

Minha motivação para escrever a primeira edição do livro Introdução à econometria – uma abordagem moderna veio de uma lacuna que identifiquei entre a maneira como a econometria é ensinada nos cursos de graduação e o que os pesquisadores empíricos pensam sobre os métodos econométricos e suas aplicações. Com igual importância, convenci-me de que ensinar econometria introdutória, da perspectiva dos usuários profissionais da econometria, simplificaria, de fato, a apresentação, além de tornar o assunto mais interessante.

Com base nas numerosas reações positivas às diversas edições posteriores, parece que meu palpite estava certo. Professores, com formações e interesses variados e que ensinam estudantes com níveis de preparação muito diferentes, têm abraçado a abordagem moderna da econometria adotada neste livro. O diferencial nesta edição está em aplicar a econometria aos problemas do mundo real. Todo método econométrico é motivado por uma questão particular com a qual o pesquisador se defronta ao analisar dados não experimentais. O foco principal da obra está em entender e interpretar as hipóteses à luz das aplicações empíricas reais: a matemática requerida não vai além da álgebra dos cursos de graduação e da probabilidade e estatística básicas.

Advertisement

Organizado para o econometrista de hoje

A tradução da sétima edição mantém, de maneira geral, a organização da edição anterior. A característica mais perceptível que diferencia este texto da maioria dos outros é a separação dos tópicos por tipo de dados analisados. É uma diferença clara em relação à abordagem tradicional, que apresenta um modelo linear, lista todas as hipóteses que podem ser necessárias em algum ponto futuro da análise e, então, prova ou afirma resultados sem conectá-los claramente às hipóteses. Minha abordagem é, em primeiro lugar, tratar, na Parte I, da análise de regressão múltipla com dados de corte transversal, sob a hipótese de amostragem aleatória. Essa estrutura é completamente natural para os estudantes, pois eles estão familiarizados com ela em seus cursos de estatística introdutória. O mais importante é que ela nos permite distinguir hipóteses formuladas com base no modelo de regressão da população subjacente – hipóteses que podem ter um conteúdo econômico determinado ou um conteúdo comportamental geral – de hipóteses construídas com base em dados foram extraídos para compor uma amostra. As discussões sobre as consequências da amostragem não aleatória podem ser tratadas de modo intuitivo, depois de os estudantes adquirirem um bom domínio do modelo de regressão múltipla aplicado a amostras aleatórias.

Uma característica importante de uma abordagem moderna é que as variáveis explicativas – com a variável dependente – são tratadas como resultados de variáveis aleatórias. Para as ciências sociais, admitir variáveis explicativas aleatórias é muito mais realista do que a hipótese tradicional de variáveis explicativas não aleatórias. Um benefício importante é que a abordagem modelo populacional/amostragem aleatória reduz bastante o número de hipóteses que os estudantes devem absorver e entender. Ironicamente, a abordagem clássica da análise de regressão, que trata as variáveis explicativas como valores fixos em amostras repetidas, e ainda é difundida nos livros introdutórios, aplica-se literalmente a dados coletados em uma estrutura experimental. Além disso, os esforços exigidos para formular e explicar as hipóteses podem ser confusos para os estudantes.

Meu foco sobre o modelo populacional enfatiza que as hipóteses fundamentais subjacentes à análise de regressão, tal como a hipótese de média zero dos fatores não observados, estão apropriadamente formuladas, condicionadas às variáveis explicativas. Isso leva a um entendimento claro dos tipos de problemas, tal como a heteroscedasticidade (variância não constante), que podem invalidar os procedimentos-padrão da inferência. Ao focar na população, também consigo refutar várias interpretações erradas que surgem nos textos de econometria em todos os níveis. Apenas para citar alguns exemplos, explico a razão de o R-quadrado usual ainda ser válido como uma medida da qualidade de ajuste na presença de heteroscedasticidade (Capítulo 8) ou erros serialmente correlacionados (Capítulo 12); discuto, em nível bastante intuitivo, por que os testes para a forma funcional não devem ser vistos como testes gerais de variáveis omitidas (Capítulo 9); e posso facilmente explicar por que sempre se deve incluir, em um modelo de regressão, variáveis extras de controle não correlacionadas com a variável explicativa de interesse, em muitos casos – a variável política principal (Capítulo 6).

Como as hipóteses da análise de corte transversal são relativamente diretas e realistas, os estudantes ficam envolvidos mais cedo com aplicações sérias de corte transversal, sem ter de se preocupar com as questões espinhosas de tendência, sazonalidade, correlação serial, alta persistência e regressão espúria que aparecem em abundância nos modelos de regressão de séries temporais. Inicialmente, imaginei que meu tratamento da regressão com dados de corte transversal, seguida pela regressão com dados de séries temporais, cairia nas boas graças dos professores cujos interesses de pesquisa estão na microeconomia aplicada, e parece que esse é o caso. Tem sido gratificante que aqueles que adotaram este livro e têm inclinação para as séries temporais ficaram igualmente entusiasmados com a estrutura da obra. Ao postergar a análise econométrica de séries temporais, pude colocar o foco apropriado sobre as armadilhas potenciais da análise de dados de séries temporais que não surgem com dados de corte transversal. Com efeito, a econometria de séries temporais obteve, por fim, o tratamento sério que ela merece em um livro introdutório.

Assim como nas outras edições, escolhi conscientemente os temas que são importantes para a leitura de artigos de revistas e para a realização de pesquisas empíricas básicas. Dentro de cada tema, omiti de propósito muitos testes e procedimentos de estimação que, embora tradicionalmente incluídos nos livros-texto, não têm resistido ao teste empírico do tempo. Da mesma forma, enfatizei os temas mais recentes que têm se mostrado úteis, tal como obter estatísticas de teste que são robustas em relação à heteroscedasticidade (ou à correlação serial) cuja forma é desconhecida, usar dados de vários anos para a análise de decisão de políticas ou resolver o problema de variáveis omitidas pelo método de variáveis instrumentais. Parece que fiz as escolhas corretas, pois me lembro de somente um punhado de sugestões para adicionar ou remover material.

Uso uma abordagem sistemática em todo o texto, pela qual cada tópico está fundamentado, de modo lógico, no material anterior, e as hipóteses são introduzidas somente se forem necessárias para obter uma conclusão. Por exemplo, os pesquisadores aplicados, bem como os teóricos, sabem que nem todas as hipóteses de Gauss-Markov são necessárias para mostrar que os estimadores de mínimos quadrados ordinários (MQO) são não viesados. Contudo, quase todos os livros de econometria introduzem um completo conjunto de hipóteses (muitas das quais são redundantes ou, em alguns casos, logicamente conflitantes) antes de provar a inexistência de viés do MQO. De forma semelhante, a hipótese de normalidade é muitas vezes incluída entre as hipóteses que são necessárias para o Teorema de Gauss-Markov, quando é razoavelmente bem conhecido que a normalidade não desempenha nenhum papel para mostrar que os estimadores de MQO são os melhores estimadores lineares não viesados. Minha abordagem sistemática é ilustrada pela ordem das hipóteses que uso para regressão múltipla na Parte 1. Esse ordenamento resulta numa progressão natural por sintetizar resumidamente o papel de cada hipótese.

RLM.1: Apresenta o modelo populacional e interpreta os parâmetros populacionais (que esperamos estimar).

RLM.2: Introduz amostragem aleatória da população e descreve os dados que usamos para estimar os parâmetros populacionais.

RLM.3: Adiciona a hipótese nas variáveis explicativas que nos possibilita calcular as estimativas da nossa amostra; esta é a assim chamada hipótese da colinearidade perfeita.

RLM.4: Assume que, na população, a média do erro não observável não depende dos valores das variáveis explicativas; esta é a hipótese da “independência da média” combinada com a média populacional zero do erro e é a principal hipótese que produz inexistência de viés de MQO.

Depois da introdução das Hipóteses RLM.1 até a RLM.3, podem-se discutir os vínculos algébricos apropriados dos mínimos quadrados ordinários – isto é, a propriedade dos MQO para um conjunto de dados específico. Pela adição da hipótese RLM.4, podemos demonstrar que os MQO são não viesados (e consistentes). A hipótese RLM.5 (homoscedasticidade) é adicionada ao Teorema de Gauss-Markov e para que as fórmulas habituais de variância dos MQO sejam válidas. A hipótese RLM.6 (normalidade), que não é apresentada até o Capítulo 4, é adicionada para complementar as hipóteses do modelo linear clássico. As seis hipóteses são usadas para obter inferências estatísticas exatas e concluir que os estimadores de MQO têm as menores variâncias entre todos os estimadores não viesados.

Eu uso abordagens paralelas quando recorro ao estudo das propriedades de amostras grandes e quando lido com regressões de dados de séries temporais na Parte 2. A apresentação e a discussão cuidadosas das hipóteses tornam mais fácil a transição à Parte 3, que cobre tópicos avançados que incluem a utilização de cortes transversais agrupados, a exploração das estruturas de dados em painel e a aplicação dos métodos de variáveis instrumentais. De forma geral, empenhei-me em fornecer uma visão unificada da econometria, de acordo com a qual todos os estimadores e as estatísticas de testes são obtidos usando um pouco de princípios, intuitivamente racionais, de estimação e testes (os quais, é claro, também têm justificativas rigorosas). Por exemplo, os testes básicos de regressão para a heteroscedasticidade e a correlação serial são fáceis de serem compreendidos pelos estudantes, porque estes já têm um conhecimento sólido de regressão. Isso contrasta com os tratamentos que fornecem um conjunto de receitas desconexas para procedimentos econométricos ultrapassados.

Em todo o texto enfatizo as relações ceteris paribus, razão pela qual, após um capítulo no modelo de regressão simples, eu mudo para análise de regressão múltipla. O cenário da regressão múltipla motiva os estudantes a pensar sobre aplicações sérias mais cedo. Também ressalto a análise de decisão de políticas utilizando todos os tipos de estruturas. Os temas práticos, como usar variáveis proxy para obter efeitos ceteris paribus e obter erros-padrão dos efeitos parciais nos modelos com termos de interação, são discutidos de modo simples.

Nota da tradutora técnica

Nesta edição mantivemos uma alteração em relação às edições traduzidas anteriores. Para alinhar o texto do livro com os bancos de dados listados, os nomes das variáveis ao longo do texto são os mesmos que estão nos bancos de dados correspondentes. Dessa forma, professores e alunos poderão acompanhar o livro-texto utilizando os bancos de dados oferecidos sem a necessidade de identificar a correspondência entre a variável indicada no livro-texto e aquela apontada no banco de dados.

Projetado para estudantes de graduação e adaptado para estudantes de pós-graduação

O livro é direcionado a estudantes de cursos de graduação em economia que estudaram álgebra e um semestre de probabilidade e estatística introdutórias. (As Revisões de Matemática A, B e C, disponibilizados no site da Cengage, na página do livro, contêm o material de pré-requisito.) Não se espera que um curso de econometria de um semestre ou de um trimestre abranja tudo, ou mesmo alguma parte, dos tópicos mais avançados da Parte Três. Um curso típico introdutório abrange os Capítulos 1 a 8, os quais compreendem as bases das regressões simples e múltipla para dados de corte transversal. Dado que enfatiza a intuição e a interpretação dos exemplos empíricos, o material dos oito primeiros capítulos deve ser colocado à disposição dos estudantes dos cursos de graduação na maioria dos departamentos de economia. A maior parte dos professores também vai querer cobrir pelo menos partes dos capítulos sobre análise de regressão com dados de séries temporais, Capítulos 10 e 12, com graus variados de profundidade. No curso de um semestre em que leciono, no Estado de Michigan, trabalho o Capítulo 10 cuidadosamente, dou uma visão geral do material do Capítulo 11 e abordo o material sobre correlação serial do Capítulo 12. Acredito que esse curso básico de um semestre fornece ao aluno fundamentos sólidos para produzir trabalhos empíricos, como um ensaio de seminário sênior ou uma tese de graduação. O Capítulo 9 contém tópicos mais especializados que surgem ao analisar dados de corte transversal, incluindo problemas de dados tais como outliers e amostragem não aleatória. Para um curso de um semestre, esse capítulo pode ser pulado sem perda de continuidade.

A estrutura do livro é ideal para um curso com foco em corte transversal ou análise de decisão de política: os capítulos de séries temporais podem ser pulados, dando lugar a temas dos Capítulos 9 ou 15. O novo material sobre potenciais resultados acrescentado aos primeiros nove capítulos deverá ajudar o instrutor a elaborar um curso que proporcione uma introdução à moderna análise política. O Capítulo 13 é avançado somente na abordagem de duas novas estruturas de dados: cortes transversais independentemente agrupados e análise de dados em painel para dois períodos. Essas estruturas de dados são especialmente úteis para análise de decisão de política, e esse capítulo fornece vários exemplos a esse respeito. Os estudantes com um bom domínio dos Capítulos 1 a 8 terão pouca dificuldade com o Capítulo 13. O Capítulo 14 trata dos métodos de dados em painel mais avançados e provavelmente será coberto apenas em um segundo curso. Uma boa maneira de finalizar um curso sobre métodos de corte transversal é compreender os rudimentos da estimação de variáveis instrumentais do Capítulo 15.

Tenho utilizado material selecionado da Parte 3, incluindo os Capítulos 13 e 17, nos seminários seniores direcionados para produzir um trabalho de pesquisa sério. Além do curso básico de um semestre, os estudantes que foram expostos à análise básica de dados em painel, de estimação de variáveis instrumentais e de modelos de variável dependente limitada estão preparados para ler grandes segmentos da literatura aplicada das ciências sociais. O Capítulo 17 apresenta uma introdução aos modelos mais comuns de variável dependente limitada.

O livro também é adequado para um curso introdutório de pós-graduação, no qual a ênfase está mais nas aplicações do que nas derivações que usam álgebra matricial. Vários instrutores usaram o livro para ensinar análises de políticas públicas em cursos de pós-graduação stricto sensu (mestrado e doutorado). Para os professores que querem apresentar a matéria na forma matricial, as Revisões de Matemática D e E (disponíveis na página do livro, no site da Cengage) abordam, de modo autossuficiente, a álgebra matricial e o modelo de regressão múltipla na forma matricial.

No Estado de Michigan, nos Estados Unidos, os estudantes dos cursos de doutorado das muitas áreas que requerem análise de dados – incluindo contabilidade, economia agrícola, economia do desenvolvimento, finanças, economia internacional, economia do trabalho, macroeconomia, ciência política e finanças públicas – descobriram que o livro é uma ponte útil entre o trabalho empírico que eles leem e a econometria mais teórica que eles aprendem no nível de doutoramento.

Sugestões para montar seu curso

Já comentei sobre o conteúdo da maioria dos capítulos e possíveis estruturas de cursos. Aqui forneço alguns comentários mais específicos sobre o material em capítulos que podem ser abordados ou postergados.

O Capítulo 9 tem exemplos interessantes (tal como uma regressão que inclui a pontuação do QI como uma variável explicativa). Os nomes das variáveis proxy não devem ser formalmente apresentados para descrever esses tipos de exemplos, e costumo apresentá-los quando termino a análise de corte transversal. No Capítulo 12, para um curso de um semestre, não apresento o material sobre inferência robusta na presença de correlação serial quando estou tratando da análise de mínimos quadrados ordinários, bem como de modelos dinâmicos de heteroscedasticidade. Mesmo em um segundo curso, prefiro despender pouco tempo no Capítulo 16, que trata da análise de equações simultâneas. Se existe um ponto em que as pessoas divergem é a importância das equações simultâneas. Alguns consideram que esse material é fundamental; outros pensam que é raramente aplicável. Minha visão é que os modelos de equações simultâneas são muito utilizados (veja o Capítulo 16 para uma discussão). Se lermos os trabalhos aplicados com atenção, variáveis omitidas e erros de medida são provavelmente uma das maiores razões para adotar a estimação de variáveis instrumentais, e é por isso que uso variáveis omitidas para motivar a estimação de variáveis instrumentais no Capítulo 15. Além disso, os modelos de equações simultâneas são indispensáveis para estimar funções de demanda e oferta, e eles também são aplicáveis em alguns outros casos importantes.

O Capítulo 17 é o único que considera modelos inerentemente não lineares em seus parâmetros, e isso impõe uma carga adicional para o estudante. O primeiro material que deve ser tratado nesse capítulo são os modelos de resposta binária probit e logit. Minha apresentação dos modelos tobit e de regressão censurada ainda parecem originais: reconheço explicitamente que o modelo tobit é aplicável a resultados de solução de canto em amostras aleatórias, ao passo que a regressão censurada é aplicável quando o processo de coleta de dados censura a variável dependente.

O Capítulo 18 trata de alguns tópicos importantes mais recentes da econometria de séries temporais, inclusive o teste de raízes unitárias e a cointegração. Abordo esse material somente no segundo semestre de um curso, nos níveis de graduação ou de pós-graduação. Uma introdução razoavelmente detalhada para a previsão também está incluída no Capítulo 18.

O Capítulo 19, que deveria ser acrescentado ao syllabus para um programa de cursos que exigem um trabalho de conclusão, é muito mais extensivo que capítulos semelhantes de outros livros. Ele resume alguns métodos apropriados para vários tipos de problemas e estruturas de dados, aponta dificuldades potenciais, explica com algum detalhe como escrever um trabalho de conclusão de curso em economia empírica e inclui sugestões de possíveis projetos.

O que mudou?

Foram acrescentados novos exercícios a muitos capítulos, incluindo à Revisão de Matemática. Alguns dos novos Exercícios de Computador utilizam novos conjuntos de dados, incluindo um conjunto de dados sobre o desempenho das equipes de basquetebol universitário masculino. Acrescentei também problemas mais desafiantes que requerem derivações.

Há várias alterações significativas ao texto. Uma importante mudança organizacional, que deverá facilitar uma maior variedade de preferências pedagógicas, diz respeito à noção de variáveis explicativas binárias, ou dummies, introduzida no Capítulo 2. Daí se mostra que a estimativa de mínimos quadrados ordinários conduz a um ponto de partida nas estatísticas básicas: a diferença de médias entre dois subgrupos de uma população. A introdução de fatores qualitativos na regressão desde o início permite que o professor, também desde o início, possa utilizar uma maior variedade de exemplos empíricos.

A discussão inicial das variáveis explicativas binárias permite uma introdução formal de resultados potenciais, ou de resultados contrafactuais, o que é indispensável na literatura moderna sobre a estimativa dos efeitos causais. A abordagem contrafactual no estudo da causalidade apareceu em edições anteriores, mas os Capítulos 2, 3, 4, e 7 incluem agora explicitamente novas seções sobre a abordagem moderna à inferência causal. Uma vez que a análise básica da adoção de uma política envolve uma decisão binária de participar ou não de um programa, um exemplo importante da utilização de variáveis dummies independentes, em regressão simples e múltipla, é a avaliação de intervenções políticas. Ao mesmo tempo, o novo material é incorporado ao texto para que os instrutores que não desejem abordar a estrutura de resultados potenciais possam facilmente saltar o material. Vários problemas de fim de capítulo dizem respeito a ampliações do quadro básico de resultados potenciais, que deve ser valioso para os instrutores que desejem cobrir esse material.

O Capítulo 3 inclui uma nova seção sobre diferentes formas de aplicar regressão múltipla, incluindo problemas de pura previsão, testando mercados eficientes, e culminando com uma discussão sobre o tratamento da estimativa ou dos efeitos causais. Penso que esta seção fornece uma forma interessante de organizar o pensamento dos estudantes sobre o alcance da regressão múltipla depois de terem visto a mecânica dos mínimos quadrados (MQ) e vários exemplos. Tal como outros novos materiais que abordam os efeitos causais, este material pode ser ignorado sem perda de continuidade. Uma nova seção no Capítulo 7 continua a discussão sobre os resultados potenciais, permitindo efeitos de tratamento não constantes. O material é uma boa ilustração da estimativa de diferentes funções de regressão para dois subgrupos de uma população. Novos problemas neste capítulo que permitem ao estudante mais experiência na utilização do ajustamento de regressão total para estimar os efeitos causais.

Uma alteração notável ao Capítulo 9 é uma discussão mais detalhada da utilização de indicadores de dados faltantes, quando faltam dados sobre uma ou mais das variáveis explicativas. Os pressupostos subjacentes ao método são discutidos mais profundamente do que na edição anterior.

O Capítulo 12 foi reorganizado para refletir um tratamento mais moderno do problema da correlação serial nos erros dos modelos de regressão de séries temporais. A nova estrutura cobre primeiro o ajustamento dos erros padrão MQO para permitir formas gerais de correlação em série. Assim, o esboço do capítulo é agora paralelo ao do Capítulo 8, com a ênfase em ambos os casos na estimativa de MQO, mas tornando a inferência robusta à violação dos pressupostos padrão. A correção da correlação em serial usando mínimos quadrados generalizados vem agora depois do MQO e do tratamento dos testes de correlação em serial.

Os capítulos avançados incluem também várias melhorias. O Capítulo 13 discute agora, a um grau acessível, extensões da configuração de diferenças das diferenças padrão, permitindo múltiplos grupos de controle, múltiplos períodos de tempo, e mesmo tendências específicas do grupo. Além disso, o capítulo inclui uma discussão mais detalhada dos erros padrão de computação robustos à correlação em série quando se utiliza a estimativa da primeira diferença com os dados em painel.

O Capítulo 14 fornece agora discussões mais detalhadas sobre várias questões importantes na estimativa de modelos de dados em painel por efeitos fixos, efeitos aleatórios, e efeitos aleatórios correlacionados (EAC).