Page 1

INSTITUTO NACIONAL DE PESQUISAS DA AMAZÔNIA COORDENAÇÃO DE PESQUISAS EM SILVICULTURA TROPICAL

LABORATÓRIO DE MANEJO FLORESTAL - LMF

BIOMETRIA FLORESTAL

Niro Higuchi Joaquim dos Santos Adriano José Nogueira Lima

Manaus – AM Março, 2008


PARTE 1


Capítulo 1 Introdução - Conceitos gerais A estatística é uma ferramenta importante para o manejo florestal, seja pra quem está interessado em trabalhar em pesquisas ou pra quem tem a responsabilidade de planejar, executar e acompanhar um projeto. Difícil é separar a estatística pra essas duas frentes. O objetivo desta Parte da apostila é aprofundar em conceitos dos indicadores estatísticos mais freqüentemente utilizados pelos florestais e ajudar na interpretação dos resultados. Estatística é um ramo do conhecimento científico que consta de conjunto de processos que têm por objeto a observação, a classificação formal e a análise dos fenômenos coletivos ou de massa (finalidade descritiva) e, por fim, investigar a possibilidade de fazer inferências indutivas válidas a partir dos dados observados e buscar métodos capazes de permitir esta inferência (finalidade indutiva). Durante uma defesa de tese no CENA-USP, surgiu um novo conceito para estatística que, segundo Edgard, é "a arte de torturar os números até que eles confessem aquilo que você quer ouvir." Em inventário florestal, produto sem estatística não é produto. Em inventários, o principal produto é o intervalo de confiança para a média estimada. Na pesquisa científica, a estatística pode ser vista como um instrumento de comunicação e, embora o seu uso seja absolutamente opcional, ela fornece os modelos que são necessários para estudar as situações que envolvem incertezas, mas a palavra final é sua. O exercício, a análise e a interpretação do pensamento científico normalmente são feitos por meio da linguagem operacional dos conceitos e hipóteses científicas. Isso implica na formulação de hipóteses estatísticas e estabelecimento dos procedimentos de observações diretas ou de medições. Linguagem teórica: “quanto mais grossa é a árvore, mais madeira será oferecida à indústria de transformação.” Neste caso, dois conceitos são envolvidos: espessura e madeira. Com definir esses dois conceitos? Espessura pode ser o diâmetro de uma árvore. Madeira pode ser a quantidade de material lenhoso disponível para a indústria. E daí? Que fazemos agora? Temos que operacionalizar as observações e medições de espessura e madeira. Espessura pode ser traduzida operacionalmente, por exemplo, em centímetros de diâmetro à altura do peito (DAP), medido a 1,3 m do solo. E a madeira, por sua vez, pode ser traduzida como volume cúbico da árvore. Agora, a hipótese científica pode ser enunciada, em termos de hipótese estatística, da seguinte maneira: “Quanto maior o DAP, maior será o volume da árvore.” Dessa forma, o “pica-pau” fica mais à vontade. Depois de formulada a hipótese, o passo seguinte consiste em testá-la. Para se testar as hipóteses serão precisos: planejar a coleta de dados, coletar os dados, tratar os dados, processar os dados, analisar os resultados e, finalmente, tomar decisões para rejeitar ou não a hipótese estatística formulada (Ver figura 1.1). O papel da estatística na pesquisa científica é ajudar o pesquisador “pica-pau” a formular as hipóteses e a fixar as regras de decisão.


Um pouco de filosofia. - Aristóteles escreveu: “A verdade é um alvo tão grande que dificilmente alguém deixará de tocá-lo, mas, ao mesmo tempo, ninguém será capaz de acertá-lo em cheio, num só tiro.” - A meta da ciência é a organização sistemática do conhecimento sobre o universo, baseado nos princípios explanatórios que são genuinamente testáveis. - O pesquisador tem os dons da instituição e criatividade para saber que o problema é importante e quais questões devem ser levantadas; a estatística, por sua vez, o assistirá por meio da maximização de output não ambíguos enquanto minimiza os inputs. - O pesquisador tem que ter em mente que a pesquisa freqüentemente levanta mais questões do que respostas. Os resultados quase sempre são meramente uma demonstração de nossa ignorância e uma declaração mais clara do que não sabemos. - O pesquisador tem que manter os olhos abertos, sua mente flexível e estar preparado para surpresas. - A pesquisa está na cabeça do pesquisador; o laboratório ou o campo meramente confirma ou rejeita o que a sua mente concebeu. A sabedoria consiste em conhecer mais as questões certas para fazer e não nas certas respostas. - A aplicação indiscriminada dos métodos quantitativos sobre inesgotáveis quantidades de dados não significa que o entendimento científico vai emergir só por causa disso.

1.1. A Natureza da Estatística: Basicamente, são dois tipos de estatística: descritiva e de inferência. A ciência da estatística inclui ambas, descritiva e de inferência. A estatística descritiva apareceu primeiro, nos censos feitos na época do império romano. A de Inferência é mais recente e é baseada na teoria da probabilidade que, por sua vez, não se estabeleceu antes da metade do século XVII. a) Estatística descritiva => consiste de métodos para organizar e sumarizar as informações. O propósito da organização e sumarização é te ajudar na interpretação de um monte de informações. Os métodos descritivos incluem a construção de gráficos, figuras e tabelas, como também, o cálculo de vários tipos de médias e índices. Exemplos: resultado final de uma eleição apresentado pelo Tribunal Superior Eleitoral (TSE) – Quadro 1.1, desmatamento na Amazônia – Figura 1.2., áreas desmatadas com autorização e sem autorização – Figura 1.3 e as origens da madeira amazônica – Figura 1.4. b) Estatística de inferência => consiste de métodos para inferir sobre uma população baseada na informação de uma amostra da população. A estatística de inferência moderna praticamente surgiu após as publicações científicas de Karl Pearson e Ronald Fisher, no início do século passado (XX). Depois disso, houve uma evolução fantástica dessa ciência, tornando-se aplicável a várias áreas de conhecimento, tais como: Eng. Florestal, Agronomia, Biologia, História, Física, Química, Psicologia etc. Exemplo 1: Pesquisas de opinião realizadas pelas empresas (DATAFOLHA, IBOPE, VOX POPULI etc), pouco antes de eleições. A Figura 1.5 mostra a dinâmica de opinião de eleitores brasileiros na eleição para presidente de 2002 com base em pesquisas de opinião realizadas pelo IBOPE. O resultado do 1º turno é apresentado na última coluna como TSE,


tirado do Quadro 1.1. Os resultados do IBOPE, do último dia de pesquisa (com margem de erro igual a 1,8%), são praticamente iguais aos oficiais do TSE. A informação do TSE é sobre votos válidos enquanto que os da pesquisa de opinião são de intenção de votos. Na pesquisa de opinião do 1º turno é difícil identificar o voto “nulo”. Exemplo 2: Pesquisas de opinião sobre o 2º turno da eleição presidencial 2002, realizadas pelo Datafolha. Neste caso, foi possível estimar os percentuais sobre os votos válidos. No último dia da pesquisa (26/10/02), o Datafolha estimou 64% dos votos válidos para o Lula e 36% para o Serra. A Figura 1.6 mostra a dinâmica de opinião de eleitores para o2º turno da eleição de 2002. O resultado do TSE (oficial) foi de 61,2% para o Lula e 38,7% para o Serra – Quadro 1.1. Considerando a margem de erro de 2% (para mais e para menos), as estimativas do último dia seriam 62% (para menos) para o Lula e 38% (para mais) para o Serra. Esta parte da estatística de inferência evoluiu muito no Brasil. A prova disso são os resultados finais do primeiro e do segundo turno da eleição presidencial de 2002 que tem muito a ver com as previsões feitas pelas pesquisas de opinião dos vários institutos. O sucesso tem que ser creditado principalmente pela escolha correta do tipo de amostragem, coleta de dados e processamento & análise dos resultados A evolução da informática também contribuiu muito para o sucesso das pesquisas; o rápido processamento e, conseqüente, análise dos resultados, permitiu a repetição em intervalos de tempo menores – isso é fundamental para a validação dos métodos utilizados que, por sua vez, dá a robustez necessária para a pesquisa e a sociedade ganha com a maior precisão e confiabilidade das pesquisas de opinião. Exemplo 3: Previsão da área desmatada para 2006 (agosto 2005 a julho 2006) com base no intervalo de confiança (95%) da série histórica de 1978 a 2005 – Figura 1.7. Apesar da confusão das estatísticas e de sua interpretação, com boa vontade e profissionalismo, as causas do desmatamento poderiam ser identificadas. O desafio é entender a direção que o desmatamento pode tomar no futuro. Sem entender as causas, a direção só pode ser estocástica. A Figura 1.7 ilustra o uso do intervalo de confiança – IC (nível de probabilidade de 95%) para a média do período 1978-2005. De acordo com dinâmica do desmatamento até 2005, as chances do desmatamento durante 2005-2006 (agosto 2005 a julho 2006) são: 29% de ficar acima da estimativa máxima provável (maior do que 20.983 km2), 29% abaixo da estimativa mínima provável (menor do que 16.296 km2) e 42 % de ficar dentro do intervalo de confiança (entre 16.296 a 20.983 km2) – com 95% de chance de acertar. Exemplo 4: Todos os trabalhos de equações de volume que utilizam os modelos destrutivos (na maioria das vezes) para ajustar os dados de volume real observado em modelos matemáticos que serão utilizados, posteriormente, para estimar o volume da árvore em pé. Para concluir a discussão, em torno da natureza da estatística, é importante não perder de vista que a opção por uma das duas estatísticas pode ser pessoal. Entretanto, se a escolha recair sobre a de inferência, o pesquisador deve se sujeitar as suas regras e condicionantes. A estatística de inferência, por sua vez, deve ficar sob as condicionantes da teoria da probabilidade, da normalidade e da independência; a violação de uma dessas condicionantes implica em um comprometimento muito sério de todo o seu trabalho.

1.2. Conceitos Básicos: Talvez, os conceitos mais importantes para os florestais são erros amostrais e não amostrais. Se você conseguir distinguir esses dois conceitos, você sempre fará um trabalho confiável e, por conseguinte, a estatística será uma ferramenta útil na execução de seus


trabalhos de pesquisa, encurtando caminhos para a produção de ciência e de resultados de inventário florestal. (i) Erro Amostral => é o erro que você comete por não medir toda a população. Este parâmetro é mensurável e, dependendo da escolha dos métodos, você tem condições de aumentar ou diminuir este erro. De qualquer modo, trata-se de um parâmetro que pode ser controlado e avaliado por você. É o desvio padrão da média ou, simplesmente, erro padrão e tem fórmula para o seu cálculo. É a única medida de precisão, por mais paradoxal que possa parecer, em qualquer trabalho de pesquisa ou de inventário florestal. (ii) Erro não-amostral => é o erro humano, que pode ser cometido acidental ou deliberadamente. É o tipo de erro que você comete ao alocar uma amostra no lugar errado – ex.: no escritório você faz a opção pela amostragem inteiramente aleatória e sorteia as unidades amostrais e distribui em sua área estudo; no campo, entretanto, você não consegue alocá-las de acordo com as coordenadas pré-estabelecidas e alocá-as em outro lugar. Você também comete erro não-amostral quando utiliza um equipamento defeituoso ou, por preguiça, você “chuta” as medidas de uma determinada variável. O problema desse erro é que você não consegue dimensioná-lo e, neste caso, não há estatística que dê jeito para consertar o mal-feito. A estatística e o computador só são úteis na interpretação de fenômenos observados quando os dados são de absoluta confiança e sem erros não-amostrais. Moral: Busque sempre a melhor metodologia para conseguir a maior precisão de seu trabalho sem, contudo, aumentar a possibilidade de cometer erros não-amostrais. BOM PESQUISADOR é aquele que não entrega sua coleta de dados para qualquer “PEÃO”. (iii) Populações, Parâmetros e Estimativas A noção central em qualquer problema de amostragem é a existência de uma população. Pense em uma população como um agregado de valores unitários, onde a “unidade” é a coisa sobre a qual a observação é feita e o “valor” é a propriedade observada sobre aquela coisa. População é então o conjunto de todos os indivíduos ou itens sob consideração. Ou ainda: população é o universo de seu interesse. Ilustrando: - se você está interessado em estudar o potencial quantitativo da floresta da Reserva Ducke, a POPULAÇÃO é o conjunto de todas as árvores acima de um determinado DAP, existentes naquela área de 10.000 hectares. - se para você potencial quantitativo significa volume cúbico obtido de equações simples (DAP como variável independente), o volume médio (por hectare, por ex.) de todas as árvores da Reserva Ducke é o PARÂMETRO. - se você, no entanto, decidir pela avaliação por amostragem e lançar naquela área algumas amostras (ex.: 10 amostras de 1000 m2, aleatoriamente distribuídas), o volume médio dessas amostras é a ESTIMATIVA. AMOSTRA é aquela parte da população da qual a informação é coletada. (iv) Tendência (bias), Exatidão e Precisão TENDÊNCIA ou VIÉS (bias, em inglês) é uma distorção sistemática. Ela pode ser devido a alguma falha na medição, ou no método de selecionar a amostra, ou na técnica de estimar o parâmetro. Se você medir o DAP com uma fita diamétrica faltando um pedaço na ponta (2 cm), você medirá todas as árvores com 2 cm a mais, ou seja, você superestimará esta variável. Uma maneira prática de minimizar as tendências em medições é por meio de checagens periódicas


dos instrumentos, treinamento adequado para o pessoal que usa os instrumentos e cuidado com eles. Tendência devido o método de amostragem ocorre quando certas unidades ganham maior ou menor representação na amostra do que na população. Ex.: se você excluir 20 metros de bordadura do lado oeste da Reserva Ducke por causa de um igarapé. Neste caso, você está introduzindo tendência em sua avaliação simplesmente porque você não deu a mesma oportunidade, para as árvores que ocorrem naquela faixa, em aparecer no seu trabalho. Outro exemplo: quando a equipe econômica faz uma pesquisa nos supermercados do centrosul e extrapola o custo de vida para todo o Brasil; isso é uma medida tendenciosa que não reflete o que se passa em Manaus. Tendência na forma de estimar determinado parâmetro pode ser introduzida quando você, por exemplo, toma o volume médio da Reserva Ducke e junta com o volume médio do Distrito Agropecuário da SUFRAMA (600.000 hectares), para avaliar o potencial madeireiro da região de Manaus. Um volume médio não tendencioso seria uma média ponderada considerando os diferentes tamanhos de cada área, em vez de usar a média aritmética simples (tendenciosa, neste caso). Importante: A tendência é a mãe do erro não-amostral, por esta razão, evitá-la é sinal de prudência e sensatez. PRECISÃO E EXATIDÃO – uma estimativa tendenciosa pode ser PRECISA, mas nunca EXATA. Ainda que o Aurélio (dicionário) pense diferente, para os estatísticos, EXATIDÃO refere-se ao sucesso em estimar o valor verdadeiro de uma quantidade; PRECISÃO refere-se à distribuição dos valores amostrais em torno de sua própria média que, se for tendenciosa, não pode ser o valor verdadeiro – Ver figura 1.8. Exatidão ou estreiteza ao valor verdadeiro pode estar ausente por causa da tendência, falta de precisão ou por causa de ambas.


PENSAMENTO

OPERACIONALIZAR

HIPOTETIZAR

planejar

coletar co letar

tratar

processar

rejeitaa ? rejeit

sim, concluir!

Figura 1.1: Pesquisa científica – do pensamento à inferência.

analisar

não, concluir!


Quadro 1.1: Resultados das eleições para presidente de 2002. RESULTADOS DAS ELEIÇÕES DE 2002 Total de eleitores = 115.254.113 Resultado do 1º turno: nº de votantes = 94.804.126 ordem 1 2 3 4 5 6

Número 13 45 40 23 16 29

Candidato Lula José Serra Garotinho Ciro Gomes Zé Maria Rui Pimenta

total votos 39.454.692 19.705.061 15.179.879 10.170.666 402.232 38.619

% válidos 46,44 23,20 17,87 11,97 0,47 0,05

total votos 52.793.364 33.370.739

% válidos 61,27 38,73

Resultado do 2º turno: nº de votantes = 91.664.259 ordem 1 2

Número 13 45

Candidato Lula José Serra

fonte: www.tse.gov.br => consultas: 1º turno em 21/10/02 e 2º turno em 29/10/02

18.900

04/05

27.200 24597 23.266

03/04 02/03 01/02

18.165 18.226 17.269 17.383

ano ou período

00/01 99/00 98/99 97/98 96/97

13.227 18.161

95/96

29.059

94/95 92/94 91/92 90/91 89/90 87-89 78/87

14.896 13.786 11.030 13.730 17.770 21.050

área desmatada em km2 fonte: www.inpe.br Figura 1.2: Desmatamento anual (km2) na Amazônia.


45 40 35 30 25 20 15 10 5 0

2.500 2.000 1.500 1.000 500 0

relação A:D (%)

área desmatada (km2)

3.000

1997 1998 1999 2000 2001 2002 2003 2004 ano A

D

A:D (%)

Fonte: www.ibama.gov.br – sisprof. A = área desmatada com autorização; D = área desmatada total e A:D relação entre autorizado e não autorizado. Figura 1.3: Relação entre áreas (em km2) desmatadas com autorização e sem autorização na Amazônia.

sem origem 63%

d autorizado 20% PMFS 17%

Fonte: www.ibama.gov.br – sisprof Figura 1.4: Origem da madeira da Amazônia – planos de manejo florestal sustentável (PMFS), desmatamento autorizado e sem origem definida.


50

intenção de voto (%)

45 40

41

39

43

41

39

46

45

35 30 25

23,2 19

19

19

15

12

13

14

10

15

20

12

14

18 15

19 16

12

11

5

20

17,9

15

12 9

0 6 a 9/9

14 a 16/9 17 a 19/9 21 a 24/9 28 a 30/9 4 e 5/10

TSE

período da pesquisa Lula

Serra

Garotinho

Ciro

Figura 1.5: Pesquisas de opinião realizadas pelo IBOPE para o 1º turno da eleição presidencial de 2002.

70

intenção de votos (%)

60

61

58

59

58

31

32

6

7

4

3

23/out

26/out

50 40

32

32

30 20 10

6

4

4

3

11 out

18/out

0

data Lula

Serra

indecisos

nulos/brancos

Figura 1.6: Pesquisas de opinião realizadas pelo Datafolha para o 2º turno da eleição presidencial de 2002.


área

média

mínima

máxima

30.000

IC(95%) = 18.689 ± 2.372

28.000

área desmatada (km2)

26.000 24.000 22.000

21.060

20.000

18.689

18.000

16.317

16.000

Acima = 29%

14.000

2005/06?

Dentro = 42%

12.000

05/06

04/05

03/04

02/03

00/01

99/00

98/99

97/98

96/97

95/96

94/95

92/94

91/92

90/91

89/90

87-89

78/87

01/02

Abaixo = 29%

10.000

ano ou período

Figura 1.7: Previsão da área desmatada para 2006 (agosto 2005 a julho 2006) com base no intervalo de confiança (95%) da série histórica de 1978 a 2005.

impreciso

preciso

preciso

Figura 1.8: Diferença entre precisão e exatidão.

exato


Capítulo 2 Organização dos dados 2.1. Dados: A informação coletada e analisada pelo estatístico é chamada de DADOS. Há vários tipos de dados e a escolha da metodologia, pelo estatístico é, parcialmente, determinada pelo tipo de dados que ele tem em mãos. Exemplo 1: No exame de seleção para turma 90/91 do Manejo Florestal, tivemos 15 candidatos, 13 homens e 2 mulheres. Do total, apenas 7 fizeram o exame. Foram aprovados 6 candidatos, 5 homens e 1 mulher. João da Silva tirou o primeiro lugar com nota 6,7 e Joaquim Moreira tirou o último lugar com a nota 5,0. No exemplo acima, nós podemos destacar os seguintes tipos de dados: QUALITATIVO – o tipo mais simples de dados, é a informação que coloca cada candidato em uma das duas categorias “homem ou mulher” ou “tipo florestal I ou tipo II” ou “estocada ou não estocada” etc. Esses dados dão informações sobre um indivíduo ou um item. ORDINAL – A informação sobre classificação, dados que colocam os indivíduos ou objetos em ordem, “rankeados”. No exemplo, as classificações de João e Joaquim são dados ordinais. MÉTRICO – O termo métrico se refere aos dados mensuráveis e não deve ser confundido com os dados em unidades métricas. No exemplo, as notas dos candidatos (6,7 e 5,0 e outras notas) são dados métricos. Resumindo: Dados qualitativos: dados que se referem à qualidade não numéricas ou atributos, tais como: tipo florestal, gênero ou espécie florestal, cor de alguma coisa etc. Dados ordinais: dados sobre classificação, ordem ou “rank”, tais como: classificação de toras, ordem de chegada etc. Dados métricos: dados obtidos de medições de certas quantidades como: tempo, altura, DAP, volume, peso etc. Um outro importante tipo de dados é o chamado DADOS CONTÁVEIS. A contagem do numero de indivíduos ou itens que caem em várias categorias, tais como “homem” e “mulher” fornece os dados contáveis. Por exemplo, a informação dada no exemplo anterior que foram aprovados 5 homens e 1 mulher, são dados contáveis. DADOS CONTÁVEIS são dados sobre o número de indivíduos ou itens que caem em certas categorias ou classes, que podem ser obtidos de quaisquer tipos de dados (qualitativo, ordinal ou métrico). Os dados QUALITATIVO e ORDINAL são referidos pelos estatísticos como dados DISCRETOS porque eles classificam coisas em classes separadas e discretas. Na classificação dos candidatos ao mestrado não há como colocar ninguém entre o primeiro lugar e o segundo. Também não há como classificar ninguém entre “homem” e “mulher.” São exemplos típicos de dados discretos, porque não há como dizer que alguém ficou em “primeiro lugar e meio” ou o que fulano é “homem e meio”. No caso de ordem de chegada ou “rank” há possibilidade de empate, mas isso é outra coisa e será discutido na estatística nãoparamétrica.


Por outro lado, a maioria dos dados métricos é considerada DADOS CONTÍNUOS porque eles envolvem medições sobre uma escala contínua. A escala fica por conta da precisão do aparelho de medição: na suta ou na fita diamétrica, o máximo que podemos chegar é décimo de centímetros, ou seja, entre os DAP’s 20 e 21 cm nós podemos ter DAP’s com 20.1, 20.2, ... , 20.9; nos cronômetros da Fórmula 1, no entanto, o nível de precisão é impensável para os nossos relógios de pulso.

2.2. Dados grupados: A quantidade de dados que pode ser coletada do “mundo-real” é simplesmente fantástica. Exemplo 1: O censo brasileiro. Você já imaginou a trabalheira que dá para cadastrar aproximadamente 180 milhões de pessoas, anotando o nome, sexo, idade, ocupação, escolaridade etc. Apenas para ilustrar, se você usar qualquer software (Excel ou Word) para listar toda essa gente, você gastará mais de 600 quilômetros de papel apenas para imprimir as informações básicas, é Manaus-Itacoatiara-Manaus. Com todo esse papel, dificilmente você teria uma boa fotografia da população brasileira. Então, o que fazem os especialistas do IBGE? Eles nos proporcionam variadas informações: quantidades de homens e de mulheres (X1); X1 por classe idade (X2); X2 por estado e por região; X1 por nível de escolaridade; população ativa etc. Isso é um exemplo típico da aplicação da estatística DESCRITIVA, por meio da organização e simplificação dos dados. Exemplo 2: Dados sobre DAP das árvores da parcela-testemunha do bloco 2 (apenas as 40 primeiras árvores). Os “pica-paus” normalmente pensam no DAP em classes de 10, 20, 30, 40 cm etc. Para ver quantos DAPs há em cada classe você faz o seguinte: Quadro 2.1. Dados de DAPs de 40 árvores. árv. nº 1 2 3 4 5 6 7 8 9 10

DAP 25.0 27.0 45.0 36.0 39.0 36.0 33.0 47.0 34.0 53.0

Árv. nº 11 12 13 14 15 16 17 18 19 20

DAP 33.0 38.5 31.8 52.0 37.0 27.7 35.0 33.0 47.0 33.0

árv. Nº 21 22 23 24 25 26 27 28 29 30

DAP 32.0 63.0 34.0 30.0 29.0 32.0 27.0 28.0 27.0 40.0

árv. nº 31 32 33 34 35 36 37 38 39 40

DAP 37.0 41.0 40.0 32.0 58.0 28.0 77.0 58.0 43.0 30.0


Quadro 2.2. Cálculo de freqüência de cada classe de diâmetro. classes de DAP 20 < 30 30 < 40 40 < 50 50 < 60 60 < 70 70 < 80 total

Contagem IIIII III IIIII IIIII IIIII IIII IIIII II IIII I I

nº de árvores (f) 8 19 7 4 1 1 40

O número de indivíduos (árvores) em cada categoria ou de DAP é chamada de FREQUÊNCIA daquela classe. O quadro 2.2 é uma tabela de distribuição de freqüência. Não confundir distribuição de freqüência em estatística com o termo freqüência da Ecologia Vegetal. Nem sempre você trabalha com quantidade tão pequena de indivíduos (n = 40, neste caso). Com n maiores é mais seguro montar a distribuição de freqüência utilizando a “tabela dinâmica” do Excel – aplicação no Capítulo 17 (Cadeia de Markov). Algumas “dicas” para estabelecer distribuições de freqüência: - o número de classes não deve ser nem muito pequeno e nem muito grande, ao contrário, no meio. Sugere-se um número entre 5 e 12 – regra do “olhômetro.” Outra forma é através da seguinte fórmula: n classes ≅ 1 + 3,33 log N (N = número de dados) - cada classe tem que ter a mesma dimensão. Do quadro 2.2, as dimensões são: 20 a 29.9, 30 a 39.9 etc. - cada pedaço de dados tem que pertencer a apenas a uma única classe. Essa lista poderia continuar, mas isso seria artificial. O propósito de grupar dados é distribuí-los em um número razoável de classes de igual tamanho para facilitar a interpretação dos mesmos. Se possível, os intervalos que tem uma interpretação natural, devem ser utilizados, como por exemplo: dados em DAP que são normalmente divididos em múltiplos de 10. 20

freqüência absoluta

18 16 14 12 10 8 6 4 2 0 Freq

Figura 2.1: Histograma de freqüência para os mesmos dados do quadro 2.1.


A freqüência pode ser também apresentada em porcentagem ou decimal, conhecida como FREQUÊNCIA RELATIVA. No quadro 2.3 para obter a freqüência relativa de cada classe, bastou dividir a freqüência de cada classe por 40 (número total de indivíduos contados). Se multiplicarmos essas frações por 100, teremos a freqüência em %, caso contrário, em decimais. Quadro 2.3. - Distribuição de Freqüência relativa do quadro 2.1. classes DAP 20 < 30 30 < 40 40 < 50 50 < 60 60 < 70 70 < 80

pt médio 25 35 45 55 65 75

Freq 8 19 7 4 1 1

freq rel 0,200 0,475 0,175 0,100 0,025 0,025

freq acum 8 27 34 38 39 40

Algumas terminologias: Classe – uma categoria para o grupamento de dados. Freqüência – o número de indivíduos ou objetos numa classe. Por exemplo, a freqüência da classe 30-39.9 é 19. Freqüência relativa – a porcentagem, expressa como um decimal, do número total de indivíduos de uma determinada classe. A freqüência relativa da classe 50-59.9 é 0.1 ou 10%. Freqüência acumulada – é a soma das freqüências dos valores inferiores ou iguais a valor dado. Distribuição de Freqüência – a listagem das classes com suas freqüências. Limite inferior da classe – o menor valor que pode ir dentro de uma classe. Na classe 20-29.9 o limite inferior é 20. Limite superior da classe – o maior valor que pode ir dentro de uma classe. Na classe 20-29.9 o limite superior é 29.9. Se a precisão fosse de duas casas decimais, o limite superior poderia ser 29.99 e assim por diante. Intervalo de classe – é a diferença entre o limite superior e o limite inferior de uma dada classe. No nosso exemplo, o intervalo é 10, ou seja, 30 – 20 =10. Ponto médio da classe – é a média aritmética entre o limite superior e limite inferior da classe. Assim, se a classe for: (20+30)/2 = 25. Da classe 30-40 o ponto médio é 35 e assim por diante.

2.3. Gráficos e figuras: Uma outra maneira de dar sentido a um conjunto de dados é por meio da representação gráfica dos mesmos. O gráfico mais simples dos dados é o HISTOGRAMA DE FREQUÊNCIA. A altura de cada barra é igual a freqüência que ela representa. Tem também o HISTOGRAMA DE FREQUÊNCIA RELATIVA. Há muitas outras formas de representação gráfica de seus dados. Hoje em dia, uma forma muito usada é a PIE (torta). De qualquer modo, fique a vontade e use de sua imaginação para dar a representação mais conveniente dos seus dados.


Capítulo 3 Medidas descritivas Há muitos critérios, por sinal, bem avançados, para a descrição sucinta dos fenômenos naturais. Apesar disso, a maioria das características usadas na estatística, para descrever as variáveis aleatórias, em populações particulares, caem em uma das três categorias: (1) medidas da tendência central (alocação de um valor ordinário); (2) medidas de dispersão (distância relativa de valores extremos de um valor central); (3) medidas de relacionamento entre as variáveis (grau de similaridade ou dissimilaridade em magnitude). Em geral, o volume de dados de uma pesquisa é muito grande. Os métodos de gráficos e grupamento de dados são úteis no manuseio de um grande conjunto de dados. Uma outra forma de sumarizar os dados é por meio da computação de um número, tal como a média, a qual substitui um grande volume de dados por um simples número.

3.1 Medidas de tendência central: As medidas de alocação mais comumente utilizadas são média aritmética e a mediana. Menos freqüentemente usadas são: moda, percentil, média geométrica e média harmônica. A média comum ou média aritmética ou simplesmente média, é a mais freqüentemente usada de todas as medidas estatísticas. Média – é simplesmente a soma de todas observações (DAP, altura, idade) dividida pelo número total de observações. É a medida que tem a menor variabilidade de amostra para amostra, é fácil de ser manuseada matematicamente e tem as propriedades mais desejáveis em conexão com as distribuições de probabilidade. Mediana – é o valor de uma variável aleatória que, em ordem crescente ou decrescente, está “rankeado” no meio, entre os valores maiores e menores. Em amostras com número par de observações, a mediana é a média aritmética dos 2 valores que estão “rankeados” no meio. Estimativas da mediana de pequenas amostras não são muito confiáveis. Moda – é o valor mais freqüente, ou seja, é a categoria ou classe com a maior freqüência. É uma medida fácil e rápida de ser obtida, mas, por outro lado, fica sempre sujeita a variação extrema de uma amostra para outra, ao menos que a amostra seja bem grande. Percentil – para um melhor entendimento pense na mediana como o 50-ésimo percentil. Média geométrica – é a n-ésima raiz de um produto de n valores, ou antilog da média aritmética dos logs de um conjunto de valores e é sempre tão pequeno ou menor que a média do mesmo conjunto de dados. Média harmônica – é a recíproca da média de um conjunto de dados recíprocos e é tão pequena ou menor que a média geométrica para um mesmo conjunto de dados. Para dados ordinais, é preferível utilizar-se da mediana, apesar de que a média é, as vezes, utilizada. Para dados métricos pode ser usada a média ou a mediana. Como com dados ordinais, a mediana é preferida para propósitos descritivos. A maioria das teorias estatísticas para dados métricos usa a média.


Computação de Média, Mediana e Moda _

Média – a estimativa da média, x ou ӯ, do parâmetro µ, é obtida da seguinte maneira: Dos dados do quadro 2.1, a média será: x =

( x 1 + x 2 + .... + x 40 ) 40

_

x = 38,225 Mediana – do quadro 2.1, primeiro é preciso ordenar em ordem crescente, (1ª)

(2)

(3)

(4)

(5)

25

27

27

27

27.7

(11)

(12)

(13)

(14)

31.8

32

32

(21)

(22)

35

(6)

(7)

(8)

(9)

(10)

28

28

29

30

30

(15)

(16)

(17)

(18)

(19)

(20)

32

33

33

33

33

34

34

(23)

(24)

(25)

(26)

(27)

(28)

(29)

(30)

36

36

37

37

38.5

39

40

40

41

(31)

(32)

(33)

(34)

(35)

(36)

(37)

(38)

(39)

(40ª)

43

45

47

47

52

53

58

58

63

77

Neste caso, o número total de observações, n, é par, a mediana será a média aritmética dos vigésimo e vigésimo-primeiro valores, ou seja, (34 + 35)/2 = 34.5. Moda – é simplesmente o ponto médio da classe que tem a maior freqüência, que no nosso caso, quadro 2.2, é 35, que tem a freqüência = 19. Resumo das estimativas das medidas: Média

= 38,225

Mediana = 34,5 Moda

=

35,0

Interpretação: um conjunto de dados pode ter mais de uma moda, mas sempre terá somente uma média ou mediana. Como você pode ver, de um mesmo conjunto de dados, você tem diferentes medidas de tendência central. Qual delas é a melhor? A decisão vai depender, principalmente, do objetivo de sua informação. Quando a gente vende madeira em volume, normalmente truncada a um determinado diâmetro mínimo, a média deve prevalecer tendo em vista a maior facilidade para os cálculos posteriores. Se a árvore é vendida em pé, a moda pode ser mais interessante, porque ela dá uma noção também da distribuição de freqüência. A utilização da mediana é mais prática na tomada de decisões quanto a tratamentos silviculturais, desbastes etc., quando você precisa priorizar o tamanho que precisa sofrer intervenções.


3.2. Medidas de dispersão: Uma medida de dispersão é um número usado para mostrar quanto de variação existe num conjunto de dados. Até agora discutimos somente as medidas de tendência central. Entretanto, 2 conjuntos de dados podem ter a mesma média ou a mesma mediana e, mesmo assim, ser bastante diferente. Exemplo 1: Dois conjuntos de dados (turmas de Manejo e Ecologia), no quadro 3.1 Quadro 3.1. Idades de alunos dos cursos de manejo e ecologia do INPA Manejo (CFT) aluno idade 1 25 2 28 3 30 4 29 5 28 média 28

Ecologia aluno idade 1 22 2 30 3 28 4 21 5 39 média 28

As médias dos dois grupos são iguais. No entanto, é claro que estamos nos referindo a dois grupos diferentes em idade. Dá para perceber que o grupo do Manejo é mais uniforme em termos de idade. Neste caso, para ver a variação que há dentro de cada conjunto de dados, podemos usar a amplitude total ou o desvio padrão, as duas medidas de dispersão mais comuns. AMPLITUDE TOTAL – é a medida da variação olhando apenas a diferença entre o maior e o menor valor. Esta medida é de fácil computação porque depende apenas do maior e do menor valor, mas, em compensação ela não diz o que acontece entre esses dois valores. Além disso, é considerada muito limita, sendo uma medida que depende apenas dos valores externos, é instável, não sendo afetada pela dispersão dos valores internos. Do quadro 3.1, as amplitudes são: -

Manejo: 30 – 25 = 5

-

Ecologia: 39 – 21 = 18

DESVIO PADRÃO – nos dá a dispersão dos indivíduos em relação à média. Ele nos dá uma idéia se os dados estão próximos da média ou muito longe. O desvio padrão dos indivíduos de uma população é freqüentemente simbolizado pela letra grega minúscula (σ). Dificilmente a gente trabalha com o parâmetro. Entretanto, dado uma amostra de valores individuais de uma população, podemos fazer uma estimativa de σ que é comumente simbolizada por s. n

Fórmula : s = ±

2 ∑ (x i - x)

i =1

n -1 n

ou, mais simples : s = ±

∑x i =1

2 i

n

- (( ∑ x i ) 2 ) / n i =1

n -1


Por que o denominador é (n-1) em vez (n)?

_

Porque os n desvios, (xi – x ), são _

necessariamente conectados pela relação linear ∑ ( xi – x ) = 0. Se você especifica o valor da _

x e os ( n-1 ) valores de xi, então o valor do último xi é fixo; isto é, é uma informação _

redundante. Por esta razão, ao usar a média amostral x em vez da média da população µ como um ponto central no cálculo de s, você perde um grau de liberdade (gl) e a estimativa de σ é dita ter ( n – 1 ) gl associados com ela. O uso de (n – 1) em vez de (n) no cálculo de s também fornece uma estimativa não-tendenciosa; isto é, em uma série infinita de amostras aleatórias, o valor médio do estimador é igual a σ. Os desvios padrões dos dados do quadro 3.1 são: -

Manejo: s = ± 1.87

-

Ecologia: s = ± 7.25

Resumindo: quanto maior a variação dentro de um conjunto de dados, maior será o desvio padrão. Do exemplo 1 nós constatamos agora, que apesar dos dois terem as mesmas medidas de tendência central, média e mediana, as medidas de dispersão são totalmente diferentes. Isto quer dizer que o grupo de Manejo é mais homogêneo em idade, comprovada pela menor variação encontrada. Cálculo da média e desvio dos dados grupados:

A média é calculada da seguinte maneira: _

x = ( ∑ xi * fi ) / n onde: xi = ponto médio da classe, fi = freqüência de cada classe e n = número de classes E o desvio padrão segue o mesmo princípio da média em relação às classes. Do quadro 2.2, essas medidas serão: _

x = 38,5 e s = ± 11,45

3.3. Medidas de relacionamento: As medidas mais comumente utilizadas para relacionamento são correlação e regressão. Vários tipos de correlação podem ser usados para medir o grau de associação (similaridade ou dissimilaridade) entre 2 (ou mais) variáveis aleatórias, independente das unidades de medida e mudanças lineares em escala. Estas medidas serão vistas, em detalhe, num capítulo específico.

3.4 Percentil: Nós já vimos um exemplo de percentil. A mediana divide um conjunto de dados em duas partes, 50% de um lado e 50% de outro, depois de colocá-los em ordem crescente. Por esta razão ela se refere ao qüinquagésimo percentil de um conjunto de dados. Além dos percentils, que pode dividir os dados de acordo com qualquer valor percentual, o pesquisador pode também querer encontrar o quartil e o decil. Quartil é a separatriz que divide a área de uma distribuição de freqüência em domínios de área igual a múltiplos inteiros de um quarto da área total. Decil é a separatriz correspondente ao valor do argumento que divide a distribuição numa razão decimal.


Exemplo: dados do quadro 2.1 em ordem crescente.

Primeiro quarto 25

27

27

27

27.7

28

28

29

30

30

32

33

33

33

33

34

34

37

37

38.5

39

40

40

41

47

52

53

58

63

77

Segundo quarto 31.8 32

32

Terceiro quarto 35

36

36

Quarto quarto 43

45

47

58

Computações: Primeiro quartil = (30 + 31.8) / 2 = 30.9 Segundo quartil = (34 + 35) / 2 = 34.5 Terceiro quartil = (41 + 43) / 2 = 42.0

3.5. Considerações finais: Neste capítulo não poderíamos deixar de mencionar três outros conceitos muito importantes na nossa área de conhecimento, coeficiente de variação, variância e covariância. COEFICIENTE DE VARIAÇÃO – é a razão entre o desvio padrão e a média. Ele nos dá uma idéia de variação relativa de nossa população, permitindo a comparação de 2 populações diferentes independentes das unidades de medida.

Do quadro 3.1, estimamos as médias (28 para manejo e 28 para Ecologia) e os desvios padrões (1.87 e 7.25). Agora temos os coeficientes de variação (CV): CV = 1.87/28 = 0.0668 ou 6.68 %

- Manejo

CV = 7.25/28 = 0.2589 ou 25.89 % - Ecologia

Do nosso exemplo do quadro 2.1, temos uma população de árvores, com as seguintes estimativas: média = 38,225 e desvio = 11,28 CV = 11,28/38,225 = 0.2951 ou 29,51 % - floresta ZF-2

Mesmo se tratando de populações diferentes podemos concluir com base nos CVs: A população Manejo é mais homogênea e a mais heterogênea é a floresta da ZF-2. Isto é possível porque o CV é uma medida relativa, que independente da unidade de medida utilizada. VARIÂNCIA - Variância é uma medida da dispersão dos valores unitários individuais em torno de sua média. A variância não só parece com o desvio padrão, como é o próprio, apenas “ao quadrado” . Se você tirar da fórmula do desvio, a raiz quadrada, você tem a fórmula da variância. Por que “ao quadrado”? Simplesmente porque a soma de todos os desvios tem que se anular, tendendo a zero e, daí, você não teria condições de ver a amplitude de variação dos seus dados em relação à média.


COVARIÂNCIA - é uma medida de como 2 variáveis variam juntas, em relacionamento (covariabilidade). Suponha duas variáveis x e y. Se os maiores valores de x tende a ser associados com os maiores valores y, nós dizemos que a covariância é positiva. Quando os maiores se associam com os menores, ou vice-versa, a covariância é negativa. Quando não há uma associação particular de x e y, a covariância tende a zero.

As fórmulas são: Variância, s2 = SQCx /(n-1) Covariância, sxy = SPCxy / (n-1)

Sendo: SQC = Soma dos Quadrados Corrigidos SPC = Soma dos Produtos Corrigidos


Fórmulas úteis Média Aritmética

Variância n

∑ (x

n

x=

∑x i =1

i

s2 =

n

Desvio padrão

− x)

n −1 Erro padrão

s=± s

sx = s / n

2

⎛ n ⎞ ⎜ ∑ xi ⎟ n 2 i =1 ⎠ SQC x = ∑ xi − ⎝ n i =1

n

SPC xy = ∑ xi y i

2

⎛ n ⎞ y ⎜ ∑ i ⎟ n 2 i =1 ⎠ SQC y = ∑ y i − ⎝ n i =1

(∑ x )(∑ y ) −

i =1

Coeficiente de correlação

r=

i =1

i

2

SPCxy SQC X × SQCY

i

i

n

2


Capítulo 4 Probabilidade No capítulo 1 nós distinguimos dois tipos de estatísticas: descritiva e de inferência. A estatística descritiva envolve a organização e a sumarização dos dados. A estatística de inferência lida com inferências (predições educadas) sobre uma população baseada em uma amostra da população. Desde que a estatística de inferência envolve predições (educadas), é sempre possível fazer uma inferência incorreta. É preciso saber o quanto a nossa inferência está correta. Para medir a chance de estar certo na nossa inferência estatística, precisamos entender a teoria de probabilidade, que é a fundamentação matemática para a estatística de inferência. Para entender os princípios da teoria de probabilidade não há como fugir dos exemplos clássicos de “cara & coroa”, dos dados e do jogo de baralho. A propósito, a teoria foi desenvolvida por causa de jogos de azar. O objetivo deste capítulo é dar uma base geral para facilitar o entendimento da aplicação de testes de hipóteses, paramétrica e não-paramétrica. O processo de computação (cálculo) de probabilidades depende de sua capacidade de contar, “1, 2, 3 e assim por diante.” A seguir vamos discutir alguns métodos de contagem.

4.1. Contagem: Primeiro vamos estabelecer as seguintes definições dentro da teoria de probabilidade. Resultado - no caso de “cara ou coroa”, 2 resultados são possíveis e no caso do jogo de dados, 6 resultados. Teste - (ou tentativa) - é a ação de jogar a moeda e ver se ela cai com a cara ou

coroa. Experimento - é o conjunto de testes (tentativas); se a moeda é jogada uma vez, ou duas, ou n vezes, não interessa – o procedimento deve ser considerado um experimento. Eventos - são os possíveis resultados de um teste, vários testes ou de todo o experimento. Exemplo de evento: “uma coroa em 4 jogadas” ou “pelo menos um é cara”. REGRA 1: Se um experimento consiste de n testes, onde cada teste pode resultar em um dos k possíveis resultados, afirmamos que há kn possíveis resultados de todo o experimento. Exemplo 1: no jogo da moeda você tem dois resultados, cara (C) ou coroa (c), k=2. Se você jogar apenas uma vez, n=1, você terá 21 = 2 possíveis resultados, C ou c. Se você jogar duas vezes, n = 2, você terá 22 = 4 possíveis resultados, CC cc Cc cC. REGRA 2: Há n! (fatorial) maneiras de arranjar n objetos distinguíveis em uma seqüência. Exemplo 2: considere o número de maneiras de arranjar as letras A, B e C numa seqüência. A primeira letra pode ser qualquer uma das três, a segunda pode ser escolhida de duas maneiras diferentes uma vez que a primeira já foi escolhida, e a letra remanescente se torna a última letra escolhida, para um total (3) (2) (1) = 6 ou 3! Arranjos diferentes. Os 6 possíveis arranjos são: ABC ACB BAC BCA CAB e CBA. Exemplo 3: suponha uma corrida de cavalos com 8 cavalos. Há 8 maneiras de qualquer um deles chegar em primeiro lugar, tendo nas outras colocações qualquer outro. Se você quiser saber quantos arranjos são possíveis tendo, no primeiro e segundo lugar, qualquer um deles e, as demais colocações, de qualquer jeito, você fará (8) (7) = 56 arranjos. Se você,


no entanto, quiser saber todos os possíveis arranjos do primeiro ao oitavo lugar você fará 8! = 40320 arranjos. REGRA 3: se um grupo de n objetos é composto de k objetos idênticos de um tipo e o restante (n-k) são objetos idênticos de um segundo tipo, o número de arranjos distinguíveis dos n objetos numa seqüência, denotado por meio de

⎛n⎞ ⎜⎜ ⎟⎟ é dado por ⎝k⎠

⎛n⎞ n! ⎜⎜ ⎟⎟ = k! (n - k)! ⎝k⎠

Ou: se um grupo de n objetos é composto de n1 objetos idênticos do tipo 1, n2 objetos idênticos do tipo 2, ..., nr objetos idênticos do tipo r, o número de arranjos distintos numa seqüência será: ⎛n ⎞ ⎜⎜ ⎟⎟ é dado por ⎝ ni ⎠

⎛n ⎞ n! ⎜⎜ ⎟⎟ = n1! n2! ... nr! ⎝ ni ⎠

⎛3 ⎞ (3) (2) (1) 3! ⎜⎜ ⎟⎟ = = = 3 2! 1! (2) (1) (1) ⎝ 2⎠ Exemplo 4: no exemplo 2 listamos as 6 maneiras de arranjar as letras A, B e C numa seqüência. Suponha agora que as letras A e B são idênticas e chame-as de X. Assim, os arranjos ABC e BAC se tornam indistintos, XXC para os dois. Também ACB e BCA se tornam XCX. O arranjo original é reduzido para arranjos distintos, que são XXC, XCX e CXX.

4.2. Definições de probabilidade: Primeiro vamos ver algumas definições: (i) Espaço amostral experimento.

-

é a coleção de todos os possíveis resultados de um

(ii) Ponto no espaço amostral - é um resultado possível de um experimento.

Cada experimento tem o seu próprio espaço amostral, que consiste essencialmente de uma lista de diferentes resultados possíveis de um experimento. O espaço é subdividido e cada subdivisão é um ponto. Cada possível resultado é representado por um ponto e somente um ponto. Exemplo 1: se um experimento consiste em jogar duas vezes a moeda, o espaço amostral consiste de 4 pontos CC cc Cc cC. Exemplo 2: uma prova consistindo de 10 questões “falsa” ou “verdadeira” é passada a um aluno como um experimento. Há 210 = 1024 pontos no espaço amostral, onde cada ponto consiste da seqüência das possíveis respostas para as 10 questões sucessivas, tais como: FFFFVVFFVV.

Agora, então, é possível definir evento, em termos dos pontos do espaço amostral. (iii) Evento - um evento é qualquer conjunto de pontos no espaço amostral.

No exemplo 1 ao falarmos do evento “duas caras”, estamos nos referindo a um simples ponto CC; o evento “uma cara” consiste de dois pontos Cc e cC; o evento “pelo menos uma cara” consiste de três pontos CC, Cc e cC.


Dois diferentes eventos podem ter pontos comuns e ambos. Os eventos “pelo menos uma cara” e “pelo menos uma coroa” tem os pontos Cc e cC em comum. Se dois eventos não têm pontos em comuns eles são chamados de eventos mutuamente exclusivos porque a ocorrência de um evento automaticamente exclui a possibilidade de ocorrer outro evento ao mesmo tempo. Para cada ponto no espaço amostral há um número correspondente chamado de probabilidade do ponto ou probabilidade do resultado. Estas probabilidades podem ser quaisquer números entre 0 a 1. A definição da probabilidade de um evento inclui a definição da probabilidade de um resultado como um caso especial, desde que o evento possa ser considerado como que se consistisse de um resultado simples. Na prática, o conjunto de probabilidades associadas com um particular espaço amostral é raramente conhecido, mas as probabilidades são atribuídas de acordo com as noções pré-concebidas do pesquisador, isto é, o pesquisador formula um modelo como uma versão ideal do experimento. Então, o espaço amostral do modelo experimental é examinado e as probabilidades são atribuídas aos vários pontos do espaço amostral de alguma maneira que o pesquisador sinta que pode ser justificada. Exemplo 3: Num experimento consistindo de uma única jogada de uma moeda “não viciada”, é razoável assumir que o resultado cara (C) tem metade da chance de ocorrer. Assim, podemos atribuir a probabilidade de ½ para o resultado C e o mesmo para c. Isso pode ser escrito da seguinte maneira: P (C) =1/2 e P (c) = 1/2 . Exemplo 4: Num experimento consistindo de 3 jogadas (testes), é razoável assumir que cada um dos 23 = 8 resultados CCC CCc CcC Ccc cCC ccC cCc ccc tem a mesma chance de ocorrer. Assim, a probabilidade de cada resultado é 1/8. Também P (3 caras) = 1/8, P (pelo menos 1 cara) = 7/8, P (pelo menos 2 caras) = 4/8 = ½. (iv) Função de Probabilidade: é uma função que atribui probabilidades aos vários eventos no espaço amostral.

Várias propriedades dessas funções são aparentes. Considere S como espaço amostral e A, B ou C como qualquer evento em S. Então, se P é a função de probabilidade, P(S) = 1, P(A) > 0 e P(a) = 1 – P(A), onde a é o evento “o evento não ocorre”. (v) Probabilidade Condicional: é a probabilidade de ocorrer A dado B.

P (A | B) = [ P (AB) ] / [ P (B) ] onde P (B) > 0, caso contrário, é indefinido. Exemplo 5: Considere o jogo de dados, tal que cada um dos 6 possíveis resultados tem a probabilidade de 1/6 de ocorrer. Como antes, deixe A ser o evento “a ocorrência de 4, 5 ou 6” e B o evento “a ocorrência de um número par” . Então P (AB) = P (4 ou 6) = 2/6 = 1/3. Também, P (B) = 3/6 = ½. Então, a probabilidade condicional P (A|B) é dada por

P (A | B) =

1/ 3 = 2/3 1/ 2

(vi) Eventos independentes: Dois eventos A e B são independentes se

(1)

P (AB) = P (A) P (B)


Exemplo 6: Num experimento consistindo de 2 jogadas de moeda, os 4 pontos no espaço amostral assumem ter a mesma probabilidade. Deixe A ser o evento “uma cara ocorre na primeira jogada” e B ser o evento “uma cara ocorre na segunda jogada.” Então A tem os pontos CC e Cc. B tem os pontos CC e cC. AB tem os pontos CC. Também P (A) = 2/4, P (B) = 2/4 e P (AB) = 1/4.

P (AB) = (2/4) (2/4) = 4/16 = 1/4 satisfaz a condição (1) e, por esta razão, A e B são independentes. (vii) Experimentos Mutuamente Independentes: são mutuamente independentes se todos os conjuntos de n eventos formados tiverem a seguinte equação como verdadeira:

P ( A1, A2, ..An) = P (A1) P(A2) ...P (An) onde Ai representa um resultado do i-ésimo experimento para i = 1, 2, ....n. Exemplo 7: Considere um experimento com 1 jogada da moeda, onde o evento C tem a probabilidade p e o evento c tem a probabilidade q = 1 – p. Considere 3 repetições independentes do experimento, onde o subscrito será usado para diferenciar o experimento com o qual o resultado está associado. Dessa maneira, C1 c2 C3 significa que o primeiro experimento resultou em C, o segundo em c e o terceiro em C. Por causa de nossa hipótese de independência,

P (C1 c2 C3) = P (C1) P (c2) P (C3) = pqp Se considerarmos o evento “exatamente 2 caras” associado aos experimentos combinados, o seguinte pode ocorrer ⎛3⎞ 6 ⎜⎜ ⎟⎟ = = 3 maneiras e conseqüentemente 2 ⎝ 2⎠ P ( exatamente 2 caras) = 3p 2 q

Obviamente o anterior pode ser descrito simplesmente como um experimento com 3 tentativas independentes. Por extensão, podemos considerar um experimento consistindo de n jogadas independentes. A probabilidade de obter “exatamente k caras” , então, é igual ao termo pkqn - k vezes o número de vezes que o termo pode aparecer. Por esta razão, em n jogadas independentes de uma moeda ⎛n⎞ P (exatamente k caras) = ⎜⎜ ⎟⎟ p k q n - k ⎝k⎠ onde p = P(C) em qualquer jogada.

Outras considerações: Conceito de probabilidade usando distribuições de freqüências relativas. Exemplo 8: Um diretor de escola numa pequena cidade de 40 famílias classificou cada família de acordo com o número de crianças (menores que 18 anos). As informações obtidas são sumarizadas no quadro 4.1.


Quadro 4.1: Distribuição de número de crianças por família. nº de crianças 0 1 2 3 4

nº de famílias 18 8 7 4 3 40

% 45,0 20,0 17,5 10,0 7,5 100,0

freq. relativa 0,450 0,200 0,175 0,100 0,075 1,000

O quadro 4.1 mostra, por ex., que 17,5% (0.175) das 40 famílias possuem 2 crianças. Agora, suponha que uma das famílias tenha sido selecionada aleatoriamente, ou seja, cada família teve igual chance de ser escolhida. Qual é a probabilidade que a família selecionada tenha 3 crianças? A resposta é 4/40, que é a mesma frequência relativa. Suponha que há N resultados possíveis num experimento. A probabilidade que um evento ocorra é o número de vezes, f, que o evento pode ocorrer, dividido pelo número total, N, de possíveis resultados.

4.3. Variáveis aleatórias: No exemplo 8 nós vimos um levantamento que classificou cada uma das 40 famílias de acordo com o número de crianças na família. Desde que “o número de crianças” varia de família para família, ela é chamada de variável. Quando selecionamos uma família aleatoriamente, o “número de crianças” é uma variável aleatória desde que o seu valor (um número real) depende de uma chance. Definição 1: Uma variável aleatória é uma função que atribui números reais aos pontos num espaço amostral.

As variáveis aleatórias são normalmente representadas pelas letras maiúsculas X, W, Y ou Z com ou sem subscritos. Os números reais atribuídos pelas variáveis aleatórias serão representados por letras minúsculas. Exemplo 1: Num experimento onde ao consumidor é dada a chance de escolher 3 produtos, sabonete, detergente ou marca A, o espaço amostral consiste dos 3 pontos representando as 3 possíveis escolhas. Deixe a variável aleatória atribuir o número 1 para a escolha “marca A” e o número 0 (zero) para os outros 2 possíveis resultados. Então, P(X = 1) é igual a probabilidade do consumidor escolher a marca A. Exemplo 2: Para 6 meninas e 8 meninos é perguntado se eles se comunicam mais facilmente com suas mães ou com seus pais. Deixe X ser o número de meninas que pensam que se comunicam melhor com suas mães e deixe Y ser o número total de crianças que pensam que se comunicam melhor com suas mães. Se X = 3, nós sabemos que ocorreu o evento “3 meninas pensam que se comunicam melhor com suas mães.” Se, ao mesmo tempo, Y = 7, nós sabemos que ocorreu o evento “3 meninas e 7 – 3 = 4 meninos pensam que se comunicam melhor com suas mães.”

Se X é uma variável aleatória, “X = x” é uma notação simplificada que usamos para corresponder ao mesmo evento no espaço amostral, especificamente o evento que consiste do conjunto de todos os pontos para os quais à variável X foi atribuído o valor “x”. Exemplo 3: Num experimento consistindo de 2 jogadas de moeda, deixe X ser o número de caras. Então, X = 1 corresponde ao evento contendo os pontos Cc e cC.


Dessa maneira, “X = x” é, às vezes, referida como o “evento X = x,” quando, na realidade, pretendeu-se dizer “o evento consistindo de todos os resultados atribuídos o número x pela variável aleatória X.” Por causa desta estreita correspondência entre variáveis aleatórias e eventos, as definições de probabilidade condicional e independência se aplicam igualmente bem às variáveis aleatórias. Definição 2: A probabilidade condicional de X dado Y, P (X = x | Y = y), é a probabilidade que a variável aleatória X assume o valor x, dado que a variável aleatória Y já assumiu o valor y. (1)

P(X = x | Y = y) =

P (X = x, Y = y) se P(Y = y) > 0 P(Y = y)

Exemplo 4: Deixe X ser o número de meninas que se comunicam bem com suas mães, das 6 meninas entrevistadas, como no exemplo 2 e deixe Y ser o número total de crianças que se comunicam bem com suas mães. Por conveniência, deixe Z=Y-X, tal que Z é igual ao de meninos, dos 8 entrevistados, que se comunicam bem com suas mães. Assuma que as respostas dadas pelas crianças são independentes de cada outra e que cada criança tem a mesma probabilidade p (desconhecida) de dizer que se comunica bem com a sua mãe. Encontre a probabilidade condicional P ( X=3 | Y=7).

Primeiro, pelas suposições anteriores, X=3 e Z=4 são eventos independentes. Desde que o evento (X=3, Y=7) é o mesmo que o evento (X=3, Z=4), temos a probabilidade P(X=3, Y=7) = P(X=3, Z=4) = P(X=3) P(Z=4) (2)

⎛6⎞ = ⎜⎜ ⎟⎟ p 3 (1 - p) 3 ⎝3⎠

⎛8 ⎞ 4 ⎜⎜ ⎟⎟ p (1 - p) 4 ⎝ 4⎠

por causa do exemplo 7 do item 4.2. Pelo mesmo exemplo, concluímos que (3)

⎛14 ⎞ P(Y = 7) = ⎜⎜ ⎟⎟ p 7 (1 - p) 7 ⎝ 7⎠

tal que a probabilidade condicional


⎛ 6⎞ ⎛8 ⎞ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎝3⎠ ⎝ 4⎠ P(X = 3 | Y = 7) = ⎛14 ⎞ ⎜⎜ ⎟⎟ ⎝ 7⎠

(4)

⎛ 6! ⎞ ⎛ 8! ⎞ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎝ 3! (6 - 3)! ⎠ ⎝ 4! (8 - 4)! ⎠ = = 0.408 ⎛ 14! ⎞ ⎜⎜ ⎟⎟ ⎝ 7! (14 - 7)! ⎠

Como os pontos no espaço amostral são mutuamente exclusivos, os valores que uma variável aleatória pode assumir são também mutuamente exclusivos. Para um simples resultado de um experimento, a variável aleatória é definida por apenas um número. Assim, todo o conjunto de valores que uma variável aleatória pode assumir tem as mesmas propriedades do espaço amostral. Os valores individuais assumidos pela variável aleatória correspondem aos pontos no espaço amostral, um conjunto de valores corresponde a um evento e a probabilidade da variável aleatória assumir qualquer valor dentro de um conjunto de valores é igual a soma das probabilidades associadas com todos os valores dentro do conjunto. Por exemplo: P (a < X < b) =

P(X = x)

a < x <b

onde o somatório se estende a todos os valores de x entre, não incluindo os números a e b, P (X = número par) =

P (X = x)

x par

onde o somatório se aplica a todos os valores de x que são pares. Por causa dessa similaridade entre o conjunto de valores possíveis de X e um espaço amostral, a descrição do conjunto de probabilidades associadas com os vários valores que X pode assumir, é freqüentemente chamado de função de probabilidade da variável aleatória X, assim como um espaço amostral tem uma função de probabilidade. Entretanto, a função de probabilidade de uma variável aleatória não é uma atribuição arbitrária de probabilidades, como é a função de probabilidade para um espaço amostral. Isto porque uma vez que as probabilidades são atribuídas aos pontos num espaço amostral e uma vez que a variável aleatória X é definida no espaço amostral, as probabilidades associadas com os vários valores de X são conhecidas e a função de probabilidade de X é, dessa maneira, já determinada. Definição 3: A função de probabilidade da variável aleatória X, usualmente representada por f(x) ou de outra maneira qualquer, é a função que dá a probabilidade de X assumir o valor x, para qualquer número real x, ou seja,

(5)

f(x) = P(X = x)

Vimos até aqui que a distribuição de probabilidades associadas com uma variável aleatória pode ser descrita por uma função de probabilidade. Uma outra maneira de dizer a mesma coisa é através de uma função de distribuição que descreve as probabilidades acumuladas.


Definição 4: A função de distribuição de uma variável aleatória, usualmente representada por F(x), é a função que dá a probabilidade de X ser menor ou igual a qualquer número real x, ou seja,

(6)

F(x) = P (X ≤ x) =

∑ f(t)

t ≤x

onde o somatório se estende a todos os valores de t que não forem superiores a x. Definição 5: Deixe X ser uma variável aleatória. A distribuição binominal é a distribuição de probabilidade representada pela função de probabilidade

(7)

⎛n⎞ f(x) = P(X = x) = ⎜⎜ ⎟⎟ p x q n -x para x = 0,1, .., n ⎝x⎠

onde: n é número inteiro positivo, 0 ≤ p ≤ 1 e q = 1 – p. Note que usaremos a convenção usual que 0! = 1. A função de distribuição será então (8)

F(x) = P(X ≤ x) =

⎛n⎞

∑ ⎜⎜ i ⎟⎟ p i q n-i

i≤ x

⎝ ⎠

onde o somatório se estende a todos os possíveis valores de i menor ou igual a x. Há tabelas prontas para alguns valores selecionados dos parâmetros n e p. Exemplo 5: Um experimento com n testes independentes, onde cada teste pode resultar em um dos dois resultados “sucesso” ou “insucesso,” com probabilidade P e q, respectivamente. Deixe X ser igual ao número total de “sucessos” nos n testes. Então, como mostrado na equação (7),

⎛n⎞ P (X = x) = ⎜⎜ ⎟⎟ p x q n -x ⎝x⎠ para x inteiro de 0 a n. Desta maneira, o experimento tem a distribuição binominal. Definição 6: Deixe X ser uma variável aleatória. A distribuição discreta uniforme é a distribuição de probabilidade representada pela função de probabilidade.

(9)

f(x) = 1/N para x = 1,2, ... , N

Desta maneira, X pode assumir qualquer valor inteiro de 1 a N com igual probabilidade, se X tem a função de probabilidade discreta uniforme. Exemplo 6: Há em um saco N papeletas numeradas de 1 a N. O experimento consiste de tirar uma papeleta do saco, onde cada papeleta tem a mesma chance de ser tirada. O espaço amostral tem N pontos, representando as N papeletas que podem ser tiradas. Deixe X ser igual ao número da papeleta tirada. Então X tem a distribuição uniforme discreta. Definição 7: A função de probabilidade conjunta f (x1, x2, .. xn ) das variáveis aleatórias x1, x2, .. xn é a probabilidade da ocorrência conjunta de X1 = x1, X2 = x2, ... , Xn = xn.

(10)

f(x1, x2, .. xn ) = P (X1 = x1, X2 = x2, ... , Xn = xn )


Definição 8: A função de distribuição conjunta F(x1, x2, .. xn ) das variáveis aleatórias x1, x2, .. xn é a probabilidade da ocorrência junta de X1 ≤ x1, X2 ≤ x2, ... , Xn ≤ xn .

(11)

F(x1, x2, .. xn ) = P (X1 ≤ x1, X2 ≤ x2, ... , Xn ≤ xn )

Exemplo 7: Considere as variáveis aleatórias X e Y como definidas no exemplo 2. Considere f(x,y) e F(x,y) como as funções de probabilidade conjunta e de distribuição, respectivamente.

(12)

⎛ 6⎞ f(3, 7) = P (X = 3, Y = 7) = ⎜⎜ ⎟⎟ ⎝3⎠

(13)

F(3, 7) = P (X ≤ 3, Y ≤ 7) =

⎛8 ⎞ 7 ⎜⎜ ⎟⎟ p (1 - p) 7 ⎝ 4⎠

e

f(x, y)

0 ≤ x ≤3 x ≤ y≤7

onde ⎛6 ⎞ f(x, y) = ⎜⎜ ⎟⎟ p x (1 - p) 6 - x ⎝x⎠

⎛ 8 ⎞ y- x ⎟⎟ p (1 - p) 8 - (y - x) ⎜⎜ y x ⎠ ⎝

e onde o somatório na equação (13) se estende a todos os valores de x e y tal que x ≤ 3 e y ≤ 7, com a usual restrição de que x e y – x são inteiros não negativos. Note que as equações (12) e (13) não podem ser avaliadas sem conhecer o valor de p. Definição 9: A função de probabilidade condicional de X dado Y, f(x | y) é

(14)

f(x | y) = P(X = x | Y = y)

Da equação 1 vemos que (15)

f(x | y) = P(X = x | Y = y) =

=

P(X = x, Y = y) P(Y = y) f(x, y) f(y)

onde f(x, y) é a função de probabilidade conjunta de X e Y e f(y) é a função de probabilidade de Y em si. Exemplo 8: Como uma continuação do exemplo 7, considere f(x | y) como a função de probabilidade condicional de X dado Y.

F(3 | 7) = P(X = 3 | Y = 7) = 0.408 da equação (4)


Para encontrar a fórmula geral para f(x | y) (isto é, para qualquer valor de x e y), primeiro deixe f(x, y) ser a função de probabilidade conjunta de X e Y. Isto é dado no exemplo 7 como ⎛6 ⎞ f(x, y) = ⎜⎜ ⎟⎟ p x (1 - p) 6 - x ⎝x⎠

⎛ 8 ⎞ y- x ⎟⎟ p (1 - p) 8 - (y - x) ⎜⎜ ⎝y - x⎠

que originalmente era uma forma geral da equação (2). Também, deixe f(y) ser a função de probabilidade de Y. Do exemplo 4, novamente, podemos generalizar da seguinte maneira ⎛14 ⎞ f(y) = P(Y = y) = ⎜⎜ ⎟⎟ p y (1 - p)14 - y ⎝y ⎠ Pela definição 9 podemos agora escrever a função de probabilidade condicional de X dado Y =y

(16)

⎛6 ⎞ ⎛ 8 ⎞ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ f(x, y) ⎝x⎠ ⎝y - x⎠ f(x y) = = f(y) ⎛14 ⎞ ⎜⎜ ⎟⎟ ⎝y ⎠

para ∫

0≤x≤6 0≤ y-x ≤8

onde todos os termos que envolvem o parâmetro desconhecido p foram convenientemente cancelados. Definição 10: Considere X1, X2, ... , Xn como variáveis aleatórias com as respectivas funções de probabilidade f1 (x1), f2 (x2), ... , fn (xn) e com a função de probabilidade conjunta f (x1, x2, ... , xn ). Então X1, X2, ... , Xn são mutuamente independentes

(17) se: f(x1, x2, ... , xn ) = f1 (x1) f2 (x2) ... fn (xn) para todas as combinações dos valores de x1, x2, ... , xn. Exemplo 9: Considere o experimento descrito no exemplo 8. Então, a função de probabilidade de X é dada por

⎛6 ⎞ f1 (x) = P (X = x) = ⎜⎜ ⎟⎟ p x (1 - p ) 6 - x ⎝x⎠ e a função de probabilidade de Y é dada por (18)

(19)

Desde que:

⎛14 ⎞ f 2 (y) = P (Y = y) = ⎜⎜ ⎟⎟ p y (1 - p)14 - y ⎝y ⎠


f(x, y) = P(X = x, Y = y) = P(X = x | Y = y) P(y = y) O uso das equações (16) e (19) resulta na função de probabilidade conjunta de X e Y, sendo dada por

f(x, y) =

⎛6 ⎞ ⎜⎜ ⎟⎟ ⎝x⎠

⎛ 8 ⎞ ⎟⎟ ⎜⎜ ⎝y - x⎠ ⎛14 ⎞ ⎜⎜ ⎟⎟ ⎝y ⎠

⎛14 ⎞ y ⎜⎜ ⎟⎟ p (1 - p)14 - y ⎝y ⎠

⎛6 ⎞ ⎛ 8 ⎞ y ⎟⎟ p (1 - p)14 - y = ⎜⎜ ⎟⎟ ⎜⎜ ⎝x⎠ ⎝y - x⎠ desde que: ⎛6 ⎞ f 1 (x) f 2 (y) = ⎜⎜ ⎟⎟ ⎝x⎠

⎛14 ⎞ x + y ⎜⎜ ⎟⎟ p (1 - p) 20 - x + y ⎝y ⎠

vemos que: f(x, y) é diferente de f1(x) f2(y) e, por esta razão, X e Y não são independentes.


CAPÍTULO 5 DISTRIBUIÇÃO NORMAL Uma função de distribuição mostra, para uma população, a freqüência relativa (probabilidade) com que diferentes valores (números reais) de uma variável aleatória ocorrem. Em geral, cada população tende a ter a sua própria distribuição. No entanto, a distribuição normal é a mais popular de todas por causa de sua grande aplicabilidade na aproximação do comportamento de um grande número de variáveis aleatórias naturais que são contínuas. Ela é conhecida como distribuição de Gauss (difusor) ou distribuição com a forma de sino – V. Figura 5.1. abaixo. Função:

n( x; µ , σ ) = Para:

1

σ 2π

e

− 0.5

(( x − µ ) ) 2

σ

− ∞ < x < +∞

σ -∞

-3

-2

-1

µ

1

2

3

+∞

z

68,27% 95,45% 99,73%

Figura 5.1: Curva normal padrão Propriedades: 9 9 9 9 9

A curva normal padrão (CNP) tem µ = 0 e σ = 1 Área sob a CNP é igual a 1 A CNP se estende indefinidamente em ambas direções A CNP é simétrica em torno de zero A maior parte (99,73%) da CNP fica entre -3 σ e +3 σ

Toda a estatística paramétrica foi desenvolvida com base nos pressupostos da distribuição normal. Se você usar os testes desenvolvidos com base na distribuição normal, sem atender a condicionante da normalidade, o teste perde a robustez e a consistência e os


seus resultados podem perder toda a confiabilidade. Entretanto, nem sempre as variáveis aleatórias distribuem-se na forma perfeita de um sino (µ = 0 e σ = 1). Há várias maneiras de superar este tipo de obstáculo, como aumentar o número de amostras e fazer transformações. Só não pode ignorar o detalhe da normalidade.

5.1. Estimando a média da população: Na estatística de inferência tudo gira em torno da obtenção da estimativa da média verdadeira da população, µ. Por exemplo, podemos estar interessados em saber: 9 o volume médio, µ, de uma determinada área florestal 9 a idade média, µ, dos estudantes da turma-2006 do CFT

Se a população é pequena, µ é calculada sem problemas; no caso de populações maiores, a média tem que ser estimada usando amostragem de parte da população. No caso do CFT, 18 estudantes, obter a idade média é uma tarefa muito fácil. Não há necessidade de fazer amostragem, basta somar a idade de cada um e dividir por 18. Entretanto, em nossa área de conhecimento, a gente só trabalha com populações “muito grandes” com tendência ao infinito. Neste caso, fica muito difícil e caro, senão impossível, obter a média verdadeira da população, µ. Levando em conta os princípios e as condicionantes da amostragem, é possível obter informação suficientemente precisa (e confiável) sobre µ tomando apenas parte da _

população para estimar a média amostral x . Exemplo 1: queremos saber a idade média dos estudantes da pós-graduação do INPA, que tem uma população igual a 200. Para isso, selecionamos, aleatoriamente, 10 estudantes e anotamos a idade de cada um. Portanto, temos uma amostragem de 10 estudantes de uma população de 200 - hipoteticamente.

Quadro 5.1. idades de 10 estudantes de pós-graduação do INPA estudante

1

2

3

4

5

6

7

8

9

10

idade

23

25

26

28

26

24

25

27

30

26

A idade média (amostral) será: _

x = ( ∑ xi ) / n

para: n = 10 e i = 1, 2, ... n _

x = 26 anos Se você utilizou uma amostra representativa da população, você estará afirmando que a média verdadeira da população dos 200 estudantes, µ, deve ser em torno de 26 anos. Diante disso, surgem algumas questões: _

Qual é a justificativa para utilizar a média amostral x para estimar a média da (i) população µ ? _

Qual é a confiança sobre a precisão envolvida ao usar x para estimar µ ? No (ii) exemplo 1, se uma amostragem com 10 estudantes é utilizada, qual é a probabilidade da idade


_

média amostral, x , estar dentro de um intervalo (vamos dizer, 1 ano) da média da população, µ? (iii) Qual é a necessária intensidade de amostragem para assegurar uma certa precisão com grande confiança? No exemplo 1, quão grande deveria ser uma amostragem _

(10? 20 estudantes?) para assegurar que 95% de todos os possíveis x caíssem dentro de um intervalo de 1 ano da média da população, µ ? Vamos responder todas estas questões nesta apostila. A primeira será respondida, parcialmente, neste capítulo e completada no capítulo 6. As outras duas (ii e iii) serão respondidas nos capítulos 6 e 7, respectivamente. _

Ao amostrar uma população, a média amostral, x , é uma variável aleatória. No capítulo 6, vamos ver, em detalhes, como este valor é “parecido” com a média da população. A incerteza da estimativa depende de uma chance sobre a qual a amostra foi selecionada. Apesar disso, a incerteza diminui com o aumento da intensidade de amostragem. Isto é uma sentença de um teorema matemático chamado “a lei dos grandes números” e é a nossa _

justificativa para usar x para estimar µ.

5.2. Curva normal padrão (CNP) ou curva-z: _

A “lei dos grandes números” é a nossa justificativa matemática para usar x para estimar µ ...justifica, mas não explica. Da mesma forma, ela não é particularmente útil para responder questões práticas envolvendo a precisão de tais estimativas. Esta lei, por exemplo, _

não informa sobre a probabilidade de x estar dentro do intervalo de 1 ano de

µ. As

_

probabilidades para x podem ser obtidas “aproximadamente” usando áreas sob certas curvas em forma de “sino”. Há várias curvas normais, que variam de acordo com a média e desvio padrão, µ e σ. No entanto, a curva que norteia todas as outras curvas, é a curva normal padrão (Figura 5.1). Tanto a forma como as propriedades da CNP podem ser vistas nesta figura. Só existe uma única curva normal padrão, com µ = 0 e σ = 1. Quando você tem pela frente situações com médias e desvios diferentes de 0 e 1, respectivamente ... não entre em pânico! Tudo que tem que ser feito é “padronizar” a sua variável aleatória e, em seguida, usar a CNP para obtenção das probabilidades (ou áreas). A curva apresentada na Figura 5.1. foi desenhada depois de integrar a função de distribuição, de z = 0 a z = 3,9 para a primeira metade da curva à direita de 0. Como a parte da curva à esquerda de 0 é espelho da parte à direita, as probabilidades da esquerda foram calculadas de z = -3,9 a z = 0. Portanto, o trabalho braçal já está feito. A Tabela 1 (anexo da apostila) tem todas as probabilidades (áreas sob a CNP) calculadas com precisão de dois dígitos. Vamos ver como funciona a Tabela 1 (anexo da apostila) usando alguns exemplos. As figuras que ilustram o uso da Tabela 1 estão no anexo deste capítulo. Exemplo 2: Achar a área sob a curva normal padrão (CNP) à esquerda de z = -0,97. 9 A solução gráfica está na Figura 5.2-a. 9 Você vai direto à tabela 1 e procure z = -0,9 (sentido vertical), depois o centésimo (7) (sentido horizontal) e no encontro dos dois números (0,97), você tem a área (que é a probabilidade) sob a CNP.


9 Neste caso, a área é igual a 0,1660. Isto quer dizer que 16,6% da área está à esquerda de z = -0,97 ou que 83,4% está à direita de z = -0,97. 9 Não esquecer que a área total sob a CNP é igual a 1. Exemplo 3: Achar a área sob a CNP à direita de z = 2,5. 9 Veja a solução gráfica na Figura 5.2-b. 9 De novo, você vai à tabela 1 e procure z = 2,5, depois o centésimo 0 e no encontro dos dois números (2,50), você tem a área (que é a probabilidade) sob a CNP. 9 Neste caso, você está calculando a área sob a CNP de - ∞ até 2,5, que dá 0,9938 ... à esquerda de z = 2,5. 9 Como você quer saber a área à direita de z = 2,5, você tem que subtrair de 1 (área total da CNP) e aí sim você terá a área à direita de z = 2,5. Assim, a área à direita será 1 – 0,9938 = 0,0062, ou seja, 0,62% da área está à direita da CNP. Exemplo 4: Achar a área sob a CNP entre z = -1,04 e z = 2,06. 9 Veja a solução gráfica na Figura 5.2-c. 9 Neste caso, são necessários os seguintes passos: (1) achar a área à esquerda de z = -1,04, que é igual a 0,1492; (2) achar a área à direita de z = 2,06, que é igual a 0,9803; (3) calcular a área entre z = -1,04 e z = 2,06, que é dada pela diferença (0,9803 – 0,1492), que é igual a 0,8311. 9 Portanto, a resposta é: a área sob a CNP entre z = -1,04 e z = 2,06 é 0,8311, ou seja, 83,11% da área da CNP está entre os dois pontos de “z”.

5.3. Áreas sob outras curvas normais: Na seção anterior mostramos como encontrar as áreas sob a curva normal padrão (CNP). No entanto, há várias curvas normais, que variam de acordo as variações da média µ e do desvio padrão σ. Para calcular as probabilidades (áreas sob a CNP) para a média amostral _

x (o principal objetivo), precisamos ser capazes de encontrar as áreas sob qualquer curva

normal. Cada curva normal pode ser identificada por 2 números chamados parâmetros. Estes dois parâmetros são usualmente representados por média µ e desvio padrão σ. O parâmetro µ nos diz onde a curva está centrada e σ indica a dispersão da curva normal. Como vimos na Figura 5.1, quando µ = 0 e σ = 1, temos a curva normal padrão. No entanto, no mundo real esta condição de µ = 0 e σ = 1 é praticamente impossível de ser verificada. Os parâmetros µ e σ variam entre populações diferentes. Igual à CNP, a curva normal (ou curvas normais) é centrada na µ e quanto maior for σ, mais dispersa (achatada ou esparramada) será a curva. A curva normal tem as mesmas propriedades da CNP. A única diferença é que o eixo horizontal da CNP é z e das outras curvas normais, o eixo é x. As curvas normais podem assumir diferentes formas. As figuras 5.3-a, 5.3-b e 5.3-c ilustram as diferentes formas, as quais podem ser consideradas, respectivamente, como platicúrtica, mesocúrtica e leptocúrtica. É óbvio que existe um limite de achatamento para que a curva seja considerada normal. Este limite pode ser determinado usando o teste de achatamento ou curtose. Da mesma maneira, a curva normal pode ser simétrica ou assimétrica. A assimétrica pode ser negativa (maior freqüência dos dados tendendo à direita


do eixo horizontal) e positiva (maior freqüência tendendo à esquerda do eixo) – V. Figura 5.4. Também neste caso, há limite para a assimetria, que pode ser definido usando o teste de assimetria.

Exemplo 5: Achar área sob a curva normal (µ = -2 e σ = 1) entre x = 1 e x = -1. 9 Veja a solução gráfica na Figura 5.5-a. 9 Primeiro de tudo é preciso padronizar a variável aleatória “x”. 9 Os resultados da padronização são: z = 3,0 (para x = 1) e z = 1 (para x = -1). 9 Agora, você vai a Tabela 1 (anexo da apostila) para: (1) achar a área à direita de z = 3,0, que é igual a 0,9987; (2) achar a área à direita de z = 1, que é igual a 0,8413; (3) calcular a área entre z = 3,0 e z = 1,0, que é dada pela diferença (0,9987 – 0,8413), que é igual a 0,1574. 9 Portanto, a resposta é: a área sob a curva normal entre x = -1,0 e x = 1,0 é 0,1574, ou seja, 15,74% da área sob a curva normal está entre os dois pontos de “x”. Exemplo 6: Achar a área sob a curva normal (µ = 3 e σ = 2) entre x = 2 e x = 7. 9 Veja a solução gráfica na Figura 5.5-b. 9 Primeiro de tudo é preciso padronizar a variável aleatória “x”. 9 Os resultados da padronização são: z = -0,5 (para x = 2) e z = 2,0 (para x = 7). 9 Agora, você vai a Tabela 1 (anexo da apostila) para: (1) achar a área à esquerda de z = - 0,5, que é igual a 0,3085; (2) achar a área à direita de z = 2, que é igual a 0,9772; (3) calcular a área entre z = -0,5 e z = 2,0, que é dada pela diferença (0,9772 – 0,3085), que é igual a 0,6687. 9 Portanto, a resposta é: a área sob a curva normal entre x = 2,0 e x = 7,0 é 0,6687, ou seja, 66,87 % da área sob a curva normal está entre os dois pontos de “x”. Exemplo 7: Achar área sob a curva normal (µ = 6 e σ = 3) entre x = 0 e x = 12. 9 Veja a solução gráfica na Figura 5.5-c. 9 Primeiro de tudo é preciso padronizar a variável aleatória “x”. 9 Os resultados da padronização são: z = -2,0 (para x = 0) e z = 2 (para x = 12). 9 Agora, você vai à Tabela 1 (anexo da apostila) para: (1) achar a área à direita de z = 2,0, que é igual a 0,9772; (2) achar a área à esquerda de z = -2, que é igual a 0,0228; (3) calcular a área entre z = 2,0 e z = -2,0, que é dada pela diferença (0,9772 – 0,0228), que é igual a 0,9544. 9 Portanto, a resposta é: a área sob a curva normal entre x = 0 e x = 12 é 0,9544, ou seja, 95,44 % da área sob a curva normal está entre os dois pontos de “x”.

5.4. Populações normalmente distribuídas e variáveis aleatórias: Agora chegou a vez de ver como se usa as áreas sob as curvas normais para encontrar _

as probabilidades para x (aproximadamente). Antes, porém, vamos fazer algumas considerações sobre populações e variáveis aleatórias normalmente distribuídas.


A grande maioria (não todas) das populações e variáveis aleatórias que são representadas por quantidades como peso, volume, área basal, DAP etc. tem distribuição de probabilidade que pode ser representada, pelo menos aproximadamente, por meio de curvas normais. Em outras palavras, as probabilidades para tais quantidades podem ser encontradas por meio da interpretação das áreas sob as curvas normais. Vamos ver isso com exemplos. Exemplo 8: Uma população consistindo do peso (em kg) de um grupo de 100 estudantes de mestrado. Os dados da população estão sumarizados no quadro abaixo.

Quadro 5.2: distribuição de pesos de uma população em intervalos de 1 kg. Peso (x)

69

70

71

72

73

74

75

76

77

78

79

freqüência (f)

1

2

6

13

17

20

18

12

7

3

1

,01

,02

,06

,13

,17

,20

,18

,12

,07

,03

,01

f relativa (prob)

O histograma e o polígono de freqüências (absoluta e relativa) dos dados contidos no quadro 5.2 são apresentados na Figura 5.6. Como em qualquer população, podemos associar a esta população de pesos, uma variável aleatória x, como o peso de um estudante selecionado ao acaso. Neste caso, as probabilidades de x são simplesmente as freqüências relativas. Exemplo: qual é probabilidade de pegar um estudante com peso igual a 72 kg? Resposta: 13% ou 0,13 (freqüência relativa do quadro 5.2). O ponto importante deste exemplo é que o histograma de freqüência (Figura 5.6) tem uma quase perfeita forma de sino. Por causa disto, seremos capazes de aproximarmos das probabilidades para x usando as áreas sob uma curva normal. Como você pode notar, a curva normal apropriada é simplesmente aquela com os parâmetros µ e σ, onde µ é a média da população (ou da variável aleatória x) e σ é o seu desvio padrão. Do quadro 5.2, a média (µ) da variável aleatória x é igual a 70,06 kg e o seu desvio padrão (σ) é igual a 1,95. Estes dois parâmetros podem ser sobrepostos à Figura 5.6 para trabalhar com uma curva normal com µ = 74,06 e σ = 1,95. Podemos querer saber, por exemplo, qual é a probabilidade (área) de pegar, aleatoriamente, um estudante com 72 kg. Do quadro 5.2, temos a probabilidade exata disto acontecer, olhando apenas para a freqüência relativa desta classe (72), que é 0,13 ou 13%. A propósito, a classe 72 vai de 71,5 a 72,5. Desta forma, podemos escrever assim: P (71,5 < x < 72,5) = 0,13. No entanto, o mundo real é diferente. Nem sempre você tem uma população tão pequena e tão bem organizada que permite ter µ e σ e as freqüências relativas. Vamos trabalhar, agora, sem as freqüências relativas. Você tem uma população com µ = 74,06 e σ = 1,95 e quer saber qual é a probabilidade (área) de pegar, aleatoriamente, um estudante com 72 kg. Passos necessários: (1) desenhar a curva normal com µ = 74,06 e σ = 1,95; (2) definir o quê você está procurando, que é a probabilidade P (71,5 < x < 72,5); (3) padronizar as variáveis aleatórias, x = 71,5 e x = 72,5; (4) achar as áreas para os respectivos “z” sob a CNP (Tabela 1 do anexo da apostila). Solução: a padronização das variáveis aleatórias x = 71,5 e x = 72,5 resulta em z = 1,31 e z = -0,80, respectivamente. Agora, você vai à Tabela 1 para encontrar as áreas sob a CNP para z = -1,31 e z = -0,80, obtendo as áreas 0,0951 e 0,2119, respectivamente. O resultado é então: 0,2119 - 0,0951 = 0,1168, ou seja, a probabilidade de selecionar, aleatoriamente, um estudante com peso igual a 72 kg (71,5 a 72,5) é de 11,68%.


Sumarizando: a probabilidade exata de selecionar, aleatoriamente, um estudante com peso igual a 72 kg é de 13% e a estimada é de 11,68%. Um importante ponto do exemplo 8 é que, para certas populações e certas variáveis aleatórias, podemos usar as áreas sob a curva normal para determinar as probabilidades. Neste caso, podemos dizer que a população ou a variável aleatória é normalmente distribuída. Dizer que uma população ou variável aleatória é normalmente distribuída (aproximadamente) significa que as probabilidades para a população ou variável aleatória são aproximadamente iguais às áreas sob a curva normal.

5.5. Padronizando a variável aleatória: Já vimos que para encontrar as áreas sob a curva normal com parâmetros diferentes de µ = 0 e σ = 1 é preciso usar a padronização, ou seja, converter os valores de x para valores de z por meio da seguinte fórmula:

z=

x−µ

σ

antes de usar a curva normal padrão (CNP). Vamos ver o significado de z e seus desdobramentos com exemplos. Exemplo 9: Considere o DAP de uma árvore selecionada ao acaso. Então, DAP é uma variável aleatória x com média µ = 100 cm e desvio padrão σ = 10. Por meio da padronização da variável x teremos

z=

x − 100 10

e se pegarmos, aleatoriamente, uma árvore qualquer da ZF-2, com 120 cm de DAP, por exemplo, o que acontece? z = (120 – 100) / 10 = 2

Qual é o significado deste número, z = 2? Isto significa que a árvore selecionada, aleatoriamente, com DAP = 120 cm está a dois desvios (σ) da média da população. O processo pode ser também invertido, ou seja, temos o z e queremos encontrar o valor da variável aleatória x. Vamos ao exemplo. Exemplo 10: temos z = 1,5; isto é, a variável x está 1,5 vez σ da média. Qual é x? 1,5 = (x – 100) / 10 = ? x = 100 + 10(1,5) = 115

ou seja, nesta população, uma árvore para estar 1,5 vez do desvio, tem que ter DAP igual a 115 cm. Agora, vamos ao principal ponto desta seção. Considere x uma variável aleatória normalmente distribuída com média µ e desvio padrão σ. Então, a variável aleatória, que pode ser padronizada da seguinte maneira:

z=

x−µ

σ


tem a distribuição normal padronizada. Desta maneira, nós calculamos as probabilidades para a variável x por meio da interpretação das áreas sob a CNP. Daqui para frente, este fato será usado como guia. Exemplo 11: pense na floresta adulta (DAP ≥ 25 cm) do Distrito Agropecuário da Suframa, onde todos os DAPs são normalmente distribuídos com µ = 35 cm e σ = 5.

Sabemos que a variável x padronizada

z=

x−µ

σ

=

x − 35 5

tem a distribuição normal padrão. Isto quer dizer que, de acordo com as propriedades da CNP temos

P(− 3 < z < 3) = 0,9973 P(− 2 < z < 2 ) = 0,9545 P(− 1 < z < 1) = 0,6827

Considerando que z é simplesmente o número de desvios padrões que x se afasta de sua média, podemos dizer que as probabilidades para intervalos contendo ± 1 desvio, ± 2 desvios e ± 3 desvios são, respectivamente, 0,6827, 0,9545 e 0,9973. No caso da floresta do Distrito, isto quer dizer, com base nos parâmetros de média µ = 35 cm e desvio σ = 5, temos o seguinte: (i) P (-1 < z < 1) 35 – 1 (5) = 30 => limite inferior do intervalo 35 + 1 (5) = 40 => limite superior do intervalo (ii) P (-2 < z < 2) 35 – 2 (5) = 25 => limite inferior do intervalo 35 + 2 (5) = 45 => limite superior do intervalo (iii) P (-3 < z < 3) 35 – 3 (5) = 20 => limite inferior do intervalo 35 + 3 (5) = 50 => limite superior do intervalo Sumarizando: a) 68,26% das árvores do Distrito têm DAPs entre 30 e 40 cm b) 95,44% das árvores do Distrito têm DAPs entre 25 e 45 cm c) 99,74% das árvores do Distrito têm DAPs entre 20 e 50 cm


Área = 0,1660

σ

z -3

-2

-1

0

1

2

3

µ=0 Z = -0,97

Figura 5.2-a: área à esquerda de z = -0,97

Área = 0,9938

σ

z -3

-2

-1

0

1

2

3

µ=0 Z = 2,5

Figura 5.2-b: área à direita de z = 2,5

Passo 1: área para z = -1,04

Passo 2: área para z = 2,06

Área = 0,9803

Área = 0,1492

σ

σ

z -3

-2

-1

0

1

2

z

3

-3

-2

µ=0

-1

0

1

2

3

µ=0

Z = -1,04

Z = 2,06

Final: Área entre z = - 1,04 e z = 2,06

σ

z -3

-2

-1

0

1

2

3

µ=0 Z = -1,04

Z = 2,06

Área = 0,9803 – 0,1492 = 0,8311

Figura 5.2-c: entre z = - 1,04 e z = 2,06


µ = -2 σ=1

x -5

-4

-3

-2

-1

0

1

Figura 5.3-a: curva normal com

µ=3 σ=2

x -3

-1

1

3

5

7

9

Figura 5.3-b: curva normal com

µ=6 σ=3

-3

0

3

6

9

Figura 5.3-c: curva normal

12

15


ASSIMETRIA

POSITIVA

NEGATIVA

Figura 5.4: Assimetria das curvas normais


Área sob a curva normal (µ = -2 e σ = 1) entre x = 1 e x = -1) Padronizando “x” x-µ z = -----------σ 1 – (-2) z = ------------ = 3,0 1 -1 - (-2) z = ------------ = 1,0 1 x z

-5

-4

-3

-2

-3 -1

-2

-1

0

1

0

1

2

3 z=3

z=1

Figura 5.5-a: Exemplo 5 Área sob a curva normal (µ = 3 e σ = 2) entre x = 2 e x = 7) Padronizando “x” x-µ z = -----------σ

7 - (3) z = ------------ = 2,0 2

2 – (3) z = ------------ = -0,5 2

x -3

-1

1

3

5

7

9

-3

-2

-1

0

1

2

3

z z = - 0,5

z=2

Figura 5.5-b: Exemplo 6 Área sob a curva normal (µ = 6 e σ = 3) entre x = 0 e x = 12) Padronizando “x” 0 – (6) x-µ z = ------------ = -2,0 z = -----------3 σ

12 - (6) z = ------------ = 2,0 3

x -3

0

3

6

9

12

15

-3

-2

-1

0

1

2

3

z

z = -2,0

z = 2,0

Figura 5.5-c: Exemplo 7


0,25

20

0,2

15

0,15

10

0,1

5

0,05

0

freq relativa (prob)

freq absoluta

25

0 69

70

71

72

73

74

75

76

77

78

79

peso (kg)

Figura 5.6: Histograma e polígono de freqßência (absoluta e relativa).


_

Capítulo 6 – Distribuição amostral da média ( x ) Todo eng florestal sabe que o inventário florestal é o primeiro passo para planejar o manejo sentido lato de uma floresta, nativa ou artificial. O inventário, por sua vez, consiste em obter uma média representativa da população de interesse, seja em termos de volume, área basal ou outra variável de interesse. O que é uma média representativa? Por analogia, média (volume) de uma floresta é o mesmo que a “média” usada para definir café-com-leite em muitos bares do sul e sudeste do Brasil. Em um copo de 100 ml, uma média deveria ter 50 ml de café e 50 de leite. Certo? Errado ... porque se fosse assim, o balconista não teria na ponta da língua aquela pergunta: “mais café ou mais leite?” Mais leite ou mais café vai depender do gosto do freguês e da mão do balconista. Você tem que confiar ou parar de tomar aquela “média” naquele bar. De qualquer modo, o total do copo não passará de 100 ml, ou seja, o excedente de café (+) será anulado pelo que falta de leite (-) ou viceversa. Vamos mostrar neste capítulo que a estimativa de uma média tende sempre a ser parecida com a média verdadeira da população. O que muda é o desvio padrão, que é base de cálculo da incerteza. A tendência é diminuir a incerteza (que é bom) com o aumento da intensidade de amostragem. Portanto, média representativa é aquela que proporciona confiança (incerteza sob controle) e conforto ($) para quem vai usá-la.

6.1. Amostras aleatórias Amostra pode ser um único indivíduo ou um conjunto deles. No caso de pesquisas de opinião, cada eleitor é uma amostra. No caso de inventário florestal, um conjunto de árvores corresponde a uma amostra. Na Amazônia, vários estudos apontam que parcela de 2.500 m2 é suficiente para cobrir as variações (volume) de uma determinada área florestal com DAP ≥ 20 cm, ou seja, um conjunto com aproximadamente 50 árvores. Em geral, as amostras têm que ser tomadas de forma aleatória, pois foi assim que a estatística de inferência foi concebida. No entanto, a amostragem aleatória pode ser desdobrada em: inteiramente aleatória e aleatória restrita. Tanto nos inventários, como em pesquisas de opinião, a aleatória restrita é a mais utilizada por causa dos custos de coletas de dados e tem produzido bons resultados. No caso de eleições presidenciais, a população de eleitores brasileiros é estratificada por sexo, idade e, principalmente, por densidade eleitoral. Em inventários na Amazônia, a maioria utiliza a amostragem em dois estágios, ou seja, seleciona aleatoriamente a unidade primária e distribui as unidades secundárias de forma sistemática. Intensidade de amostragem é o número total de amostras ( n ) dividido pelo número total de possíveis amostras em uma população ( N ). Por exemplo: os institutos de pesquisas (Ibope, Datafolha etc.) ao realizar uma pesquisa de opinião sobre eleições presidenciais no Brasil, têm utilizado em torno de 4.000 eleitores de um total de 115 milhões; neste caso, n = 4.000 e N = 115 milhões. No nosso caso, se você tem uma área de 1.000 hectares e quer instalar 100 amostras de 2.500 m2 cada (¼ hectare) para realizar o inventário florestal; neste caso n = 100 e N = 4.000 (nº total de possíveis amostras de, ¼ ha, ou seja, 20x125m). _

Do ponto de vista teórico, vamos mostrar como calcular as probabilidades de x usando as áreas sob as curvas normais. Isso quer dizer que temos que determinar a _

_

distribuição da probabilidade da variável aleatória x . A distribuição de probabilidade de x é chamada de distribuição amostral da média.


_

_

6.2. A média da média ( x ) e o desvio padrão de ӯ (σ x ) O primeiro passo para descrever a distribuição amostral da média é saber como _

encontrar a média e o desvio padrão da variável aleatória x . Isto é necessário para usar os _

métodos da curva normal para encontrar as probabilidades para x . As fórmulas para calcular essas duas variáveis são:

µ

=

x

⎛ − ⎞ ⎛ ⎞ ⎜ xi ⎟ × ⎜ p − ⎟ ⎝ ⎠ ⎝ xi ⎠ e

σ = −

x

∑ i =1

(x − µ )

2

i

xi

n −1

× ⎛⎜ p − ⎞⎟ ⎝ xi ⎠

Vamos ver isso por meio de um exemplo meio irreal. Vamos considerar as idades (congelada em 2003) de cada membro de minha família (eu, mulher e 3 filhos) como uma população, ou seja, N = 5. Esta situação nunca será encontrada na vida real porque para saber a idade média dessa família basta somar as 5 idades e dividir por 5 ... ninguém vai utilizar os recursos da amostragem. No entanto, se você entender o significado da estimativa da média da população e o comportamento do erro padrão da média conforme se aumenta intensidade de amostragem, para uma pequena população (N = 5), fica mais fácil entender essas duas variáveis aleatórias quando for trabalhar com uma população grande ou infinita (número de eleitores do Brasil, N = 115 milhões, floresta da ZF-2 etc.). Temos 3 situações ilustrando a utilização de 3 intensidades diferentes de amostragem – anexos 1, 2 e 3. A situação 1 se refere a uma amostragem considerando n = 2, ou seja, escolha aleatória de 2 pessoas para estimar a média da população. Primeiro você tem que saber quantas combinações são possíveis ao sortear 2 (n) de um conjunto de 5 (N) pessoas. Só para lembrar: fatorial de zero (0!) é igual a 1 e fatorial de números negativos ou não inteiros não existe. Isto é mostrado na página que ilustra a situação 1. Depois disso, você tem que _

estimar a média de cada combinação possível. Aplicando a fórmula de µ x você vai encontrar a média da média de todas as possíveis combinações. Você vai notar que a média da média é exatamente igual à média verdadeira da população. Repetindo as mesmas operações para as situações 2 e 3, respectivamente, amostragens de n = 3 e n = 4, você vai notar que a média da média será sempre igual à média da população, mudando apenas o desvio padrão da média. Resumindo: a média da amostra será sempre muito parecida com a da população e conforme você aumenta o n, o desvio padrão da média (ou erro ou incerteza) diminui. Você se convenceu desta afirmativa? Se não, é melhor tentar a vida em outra praia. Se sim, vamos pensar agora em termos de população de verdade. Vamos falar de eleitores brasileiros. Em geral, os institutos utilizam aproximadamente 4.000 eleitores para inferir sobre a população de 115 milhões de eleitores brasileiros. Quantas possíveis combinações são possíveis quando a gente utiliza n = 4000 de N = 115 milhões? É só fazer as contas ... mas não as faça.


115.000.000 4.000

115.000.000 ! = ------------------------------------possíveis combinações 4.000 ! (115.000.000-4.000) !

É óbvio que ninguém vai fazer todas as possíveis combinações. Se fizesse, a média da média seria exatamente igual à média da população. Então, o que é feito? As empresas tomam apenas uma única combinação de 4000 eleitores para inferir sobre a população de eleitores pressupondo que a média estimada na pesquisa será igual à da população e que n = 4000 produzirá uma incerteza (erro) menor que n = 3.999. Em uma floresta de porte médio como a da ZF-2, por exemplo, com 21.000 hectares, temos N = 84.000 (21000 x 4) amostras possíveis de ¼ ha cada. Se a gente usar n = 50, quantas possíveis combinações seriam possíveis? Várias. Quantas combinações a gente faria no caso de um inventário florestal? Certamente, apenas uma. A nossa expectativa é ter uma média (volume ou outra variável) representativa da população com uma margem de erro aceitável. A média é importante porque sem ela não há planejamento. No entanto, mais importante mesmo é saber com que margem de erro (incerteza) a gente está trabalhando. É importante também não perder de vista que a intensidade de amostragem está diretamente relacionada com os custos. No caso de inventários, você tem duas alternativas: (1) fixa a incerteza e libera os custos ou (2) fixa os custos e libera a incerteza. Em geral, a segunda alternativa é a mais freqüente. Há meios para se prevenir de incertezas indesejadas. Em inventários florestais, você pode se prevenir utilizando boas imagens, bons mapas, bons equipamentos e métodos adequados de amostragem, em combinação com planejamento de coleta e processamento dos dados. Estamos falando de erros de amostragem (o erro que você comete por medir apenas parte da população). Não confundir com erros não-amostrais (humanos, principalmente), que não são tratados aqui. Não esquecer também que n é denominador.

6.3. Teorema do limite central Vimos até aqui que a confiança na média passa pela confiança nas probabilidades que a gente trabalha. No próximo capítulo vamos ver como calcula a incerteza de uma estimativa. Aqui, vamos nos concentrar nas probabilidades obtidas usando as áreas sob as curvas normais. Temos a curva normal padrão com µ = 0 e σ = 1. Com a integração da função que descreve esta curva, a gente obtém as probabilidades. Estas áreas já foram calculadas por vários autores e estão disponíveis em apêndices de livros de estatística, tabela-z. No mundo real, a curva normal com estas características não existe. Por esta razão, a gente tem que padronizar as possíveis curvas normais para utilizar a tabela-z. As curvas normais podem ser, dentro de limites bem definidos, assimétricas ou achatadas, diferentes da forma de sino. Para isso, há testes para saber se as suas variáveis de interesse estão dentro desses limites. Difícil mesmo é fazer a nossa variável ficar dentro dos limites da distribuição normal. Não entre em pânico ainda! O remédio para essa situação é o “teorema do limite central”. O que diz este teorema? “Quando uma amostragem aleatória de tamanho n (onde n é pelo menos igual a 30) é _

_

tomada de uma população, a x é aproximadamente normalmente distribuída com µ x = µ e _

desvio padrão da média σ x = σ/

_

n . Nestas condições, as probabilidades para x podem ser


encontradas, aproximadamente, utilizando as áreas sob a curva normal com os parâmetros µ e _

σ x .” Isto quer dizer que: independentemente da forma que a distribuição de sua variável aleatória assumir, você pode calcular as probabilidades usando a tabela-z, desde que n ≥ 30. Significa também que para as amostras aleatórias de qualquer distribuição com média µ e _

desvio padrão σ x , a média amostral dessas unidades de tamanho n é aproximadamente normal e esta aproximação melhora conforme se aumenta o n. Para se chegar a este “número mágico” igual a 30, foram feitas inúmeras simulações até constatar que acima deste número não se percebe diferenças entre as áreas sob a curva normal e de outras funções. Tanto em trabalhos de pesquisas ou de inventários florestais, o ideal é utilizar uma amostragem com, pelo menos, 30 unidades amostrais. Se você fizer assim, a incerteza que você encontrar, é consistente; caso contrário, você terá que comprovar a normalidade antes de inferir. A propósito, uma amostragem com n < 30 é considerada “pequena” e a curva-t é a que tem que ser utilizada para a obtenção das probabilidades.


Anexo 1

Situação 1 Tomando uma amostragem com n = 2 de uma população com N = 5 Quantas combinações são possíveis?

N! 5! 120 ⎛N⎞ = = = 10 combinações ⎜ ⎟= ⎝ n ⎠ n!( N − n )! 2!(5 − 2)! 12 População

Amostragem

nome

idade

comb.

NH MIGH IGH FGH GGH média desvio

51 46 22 20 12 30,2 17,21

1 2 3 4 5 6 7 8 9 10

idade1 idade2

51 51 51 51 46 46 46 22 22 20

46 22 20 12 22 20 12 20 12 12

_

_

x

p

x*p

Desvio

48,5 36,5 35,5 31,5 34,0 33,0 29,0 21,0 17,0 16,0

0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1

4,85 3,65 3,55 3,15 3,40 3,30 2,90 2,10 1,70 1,60

33,49 3,97 2,81 0,17 1,44 0,78 0,14 8,46 17,42 20,16

30,2

88,86

_

µx _

σx

µ = 30,2 _

µ x = 30,2 Coincidência? Não!

9,43


Anexo 2

Situação 2 Amostragem de n = 3 da população com N = 5 Quantas combinações são possíveis?

N! 5! 120 ⎛N⎞ = = = 10 combinações ⎜ ⎟= ⎝ n ⎠ n!(N − n )! 3!(5 − 3)! 12 População

Amostragem

nome

idade

comb.

idade1

NH

51

1

51

46

MIGH

46

2

51

IGH

22

3

FGH

20

GGH

idade2 idade3

_

_

x

x*p

Desvio

22

39,67

3,97

8,96

46

20

39,00

3,90

7,74

51

46

12

36,33

3,63

3,76

4

51

22

20

31,00

3,10

0,06

12

5

51

22

12

28,33

2,83

0,35

média

30,2

6

51

20

12

27,67

2,77

0,64

desvio

17,21

7

46

22

20

29,33

2,93

0,08

8

46

22

12

26,67

2,67

1,25

9

46

20

12

26,00

2,60

1,76

10

22

20

12

18,00

1,80

14,88

30,20

39,49

_

µx _

σx

µ = 30,2 _

µ x = 30,2 Coincidência de novo? Não!

6,28


Anexo 3

Situação 3 Amostragem de n = 4 da população de N = 5 Quantas combinações são possíveis?

5! 120 N! ⎛N⎞ = = = 5 combinações ⎜ ⎟= ⎝ n ⎠ n!( N − n )! 4!(5 − 4 )! 24 População

Amostragem idade3 idade4

_

p

x*p

desvio

34,75 32,75 32,25 26,25 25

0,2 0,2 0,2 0,2 0,2

6,95 6,55 6,45 5,25 5

4,141 1,301 0,841 3,121 5,408

30,2

14,812

idade

idade1

idade2

NH MIGH IGH FGH GGH

51 46 22 20 12

51 51 51 51 46

46 46 46 22 22

média

30,2

µx

desvio

17,21

σx

22 22 20 20 20

20 12 12 12 12

_

x

nome

_

_

3,85

µ = 30,2 _

µ x = 30,2 Coincidência? Não! Por que não? _

1) Se você usar todas as possíveis combinações, a média da média µ x será sempre igual a média da população µ, independentemente do tamanho da amostragem. 2) O que muda é o desvio padrão da média ou erro padrão, ou seja, conforme aumenta a intensidade de amostragem, diminui o erro, aumenta a precisão e diminui a incerteza da sua estimativa.


CAPÍTULO 7 Estimando a média da população 7.1. Intervalos de confiança: _

Vimos no capítulo 5 que é razoável usar uma média amostral x para estimar a média da população ( µ ). A Lei dos Grandes Números diz que: se uma “grande” amostragem _

aleatória é tomada de uma população, a x “tende” a ser “parecida” com µ. No capítulo 6 discutimos o Teorema de Limite Central que diz: se uma amostragem aleatória de tamanho n (n ≥ 30) é tomada de uma população com média µ e desvio padrão σ, _

então x é (aproximadamente) normalmente distribuída e, por esta razão, podemos encontrar _

as probabilidades para x usando as áreas sob a curva normal com parâmetros µ e σ/

n.

E AGORA?? _

Qual é a confiança sobre a precisão envolvida ao usar x para estimar µ ?

Estamos falando do Intervalo de Confiança (IC), que será definido com exemplos. Exemplo 1: Um estatístico está interessado em obter informações sobre a média em altura de uma população, µ , de todos os adultos masculinos de uma grande cidade.

Com base em experiência anterior ele sabe que o σ é igual a 2,5”. Se ele tomar uma _

amostragem aleatória de 30 adultos, qual é a probabilidade da altura média x estar dentro de 1” da altura média da população, µ ? _

Solução: Queremos encontrar a probabilidade da x estar dentro de 1” de µ; que é, P ( µ- 1 <

_

x

< µ + 1 ). Como n ≥ 30, recorremos ao Teorema de Limite Central para _

encontrar as probabilidades para x usando as áreas sob a curva normal com parâmetros µ (que não conhecemos) e σ / n = 2,5 / 30 = 0,46. _

Então, para encontrar P ( µ - 1 < x < µ + 1 ), precisamos encontrar a área sob a curva normal (com parâmetros µ e 0,46) entre µ - 1 e µ + 1. Desta vez não conhecemos µ - 1 e µ + 1, ao contrário de exemplos anteriores. Mas, mesmo assim, podemos resolver o problema pela padronização de nossa variável aleatória, da seguinte maneira:

⎛ ⎞ z = ⎜ x − µ ⎟ 0,46 ⎝ ⎠ _

O valor de z para x = µ - 1 é z = [ (µ - 1) - µ ] / 0,46 = -1 / 0,46 = -2,17 _

E o valor de z para x = µ + 1 é z = [ (µ + 1) - µ ] / 0,46 = 1 / 0,46 = 2,17


Da tabela 1, tiramos as áreas sob a curva para z = -2,17 e z = 2,17, que são respectivamente 0,0150 e 0,9850. A área, então, compreendida entre -2,17 e 2,17 é: área = 0,9850 - 0,0150 = 0,97 Conseqüentemente, _

P ( µ - 1 < x < µ + 1 ) = 0,97 _

Quer dizer: a probabilidade da x estar entre 1” da µ é de 0,97. _

Vamos colocar a expressão anterior de outra maneira: que a x deve estar 1” da µ, _

que é o mesmo que dizer que “µ está entre 1” de x .” Isto pode ser re-escrito da seguinte maneira: _

_

P ( x - 1 < µ < x + 1) = 0,97

Em outras palavras, sabemos que se uma amostragem aleatória de 30 adultos masculinos é _

_

tomada, então a probabilidade do intervalo de x - 1 a x + 1 conter µ é de 0,97.

Suponha agora, por exemplo, que quando o pesquisador tomar uma amostragem _

aleatória, ele consegue x = 67”, então _

_

x - 1 = 66 e x + 1 = 68 Ele sabe que, 97% destes intervalos conterão µ e, por esta razão, ele pode estar 97% certo de que a µ estará entre 66 e 68. Desta forma, o intervalo de 66 a 68 é chamado de IC 97% para µ.

7.2. Especificando o nível de confiança: Na seção anterior vimos como encontrar o IC para uma média da população µ, com _

base na informação obtida de média amostral x . No exemplo anterior especificamos o tamanho da amostragem e a forma do IC e, com estas especificações, calculamos a confiança. Entretanto, freqüentemente é desejável especificar a confiança a priori. Exemplo 2: A companhia de telefone está interessada em obter informações sobre o tempo médio, µ , de cada chamada. Um levantamento preliminar indicou que o desvio padrão das chamadas é σ = 4,4 minutos. Ao monitorar (não grampear) aleatoriamente 100 chamadas, _

n = 100, chegou-se a um tempo médio x = 5,8 minutos. _

Sabendo que x = 5,8, encontrar o IC 95% para µ

Nesta questão (ao contrário das questões consideradas previamente) a confiança é especificada a priori: queremos um IC a 95%. A solução para este problema é o inverso do procedimento usado para resolver o exemplo 1, o que implica em usar a tabela 1 no sentido inverso, ou seja, você tem a área sob a curva (área = 0,05) e precisa encontrar o valor de z.

Solução: Encontrar o valor-z, para o qual a área sob a CNP (curva normal padrão) à direita deste z, é 0,025 (área/2) e à esquerda de z. Note que a área total sob a CNP é 1, então estamos falando de uma área equivalente a [1 - 0,025 ] = 0,975 e 0,025. Dessa maneira, para


resolver este problema precisamos encontrar o valor-z que tem uma área entre 0,975 e 0,025 à sua esquerda. Na tabela 1, o valor-z que tem uma área de 0,975 à sua esquerda é 1,96 - no encontro da linha 1,9 com a coluna 6, você tem uma área de 0,9750. Neste caso, você tem o valor exato de 0,9750 (1 - 0,025) na tabela. Se o valor exato não for encontrado, faça interpolações. O valor-z que tem uma área de 0,025 à sua esquerda é -1,96. Agora, voltando à companhia telefônica: sabemos que n = 100 e, em função podemos _

recorrer ao TLC (teorema de limite central) para assumir que x é aproximadamente _

normalmente distribuída com µ x = µ (que não conhecemos) e o desvio padrão:

σ =σ

n = 4,4

100 = 0,44

x

Assim, a variável aleatória z terá a seguinte fórmula

z = ( x − µ ) 0,44 e terá aproximadamente uma distribuição normal padrão. Como queremos o IC 95% para µ , podemos colocá-lo da seguinte maneira: P ( -1,96 < z < 1,96 ) = 0,95 _

P ( -1,96 < [ x - µ ] / 0,44 < 1,96 ) = 0,95 _

_

P ( x - 1,96*0,44 < µ < x + 1,96*0,44 ) = 0,95 _

_

P ( x - 0,86 < µ < x + 0,86 ) = 0,95 _

substituindo o valor de x = 5,8, teremos os seguintes intervalos: _

x - 0,86 = 5,8 - 0,86 = 4,94 e _

x + 0,86 = 5,8 + 0,86 = 6,66 Concluindo que o intervalo entre 4,94 e 6,66 minutos é o IC 95% para µ. A companhia pode ter 95% de confiança que a duração média de uma chamada, µ, da cidade está entre 4,94 e 6,66 minutos.

7.3. Intervalos de confiança para médias: grandes amostras No exemplo anterior encontramos o IC 95%. O número 0,95 é conhecido como o nível de confiança ou coeficiente de confiança. Em estatística, costuma-se escrever 0,95 como 1 0,05. Este número é subtraído de 1 para obter o nível de confiança que é representado pela letra grega α . Para IC 95%, α = 0,05; para IC 90%, o nível de confiança é α = 0,10 e assim por diante.


_

Procedimento para encontrar o IC para µ, baseado em x : Requisitos: (1) n ≥ 30 e (2) σ conhecido Passo 1: Se o nível de confiança desejado é 1 - α, use a tabela 1 para encontrar z α/2 Passo 2: O IC desejado para µ é: _

x -z

α/2

_

*(σ/

n ) para x + z

α/2

*(σ/

n ) _

onde z α/2 é obtido seguindo o passo 1, n é o tamanho da amostragem e x é obtida dos dados da amostragem. Exemplo 3: Uma empresa florestal está interessada em obter informações sobre o diâmetro médio, µ , de sua floresta. Um estudo preliminar indicou que σ = 10 cm. O empresário decidiu verificar esta informação com base em uma amostragem de 30 árvores. _

Ele encontrou uma média amostral das 30 árvores, x = 40 cm. Baseado nestas informações, vamos encontrar o IC 90% para a µ . Solução: Checando primeiro: n ≥ 30 - OK!; e σ é conhecido. Podemos, então, aplicar os passos necessários:

1. O nível de confiança é 0,90 = 1 - 0,90; logo α = 0,10 e da tabela 1 tiramos z 2. Desde que z

α/2

= z 0,05 = 1,64 _

α/2 _

= 1,64, n = 30, σ = 10 e x = 40, o IC 90% para µ será:

x - z

α/2* σ/

_

n

a x + z

α/2*

σ/

n

substituindo os valores conhecidos 40 - 1,64 * 10 /

30 a

40 + 1,64 * 10 /

30

37 a 43 Concluindo: o empresário pode ter 90% de confiança que o diâmetro médio, µ , de sua floresta está entre 37 a 43 cm. Até agora assumimos que o σ é conhecido. Entretanto, na maioria dos casos, isto não é possível. Uma maneira de lidar com isto é fazer um levantamento piloto para estimar o σ. Quer dizer: podemos usar o desvio padrão amostral s no lugar do σ. Isto é aceitável porque, para grandes amostras ( n ≥ 30 ), o valor de s é extremamente parecido a ser uma boa aproximação de σ. A conseqüência matemática disso é a seguinte (recorrendo também aoTLC):

x−µ s

n

em vez de

x−µ

σ

n


E os outros procedimentos são os mesmos apresentados no quadro anterior, substituindo apenas σ por s . Exemplo 4: No Quadro 7.1 são apresentadas informações sobre área basal por hectare de 30 unidades amostrais (ua) selecionadas aleatoriamente de 2 transectos de 20 x 2.500 m, distribuídos nas seguintes classes topográficas: platô, encosta e baixio. Os procedimentos são os mesmos utilizados anteriormente e os resultados são: _

platô =>

IC (95%) = x ± 2,5 = 31,2 ± 2,5 = 28,7 < µ < 33,6

encosta =>

IC (95%) = x ± 2,3 = 28,5 ± 2,5 = 26,2 < µ < 30,8

baixio =>

IC (95%) = x ± 2,1 = 26,5 ± 2,5 = 24,4 < µ < 28,6

_

_

O segundo termo após o sinal (±) pode ser considerado como “incerteza” ou “margem de erro”. Assim, as incertezas para platô, encosta e baixio são, respectivamente: 0,0799, 0,0808 e 0,0785, ou seja, as incertezas (em %) são de 7,99%, 8,08% e 7,85%.

7.4. A distribuição t (de student): Nas seções anteriores deste capítulo vimos como encontrar o IC para µ, quando lidamos com grandes amostras ( n ≥ 30 ). Entretanto, em muitos casos, quando grandes amostras não estão disponíveis, extremamente caras ou, por alguma razão, simplesmente indesejável, você tem que dar outro jeito porque a curva-z não se aplica nestas condições. Neste caso, recorremos à curva-t em vez da curva-z. Detalhe importante: para obter IC para a média da população, a partir de pequenas amostras ( n < 30 ), a população, por si só, tem que ser aproximadamente normalmente distribuída.

Se n < 30, não podemos usar a CNP para encontrar as probabilidades para o IC. Entretanto, um pesquisador chamado W.S. Gosset desenvolveu curvas de probabilidade que podem ser usadas, em vez da CNP. Estas curvas são conhecidas como curvas-t de student ou simplesmente curvas-t. A forma de uma curva-t depende do tamanho da amostra. Se a amostra é de tamanho n, nós identificamos a curva-t em questão dizendo que é a curva-t com (n-1) graus de liberdade. Se tomamos uma amostra aleatória de tamanho n de uma população que é aproximadamente normalmente distribuída com média µ, a variável aleatória

(

t = (x − µ ) s

n

)

tem a distribuição-t com (n - 1) graus de liberdade. As probabilidades para esta variável aleatória pode ser encontrada usando as áreas sob a curva-t com (n - 1) graus de liberdade tabela 2. As curvas-t variam conforme os graus de liberdade, como ilustrado na figura 7.1.

E as curvas-t têm as seguintes propriedades:


9 A área total sob qualquer curva-t é igual a 1. 9 As curvas-t são simétricas em torno de zero. 9 As curvas-t se estendem indefinidamente em ambas as direções. 9 Conforme aumenta o número de graus de liberdade, as curvas-t ficam mais parecidas com a CNP. A maneira de encontrar a área sob a curva-t é a mesma usada na CNP.

7.5. Intervalos de confiança para médias - pequenas amostras: _

Vamos ver agora os procedimentos para encontrar os IC para µ baseada em x , quando o tamanho da amostra é menor que 30 ( n < 30 ). Vamos ilustrar o procedimento com um exemplo. _

Procedimento para encontrar o IC para µ, baseado em x : Requisitos: População normal Passo 1: Se o nível de confiança desejado é 1 - α, use a tabela 2 para encontrar t α/2 Passo 2: O IC desejado para µ é: _

x -t

α/2

*(s/

_

n ) para x + t

α/2

*(s/

n ) _

onde t α/2 é obtido seguindo o passo 1, n é o tamanho da amostragem e x e s são obtidas dos dados da amostragem. Exemplo 4: Um vendedor de pneus está interessado em obter informações a respeito da durabilidade média ( µ ) de uma nova marca. O fabricante diz que a nova marca foi feita para aguentar 40.000 milhas, ou seja, µ = 40.000. O vendedor quer testar, por sua conta, a durabilidade dos pneus.

Para isto, ele decide tomar uma amostragem aleatória de 16 pneus e conferiu a milhagem de cada um.Os resultados deste teste é o seguinte: Pneu 1 2 3 4 5 6 7 8

milhagem 43.725 40.652 37.732 41.868 44.473 43.097 37.396 42.200

Pneu 9 10 11 12 13 14 15 16

Milhagem 39.783 44.652 38.740 39.385 39.686 44.019 40.220 40.742


Usando estes dados, vamos encontrar o IC 95% para µ, considerando que a durabilidade do pneu é normalmente distribuída.

Solução: Vamos usar o procedimento definido anteriormente; neste caso com n = 16. 1. O nível de confiança desejado é 0.95, isto é, α = 0,05. Usando a tabela 2 para (16-1) = 15 graus de liberdade. t α/2 = t 0,025 = 2,13 2. O IC 95% é: _

x - 2,13*( s /

_

n ) para x + 2,13*( s /

n )

Dos dados deste exemplo (dos pneus) temos: _

x = 41.148,13 e s = 2.360, 32 Conseqüentemente _

x - 2,13*( s / _

x + 2,13*( s /

n ) = 41.148,13 - 2,13 * (2.360,32/ 16 ) = 39.891,26 n ) = 41.148,13 + 2,13 * (2.360,32/ 16 ) = 42.405,00

Isto quer dizer que o vendedor pode ter 95% de confiança que a µ (durabilidade média da nova marca) está entre 39.891 a 42.405 milhas. Desta forma, o fabricante está correto em afirmar que a nova marca tem µ = 40.000 milhas.


Quadro 7.1: Dados de área basal (m2/ha) em dois transectos na ZF-2 distribuídos em classes topográficas (platô, encosta e baixio). transecto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 média desvio IC(95%)

ua 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

platô 41,4 43,7 26,1 33,8 33,3 37,2 31,0 18,6 33,2 32,4 26,2 41,3 19,6 34,8 27,3 39,5 30,1 24,6 36,6 34,7 60,7 44,7 26,3 24,5 26,6 22,2 35,7 19,4 17,0 52,6 26,6 36,7 33,3 20,6 57,7 38,8 43,2 23,6 28,4 17,6 18,9 27,6 47,7 23,9 21,1 22,3 19,7 27,4 39,2 27,7 28,5 18,0 39,0 28,1 34,0 25,3 26,4 40,6 21,3 31,1 31,2 9,8 2,5

encosta 21,8 28,2 22,1 14,9 21,9 27,5 30,9 36,5 21,9 28,5 28,4 31,5 32,7 30,8 29,9 23,5 18,4 18,4 24,0 16,3 15,9 35,0 19,9 31,3 18,4 31,1 11,3 24,3 47,0 24,8 27,0 30,9 23,8 27,9 28,2 36,6 17,6 33,5 30,2 39,9 38,0 26,6 32,7 56,0 59,8 34,7 29,8 28,5 25,3 9,4 32,3 31,2 28,1 28,1 39,7 21,5 38,7 29,4 25,5 34,0 28,5 9,1 2,3

baixio 28,2 22,1 29,6 39,3 43,2 39,7 40,7 22,6 12,4 15,8 25,6 40,6 26,4 21,8 35,8 34,6 20,6 21,1 24,3 41,6 29,6 41,9 36,7 23,5 27,4 28,1 12,3 23,5 29,6 23,4 6,4 26,9 21,1 17,2 25,2 23,7 14,5 27,7 28,6 37,5 26,1 25,7 18,6 24,2 19,2 15,2 42,3 20,4 26,1 27,0 35,6 24,9 25,2 20,8 23,1 24,9 23,1 23,5 21,3 30,7 26,5 8,2 2,1


Curva normal

-3

-2

-1

0 1

Curva-t com 12 gl

2

3

-3 -2 -1 0 1

2

Curva-t com 3 gl

3

-3 -2 -1 0 1

Figura 7.1.: Diferentes curvas-t com diferentes graus de liberdade (gl).

2

3


Capítulo 8 Testes de hipóteses para médias 8.1. Introdução: No Capítulo 7 aprendemos como fazer uma “predição educada”1 (inferência) sobre _

uma média da população µ olhando a média amostral x de uma amostra aleatória da população. Neste capítulo, vamos fazer o inverso; vamos fazer uma “predição educada” ou _

levantar uma hipótese sobre a µ e então vamos usar a x para fazer inferência concernente a _

nossa hipótese. Em outras palavras, usaremos x para decidir se a nossa hipótese concernente à µ é correta. Exemplo 1: O DAP médio da floresta do Distrito Agropecuário da SUFRAMA (área de 600.000 ha) é µ = 38 cm. Vamos ver neste capítulo como usar o DAP médio tomado de _

uma amostragem aleatória (por ex., n = 30, correspondente a 30 hectares), x , para decidir se aquilo que hipotetizamos (µ = 38 cm) está correto ou não. Dizemos então que µ = 38 cm é a hipótese nula (h0), que pode ser escrita da seguinte maneira: Hipótese nula: µ = 38 Que pode ser testada contra a hipótese de que a µ não é igual a 38 cm, conhecida como hipótese alternativa (h1), que pode ser escrita da seguinte maneira: Hipótese alternativa: µ ≠ 38 (que pode ser também µ < 38 ou µ > 38) _

A questão agora é: como usar a x para tomar a decisão? A idéia é simplesmente a _

seguinte: sabemos que x deverá ser aproximadamente igual a µ, ou seja, se µ = 38 _

(assumindo que h0 é verdadeira), podemos esperar que a x (o DAP estimado) seja “mais ou menos” igual a 38 cm. E agora? O quão próximo de 38 precisa estar o DAP médio para ser considerado estatisticamente igual a µ? Se a gente olhar para h1, precisamos responder: o quão distante de 38 precisa estar o DAP médio para ser considerado diferente da µ? Ou então: o quão menor ou o quão maior – para testar as hipóteses alternativas (µ < 38 ou µ > 38)? Matematicamente falando, precisamos encontrar um ponto para tomada de decisão, d, _

_

_

tal que se x ≠ d ou se x < d ou se x > d, então rejeitamos h0 (µ = 38). Geralmente os estatísticos usam 1, 5 ou 10% como limites para d antes de rejeitar h0. Os números 0,01 (1%), 0,05 (5%) e 0,10(10%) são chamados de níveis de significância do teste e são geralmente denotados como α. Como escolher as hipóteses para serem testadas??

Em geral a escolha das hipóteses nula (h0) e alternativa (h1) é bastante subjetiva. Como regra básica podemos dizer que h0 leva sempre o sinal de ( = ); exemplos: µ = 38, µ1 = µ2 (média da população 1 é igual a média da população 2) e assim por diante. 1

“predição educada” pode ser traduzida como um “chute certeiro” de um Romário por exemplo.


A h1 pode ser quebrada em duas situações: - teste uni-caudal: neste caso, ou olhamos à direita de d quando temos h1: µ > 38, ou à esquerda de d quando temos h1: µ < 38. Outra situação é µ1 < µ2 ou µ1 > µ2. - teste bi-caudal: olhamos simultaneamente à direita e à esquerda de d e o quê acontecer primeiro transforma-se no argumento principal para rejeitar h0 e, neste caso, em vez de α nós temos que usar α/2. Observação: Desde que o nível de significância seja a probabilidade de rejeitar uma h0 verdadeira, é improvável que h0 será rejeitada quando ela for verdadeira. Conseqüentemente, se podemos rejeitar h0 num teste de hipótese, então podemos estar razoavelmente confiantes que h1 é verdadeira. Por outro lado, se não podemos rejeitar h0, isto não prova que h0 seja verdadeira, simplesmente quer dizer que ela é razoável, nada mais.

Há dois tipos de erros quando aceitamos a hipótese que não é verdadeira, Tipo I e Tipo II, que ilustramos no quadro abaixo: hipótese que é

hipótese que é verdadeira

Aceita

H0

h1

h0

OK!

erro Tipo II

h1

erro Tipo I

OK!

8.2. Montando um Teste de Hipótese: Grandes Amostras Veremos agora o procedimento para montar um teste de hipótese referente à média de uma população, µ, quando o tamanho da amostragem é considerado grande (n ≥ 30). Para executar este teste podemos recorrer a curva normal padrão (distribuição), vista anteriormente, que diz que quando tomamos uma amostra aleatória de n ≥ 30 de uma população com média µ, então a variável aleatória tem aproximadamente a distribuição normal padrão.

z=

(x − µ ) s

n

8.2.1. Testes de Hipóteses para uma média simples: teste unicaudal para grandes amostras. (i) Olhando apenas o lado esquerdo da curva:

Procedimentos: 1. Hipótese nula: µ = µ0 2. Hipótese alternativa: µ < µ0 3. Condicionante: tamanho da amostragem n ≥ 30 4. Escolher o nível de significância2 α. Normalmente α = 0,01, 0,05 ou 0,10 5. O valor crítico é d = - zα. Usar Tabela 1 para encontrar o valor de z. 2

hoje em dia a maioria dos pacotes estatísticos já dão diretamente o valor exato de α.


6. Calcular o valor de

z=

(x − µ 0 )

(s n )

7. Se z < d, rejeitar a hipótese nula. (ii) Olhando apenas o lado direito da curva:

Procedimentos: 1. Hipótese nula: µ = µ0 2. Hipótese alternativa: µ > µ0 3. Condicionante: tamanho da amostragem n ≥ 30 4. Escolher o nível de significância α. Normalmente α = 0,01, 0,05 ou 0,10 5. O valor crítico é d = zα. Usar Tabela 1 para encontrar o valor de z. 6. Calcular o valor de

z=

(x − µ 0 )

(s n )

7. Se z > d, rejeitar a hipótese nula.

8.2.2. Testes de Hipóteses para uma média simples: teste bi-caudal para grandes amostras. Neste caso vamos olhar à esquerda e à direita da curva e, por esta razão, temos dois níveis críticos ou pontos de decisão d. Procedimentos: 1. Hipótese nula: µ = µ0 2. Hipótese alternativa: µ ≠ µ0 3. Condicionante: tamanho da amostragem n ≥ 30 4. Escolher o nível de significância α. Normalmente α = 0,01, 0,05 ou 0,10 5. Os valores críticos são d = - zα/2 e d = zα/2. Usar Tabela I para encontrar os valores de zα/2. 6. Calcular o valor de

z=

(x − µ 0 )

(s n )

7. Se z < - d ou z > d, rejeitar a hipótese nula.

8.2.3. Testes de Hipóteses para Diferença entre Médias de Amostras Independentes – Grandes Amostras: Neste caso estamos considerando a possibilidade de comparar dois sítios diferentes. Queremos, por exemplo, comparar (querer saber) e o DAP médio da floresta do Distrito


Agropecuário da SUFRAMA (município de Manaus) é igual ao DAP médio da FLONA (Floresta Nacional) do Tapajós (Santarém, Pará). Estatisticamente podemos fazer isso da seguinte maneira: Hipótese nula: µ1 = µ2 Hipótese alternativa: µ1 ≠ µ2 ou µ1 < µ2 ou µ1 > µ2 sendo: µ1 = média da população 1 (Manaus) e µ2 = média da população 2 (Santarém). _

Agora, vamos usar a x de cada população para fazer inferência concernente a nossa _

hipótese. Considere x 1 a média amostral da população 1 tirada de uma amostra aleatória de _

tamanho n1 de uma população com média µ1; e x 2 a média amostral da população 2 tirada de uma amostra aleatória de tamanho n2 de uma população com média µ2. Assumindo também que as duas amostras são independentes e, se n1 e n2 são ambas maiores que 30, então a variável aleatória

⎛− − ⎞ ⎜ x1 − x 2 ⎟ − (µ1 − µ 2 ) ⎠ z=⎝ s12 n1 + s 22 n 2

(

) (

)

tem aproximadamente a distribuição normal padrão. Aqui s1 e s2 são os desvios padrões amostrais das respectivas populações. Agora, se a hipótese nula é verdadeira ( µ1 = µ2 ), então a fórmula de z fica assim

⎛− − ⎞ ⎜ x1 − x 2 ⎟ − (µ1 − µ 2 ) ⎠ z=⎝ 2 s1 n1 + s 22 n 2

(

) (

)

e tem aproximadamente a distribuição normal padrão. Procedimentos: 1. Hipótese nula: µ1 = µ2 2. Hipótese alternativa: µ1 < µ2 3. Condicionante: n1 e n2 ≥ 30 4. Escolher o nível de significância α. Normalmente α = 0,01, 0,05 ou 0,10 5. O valor crítico é d = - zα. Usar Tabela I para encontrar o valor de z. 6. Calcular o valor de

z=

⎛− − ⎞ ⎜ x1 − x 2 ⎟ ⎝ ⎠ 2 s1 n1 + s 22 n 2

(

7. Se z < d, rejeitar a hipótese nula.

) (

)


Para o teste uni-caudal com hipótese alternativa µ1 > µ2, o procedimento é o mesmo que o anterior, mudando apenas o valor crítico d que é d = zα e, conseqüentemente, a área de rejeição da h0 passa a ser z > d. Para o teste bi-caudal com hipótese alternativa µ1 ≠ µ2, o procedimento é o mesmo também, usando os dois valores críticos e, em vez de α, usamos α/2. A rejeição de h0 se dará em função do quê ocorrer primeiro, ou z < d ou z > d.

8.3. Montando um Teste de Hipótese para Pequenas Amostras: Nem sempre é possível fazer um trabalho de pesquisa usando uma intensidade de amostragem considerada grande (n ≥ 30), ou simplesmente não tem muitas amostras disponíveis, ou são extremamente caras, ou, por qualquer outra razão, são indesejáveis. Para isso, existe teste para pequenas amostras, e o teste t é o contraparte para o teste z. A única e principal diferença é que, neste caso, temos que comprovar a normalidade de nossos dados. Vimos em capítulos anteriores que para pequenas amostras (n < 30), a variável aleatória não tem a distribuição normal padrão. Mas, se assumirmos que a população que estamos amostrando é aproximadamente normalmente distribuída, então a variável aleatória tem a distribuição t de Student com (n-1) graus de liberdade. Conseqüentemente, quando consideramos populações normalmente distribuídas, podemos fazer testes de hipóteses para médias usando pequenas amostras, da mesma maneira como foi feito para grandes amostras.

t=

x−µ s n

8.3.1. Teste de Hipótese para uma Média Simples de Pequenas Amostras: Procedimentos: 1. Hipótese nula: µ = µ0 2. Hipótese alternativa: µ > µ0 3. Pressuposto: população normal 4. Escolher o nível de significância α. Normalmente α = 0,01, 0,05 ou 0,10 5. O valor crítico é d = tα. Usar Tabela II para encontrar o valor de t com (n-1) gl. 6. Calcular o valor de

t=

x − µ0 s

n

7. Se t > d, rejeitar a hipótese nula. Para o teste uni-caudal com hipótese alternativa µ1 < µ0, o procedimento é o mesmo que o anterior, mudando apenas o valor crítico d que é d = - tα e, conseqüentemente, a área de rejeição da h0 passa a ser t < d. Para o teste bi-caudal com hipótese alternativa µ1 ≠ µ2, o procedimento é o mesmo também, usando os dois valores críticos e, em vez de α, usamos α/2. A rejeição de h0 se dará em função do quê ocorrer primeiro, ou t < d ou t > d.


8.3.2. Teste de Hipótese para Diferenças entre Médias de Amostras Independentes (e Variância igual) de Pequenas Amostras: Vimos anteriormente como fazer este teste quando temos amostras independentes com n1 e n2 ≥ 30. Agora, vamos ver como lidar com este teste quando n1 e n2 são menores que 30. Assim como no caso de média simples, podemos usar a distribuição t de Student; a diferença aqui é que, além de assumir que as duas populações são aproximadamente normalmente distribuídas, temos também que (i) considerar quando as variâncias das populações ( σ12 e σ22 ) são iguais e (ii) quando as variâncias não são iguais. Neste capítulo vamos trabalhar apenas com a condição de variâncias iguais porque vamos ver como aplicar teste para saber se duas variâncias são iguais ou não, no próximo capítulo. As condicionantes serão as seguintes: (1) amostras aleatórias independentes tomadas de duas populações; (2) as duas populações são aproximadamente normalmente distribuídas; (3) as duas populações têm variâncias iguais. Recapitulando: quando temos uma única população, usamos o desvio padrão amostral s como a estimativa do desvio padrão da população σ. Quando trabalhamos com amostras aleatórias independentes de duas populações com o mesmo desvio padrão da população (i.e., mesma variância), a melhor estimativa do desvio padrão comum (às duas populações) é

(n1 − 1)s12 + (n2 − 1)s 22

sp =

n1 + n 2 − 2

Onde s1 e s2 são desvios padrões amostrais obtidos de amostragem da população 1 e 2, respectivamente. O subscrito p em sp é para indicar que estamos referindo a um desvio combinado de duas populações. Se as populações são normalmente distribuídas e σ12 = σ22, então a variável aleatória tem a distribuição t de Student com (n1 + n2 – 2) graus de liberdade.

t=

(x1 − x2 ) − (µ1 − µ 2 ) s p (1 n1 ) + (1 n2 )

Considerando µ1 = µ2, então µ1 - µ2 = 0 e se a hipótese nula é verdadeira, então tem a distribuição t de Studente com (n1 + n2 – 2) graus de liberdade.

t=

sp

(x1 − x2 ) (1 n1 ) + (1 n2 )

Procedimentos: 1. Hipótese nula: µ1 = µ2 2, Hipótese alternativa: µ1 < µ2 3. Condicionantes: (i) amostras independentes; (ii) populações normais; (iii) variâncias das populações iguais. 4. Escolher o nível de significância α. Normalmente α = 0,01, 0,05 ou 0,10 gl.

5. O valor crítico é d = - tα. Usar Tabela II para encontrar o valor de t com (n1 + n2 -2) 6. Calcular o valor de


t=

sp

(x1 − x2 ) (1 n1 ) + (1 n2 ) sendo:

sp =

(n1 − 1)s12 + (n2 − 1)s 22 n1 + n 2 − 2

7. Se t < d, rejeitar a hipótese nula. Para o teste uni-caudal com hipótese alternativa µ1 > µ2, o procedimento é o mesmo que o anterior, mudando apenas o valor crítico d que é d = tα e, conseqüentemente, a área de rejeição da h0 passa a ser t > d. Para o teste bi-caudal com hipótese alternativa µ1 ≠ µ2, o procedimento é o mesmo também, usando os dois valores críticos e, em vez de α, usamos α/2. A rejeição de h0 se dará em função do quê ocorrer primeiro, ou t < d ou t > d.


Sumá umário dos Procedimentos para Testar as Hipóteses Discutidas neste Capítulo Tipo Média Simples (grandes amostras)

Condicionantes

Duas Médias (grandes amostras)

(1) n1 ≥ 30, n2 ≥ 30 (2) amostras independentes

Média Simples (Pequenas Amostras)

população normal

Duas Médias (Pequenas Amostras)

(1) amostras independentes (2) populações normais (3) variâncias iguais

n ≥ 30

h0

µ = µ0

µ1 = µ2

µ = µ0

µ1 = µ2

h1 µ > µ0 µ < µ0 µ ≠ µ0

teste estatístico _

[ x - µ0 ] z = ------------[s / n ]

µ1 > µ2 µ1 < µ2 µ1 ≠ µ2 µ > µ0 µ < µ0 µ ≠ µ0

[x 1- x 2] z = ------------------------√ [ s12 / n1 ] + [ s22 / n2 ]

µ1 > µ2 µ1 < µ2 µ1 ≠ µ2

[x 1- x 2] t = --------------------------sp √ (1 / n1) + (1 / n2 )

_

_

_

[ x - µ0] t = -----------[s / n ] _

_

área de rejeição rejeição z > zα z < -zα z > zα/2 ou z < -zα/2

z > zα z < -zα z > zα/2 ou z < -zα/2 t > tα t < -tα t > tα/2 ou t < -zα/2 t > tα t < -tα t > tα/2 ou t < -tα/2


Capítulo 9 Inferências sobre as variâncias 9.1. Introdução: Neste capítulo vamos ver os métodos usados para os testes de hipóteses e intervalos de confiança para a variância. Não confundir com análise de variância (ANOVA), que é utilizada para teste (comparação) de médias e será vista no capítulo 11. Vamos apresentar o teste quiquadrado (χ2) e o teste-F. Na área florestal, ainda não é comum fazer este tipo de inferência. Em quê situação podemos estar interessados em controlar a variação? Já vimos que a média é muito mais popular que a variância; por essa razão, a maioria das inferências é feita com base nesta variável. No caso de uma indústria de carro, por exemplo, temos um grande número de diferentes fornecedores (parafusos, porcas, rodas, espelhos etc.). Neste caso, podemos ter um fornecedor de rodas diferente de um fornecedor de parafuso. O encaixe da roda ao carro, não é justo e tem sempre uma certa margem de segurança tanto no comprimento como na espessura do parafuso. Aquele que fabrica o parafuso fornece para vários outros fabricantes e nem sempre consegue fazer os parafusos exatamente iguais. Neste caso, o controle de qualidade pode ser feito usando a inferência sobre a variância, seja do comprimento ou da espessura.

9.2. Teste estatístico χ2 e a curva χ2: Exemplo 1: Um fabricante precisa produzir parafusos de aproximadamente 10 mm em diâmetro para ajustar em buracos de 10,4 mm. Em princípio, sabe-se que as linhas de produção produzem parafusos com diâmetros que se distribuem normalmente, mas a linha 1 é mais barata do que a linha 2.

O fabricante avisa que a margem de segurança é de 0,1 mm, ou seja, parafusos com diâmetros variando de 9,9 e 10,1 mm passam pelo controle de qualidade. Chama-se uma estatística e ela faz uma amostragem aleatória nas duas linhas de produção concluindo que o diâmetro médio é em torno de 10 mm, mas alerta que um ou outro parafuso pode estar fora da especificação (da margem de segurança). Sendo assim, é preciso testar as variâncias antes de apresentar o relatório de controle de qualidade das linhas de produção. Foram coletados 20 parafusos de cada linha de produção e tomadas as medidas de diâmetro de cada um (Quadro 9.1). Aqui, duas questões precisam ser respondidas: (1) qual é a variância apropriada? (2) se as duas linhas de produção têm a mesma variância, igualmente apropriada? Margem de segurança igual a 0,1 mm é o mesmo que dizer que o desvio é de ± 0,1 mm e variância é de 0,01 mm. Então, para responder a questão 1, formulamos as seguintes hipóteses para a linha de produção 2:

Hipótese nula:

σ2 = 0,01

Hipótese alternativa: σ2 > 0,01 Para aplicar o teste, primeiro é preciso estimar σ2 usando s2. Depois, é preciso escolher o teste estatístico. Neste caso, vamos usar o χ2 (qui-dradrado). O χ2 é uma variável aleatória, isto é, o seu valor depende de uma chance para ocorrer. Tomando diferentes amostras, temos


diferentes valores de χ2. A maneira de encontrar as probabilidades para χ2 é a mesma usada para determinar as probabilidades para a variável aleatória z. Se uma variável aleatória de tamanho n é tomada de uma população que é normalmente distribuída com variância σ2, então as probabilidades para a variável aleatória

χ2 =

(n − 1) s 2 σ2

podem ser encontradas usando as áreas sob curvas especiais conhecidas como curvas de χ2.

As principais características das curvas χ2 são: 9 diferentes para diferentes graus de liberdade; 9 a curva começa no ponto-zero sobre o eixo horizontal e se estende à direita; 9 não são simétricas; 9 a área total sob a curva é igual a 1 (um).

Os valores de χ2 podem ser obtidos diretamente na Tabela III. A Figura 9.1 apresenta três diferentes curvas para diferentes graus de liberdade (GL).

9.3. Testes de hipóteses para uma única variância: Voltando ao exemplo 1, temos o seguinte: Suponha que uma variável aleatória de tamanho n é tomada de uma população que é normalmente distribuída com variância σ2, então a variável aleatória

χ2 =

(n − 1) s 2 σ2

tem a distribuição qui-quadrado com (n – 1) GL; ou seja, as probabilidades para a variável aleatória χ2 podem ser determinadas usando áreas sob a curva χ2 com (n – 1) GL. O nosso exemplo consiste de 20 parafusos escolhidos aleatoriamente da linha de produção 2. A variância estimada é s2 = 0,058. Para testar as hipóteses, temos que calcular o valor de χ2:

χ2 =

(n − 1) s 2 σ 02

onde σ02 é o valor de σ2 hipotetizada (neste caso, σ02 = 0,01). Queremos saber se esta s2 está muito longe da σ02 hipotetizada ou não, ou seja, se 0,058 é igual a 0,01, do ponto de vista estatístico. Precisamos também escolher o nível de significância (α). Para 19 (20 - 1) GL, χ20,05 = 30,14 (Tabela III)


Assim, se a hipótese nula é verdadeira, então a probabilidade que o nosso χ2 calculado seja maior do que 30,14 é de 0,05. Em símbolos matemáticos, podemos escrever P(χ2tabelado > 30,14) = 0,05. Dessa maneira, se a hipótese nula é verdadeira, os valores χ2 podem ocorrer apenas em 5% das vezes. Classificaremos os χ2 > 30,14 como “muito grandes” (Figura 9.2). Como em capítulos anteriores, vamos chamar 30,14 como valor crítico do teste.

Podemos agora executar o teste de hipótese:

σ2 = 0,01

Hipótese nula:

Hipótese alternativa: σ2 > 0,01 Como a amostragem de 20 parafusos da linha de produção 2 produziu s2 = 0,058, temos

χ2 =

(n − 1) s 2 = (20 − 1) × 0,058 = 110,20 σ 02

0,01

Desde χ2 > 30,14, temos que rejeitar a hipótese nula e concluir que σ2 > 0,01 para a linha de produção 2. O procedimento geral para montar o teste de hipótese para uma única variância é o seguinte: 1. Definir as hipóteses: - Hipótese nula:

σ2 = σ02

- Hipótese alternativa: σ2 > σ02 2. Pressuposto: População normal 3. Definir o nível de significância (α) 4. O valor crítico é c = χ2α com (n-1) GL, obtido na Tabela III 5. Calcular o valor de

χ2 =

(n − 1) s 2 σ 02

onde σ02 é o valor hipotetizado na hipótese nula, n é o número de amostras (ou observações) e s2 é a variância amostral (estimada). 6. Decisão: Se χ2 > c, rejeitar a hipótese nula.

9.4. Intervalos de Confiança para Variâncias: No capítulo 7 aprendemos como encontrar o intervalo de confiança (IC) para uma _

média da população, µ, baseado em uma média amostral, x . Neste seção vamos ver como encontrar o IC para a variância da população, σ2, baseado em uma variância amostral, s2. Para


montar o IC, vamos usar o fato que, se uma amostra aleatória de tamanho n é tomada de uma população que é normalmente distribuída com variância σ2, então a variável aleatória

χ2 =

(n − 1) s 2 σ 02

tem a distribuição qui-quadrado com (n-1) GL. O procedimento geral para montar o IC é o seguinte: 1. Pressuposto: População normal 2. Se o nível de confiança desejado é 1 - α, usar a Tabela III para encontrar

χ21-α e χ2α/2 com (n-1) GL 3. O IC desejado para σ2 é

(n − 1)s 2 χ 2α 2

para

(n − 1)s 2 χ2

1−α 2

Exercício 1: Voltando ao exemplo 1, vamos determinar o IC para a variância da população, σ2, com base na variância estimada, s2. Vamos usar o nível de significância de 10% (α = 0,10) e podemos escrever como 90% IC. Como estamos trabalhando com IC, temos que olhar para os dois lados (caudas) da curva-χ2 e, em vez de α, usamos α/2.

Primeiro, vamos à Tabela III para encontrar χ2α/2 e χ21-α/2 χ2α/2 = χ20,05 = 30,14 χ21-α/2 = χ21-0,05 = χ20,95 = 10,12 O 90% IC será então: 19 x (0,058)

19 x (0,058)

----------------- a

-------------------

30,14

10,12

0,037 a 0,109 ou IC (0,037<σ2<0,109) = 90%

Em outras palavras: com 90% de confiança, podemos afirmar que a variância da população de parafusos da linha de produção 2 está entre 0,037 a 0,109 mm.

9.5. O teste-F e as curvas-F: Nas seções anteriores discutimos as situações envolvendo somente uma variância desconhecida. Há ocasiões que queremos comparar duas variâncias desconhecidas. Neste caso, o melhor recurso é usar o teste-F. Os valores de F são encontrados usando as curvas-F. Essas curvas dependem dos graus de liberdade (GL). As características das curvas-F são: 9 as curvas são diferentes para diferentes GL; 9 cada curva começa no ponto-zero no eixo horizontal e se estende à direita;


9 não são simétricas; 9 a área total sob a curva-F é igual a 1.

As áreas sob as curvas-F são apresentadas nas Tabelas IV (α = 0,01) e VI (α = 0,05). Se for preciso usar outros α, é preciso recorrer aos livros especializados. Para cada α é preciso uma tabela diferente porque são necessários valores críticos específicos para cada combinação de GL. (i) Uso do teste-F para comparação de duas variâncias:

Imagine duas amostras aleatórias independentes de duas populações que são normalmente distribuídas. Vamos considerar: n1 = tamanho da amostragem da população 1 s12 = variância amostral da população 1

σ12 = variância da população 1 e n2, s22 e σ22 são os valores correspondentes para a população 2. Se σ12 = σ22, então, a variável aleatória F = s12 / s22

tem a distribuição-F com (n1-1, n2 - 1) GL; ou seja, as probabilidades para a variável aleatória F pode ser determinada usando as áreas sob a curva-F com (n1-1, n2 - 1) GL. O procedimento geral para montar um teste de hipótese usando o F é o seguinte: 1. Definir as hipóteses: - Hipótese nula, H0: σ12 = σ22 - Hipótese alternativa, H1: σ12 > σ22 2. Pressupostos: (1) amostras independentes e (2) populações normais 3. Escolher o nível de significância α 4. O valor crítico é c = Fα com (n1 - 1, n2 - 1) GL, onde n1 e n2 são os tamanhos das amostragens. 5. Calcular o valor de F = s12 / s22;

onde s12 e s22 são as variâncias amostrais das populações 1 e 2. 6. Decisão: se F > c, rejeitar a hipótese nula. Exercício 2: Vamos comparar as variâncias das linhas de produção 1 e 2.

Hipótese nula, H0: σ12 = σ22 Hipótese alternativa, H1: σ12 > σ22 A amostragem foi feita de forma independente e os dados são oriundos de uma população normalmente distribuída. Dessa maneira, podemos usar o procedimento dado anteriormente assumindo α = 0,05.


Para (19, 19) GL, o valor crítico F (ou c) é aproximadamente 2,16. Quando s12 > s22 recomenda-se a inversão da fórmula de F-estatístico, mantendo os mesmos GL. E o Festatístico é F = s22 / s12 = 0,058 / 0,008 = 7,25

Como F > c, podemos rejeitar H0, portanto, σ22 > σ12. Como sempre, o procedimento para o uso das duas caudas da curva-F é basicamente o mesmo que para uma cauda, exceto que precisamos de dois valores críticos em vez de um só. Neste caso, precisamos olhar os dois lados da curva [α/2 e (1 - α/2)]. No primeiro lado, vamos encontrar nas tabelas IV e VI, para α = 0,02 e α = 0,10, respectivamente, ou seja, não temos nenhum problema. No entanto, o outro lado da curva (1 - α/2), não há como tirar das tabelas. Por exemplo, se vamos definir α = 0,10, um lado da curva (α/2) será 0,05 (Tabela VI) e o outro será 1 - α/2 = 0,95. Neste caso, o cálculo do F0,95 pode ser feito da seguinte maneira: 1. Vamos considerar α = 0,10 e os seguintes graus de liberdade (GL): numerador = 9 e denominador = 8. 2. Calcular o lado direito da curva, α/2, F0,05, 9, 8 na Tabela VI, que é igual a 3,39. 3. Calcular, então, o lado esquerdo da curva, 1 - α/2, F0,95, 9, 8, da seguinte maneira: - F0,95 para GL = (9,8) é a recíproca do valor F1-0,95 = F0,05 com os GL trocados (8,9). - Na Tabela VI, F0,95, 8, 9 é igual a 3,23 - O F0,95, 9, 8 é, então igual a 1 / 3,23 = 0,31 4. Os valores de F para as duas caudas são: 0,31 e 3,39


Quadro 9.1: Diâmetros (mm) de parafusos em duas linhas de produção. Parafuso 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Média Variância

Produção 1 9,91 9,97 9,84 9,97 10,18 10,08 10,03 10,02 9,88 10,03 10,05 10,18 10,06 9,98 9,91 10,07 9,98 10,1 9,99 9,97 10,01 0,008

Produção 2 10,48 10,07 9,89 10,38 9,5 9,95 9,81 9,87 10,13 10,03 10,26 9,73 10,29 9,97 10,38 9,94 10,14 10,17 10,17 10,09 10,06 0,058


F 0 Figura 9.1: Curva-F com (3,20) gl

Ď&#x2021;2 0

5

10

15

20

Figura 9.2: Curva qui quadrado

25

30


Capítulo 10 Teste de Qui-quadrado ( χ 2 ) 10.1. Introdução: Neste capítulo vamos ver um teste estatístico baseado na distribuição de Qui-quadrado ( χ 2 ), conhecido como teste de qui-quadrado. Este teste pode ser usado tanto na estatística paramétrica como na não paramétrica. O teste estatístico χ 2 e a curva χ 2 já foram descritos no capítulo anterior (Capítulo 9). Aqui, vamos enfatizar a aplicação deste teste para: (i) Ajuste de curvas ou de distribuições: Exemplos:

1) Distribuição de diâmetro: você desenvolve uma função para descrever a relação entre classes de diâmetro e freqüência. Ao testar a confiabilidade dessa função em outra área, você deve coletar novos dados e produzir a nova distribuição de freqüência. O passo seguinte é confrontar a sua verdade de campo – distribuição observada - com a distribuição hipotetizada (desenvolvida em outro local, por outro pesquisador) – distribuição esperada. 2) Projeção da distribuição de diâmetro: você usa a cadeia de transição probabilística Markov para fazer a projeção da dinâmica da floresta de seu interesse. Você usa, por exemplo, ano 2000 como hoje e 1997 como seu passado imediato – período de 3 anos – para fazer a projeção para um futuro imediato, 2003. Portanto, em 2003, você tem condições de avaliar se a Cadeia de Markov é confiável para este tipo de trabalho. Basta comparar a projeção feita (hipotetizada ou esperada) e confrontar com medições feitas em 2003 (observada). Se der não significante, significa que a projeção é, estatisticamente, igual à verdade de campo (medições realizadas em 2003) e você pode confiar na Cadeia de Markov. (ii) Independência: Exemplos:

3) Ocorrência de espécies nas diferentes classes topográficas: imagine que você não sabe nada disso, então, você vai hipotetizar que a distribuição seja a seguinte: 1/3 das espécies ocorrem no platô; 1/3 na encosta e 1/3 no baixio. Faça um levantamento em algumas toposseqüências e distribua as espécies de acordo com as classes topográficas. Compare os valores observados – seu levantamento – com os valores hipotetizados (1/3, 1/3 e 1/3). Se der “não significante”, isso quer dizer a distribuição de espécies na sua área de trabalho ocorre independentemente das classes topográficas. (iii) Homogeneidade: Exemplos:

4) Usando o exemplo (3): se você quiser comparar uma toposseqüência da ZF-2 com uma da Reserva Ducke pra saber se essas toposseqüências são homogêneas em relação a distribuição de número de espécies por classe topográfica. Imagine que na ZF-2, a distribuição seja 40% no platô, 30% na encosta e 30% no baixio. Aí, você faz o levantamento na Ducke e descobre que a distribuição é 36% no platô, 32% na encosta e 32% no baixio.


Aplica o teste qui-quadrado pra checar se a distribuição da ZF-2 é igual a da Ducke. Se der “não significante”, isso quer dizer as toposseqüências são homogêneas.

10.2. Procedimentos para aplicar os testes em diferentes situações: Valor esperado => E Valor observado => O O valor crítico c é tirado da Tabela III => c = χ 2 9.2).

α

=> descritos no Capítulo 9 (item

10.2.1. Qui-quadrado (χ 2 ) para teste de ajuste: Passos necessários: Passo 1: formular as hipóteses científicas:

H0 => A população é grupada de acordo com uma determinada distribuição de probabilidade. H1 => A população não é grupada de acordo com uma determinada distribuição de probabilidade. Passo 2: lembrar das seguintes condições => (i) E > 1 e (ii) máximo 20% de E < 5 Passo 3: Definir o α => 10%, 5% ou 1%. Passo 4: Determinar o valor crítico c com (k – 1) graus de liberdade, na Tabela III => k = número de grupos ou número de classes de diâmetro. Passo 5: Calcular o χ 2

χ =∑ 2

(O − E )2 E

Passo 6: Decisão => Se χ 2 > c => rejeitar H0

Agora, vamos exemplificar com números. Imagine uma população de árvores com 120 indivíduos tendo a seguinte distribuição de diâmetro. classes DAP 25 35 45 55 > 65 Total

freqüência 24 48 24 12 12 120

probabilidade 0,2 0,4 0,2 0,1 0,1 1

Em seguida, você faz um levantamento usando apenas parte da população (neste caso 40 árvores) e quer saber se a amostra é representativa. A distribuição de diâmetro dessa amostragem é apresentada abaixo incluindo a freqüência de acordo com a distribuição da população (n = 120) e o χ 2.


classes DAP 25 35 45 55 >65

Freq obs. (O) 8 20 13 5 4 50

Freq esperada (E) 50 x 0,2 = 10 50 x 0,4 = 20 50 x 0,2 = 10 50 x 0,1 = 5 50 x 0,1 = 5

(O–E) (8-10) = -2 (20-20) = 0 (13-10) = 3 (5-5) = 0 (4-5) = -1

(O-E)2 / E 0,4 0,0 0,9 0,0 0,2 1,5

k = 5 => 5 classes de DAP

H0: A distribuição de probabilidades das classes DAP da amostragem (n=50) é igual a da população (n=120). H1: A distribuição de probabilidades das classes DAP da amostragem (n=50) não é igual a da população (n=120). α = 0,05

Valor crítico c (tabela III com GL = 4) é igual a 9,49 χ 2 é igual 1,5

Decisão => c (9,49) é maior do que χ 2calculado (1,5); portanto, não rejeitar H0. Concluir que a distribuição da amostragem é, estatisticamente, igual a da população e, por essa razão, a amostragem é representativa da população. 10.2.2. Qui-quadrado ( χ 2 ) para teste de independência ou tabela de contingência.

Neste caso, vamos trabalhar com linhas (L) e colunas (C). O valor esperado de cada célula é calculado da seguinte maneira: (total da linha) x (total da coluna) E = -----------------------------------------total de observações Passos necessários: Passo 1: formular as hipóteses científicas:

H0 => As duas características são independentes. H1 => As duas características não são independentes Passo 2: lembrar das seguintes condições => (i) E > 1 e (ii) máximo 20% de E < 5 Passo 3: Definir o α => 10%, 5% ou 1%. Passo 4: Determinar o valor crítico c com (L-1) x (C-1) graus de liberdade, na Tabela III. Passo 5: Calcular o χ 2

χ =∑ 2

(O − E )2 E

Passo 6: Decisão => Se χ 2 > c => rejeitar H0

Exemplificando com números: Pesquisa com acidentes em relação ao sexo das pessoas envolvidas. Veja quadro abaixo com 2 colunas e 3 linhas.


local acidente no trabalho em casa Outros Total

homem 40 49 18 107

mulher 5 58 13 76

total 45 107 31 183

H0: a circunstância de um acidente é independente do sexo da vítima. H1: a circunstância de um acidente não é independente do sexo da vítima. Calculando os valores esperados (E): primeira linha e primeira coluna => (45 x 107) / 183 = 26,3 primeira linha e segunda coluna => (45 x 76) / 183 = 18,7 segunda linha e primeira coluna => (107 x 107) / 183 = 62,6 segunda linha e segunda coluna => (107 x 76) / 183 = 44,4 terceira linha e segunda coluna => (31 x 76) / 183 = 12,9 terceira linha e primeira coluna => 31 x 107) / 183 = 18,1 E o quadro com os valores observados e esperados é o seguinte: local acidente

no trabalho em casa outros total

homem O E 40 26,3 49 62,6 18 18,1 107

mulher O E 5 18,7 58 44,4 13 12,9 76

total 45 107 31 183

O = valor observado e E = valor esperado

Checando: nenhum E é menor do que 1 e não tem E < 5 => OK α = 0,01

Valor crítico c (tabela III com GL=2) é igual a 9,21. GL = 2 => (L-1)(C-1) = (3-1)(2-1) = 2 Calcular χ 2 = (40-26,3)2/26,3 + ...... + (13-12,9)2/12,9 = 24,30 Decisão: χ 2 > c; logo, rejeitamos a H0. 10.2.3. Qui-quadrado ( χ 2 ) para teste de homogeneidade

Como para o teste de independência, vamos trabalhar com linhas (L) e colunas (C). O valor esperado de cada célula é calculado da seguinte maneira: (total da linha) x (total da coluna) E = -----------------------------------------total de observações Passos necessários: Passo 1: formular as hipóteses científicas:

H0 => As duas características são homogêneas.


H1 => As duas características não são homogêneas Passo 2: lembrar das seguintes condições => (i) E > 1 e (ii) máximo 20% de E < 5 Passo 3: Definir o α => 10%, 5% ou 1%. Passo 4: Determinar o valor crítico c com (L-1) x (C-1) graus de liberdade, na Tabela III. Passo 5: Calcular o χ 2

χ =∑ 2

(O − E )2 E

Passo 6: Decisão => Se χ 2 > c => rejeitar H0

Exemplificando: Comparando duas cidades estratificadas por cor da pele. Duas amostragens (n = 100 para as duas) são consideradas e o resultado é apresentado no quadro abaixo. amostragem

brancos

negros

Outros

total

cidade 1

83

5

12

100

cidade 2

87

6

7

100

total

170

11

19

200

Calculando o valor esperado (E) para cada célula, o resultado é o seguinte: amostragem cidade 1 cidade 2 total

brancos 85 85 170

negros 5,5 5,5 11

Outros 9,5 9,5 19

total 100 100 200

Hipóteses: H0: Cidade 1 e cidade 2 têm a mesma % para cada cor de pele H1: Cidade 1 e cidade 2 não têm a mesma % para cada cor de pele Checando: nenhum E é menor do que 1 e não tem E < 5 => OK α = 0,05

Valor crítico c (tabela III com GL=2) é igual a 5,99. GL = 2 => (L-1)(C-1) = (2-1)(3-1) = 2 Calcular χ 2 = (83-85)2/85 + ...... + (7-9,5)2/9,5 = 1,52 Decisão: χ 2 < c; logo, não rejeitamos a H0, ou seja, cidade 1 e cidade 2 têm a mesma distribuição de cor de pele.


Capítulo 11 Análise de Variância – ANOVA 11.1. Introdução: Apesar do nome, a análise de variância (ANOVA) é usada para comparação de médias. Vimos, anteriormente, que há vários testes usados na comparação de média (teste t, Tukey, Bonferroni, Duncan etc). Por que usar a ANOVA? Usamos a ANOVA quando queremos compreender melhor a natureza da variação natural das diferentes fontes, além de comparar as médias. No fundo, ANOVA é a partição (ou desdobramento) da variação total de acordo com as fontes de variação. A ANOVA é aplicada para testar hipóteses quando a pesquisa envolve mais de duas médias. Trata-se de uma ferramenta estatística amplamente utilizada e com um grau de sofisticação muito alto. Podemos, de forma muito simplista, definir os seguintes tipos de ANOVA: a) ANOVA de simples entrada => fontes de variação ou grupos classificados por um simples critério como ENTRE os transectos e DENTRO (ou resíduo ou erro) dos transectos => aplicado em experimentos inteiramente casualizados. b) ANOVA de dupla entrada => aplicação clássica em experimentos blocos casualizados => fontes de variação: BLOCO, TRATAMENTO e RESÍDUO (ou erro). c) ANOVA de tripla ou múltiplas entradas => aplicação clássica em experimentos fatoriais incluindo as interações como fontes de variação. d) ANOVA aninhada (nested): aplicação em experimentos com parcelas subdivididas tipo Split Plot (clássico) ou quando o adapta para análise de parcelas repetidas. e) ANOVA para regressão: tanto para as regressões lineares (simples e múltiplas) e não lineares (simples e múltiplas) => para explicar o quanto da variação dos dados é explicado pelo modelo utilizado. f) MANOVA => análise de variância de várias variáveis, simultaneamente. Na verdade, você arma a ANOVA de acordo com as fontes de variação estabelecidas, ou seja, desmembrando a variação total; o teste aplicado para testar as suas hipóteses é o testeF (Capítulo 9, item 9.5). Em seguida, apresentamos os quadros auxiliares usados para ANOVA de simples entrada e para ANOVA de dupla entrada. ANOVA de simples entrada: Fontes de Variação Entre Dentro (Resíduo) Total GL = graus de liberdade SQ = soma dos quadrados MQ = média quadrática F = calculado

GL

SQ

MQ

F


ANOVA de dupla entrada: Fontes de Variação Blocos Tratamentos Resíduos Total

GL

SQ

MQ

F

No primeiro caso (de simples entrada), você determina o valor de F dividindo MQentre pela MQdentro. Antigamente, muito antigamente mesmo, você pegava o Fcalculado e comparava com o Ftabela (função dos GLs ENTRE e DENTRO e nível de significância α). Atualmente, os softwares estatísticos vão te dar o valor exato da probabilidade para inferência => então, em vez do valor de F no quadro auxiliar, o software vai te fornecer a probabilidade. No segundo caso (de dupla entrada), você quer ver, separadamente, os efeitos dos blocos e dos tratamentos. Para isso, você aplica o teste-F para blocos e para os tratamentos, separadamente. O valor de F para blocos você consegue dividindo MQblocos pela MQresíduos e para os tratamentos dividindo MQtratamentos pela MQresíduos.

11.2. Procedimentos para aplicar a ANOVA de simples entrada: n = número total de observações (g * k) k = número de grupos g = número de observações por grupo

Passos necessários: (i) Formular as hipóteses H0 => µ1 = µ2 ...... = µn H1 => nem todas as µ são iguais ou, pelo menos, uma é diferente. (ii) Definir os tipos de dados que você vai utilizar => dados métricos (iii) Condições => as k populações são normais com a mesma variância. (iv) Definir o nível crítico α (v) Determinar o valor crítico c => c = Fα com (k-1) GL no numerador e (n-k) GL no denominador. (vi) Calcular F

MQentre F = -------------MQdentro (vii) Decisão => Se F > c, rejeitar H0

11.3. Exemplo com aplicação das fórmulas necessárias para o preenchimento do quadro de ANOVA: a) Fórmulas:


Variação entre os grupos:

Soma dos Quadrados => SQentre ou SQE 2

⎛ g ⎞ ⎜⎜ ∑ x ij ⎟⎟ ∑ 2 n (∑∑ xij )2 i =1 ⎝ i =1 ⎠ SQE = ∑ ( x − media ) ou − g n i =1 k

> GL para SQE => (k – 1) Média Quadrática => MQentre ou MQE MQE = (SQE) / (k – 1) Variação dentro dos grupos:

Soma dos Quadrados => SQdentro ou SQD ⎛ g ⎞ ⎜⎜ ∑ xij ⎟⎟ ∑ i =1 i =1 ⎠ − ⎝ g k

n

SQD = ∑ xij

2

i =1

2

> GL para SQD => (n - k) Média Quadrática => MQdentro ou MQD MQD = (SQD) / (n - k) Teste Estatístico => teste-F F = (MQE)/(MQD) b) Exemplo 1:

Estamos interessados em comparar a renda média anual de 4 companhias diferentes.Vamos às companhias e, aleatoriamente, pegamos a declaração de renda para o Imposto de Renda de 5 empregados de cada uma. O resultado é apresentado no quadro seguinte (em R$ 1.000,00): H0: µ1 = µ2 = µ3 = µ4 H1: nem todas µ são iguais n = 20 g=5 k=4 α = 0,05

empreg 1 2 3 4 5 subtot

CIA1 46 53 54 29 27 209

CIA2 65 59 17 18 37 196

CIA3 37 13 65 42 33 190

CIA4 11 35 57 56 40 199

subtot 159 160 193 145 137 794

Quadro auxiliar Fontes de Variação Entre Dentro (Resíduo) Total

GL 3 16 19

SQ 37,8 5486,6 5524,4

MQ 12,6 342,9

F 0,04


SQE = [ (2092 + 1962 + 1902 + 1992) / 5 ] – [ (46 + 53 + 54 + .....56 + 40)2 ] / 20 = 37,8 SQD = [ 462 + 532 + ... 562 + 402 ] - [ (2092 + 1962 + 1902 + 1992) / 5 ] = 5.486,6 MQE = 37,8 / 3 = 12,6 MQD = 5.486,6 / 16 = 342,9 F = 12,6 / 342,9 = 0,04 Decisão => F0,05 = 3,24 para GL = 3, 16; logo, não rejeitar H0 c) Exemplo 2: Utilizando os dados do Quadro 7.1 vamos ver se há diferenças entre as estimativas de área basal das diferentes classes topográficas. Neste caso, vamos direto à saída (output) do Systat, que é a seguinte: Fontes de Variação Entre classes Dentro (Resíduo) Total

GL 2 177 179

SQ 659,83 14582,04

MQ 329,92 82,38

F 4,005

p 0,02

O resultado da ANOVA mostra p = 0,02. Se usássemos os níveis críticos tradicionais (α = 0,05 e α = 0,01), a conclusão poderia ser a seguinte: as diferenças em área basal entre as classes topográficas são significantes a 0,05, mas não a 0,01. Com esta facilidade o valor exato de α você deve concluir com aquilo que você está vendo, ou seja, 0,02.


Capítulo 12 Regressão e correlação 12.1 Introdução: O objetivo da regressão é obter uma expressão da dependência de uma variável Y sobre uma ou mais variáveis independentes X. Tal expressão é, matematicamente, conhecida como função, logo, Y é uma função de X. Função é um relacionamento matemático que nos capacita predizer quais valores de uma variável Y, para dados valores de uma variável X. Resumindo: Y = f (X). A regressão define o relacionamento estatístico entre as variáveis tomadas e, a correlação, a estreiteza deste relacionamento. Na regressão estima-se o relacionamento de uma variável com uma outra, expressando-se em termos de uma função linear (ou uma outra mais complexa), enquanto que na análise de correlação, às vezes, confundida com regressão, estima-se o grau para o qual duas ou mais variáveis variam juntas. Os métodos de regressão são de grande utilidade na derivação das relações empíricas entre vários fenômenos, sendo aplicáveis para: (i) encontrar uma função estatística que possa ser utilizada para descrever o relacionamento entre uma variável dependente e uma ou mais variáveis independentes e (ii) testar hipóteses sobre a relação entre uma variável dependente e uma ou mais variáveis independentes. No manejo florestal, o uso da regressão é fundamental na derivação de modelos matemáticos: (i) para explicar o comportamento de uma espécie ou povoamento submetido a um determinado tipo de intervenção; (ii) para desenvolver modelos de crescimento; (iii) desenvolvimento de equações de volume e de biomassa; (iv) desenvolvimento de relações hipsométricas; (v) para alguns estudos da estrutura da floresta (distribuição em diâmetro, por exemplo) etc. Ao olhar um povoamento florestal, você pode achar que quanto maiores forem o diâmetro e altura, maior será o volume ou peso da árvore. Entretanto, você não poderá afirmar nada além disso. Com o auxílio da regressão, você será capaz de expressar o relacionamento entre as variáveis independentes diâmetro e altura e o volume (ou peso) da árvore na forma de um modelo estatístico. Desta maneira, você será capaz de predizer o volume (ou peso) de uma árvore em pé tendo apenas as medições de diâmetro e altura. Dependendo do número de variáveis independentes, a regressão pode ser simples (uma variável) ou múltipla (mais de duas variáveis) e, dependendo da natureza da equação básica, a regressão pode ser linear ou não linear.

12.2. Equações básicas das curvas de ajuste: Linear => Y = a + bX => linha reta Quadrática => Y = a + bX + cX 2 => parábola Cúbica => Y = Y = a + bX + cX 2 + dX 3 => curva do 3º grau Genérica => Y = Y = a + bX + cX 2 + ... + xX n => curva do n-ésimo grau Hipérbole => Y = 1 (a + bX ) Exponencial => Y = Y = ae bX Geométrica => Y = Y = aX b


Todas as equações básicas podem ser linearizadas e, deste modo, as estimativas dos coeficientes de regressão podem ser obtidos usando procedimento tradicional de regressão linear. Este “truque” é utilizado para facilitar o processamento dos dados. Entretanto, quando se tem recurso da informática que permite trabalhar com processos iterativos para convergência das estimativas dos coeficientes, o “truque” perde o sentido. Neste capítulo, vamos demonstrar como são estimados os coeficientes de regressão e de correlação para a regressão linear simples. Sabendo como estimar os coeficientes de regressão e correlação da simples, você poderá, por analogia, estimar os coeficientes da regressão múltipla. No caso de regressão não linear, há duas alternativas: (i) linearizar a equação original e adotar os procedimentos das regressões simples ou múltipla e (ii) manter a equação original e estimar os coeficientes de regressão e correlação utilizando um dos seguintes métodos: Gauss-Newton, Quasi-Newton e Simplex – opções do software Systat.

12.3. Regressão linear simples: Para se ter uma idéia de regressão linear simples é necessário considerar uma população com n indivíduos, cada um com características xi e yi. Se a informação desejada é uma expressão numérica para o relacionamento entre os valores x e y, o primeiro passo é marcar os valores num sistema de coordenadas. Isto é feito para dar uma evidência visual do relacionamento das duas variáveis. Se existir um relacionamento simples, os pontos marcados tenderão a formar um modelo (uma linha reta ou uma curva). Se o relacionamento é fraco, os pontos serão mais dispersos e, o modelo, menos definido. Uma linha reta representa a regressão linear simples, a qual é geralmente definida pela equação Y = a + bX

sendo: a = coeficiente de interseção (onde o valor de X corta o valor de Y) e b = coeficiente angular ou de inclinação (estimativa de Y para cada unidade de X acrescentada) – Ver figura 12.1. Em regressão, um relacionamento funcional não significa que, dado um valor de X, o valor de Y tem que ser igual a a + b X, mas que o valor esperado de Y é igual a a + b X. Em um exemplo real, as observações não permanecem perfeitamente ao longo da linha de regressão. Isto é devido ao erro aleatório (ε) e outros fatores não quantificáveis. A forma mais utilizada de ajuste dos dados à linha reta (regressão linear simples) é por meio do método dos mínimos quadrados (MMQ), que requer uma soma mínima dos desvios ao quadrado, entre os pontos observados e os estimados (sobre a reta). (i) Condicionantes para o uso da regressão linear: 9 - Homogeneidade da variância => a variância de Y sobre a linha de regressão é a mesma para todos os valores de X. Isto pode ser resolvido aplicando o teste de Bartlett. 9 - Normalidade => o simples ajuste dos dados à regressão (ou a descrição do relacionamento entre as variáveis Y e X) não requer a distribuição normal de Y, mas se a análise de variância for realizada (o que é óbvio), é preciso comprovar a normalidade ou utilizar o expediente do teorema de limite central (Capítulo 6). 9 - Independência => independência dos erros (afastamento da linha de regressão) das observações. A validade desta condicionante é melhor assegurada por meio de seleção das unidades de amostra de forma aleatória. No


caso de usar parcelas repetidas ou série temporal, o teste Durbin-Watson é a solução. (ii) Método dos Mínimos Quadrados (MMQ):

Assume-se, tentativamente, que a linha de regressão de variável Y sobre a variável X tem a forma a + b X, que assume a seguinte expressão matemática

Y = β 0 + β1 X + ε i o que quer dizer: para um dado X, um valor correspondente de Y consiste do valor β0 + β1 X mais uma quantidade εi, o incremento pelo qual algum indivíduo Y pode desviar-se da linha de regressão. Os coeficientes β0 e β1 são desconhecidos. O erro εi é muito difícil de ser encontrado porque ele varia para cada observação Y. Entretanto, β0 e β1 permanecem fixos e, apesar de não poder encontrá-los exatamente sem o exame de todas as possíveis ocorrências de Y e X, pode-se utilizar as informações disponíveis para obter as estimativas a e b de β0 e β1, respectivamente. Desta maneira, podemos escrever o modelo acima, como um modelo estatístico da seguinte maneira ∧

Ye = a + bX onde Ye é o valor estimado de Y para um dado X, quando a e b são conhecidos. A questão, agora, é saber como determinar os coeficientes a e b. Como falamos anteriormente, será utilizado o MMQ para a determinação dos coeficientes. Vamos fazer esta demonstração a partir da figura 12.1.:

Figura 12.1: Valores observados versus valores estimados pela regressão.


Vamos considerar Yi = valor observado Yei = valor estimado Nesta figura temos 6 valores de X. A equação da reta ajustada passa exatamente entre os pontos (X) observados. O desvio (ε) é a diferença entre o valor observado (Y) e o valor estimado (Ye) pela equação da reta para o mesmo valor de X. Vamos começar a demonstração adiantando que vamos chamar a soma dos desvios ao quadrado de S e S tem que ser mínimo (zero), assim ∑ (εi)2 = S = 0 => i variando de 1 a n sem esquecer que εi = Yi - Yei sendo: Yei = a + b Xi logo εi = Yi – (a + b Xi) Continuando o desenvolvimento do MMQ. (ε1)2 + (ε2)2 + (ε3)2 + ... (εn)2 tem que ser mínimo logo S = ∑ (εi)2 = ∑ (Yi – Yei)2 tem que ser mínimo e S = ∑ (Yi – (a + b Xi))2

O passo seguinte é derivar esta expressão S para a e b, da seguinte maneira: δS/δa = 2 ∑ ( Yi – a – b Xi) (-1) δS/δb = 2 ∑ ( Yi – a – b Xi) (-1Xi) Como S tem que ser mínimo, δS/δa e δS/δb podem ser igualados a zero, tal que as estimativas sejam dadas da seguinte maneira: -2 ∑ ( Yi – a – b Xi) = 0 -2 ∑ Xi ( Yi – a – b Xi) = 0 e dividindo tudo por (-2) e completando as outras operações algébricas, as expressões ficam assim ∑ Yi – a ∑ – b ∑ Xi = 0 ∑ Xi Yi – a ∑ Xi – b ∑ Xi2 = 0 e, finalmente, temos as seguintes equações normais:


an

+ b ∑ Xi = ∑ Yi

a ∑ Xi + b ∑ Xi2 = ∑ XiYi Pelo método de substituição, os coeficientes serão: a = (∑ Yi − − b ∑ X i ) n

e

b = (SPC xy ) (SQC x ) Então, para estimar os coeficientes de regressão a e b, você tem que saber os seguintes somatórios: ∑ Yi, ∑ Xi, ∑ XiYi e ∑ Xi2. Para facilitar os cálculos manuais, monte a seguinte quadro auxiliar. As fórmulas de SPC e SQC são encontradas no Capítulo 3. Quadro 12.1: Quadro auxiliar para estimar os coeficientes de regressão. obs

Y

X

Y2

X2

XY

(Y-Ye)2

∑Y

∑X

∑ Y2

∑ X2

∑ XY

∑ (Y-Ye)2

1 2 . . . N

Comentários:

i)

Com os coeficientes de regressão estimados temos condições de descrever o relacionamento linear entre a variável dependente Y e a independente X. Mais para a frente, vamos mostrar como se estima o coeficiente de correlação e a precisão da equação.

ii)

A reta dos MMQ passa pelo ponto (Xmédio, Ymédio), isto é, quando X = Xmédio temse Ye = Ymédio

iii)

O coeficiente de regressão b, coeficiente angular ou de inclinação, fornece a variação que ocorre em Y, por unidade de X.

12.4. Correlação linear: Depois da determinação dos coeficientes de regressão, vamos verificar o quão estreito é o relacionamento linear entre as variáveis Y e X. De uma amostragem aleatória (X e Y) de tamanho n de uma população normalmente distribuída, a estimativa do coeficiente de correlação, r, é obtida da seguinte maneira:


r=

SPCxy SQC X × SQCY

O coeficiente de correlação tem o mesmo sinal do numerador e, conseqüentemente, o mesmo sinal do coeficiente de regressão b. E mais, o r independe das unidades de medida das variáveis Y e X. O coeficiente de correlação varia de -1 a +1 r positivo => os maiores valores de Y estão relacionados com os maiores valores de X ou os menores de Y estão relacionados com os menores de X. r negativo => os maiores valores de Y estão relacionados com os menores valores de X ou vice-versa. r = 0 => Y não tem relacionamento linear com X. r = 1 => perfeito relacionamento linear entre a variável dependente (Y) e a independente (X).

12.5. Precisão da regressão estimada: Depois de estimar os coeficientes de regressão e de correlação, podemos descrever o relacionamento entre Y e X e sabemos o quão estreito é este relacionamento linear. O passo seguinte é saber o quão precisa é a equação resultante. Primeiro, considere a seguinte identidade Yi - Yei = ( Yi - ӯ ) - ( Yei - ӯ ) elevando ao quadrado os dois lados e somando de i = 1 até n, tem-se ∑ (Yi - Yei)2 = ∑ [(Yi - ӯ) – (Yei - ӯ)]2 = ∑ [(Yi - ӯ)2 – (Yei - ӯ)2 – 2 (Yi - ӯ) – (Yei - ӯ)] = ∑ (Yi - ӯ)2 – ∑ (Yei - ӯ)2 – 2 ∑ (Yi - ӯ) – (Yei - ӯ) e re-escrevendo o 3º termo de modo a ter ∑ ( Yi – Yei)2 = ∑ (Yi - ӯ)2 – ∑ (Yei - ӯ)2 tal que, o resultado final desta operação é ∑ (Yi - ӯ)2 = ∑ ( Yi – Yei)2 + ∑ (Yei - ӯ)2 SQCY

=

SQRES

+

SQREG

Qual é o significado de cada termo? ∑ (Yi - ӯ)2 => SQCY = soma dos quadrados corrigidos de Y ∑ ( Yi – Yei)2 => soma dos quadrados sobre a regressão = SQRES ∑ (Yei - ӯ)2 => soma dos quadrados devido a regressão = SQREG


Portanto, em análise de variância (ANOVA), a grande vantagem é a possibilidade de decompor a variação total (SQCY) em outras fontes de variação. Estes são os principais elementos para montar o quadro de análise de variância (ANOVA) para regressão:

Quadro 12.2: Quadro de análise de variância (ANOVA) Fontes de variação

GL

SQ

MQ

Devido à regressão

c–1

b * (SPCxy)

SQREG/(c-1)

Sobre a regressão (resíduo)

n–c

por subtração

SQRES/(n-c)

Total (corrigido)

n-1

SQCY

F

sendo: c = número de coeficientes de regressão. O valor de F é dado pela razão entre MQREG e MQRES. Quanto maior for o numerador MQREG, maior será o valor de F. Quanto maior for o F, mais significante será o modelo testado. Antigamente, você pegava o F calculado e ia à tabela-F para comparar os dois valores; se o valor calculado fosse maior do que o tabelado (para os 3 principais níveis críticos de 10%, 5% e 1%), você concluía que o seu modelo era significante, caso contrário, não significante. Hoje, os programas de estatística já dão os valores exatos da probabilidade (ou a área sob a curva-F). Portanto, hoje você pode tomar decisões baseadas na sua capacidade de discernimento. Por exemplo: se p for igual a 0,03 (ou 3%), você pode dizer que é significante a 5% mas não a 1% ou, então, dizer qualquer coisa sobre o 0,03 da sua própria cabeça sem ficar no maniqueísmo do significante ou não significante. A MQRES é igual a s2 e fornece uma estimativa da variância residual, baseada em (n-2) graus de liberdade (GL). Se a equação de regressão foi estimada de um número grande de observações, a variância residual representa uma medida do erro com a qual qualquer valor observado de Y poderia ser estimado de um dado valor de X, usando a equação ajustada. Por último, vamos apresentar a variável que mede a precisão da equação ajustada que é o erro padrão de estimativa (SY.X): s y. x = s 2

No Capítulo 13 será visto como se trabalha com equações múltiplas. Um exemplo prático será visto no Capítulo 15 (biomassa florestal), que é o manuscrito de um artigo já publicado na Acta Amazonica.


Capítulo 13 Estatística não Paramétrica 13.1. Introdução: Até o capítulo 12, vimos várias situações da estatística paramétrica. Basicamente, a estatística paramétrica foi desenvolvida sob a teoria da distribuição normal. No entanto, os fenômenos naturais tendem a não seguir a distribuição normal padrão (µ = 0 e σ2 = 1) e, muitas vezes, não há nem como normalizar os dados da população – uso da padronização da variável aleatória. Quando os seus dados teimam em não seguir a distribuição normal, temos ainda o recurso do uso do “teorema do limite central” para “driblar” a condição “normalidade” da maioria dos testes estatísticos. Se você achou que acabaram os recursos estatísticos para analisar os seus resultados, restou o último e derradeiro recurso que é o uso da estatística não paramétrica. A estatística não paramétrica é usada quando as condições impostas ao uso da estatística paramétrica são “muito” violadas. Além disso, quando não dá para repetir a pesquisa de campo ou de laboratório e você tem que analisar o material que você em suas mãos. Para alívio de sua consciência, existe a estatística não paramétrica que é a estatística de distribuição “livre” e os seus testes podem ser aplicados às populações com qualquer distribuição. Qual é o preço que você paga por usar a estatística não paramétrica? O preço é a limitação de sua comunicação. Não dá pra você ir muito longe com as decisões tomadas com base nos testes não paramétricos, além do “significante” ou “não significante”. No entanto, a estatística não paramétrica requer poucos dados (portanto, a pesquisa é mais barata), os cálculos são simples e você pode trabalhar diretamente (sem transformações) com dados ordinais e qualitativos. A estatística não paramétrica é assim conhecida porque não trabalha com parâmetros (µ e σ ). Este conceito, no entanto, ganhou uma certa flexibilidade com o passar do tempo. Hoje, quando viola as condições impostas pela estatística paramétrica, você corre atrás de um teste similar na não paramétrica e usa até para comparação de médias. 2

Neste capítulo vamos ver alguns testes não paramétricos, principalmente aqueles que têm contrapartidas (correspondentes) na estatística paramétrica.

13.2. Distribuição Binomial: Este teste já foi visto no capítulo 4 (Probabilidade). Sabemos, então, que:

⎛n⎞ k n− p P( x = k ) = ⎜⎜ ⎟⎟ p (1 − p ) ⎝k⎠ Numa pesquisa incluindo n experimentos independentes do tipo “sucesso e insucesso”, teremos: p = probabilidade de sucesso x = o número de sucessos


(1 - p) = probabilidade de insucesso

Exemplo 1 => Uma pessoa em uma sala tem cartões numerados de 1 a 10. Ela pega um cartão ao acaso e uma outra pessoa (em outra sala) tenta “adivinhar” o número que foi pego. Este experimento é repetido 3 vezes. A pergunta é: qual é a probabilidade de acertar 2 vezes. Resolvendo => sabemos que: n=3 p = probabilidade de sucesso = 1/10 = 0,1 q = (1 – p) = probabilidade de insucesso = 9/10 = 0,9 P (x = 2) = ? => probabilidade de acertar 2 vezes Portanto: 3 P (x = 2) =

(1/10)2 (9/10)3-2 = 3 * 0,01 * 0,9 = 0,027

2 ou seja, a probabilidade de outra pessoa acertar 2 vezes em 3 tentativas é 0,027 ou 2,7%. A Tabela VIII dá direto essas probabilidades, desde que haja coincidência em termos de n, k e p. Pra se garantir, é melhor saber como calcular a probabilidade exata da distribuição binomial. Você obtém a probabilidade usando a Tabela VIII => n = 3, k = 2 e p = 0,1 Ö na primeira coluna tem o n (número de tentativas ou experimentos) Ö na segunda coluna tem o k (número de sucessos) Ö para n = 3, temos k = 0, k = 1, k = 2 e k =3 Ö para cada k, temos uma probabilidade de acordo com a probabilidade de sucesso, p, pré-estabelecida => o o o o

pra k = 0 => p = 0,7290 pra k = 1 => p = 0,2430 pra k = 2 => p = 0,0270 pra k = 3 => p = 0,0010

Respondendo, então, a pergunta: P (x = 2) = ? P (x = 2) é igual a 0,0270 E se eu quisesse saber: P (x < 2) e P (x ≥ 2) ¾ P (x < 2) => fácil, basta somar as probabilidades de sucessos (não incluindo k = 2), ou seja, 0,7290 + 0,2430 = 0,9720 => A probabilidade de acertar uma ou nenhuma vez é de 0,9720 ou 97,2%.


¾ P (x ≥ 2) => tenho que somar a probabilidade de k = 2 e k = 3, ou seja, 0,0270 + 0,0010 = 0,0280 => a probabilidade de acertar mais de 2 vezes é de 2,8%.

13.3. Teste de sinal para medianas: Mediana é valor da variável aleatória que, em ordem crescente ou decrescente, está “rankeado” no meio. Vamos ilustrar a aplicação desse teste com um exemplo sobre renda familiar. Fixo (arbitro) ou hipotetizo uma renda familiar e vou verificar se rejeito ou não a hipótese. Pego, aleatoriamente, 12 famílias e registro a renda anual de cada uma e o resultado é o seguinte (em R$ 1.000,00): 60,0 25,7 22,4 20,1 17,3 16,1 15,3 14,8 14,3 14,1 > 14.000

10,4 6,2 < 14.000

Como estamos trabalhando com a mediana, sabemos que: ¾ probabilidade de sucesso => p = 0,5 (acima da mediana) ¾ probabilidade de insucesso => q = (1-p) = 0,5 (menor do que a mediana)

Quais são as nossas hipóteses? ¾ H0: Mediana (MD) = 14.000 ¾ H1: MD > 14.000

Podemos utilizar a Tabela VIII para calcular a probabilidade, considerando que: ¾ n = 12 ¾ k = 10 (são 10 rendas maiores do que 14.000) => de acordo com H0, sucesso significa que a renda tem que ser menor que 14.000; renda > 14.000 significa insucesso. ¾ p = 0,5 e, conseqüentemente, q = 0,5

Neste caso, temos também que fixar (aproximadamente) o nível crítico α para estabelecer a área de rejeição de nossa hipótese nula. Então, vamos a tabela VIII ¾ temos que olhar na primeira coluna com n = 12 (temos 12 rendas familiares, terceira página, o k está na segunda coluna e como p = 0,5 (sucesso) temos que ver as probabilidades de cada k na oitava coluna. ¾ como o nosso α = 0,05 (aproximadamente), temos que, num processo inverso, determinar a nossa área de rejeição e seu correspondente k que seria, então, o nosso valor crítico a ser usado na tomada de decisão.


™ ™ ™ ™

pra k = 12 => p = 0,0002 e α = 0,0002 pra k = 11 => p = 0,0029 e α = 0,0002 + 0,0029 = 0,0031 pra k = 10 => p = 0,0161 e α = 0,0031 + 0,0161 = 0,0192 pra k = 9 => p = 0,0537 e α = 0,0192 + 0,0537 = 0,0729

¾ Se a opção for α = 0,05 (aproximadamente), o seu valor crítico pode ser k = 10 ou k = 9, ou seja, se o número de famílias que têm renda maior ou igual a R$ 14.000,00 for maior ou igual a 10 você rejeita H0 para α = 0,0192 e se for maior ou igual a 9, você rejeita H0 para α = 0,0729. ¾ Voltando ao exemplo, n = 12 e vamos atribuir o sinal (+) para as rendas superiores ao valor hipotetizado (14.000) e o sinal (-) para as rendas inferiores a 14000.

60,0 25,7 22,4 20,1 17,3 16,1 15,3 14,8 14,3 14,1 + + + + + + + + + +

10,4 6,2 -

¾ Quantos sinais (+) temos? Temos 10, ou seja, o nosso ponto de decisão é 10 => Considerando α = 0,0192, temos que rejeitar H0 porque k ≥ 10. Como o k só pode ser inteiro, o nosso valor crítico estaria entre 0,0192 e 0,0729. ¾ Conclusão: Rejeitamos H0, a nossa mediana não é igual a R$ 14.000,00 com α = 0,0192.

13.4. Teste de sinal-rankeado Wilcoxon: É um teste similar ao anterior, mas a operação é executada usando as diferenças entre o valor observado e o valor hipotetizado. E mais: as diferenças são expressas em valores absolutos e o “rankeamento” é feito a partir disso. Procedimentos: ¾ Formular as hipóteses

H0: MD = M H1: MD < M (MD > M) ¾ Em uma amostra de tamanho n, usar a Tabela IX para encontrar α e o valor crítico d. ¾ Tomar uma amostra de tamanho n e montar o seguinte quadro:

val obs (x) x1

dif (x – M)

|D|

rank de |D|

xn ¾ Calcular:

para H1: MD < M => R+ = soma dos R com sinais positivos para H1: MD > M => R- = soma dos R com sinais negativos

rank c/ sinal R


¾ Decisões:

para H1: MD < M => R+ ≤ d => rejeitar H0 para H1: MD > M => R- ≤ d => rejeitar H0 Vamos a um exemplo prático. Tomamos o DAP de 8 árvores (isso é uma coisa que você nunca vai fazer – entrar na floresta e medir apenas 8 árvores é um desperdício inaceitável) e queremos saber se a mediana é igual a 50 cm. O quadro seguinte apresenta os dados observados (x) e as demais colunas necessárias para a execução do teste. val obs (x) 50,2 50,1 49,6 49,5 49,2 49,0 48,4 47,0

dif (x – M) + 0,2 + 0,1 - 0,4 - 0,5 - 0,8 - 1,0 - 1,6 - 3,0

|D| 0,2 0,1 0,4 0,5 0,8 1,0 1,6 3,0

rank de |D| 2 1 3 4 5 6 7 8

rank c/ sinal R +2 +1 -3 -4 -5 -6 -7 -8

Solução: ¾ Da tabela IX, para n = 8, tiramos que o α mais próximo de 0,05 é 0,055; portanto o valor crítico d é igual a 6 para α = 0,055. ¾ Calculamos, então, o R+ somando os “ranks” com sinais positivos (+) => na última coluna tem apenas 2 ranks (+), que são 2 e 1, logo R+ = 2 + 1 = 3 ¾ Decisão: Como d = 6 e R+ = 3, rejeitamos H0

13.5. Teste de Mann-Whitney: comparação de duas medianas (ou médias de duas populações): Procedimentos: ¾ Formular as hipóteses:

H0: As duas populações têm a mesma mediana => MD1 = MD2 H1: As duas populações não têm a mesma mediana => MD1 > MD2 (ou menor) ¾ Considere n como o tamanho da amostra da população 1 e k como o tamanho da amostra da população 2. ¾ Usar a Tabela 13.11 para encontrar o valor crítico d para α = 0,05. ¾ Coletar os dados, rankear e calcular S1 que é a soma dos ranks da população 1. ¾ Calcular T = S1 – [ n (n+1) ] / 2 ¾ Decisão: Rejeitar H0 se T ≤ d

Exemplificando: diferenciados:

Considere

duas

populações

de

escolas

com

tratamentos

Pop 1: tempo de aprendizagem para todos os trabalhadores com experiência comprovada.


Pop 2: tempo de aprendizagem para todos os trabalhadores sem experiência comprovada ¾ Hipóteses:

H0: MD1 = MD2 H1: MD1 < MD2 ¾ Tamanhos das amostras =>

n = 8 da população 1 k = 7 da população 2 ¾ Da tabela 13.11, para α = 0,05, n = 8 e k = 7, o valor crítico d é igual a 13.

Vamos aos cálculos: População 1 Tempo rank 2,33 11 1,81 5 2,17 8 1,78 4 1,74 3 1,46 1 1,58 2 1,92 6

População 2 tempo rank 2,31 10 1,96 7 2,73 14 2,51 13 3,04 15 2,34 12 2,24 9

¾ Primeiro, calculamos S1 = 11 + 5 + 8 + .....+ 6 = 40 ¾ Calculamos, então, o T T = 40 – [ 8 (8+1) ] / 2 = 4 Decisão: Como T < d; rejeitamos H0 e concluímos que MD1 < MD2

13.6. Considerações finais: Evidentemente, a estatística não paramétrica não se resume nos testes apresentados neste capítulo. Isso foi apenas um aperitivo acrescentado a sua disciplina de Biometria Florestal. Estatística não paramétrica tem um vasto repertório de testes; por exemplo, do tipo Kolmogorov-Smirnov: o Teste Kolmogorov para ajuste da distribuição o Teste Lilliefors para normalidade o Teste Shapiro-Wilk para normalidade o Teste Smirnov para teste de 2 amostras independentes o Teste Cramér-von Mises para teste de 2 amostras independentes o Teste Birnbaum-Hall para teste de várias amostras independentes


PARTE 2


Capítulo 14 Algumas variáveis aleatórias utilizadas em manejo florestal 14.1 Diâmetro à altura do peito (DAP) 14.1.1 Notas preliminares

Na engenharia florestal, o diâmetro da árvore é DAP e ponto final. DAP se mede a 1,3 m acima do nível do solo. O objetivo desta seção não é ensinar como medir o DAP porque isto está muito bem explicado nos livros de Machado & Figueiredo Filho (2003)3 e Campos & Leite (2002)4. Em plantios de eucalipto, o DAP tende a ser medido quase sempre a 1,3 m do solo. Na Amazônia, a situação é um pouco diferente porque há sapopemas e outras irregularidades no tronco que nem sempre a parte a 1,3 m do solo está disponível para medir. Em inventários em uma única ocasião, esta situação pode ser superada utilizando equipamentos especiais ou a projeção do diâmetro à altura do DAP. Por compensação de erros, o resultado final não será afetado. Em inventários contínuos, a subjetividade na medição de um mesmo indivíduo em ocasiões sucessivas, não é bem-vinda. Neste caso, é necessário medir sempre no mesmo local (altura em relação ao solo) e aí o recurso é medir aonde é possível e marcar (com tinta) este ponto da medição. Dessa forma, será possível estimar as mudanças ocorridas entre duas ou mais ocasiões. Como é a pronúncia correta desta variável tão importante para a engenharia florestal; D-A-P ou Dape ou Dapi? Segundo o Manual de Estilos da Abril, temos os seguintes conceitos: Sigla é a reunião das iniciais de um nome próprio composto de várias palavras e deve ir, quase sempre, em caixa alta: CNBB, CPI, CPMF, IBGE, BNDS, CBF etc. Certas siglas silabáveis, mesmo estrangeira, são escritas em caixa alta e baixa: Vasp, Ibope, Inpa, Incra, Aids etc.

Diante disso, o nosso diâmetro à altura do peito tem que ser pronunciado como Dape ou Dapi. Certos estão os biólogos, ecólogos e outros não florestais e errados estão os engenheiros florestais. Por conta disso, quero dedicar esta seção àqueles que pronunciam errado esta variável, D-A-P. Não critiquem (e nem tripudiem) àqueles que falam Dape ou Dapi porque eles estão certos, mas continuem pronunciando D-A-P., que é uma tradição florestal de mais de 40 anos no Brasil. Acrônimo é a reunião de elementos (iniciais, primeiras letras e sílabas) dos componentes de um nome, com a intenção de formar uma palavra silabável e, deve ir, sempre, em caixa alta e baixa: Ibama, Cacex, Varig etc. Chichuá é um acrônimo. 14.1.2 DAP usado na estrutura da floresta

A curva do tipo J-invertido é a que melhor descreve a estrutura diamétrica das florestas da região amazônica. Os valores observados de DAP podem ser ajustados por funções matemáticas que produzem curvas que se assemelham ao tipo J-invertido. A mais popular na Amazônia é a função de Weibull. No anexo 4 está disponível uma revisão sobre as funções Weibull e exponencial.

3 4

Machado, S.A. e Figueiredo Filho, A. 2003. Dendrometria. 309p. Campos, J.C.C. e Leite, H.G. 2002. Mensuração florestal. UFV. 407p.


Como o DAP é a principal variável independente para o setor florestal da Amazônia, uma função de distribuição bem ajustada pode facilitar o inventário florestal sem perder a precisão. Com uma boa função, que apresenta a distribuição de probabilidade de cada classe de DAP, o inventário usando a contagem de indivíduos por unidade de área é perfeitamente possível. Dessa forma, o tempo de coleta seria muito mais rápido e, conseqüentemente, o inventário ficaria mais barato. 14.1.3 DAP como variável independente de equações de volume e de biomassa

Tanto para volume e biomassa os seguintes modelos logarítmicos podem ser utilizados para descrever a relação entre volume e DAP e ou H e biomassa e DAP e ou HT: 1) ln V = a + b ln (DAP ) ou ln PF = a + b ln (DAP ) 2) ln V = a + b ln (DAP ) + c ln (H ) ou ln PF = a + b ln (DAP ) + c ln (HT ) onde: V = volume do tronco em m3 D = DAP em cm H = altura comercial ou comprimento do tronco em m PF = peso fresco da parte aérea em kg HT = altura total da árvore em m ln = logaritmo natural Todo o desenvolvimento desses modelos será detalhado na próxima seção. Aqui, queremos apenas mostrar os indicadores usados na escolha do melhor modelo, como erro padrão da estimativa syx, coeficiente de correlação (r) e coeficiente de determinação (r2), para advogar em favor do uso do DAP apenas. Vamos considerar modelo 1 como aquele que tem apenas o DAP como variável independente e modelo 2 o que tem DAP e altura (comercial ou total), separadamente para volume e biomassa. Volume (n = 959):

Modelo 1: syx = 1,46%

r = 0,971

r2 = 0,943

Modelo 2: syx = 1,04%

r = 0,988

r2 = 0,977

Modelo 1: syx = 6,54%

r = 0,984

r2 = 0,967

Modelo 2: syx = 5,32%

r = 0,989

r2 = 0,978

Biomassa (n = 498):

Você vê alguma diferença entre os modelos 1 e 2, para volume e biomassa? Neste capítulo queremos enfatizar apenas essas diferenças, sem se preocupar com o significado de cada indicador (será explicado na próxima seção). No caso do volume, acrescentar a variável H significa um ganho muito pequeno na precisão. O mesmo acontece com a biomassa. Entretanto, acrescentar a altura (H ou HT) ao modelo é uma outra coisa. Em um hectare de floresta amazônica primária podemos ter: (i) 600-700 indivíduos arbóreos com DAP≥ 10 cm dividindo o espaço com lianas, epífitas e palmeiras; (ii) alta diversidade em espécies; (iii) arquitetura de copa de múltiplas formas; (iv) dossel com vários estratos em altura; (v) espécies com idades diferentes, que podem variar de 1 a 100 anos. Como medir a altura desses indivíduos? Para o desenvolvimento dos modelos, o método destrutivo é empregado; portanto, temos as árvores no chão e medimos as alturas (comprimentos) com trena. Durante o inventário florestal, a situação é outra, ou seja, temos


que medir as alturas da árvore em pé. Mesmo com equipamentos sofisticados, é muito difícil, senão impossível, medir precisamente a altura total. A altura comercial pode até ser medida precisamente com equipamentos, mas diferentes medidores podem apresentar diferentes medidas para a mesma árvore por causa da subjetividade em definir o que é "altura comercial". Nunca, mas nunca mesmo, "chutar" a altura para utilizar o modelo 2. Nos exemplos com equações de volume e de biomassa, temos o seguinte: (i) acrescentar a altura comercial (H) ao modelo 1, significa melhorar a precisão em 0,42% (1,46 – 1,04) e (ii) acrescentar altura total (HT) ao modelo, significa melhorar a precisão em 1,22% (6,54 – 5,32). Vale a pena acrescentar a altura? Pense nisso, sobretudo, nos custos de coleta de dados para o inventário florestal.

14.2. Área basal É a projeção dos DAPs ao solo, que indica a densidade da floresta. Do ponto de vista técnico, é a soma da área transversal de todos os indivíduos em um hectare. Área transversal é a área do círculo à altura do DAP. Isto é conseguido fazendo (imaginário) um corte transversal no DAP e medindo o raio ou o diâmetro do círculo. É a área de um plano sobre o tronco, disposto em ângulo reto ao eixo longitudinal. Portanto, a área transversal (classicamente representada pela letra "g") é obtida da seguinte maneira: g i = π (DAP ) 4 2

e a área basal, então: AB = ∑ g i (i = 1,2,...n )

Na área experimental de manejo florestal da ZF-2, a área basal média está em torno de 30 m /ha. Isso quer dizer que se projetarmos todos os DAPs ≥ 10 cm sobre uma área de 10.000 m2 (um hectare), as árvores ocuparão 30 m2. Algumas estimativas (m2/ha) para diferentes sítios na Amazônia: UHE de Santa Izabel (região do Araguaia) = 15,2; Projeto Rio Arinos (norte de MT) = 1,6; Floresta Estadual do Antimary (Acre) = 15,2, Trombetas (Pará) = 24,8; PIC Altamira (Pará) = 22, Sul de Roraima = 20,9 e Alto Solimões (Fonte Boa e Jutaí no AM) = 27 m2/ha. 2

Com esses poucos exemplos, podemos dizer que a floresta da ZF-2 é mais densa do que as outras florestas. A estimativa de área basal, de forma isolada, diz muito pouco sobre uma determinada floresta. Com esses poucos exemplos, é difícil afirmar que a floresta da ZF2, por exemplo, é muito densa ou pouco ou médio, porque deve haver florestas mais densas do que esta. De qualquer modo, não custa nada estimar a área basal da área inventariada já que as medições de DAP são obrigatórias em inventários florestais. Antigamente (até início dos anos 90), era comum ver inventários florestais com volumes estimados a partir da área basal, ou seja, AB x altura x fator de forma. O fator de forma utilizado era igual a 0,7 proposto por peritos da FAO (Food and Agriculture Organization) que realizaram os primeiros inventários na Amazônia nas décadas de 50 e 60. A altura era, invariavelmente, "chutada". O engenheiro florestal deve utilizar-se de equações próprias para estimar o volume de madeira.

14.3. Volume No setor florestal, as decisões são tomadas baseadas no volume de madeira. Isto é tão forte que, muitas vezes, o engenheiro florestal até se esquece que numa floresta há muitas outras coisas além da madeira. Aqui, o objetivo é mostrar como se estima o volume de


madeira nos inventários florestais. Para isto, você precisa ter equações confiáveis e usá-las para estimar o volume de árvores em pé medidas em parcelas fixas do inventário florestal. Volume real

Para desenvolver equações de volume, você precisa ter o volume real de vários indivíduos. Este volume pode ser obtido por meio do método destrutivo (aproveitando áreas exploradas ou desmatadas, autorizadas pelo Ibama) ou utilizando o relascópio de Bitterlich (por exemplo). O mais comum é o método destrutivo. Antes de derrubar a árvore, o DAP é medido. Com a árvore no chão, as alturas ou comprimentos (comercial e total) são determinados e o tronco é dividido em pequenas toras, tentando se aproximar à forma do cilindro. Em geral, o tronco é dividido em 10 toras (ou seções) e duas medidas são tomadas em cada tora, na base e no topo. Com estas duas medidas, você tem condições de calcular as áreas transversais da base e do topo; aí, você estima a média (g da base + g do topo dividido por 2) e multiplica pelo comprimento da tora [lembrando que m2 de g vezes m do comprimento, você terá m3] para ter o volume da tora ou seção. A soma dos volumes das 10 toras é considerada "volume real" da árvore. Melhores explicações você vai encontrar nos livros de Machado & Figueiredo Filho (2003) e Campos & Leite (2002). Quantas árvores são necessárias para desenvolver os modelos estatísticos para volume ou equações de volume ou modelos alométricos? Alometria => (do grego: allos é outra e metron é medida) => é o estudo das variações das formas e dos processos dos organismos e tem dois significados: (i) o crescimento de uma parte do organismo em relação ao crescimento do organismo inteiro ou de parte dele e (ii) o estudo das conseqüências do tamanho sobre as formas e os processos.

Você pode usar uma função conhecida de distribuição em diâmetro (Weibull, por exemplo) e ver se os dados já coletados se ajustam a esta função. Teste simples como o quiquadrado (confrontação entre freqüência esperada e freqüência observada) dá conta disso. Se o teste for significante, colete mais dados das classes que estão faltando e refaça o teste quiquadrado. Se o resultado for não significante, você tem, em mãos, uma amostra representativa de sua população de interesse. Há também a possibilidade de utilizar-se do recurso do inventário florestal quanto à intensidade de amostragem; neste caso, cada indivíduo é uma amostra. A fórmula é a seguinte:

(

)

n = t 2s2 ε 2 sendo: t = valor obtido na tabela-t ( p = 0,05 ou outro e n-1 graus de liberdade) s2 = estimativa da variância ε2 = expectativa do erro = (LE x média)2. Em geral, o LE (limite de erro) é igual a 0,10 ou 10%. Observações: use z em vez de t. Como vimos anteriormente, os valores de z para os níveis críticos mais freqüentes, α = 0,10, α = 0,05 e α = 0,01 são, respectivamente, 1,64, 1,96 e 2,57. Outra coisa: há também o fator de correção para populações finitas, ou seja, neste caso ao denominador da fórmula (ε2) deve ser acrescentado ( 1 – n/N ). A população é considerada finita quando a fração n/N é menor do que 0,05, segundo Freese (1962)5. 5

Freese, F. 1962. Elementary forest sampling. Agriculture Handbook nº 232. USDA-Forest Service. 91p.


Equações de volume ou modelo alométrico

O passo seguinte é testar modelos matemáticos. Antigamente (fim dos anos 70), o grande desafio era encontrar o melhor modelo para descrever a função V = f (DAP, H). Depois de várias dissertações e artigos científicos, verificou-se que qualquer modelo, seja de simples entrada (apenas DAP como variável independente) ou de dupla entrada (DAP e H como variáveis independentes, combinadas ou não) produzem bons ajustes. A decisão para escolher o melhor modelo ficou nos detalhes. Hoje em dia, qualquer modelo que você venha a testar, utilizando DAP e H, você vai conseguir uma alta e significativa correlação, um modelo que explica mais de 75% da variação de seus dados (r2) e um erro padrão de estimativa aceitável. O padrão de hoje é o modelo que apresenta r > 0,90, r2 > 0,90 e syx (%) < 10. Além disso, o modelo tem que ter uma boa distribuição de resíduos, que é: as diferenças entre os valores estimados e observados, positivos e negativos, têm que se distribuir uniformemente ao longo da curva (ou reta) estimada, ou seja, estas diferenças não podem aumentar (ou diminuir) conforme aumenta o tamanho da árvore. Por exemplo: se o seu modelo produzir uma diferença de 0,5 m3 para uma árvore com DAP = 10 cm, esta mesma diferença (mais ou menos) tem que ser verificada para outra árvore com DAP = 70 cm ou DAP = 150 m. Os modelos que apresentam as melhores distribuições de resíduos são os modelos logarítmicos. Os mais usados são os seguintes, do item 1.1.3: 1) ln V = a + b ln (DAP ) 2) ln V = a + b ln (DAP ) + c ln (H ) A abordagem para estimar os coeficientes de regressão é a do método dos mínimos quadráticos (MMQ) e depois da obtenção das equações normais, os coeficientes podem ser estimados usando o método da substituição ou por meio do cálculo matricial. As explicações sobre as operações necessárias para se chegar aos coeficientes podem ser encontradas em qualquer livro de estatística básica. No computador, basta entrar com as variáveis ln V, ln D e ln H e você terá, além dos coeficientes de regressão, erro padrão de estimativa, coeficiente de correlação, coeficiente de determinação e distribuição de resíduos. Regressão => descreve apenas o relacionamento linear entre uma variável dependente (Y) e uma ou mais variáveis independentes (X1 = DAP, X2 = altura etc.).

Antes de derivar a equação em relação a a e b, primeiro é preciso linearizar as variáveis aleatórias, da seguinte maneira: ln V = Y, ln D = X1 e ln H = X2. Para o modelo 1, as equações normais são: an

+ b ∑ X1 = ∑ Y

a ∑ X1 + b ∑ X12 = ∑ X1Y Pelo método de substituição, os coeficientes serão: a = [ ∑ Y - b ∑ X1 ] / n b = [ SPCX1Y ] / [ SQCX1 ] Para o modelo 2, as equações normais são an

+ b ∑ X1

a ∑ X1 + b ∑ X12

+ c ∑ X2

= ∑Y

+ c ∑ X1 X2 = ∑ X1 Y

a ∑ X2 + b ∑ X1 X2 + b ∑ X22

= ∑ X2 Y


Neste caso, é melhor estimar os coeficientes apelando para o cálculo matricial. matriz de Y (nx1) = matriz de X (nxp) x matriz de coeficientes "b" (px1) (X'X) b = X'Y b = (X'X)-1 X'Y Hoje, com o Excel ficou fácil inverter matrizes de qualquer tamanho e a multiplicação é mais fácil ainda. Mesmo assim, não há necessidade de trabalhar com matrizes para a obtenção dos coeficientes. Os programas de estatística, em geral, calculam automaticamente os coeficientes. Sei que para regressões simples (com dois coeficientes), o Excel dá conta do recado. Para regressões múltiplas e as não lineares, é melhor usar outro software (Systat, SAS etc.). Vamos aproveitar as saídas (outputs) do Systat, por exemplo, para explicar os significados de alguns indicadores da regressão. 1) Coeficiente de correlação => r => a regressão descreve o relacionamento e este coeficiente mostra o grau de estreiteza que existe entre as variáveis Y e X1, X2 etc.. Este coeficiente varia de -1 a +1. Igual a -1 ou +1, há uma correlação perfeita, ou seja, a cada unidade acrescentada à X, haverá um aumento proporcional em Y (uma, duas, ou menos 2 unidades). Sinal (-) significa que os menores valores de Y tendem aos maiores valores de X ou vice-versa. Sinal (+) significa que os menores Y tendem aos menores X e os maiores Y tendem aos maiores X. O teste-t é geralmente utilizado para testar a significância de r. 2) Coeficiente de determinação => r2 => multiplicado por 100 mostra a percentagem da variação dos dados que é explicada pelo modelo testado. No caso de regressão múltipla, prefira sempre o coeficiente ajustado. 3) Erro padrão de estimativa => syx => é a raiz quadrada da média quadrática dos resíduos (MQR), logo é o desvio padrão da relação. Ao comparar duas equações, o uso deste indicador é direto, ou seja, aquela que apresentar o menor erro é a melhor. Isoladamente, é preciso ainda alguns cálculos. Dividindo syx pela raiz quadrada de n você terá o erro padrão da média e dividindo o mesmo pela média da variável dependente Y, você terá o seu erro em percentagem. Melhor ainda é apresentar a incerteza de seu modelo. Neste caso, você tem estimar o intervalo de confiança (IC) e aquela porção (z * erro padrão) dividida pela média vai te fornecer a incerteza de seu modelo. Em geral, uma incerteza de 10% é considerada aceitável. 4) Coeficientes de regressão => O Systat apresenta a constante ( a ) e os coeficientes associados às outras variáveis independentes (b, c, d etc.) => o Systat apresenta também a significância de cada coeficiente; se for não significante, você deve removê-lo do modelo. 5) Análise de variância (ANOVA) => a regressão descreve, a correlação mostra a estreiteza entre as variáveis e a ANOVA mostra a significância do seu modelo de regressão. O teste-F é o que determina se o modelo é significante ou não. No Systat, o valor p é o mesmo que α, ou seja, é o valor crítico para a tomada de decisão. Os valores clássicos de p são 0,01, 0,05 e 0,10; portanto quando o p < 0,01, o modelo testado é significante para os três níveis. 6) Durbin-Watson D Statistics e First Order Autocorrelation => No caso de equações de volume (e biomassa), não há envolvimento de séries temporais. Portanto, não precisa se preocupar com isto. Estes dois testes são usados para verificar se os termos dos erros no modelo de regressão não são correlacionados e nem dependentes. Os termos dos erros correlacionados com o passar do tempo são conhecidos como "autocorrelacionados" ou "serialmente correlacionados".


7) Distribuição de resíduos => o gráfico pode ser interpretado diferentemente por diferentes eng florestais, mas ele é fundamental para a decisão final do melhor modelo – conforme foi explicado anteriormente. Aplicação da equação de volume

Com o melhor modelo em mãos, você vai aplicá-lo em inventários florestais. Num inventário na Amazônia, para árvores com DAP ≥ 10 cm, você deve utilizar uma parcela de, no mínimo, 2.500 m2 (10 x 250 m ou 20 x 125 m). Numa parcela deste tamanho, você deve encontrar entre 100 e 150 indivíduos. Lembre-se que, de acordo com o conceito de intervalo de confiança (IC), em 95 vezes (se o seu p = 0,05, por exemplo) a sua estimativa estará dentro do seu IC e em 5 vezes, a estimativa estará fora do IC. Portanto, não se surpreenda e confie na estatística (na incerteza que o seu modelo declarou). Não esquecer que os seus modelos são logarítmicos e, por esta razão, ao estimar o volume de madeira você tem que usar o inverso do logaritmo natural que é a exponencial.

14.4. Biomassa Estimar a biomassa é importante para compreender a produção primária de um ecossistema e avaliar o potencial de uma floresta para produção de energia. No manejo florestal sustentável na Amazônia, a biomassa é usada para estimar a quantidade de nutrientes que é exportada do sistema via exploração de madeira e que é devolvida via inputs atmosféricos. No entanto, depois da Rio-92, a biomassa ganhou uma nova dimensão. O carbono da vegetação passou a ser um elemento importante nas mudanças climáticas globais. O eng florestal sabe (ou deveria saber) que aproximadamente 50% da madeira secada (em estufa) é carbono e que os compostos de carbono são: celulose (45%), hemicelulose (28%) e lignina (25%). De acordo com o IPCC (Painel Intergovernamental de Mudanças Climáticas), os componentes de biomassa e carbono da vegetação são: (i) biomassa ou C na matéria viva acima do nível do solo (tronco, galhos, folhas, frutos e flores); (ii) biomassa ou C na matéria viva abaixo do nível do solo (raízes) e (iii) biomassa ou C na matéria morta em pé ou no chão. Quem foi treinado para estimar o volume de madeira tem todas as condições para estimar a biomassa também. O anexo 5 é um artigo (manuscrito) sobre biomassa que já foi publicado na Acta Amazonica6. Este artigo cobre o componente 1 do IPCC. O componente 2 envolve raízes e isto está sendo realizado pelo LMF (laboratório de manejo florestal do INPA) e será incluído em uma tese de doutorado. O trabalho de campo para obtenção do peso de raízes é muito trabalhoso, mas nada que assuste o verdadeiro eng florestal. Como o solo da Amazônia é muito pobre em nutrientes, as árvores tendem a desenvolver raízes superficiais – raramente ultrapassam 50 cm de profundidade. Mesmo na Amazônia, em regiões que têm as estações do ano (chuvosa e seca) bem definidas, as árvores tendem a desenvolver raízes mais profundas para procurar água, o que não é o caso da Amazônia Central. O componente 3 pode ser estimado com precisão combinando as taxas de mortalidade com os modelos usados no componente 1. Coleta de dados => verdade de campo => método destrutivo

6

Higuchi, N., Santos, J. dos, Ribeiro, R.J., Minette, L. e Biot, Y. 1998. Biomassa da parte aérea da vegetação da floresta tropical úmida de terra-firme da Amazônia brasileira. Acta Amazonica, 28(2):152-166.


Os procedimentos para o componente 1 são apresentados no Anexo 2. Ao incluir o componente 2 em coletas de biomassa, é preciso incluir as raízes. É preciso escavar, separar as raízes do tronco e pesá-las. A metodologia de coleta de amostras para as determinações dos teores (concentrações) de água e carbono é a mesma utilizada na parte aérea. Aqui também, exige-se mais transpiração do que inspiração. Equações de biomassa

Procedimentos iguais aos de volume. Aplicação da equação de biomassa

O parágrafo apresentado para o volume deve ser repetido aqui. Para o caso de biomassa, cabem ainda as seguintes considerações: (i) você estima o peso fresco; portanto, você tem que transformá-lo em peso seco e depois em carbono – basta multiplicar o peso pelas concentrações de água e carbono obtidas em laboratório; (ii) o carbono como commodity (mercadoria) em bolsas de mercadorias significa estoque e diferença de estoque; portanto, você precisa trabalhar com inventário florestal contínuo com, pelo menos, duas ocasiões; (iii) você precisa separar o peso nos três componentes definidos pelo IPCC.


Capítulo 15 Distribuição de diâmetro: Weibull versus Exponencial 15.1. Introdução: Como a altura da árvore é difícil de ser medida, com precisão, o diâmetro passa a ser a variável mais importante e mais segura para estimar o volume e a biomassa de florestas tropicais de uma região como a Amazônia. Além disso, o diâmetro consagrou-se como uma variável importante na descrição da estrutura florestal, como também na comercialização de madeira. Assim, a quantificação de distribuições de diâmetro é fundamental para o entendimento da estrutura da floresta e do estoque da floresta, que são pré-requisitos nas decisões do manejo florestal. Bailey and Dell (1973), Clutter et al. (1983) e Higuchi (1987) apresentam revisões compreensivas sobre distribuições de diâmetro. De acordo com Clutter et al. (1983) e Lawrence e Shier (1981), entre as várias distribuições estatísticas, a distribuição Weibull tem sido a mais usada pelo setor florestal, depois da distribuição exponencial. A introdução da função de distribuição Weibull aos problemas relacionados com silvicultura e manejo florestal, é atribuída à Bailey e Dell em 1973 (Zarnoch et al., 1982; Little, 1983; Clutter et al., 1983 e Zarnoch e Dell, 1985). Desde então, esta distribuição tem sido extensivamente utilizada para descrever a distribuição de diâmetro, tanto em povoamentos equianos como multianos, especialmente nos Estados Unidos. No Brasil, especialmente na floresta amazônica, a Weibull foi utilizada por Higuchi (1987), Umaña (1998), mas segundo Barros et al. (1979) e Hosokawa (1981), a distribuição mais popular é a exponencial.

15.2. As funções de distribuição de diâmetro: Nesta comparação entre Weibull e exponencial, usaremos a metodologia proposta por Zarnoch e Dell (1985), Cohen (1965) e Einsensmith (1985), respectivamente técnica dos percentis, da máxima verossimilhança e exponencial, para a obtenção estimadores (coeficientes) das funções. (i) Weibull – Máxima Verossimilhança (WMV)

A distribuição Weibull, que tem a seguinte função de densidade probabilística:

(

f ( x ) = (c b )x c −1 exp − ( x ) / b c

); para x≥0, c>0 e b>0

= 0, em outras circunstâncias

tem a seguinte função de verossimilhança para uma amostragem de n observações L (xi, ....., xn; c, b) = n (c/b) xic-1 exp (-xic/b) (1) Tirando o logaritmo de (1), teremos ln L = Σ ln [(c/b)xic-1 exp (-xic/b)] ln L = Σ [ln (c/b) + ln xic-1 – (xic/b)] ln L = n ln (c/b) + Σ (c-1) ln xi – (1/b) Σ xic Por meio da diferenciação em relação a c e b e igualando a zero as derivadas, as seguintes equações serão obtidas:


d ln L/d c = n/c + Σ ln xi – (1/b) Σ xic ln xi = 0

(2)

d ln L/d b = -(n/b) + (1/b2) Σ xic = 0 (3) Tirando b de (3), temos b = (Σ xic ) / n

(4)

e substituindo em (2), temos n/c + Σ ln xi – [1/(Σxic/n)] Σxic ln xi = 0 n [(1/c) – (Σ xic ln xi) / Σ xic] = - Σ ln xi [(Σ xic ln xi) / Σ xic] – (1/c) = (1/n) Σ ln xi

(5)

Dessa forma, o coeficiente c pode ser estimado por meio de qualquer processo iterativo ou via tentativa-e-erro para igualar os dois lados da equação (5). O coeficiente b pode ser estimado pela equação (4), depois de estimado o c. A freqüência esperada pode ser determinada através da seguinte função de distribuição cumulativa de Weibul, F(x), que, por sua vez, pode ser encontrada integrando a sua função de densidade probabilística, f(x), do DAP mínimo até o máximo (Zarnoch et al., 1982)

{[

F (x ) = 1 − exp − (x − a ) b]

c

}

ii. Weibull Percentis (PERC):

A função de Weibull usando o método dos percentis, tem a seguinte função de densidade probabilística f (x) = (c/b) [(x-a)/b)c-1 exp {-[(x-a)/b]c; para x≥a≥0, b>0 e c>0 f (x) = 0, em outras circunstâncias

(

Os parâmetros a, b e c são estimados da seguinte maneira:

a = x1 x n − x 22

) (x

1

+ x n − 2x 2 )

b = −a + x(0,63n ) c=

ln[ln(1 − p k )] [ln(1 − pi )] ln(x npk − a ) (x npi − a )

onde: x i ( i = 1, 2, ... n) = é o i-ésimo DAP em ordem crescente x 1 = é o menor DAP e x n = é o último DAP, ou seja, o maior DAP. x (0,63n) = é o DAP rankeado em ( 0,63 * número total de DAP observados). Exemplo: num conjunto de dados de 100 DAPs, x (0,63n) é o 63° DAP. p i = 0,16731 e p k = 0,97366 A freqüência esperada pode ser determinada por meio da seguinte função de distribuição cumulativa de Weibul, F(x), que, por sua vez, pode ser encontrada integrando a


sua função de densidade probabilística, f(x), do DAP mínimo até o máximo (Zarnoch et al., 1982).

{[

F (x ) = 1 − exp − (x − a ) b]

c

}

(iii) Exponencial:

As estimativas dos parâmetros da primeira ordem da função exponencial

Y = ae bx podem ser obtidos pela linearização (série de Taylor) ou por meio do método iterativo (Marquardt, por exemplo), segundo Draper e Smith (1981). O software Systat pode calcular os coeficientes pelos dois métodos. 3. Cálculo das probabilidades (freqüência esperada): caso Weibull percentis para DAP≥10 cm

P (x < 10) =

1 – {exp – [(10 – a)/b]c}

P ( 10 ≤ x < 20 ) =

{exp – [(10 – a)/b]c} - {exp – [(20 – a)/b]c}

P ( 20 ≤ x < 30 ) =

{exp – [(20 – a)/b]c} - {exp – [(30 – a)/b]c}

P ( 30 ≤ x < 40 ) =

{exp – [(30 – a)/b]c} - {exp – [(40 – a)/b]c}

etc … até o último intervalo.


3. Bibliografia:

Bailey, R.L. e T.R. Dell. 1973. Quantifying Diameter Distributions with the Weibull Function. Forest Science 19:97-104. Barros, P.L.C., S.A. Machado, D. Burger e J.D.P. Siqueira. 1979. Comparação de Modelos Descritivos da Distribuição Diamétrica em uma Floresta Tropical. Floresta 10(2):19-31. Clutter, J.L., J.C. Fortson, L.V. Pienaar, G.H. Brister e R.L. Bailey. 1983. Timber Management: A Quantitative Approach. John Wiley and Sons, Inc. New York. 333p. Cohen, A.C. 1965. Maximum Likelihood Estimation in the Weibull Distribution Based on Complete and on Censored Samples. Technometrics 7(4):579-588. Draper, N.R. e H. Smith. 1981. Applied Regression Analysis. John Wiley and Sons, Inc. New York. Segunda edição. 709p. Einsesmith, S.P. 1985. PLOTIT: User’s Guide. Higuchi, N. 1987. Short-term Growth of an Undisturbed Tropical Moist Forest in the Brazilian Amazon. Tese de Doutor, Michigan State University. 129p. Hosokawa, R.T. 1981. Manejo de Florestas Tropicais Úmidas em Regime de Rendimento Sustentado. UFPr, Relatório Técnico. Lawrence, K.D. e D.R. Shier. 1981. A Comparison of Least Squares and Least Absolute Deviation Regression Models for Estimating Weibull Parameters. Commun. Statist. – Simula Computa. B10(3):315-326. Little, S.N. 1983. Weibull Diameter Distribution for Mixed Stands of Western Confiers. Can.J.For.Res. 1:85-88. Umana, C.L.A. e Alencar, J.C. 1998. Distribuições Diamétricas da Floresta Tropical Úmida em uma Área no Município de Itacoatiara – AM. Acta Amazonica 28(2):167-190. Zarnoch, S.J. e T.R. Dell. 1973. An Evaluation of Percentile and Maximum Likelihood Estimators of Weibull Parameters. Zarnoch, S.J., C.W. Ramm, V.J. Rudolph e MW. Day. 1982. The effects of Red Pine Thinning Regimes on Diameter Distribution Fitterd to Weibull Function. MSU Agricultural Experiment Station East Lansing. RI-423. 11p.


Capítulo 16 Biomassa da Parte Aérea da Vegetação da Floresta Tropical Úmida de Terra-Firme da Amazônia Brasileira. Niro Higuchi1 , Joaquim dos Santos1 , Ralfh João Ribeiro1, Luciano Minette1 e Yvan Biot2 Resumo

Usando um banco de dados com 315 árvores, com DAP≥5 cm, foram testados quatro modelos estatísticos - linear, não linear e dois logarítmicos - para estimar a biomassa de árvores em pé. Os dados foram coletados, de forma destrutiva, na região de Manaus, Estado do Amazonas, em um sítio coberto por floresta de terra-firme sobre platôs de latossolo amarelo. Em diferentes simulações com diferentes intensidades de amostragem, os quatro modelos estimam precisamente a biomassa, sendo que o afastamento entre a média observada e a estimada, em nenhuma ocasião ultrapassou 5%. As equações para estimar a biomassa de árvores individuais em uma parcela fixa, distintamente para árvores com 5≤DAP<20 cm e com DAP≥20 cm, são mais consistentes do que o uso de uma única equação para estimar, genericamente, todas as árvores com DAP≥5 cm. O modelo logarítmico com apenas uma variável independente, o DAP, apresenta resultados tão consistentes e precisos quanto os modelos que se utilizam também da variável altura total da árvore. Além do modelo estatístico para estimar o peso da massa fresca total de uma árvore, outras informações são apresentadas, estratificadas nos diferentes compartimentos (tronco, galho grosso, galho fino, folhas e, eventualmente, flores e frutos) de uma árvore, como: concentração de água para estimar o peso da massa seca, concentração carbono e a contribuição do peso de cada compartimento no peso total. palavras-chaves: Carbono, manejo florestal, modelo estatístico. Aboveground Biomass of the Brazilian Amazon Rainforest Abstract

Data set with 315 trees with diameter at breast height (dbh) greater than 5 cm was used to test four statistical models - linear, non-linear and two logarithmics - to estimate aboveground biomass of standing trees. The data were collected destructively in Manaus region, Central Amazonia, in a site covered by a typical dense “terra-firme” moist forest on plateaus dominated by yellow latosols. The difference between observed and estimated biomass was always below 5%. The logarithmic model using a single independent variable (dbh) produced results as consistent and precise as those with double-entry (dbh and total height). Besides statistical models to estimate aboveground biomass, the following information are also presented in this paper: the contribution of each tree compartment (stem, branch, twigs, leaves and flowers or fruits) to the total weight of a standing tree, water concentration to estimate the dry weight and carbon concentration of each tree compartment. Key words: Carbon, forest management, statistical model

1

Instituto Nacional de Pesquisas da Amazônia - Cx. Postal, 478 - Manaus - Am. U. K. Overseas Development Administration (ODA). Victoria Street, 94 - London. SW1E5JL England. 2


Introdução:

O objetivo deste trabalho é o desenvolvimento de modelos estatísticos para estimar a biomassa individual, de árvores em pé, de espécies da floresta densa de terra-firme, região de Manaus (AM), assim como a apresentação de informações necessárias para a conversão de massa fresca para massa seca e de biomassa para estoque de carbono. São testados quatro modelos, linear, não-linear e dois logarítmicos, tendo como variável dependente, o peso da massa fresca (não seca) e, como variáveis independentes, diâmetro à altura do peito (DAP) e altura total, de árvores individuais. O principal atributo dos modelos testados é o tamanho da árvore e, por esta razão, têm que absorver a alta diversidade florística e as diferentes associações botânicas, distribuições espaciais e densidades da madeira (intra e interespecíficas), da vegetação de terra-firme. As estimativas de biomassa florestal são informações imprescindíveis nas questões ligadas, entre outras, às áreas de manejo florestal e de clima. No primeiro caso, a biomassa está relacionada com os estoques de macro e micronutrientes da vegetação, que são obtidos pelo produto da massa pelas concentrações de cada mineral. No caso do clima, a biomassa é usada para estimar os estoques de Carbono, que, por sua vez, são utilizados para estimar a quantidade de CO2 que é liberada à atmosfera durante um processo de queimadas. O manejo florestal está associado ao uso sustentável dos recursos florestais existentes, para atender às demandas da sociedade, por produtos madeireiros e não-madeireiros. Tratando-se de Amazônia, os cuidados têm que ser redobrados porque estes recursos estão em ecossistemas heterogêneos, complexos e frágeis. Os solos da Amazônia são antigos e, em sua maioria, pobres em nutrientes (especialmente para a agropecuária) e ácidos. A contrastante exuberância de sua cobertura florestal está associada às estratégias de conservação e de ciclagem de nutrientes dentro do próprio sistema. É importante conhecer a distribuição de nutrientes nos diferentes compartimentos (tronco, galho, casca, folha), para controlar a exportação dos mesmos pela colheita florestal e entrada via “inputs” atmosféricos e, com isto, minimizar os impactos ambientais da produção madeireira. Para as questões climáticas, há grande interesse em quantificar a biomassa que é convertida, principalmente em dióxido de carbono, pelas diferentes formas de uso do solo amazônico (Fearnside et al., 1993, Foster Brown et al., 1995, Higuchi & Carvalho Jr., 1994, Skole et al., 1994, Schroeder & Winjum, 1995 e Fearnside, 1996). Esta informação é necessária para uma correta avaliação da contribuição dos projetos de desenvolvimento da região, no processo de mudanças climáticas globais, no âmbito da Convenção do Clima, assinada pelo Governo Brasileiro durante a Conferência das Nações Unidas sobre Desenvolvimento e Meio Ambiente, Rio-92. As estimativas de biomassa, atualmente disponíveis na literatura, dos diversos tipos florestais da Amazônia, vêm de estudos que se utilizam de métodos diretos e indiretos. O método direto consiste na derrubada e pesagem de todas as árvores que ocorrem em parcelas fixas, fornecendo estimativas, que segundo Brown et al. (1989), não são confiáveis porque baseiam-se em poucas parcelas, pequenas e tendenciosamente escolhidas. No método indireto, as estimativas têm sido produzidas a partir de dados de inventários florestais, que foram executados com a finalidade de planejar a exploração e o manejo florestal, sendo o volume da madeira, a principal variável. Neste método, a biomassa é estimada a partir do volume da madeira, usando-se a densidade média da madeira e um fator de correção para árvores com DAP < 25 cm. Estes dois métodos ainda geram muita polêmica e controvérsias e produzem estimativas desencontradas, mesmo quando se usa o mesmo banco de dados (Fearnside et al., 1993, Brown et al., 1989 e Higuchi et al., 1994 e Foster Brown et al., 1995). A tabela 1 ilustra


o que foi posto anteriormente. Esta tabela foi parcialmente reproduzida de FEARNSIDE et al. (1993), considerando apenas a biomassa viva acima do nível do solo. São produzidas estimativas diferentes, com o passar do tempo, pelos mesmos autores e para o mesmo banco de dados (montado nos anos 70). Além disso, Foster Brown et al. (1995) criticam estes bancos de dados, afirmando que as alturas das árvores foram obtidas sem aparelhos de medição e que, estes erros não amostrais não são mencionados. O consenso existente entre os pesquisadores que trabalham com biomassa é de que é praticamente impossível determinar a biomassa de cada árvore, pelo método direto, ao executar um inventário florestal. Por esta razão, os recursos da análise de regressão para o desenvolvimento de modelos estatísticos, para estimar a biomassa de árvores em pé, devem ser empregados para superar este problema. Salomão et al. (1996) citam apenas dois modelos estatísticos utilizados na Amazônia; um proposto por Sandra Brown e colaboradores e, outro, proposto por Christopher Uhl e colaboradores. O primeiro requer o conhecimento da densidade da madeira de cada indivíduo, que é praticamente impossível obte-la durante o inventário; e o segundo, é recomendado para florestas secundárias. Além destes, há o modelo de Overman et al. (1994), para a floresta amazônica colombiana, desenvolvido principalmente para árvores de pequenos diâmetros. Materiais e Métodos (i) Coleta de Dados:

Os dados foram coletados na Estação Experimental de Silvicultura Tropical (EEST) do INPA, aproximadamente 90 km ao norte de Manaus, em áreas derrubadas para experimentos com liberação de dióxido de carbono, usando-se queimadas tradicionalmente praticadas por pequenos produtores da região, e em áreas especialmente designadas para esta pesquisa. Nos dois casos foram escolhidas áreas de platôs sobre latossolo amarelo. Estes dados constituem o banco de dados de biomassa do INPA. No total, foram derrubadas e pesadas 315 árvores-amostras com DAP≥5 cm. O peso total de todos os indivíduos amostrados foi compartimentado em tronco e copa (incluindo galhos e folhas e, eventualmente, frutos). Além do peso da árvore, foram também medidos o DAP, altura total, altura comercial, altura da copa e diâmetro da copa. A distribuição de freqüência e a estatística descritiva dos dados observados encontram-se nas tabelas 2a e 2b). Na tabela 2c observam-se as estatísticas descritivas para as variáveis DAP, altura total e peso total, quando os dados são divididos em algumas classes de diâmetro. Nesta tabela fica evidente que a variável peso total tem uma variabilidade natural bem maior que as outras duas variáveis, mesmo em mais classes de diâmetro. Para obtenção das concentrações de água e nutrientes de cada compartimento da árvores, 38 indivíduos (dos 315 amostrados) foram coletados diferentemente, baseando-se no esquema apresentado por Higuchi & Carvalho Jr. (1994) e Santos (1996). Foram retiradas amostras (discos) a 0% (base), 25, 50, 75 e 100% (topo) do tronco e do galho grosso (diâmetro de base≥10 cm). Do tronco foi retirado também um disco à altura do DAP. Todos os discos retirados foram imediatamente pesados e enviados ao laboratório para secagem em estufas calibradas a 105o C. O mesmo procedimento foi adotado para os galhos finos e folhas, mas que em vez de discos, foram retiradas, de várias partes da copa, amostras de 5 e 3 kg, respectivamente. A estimativa da concentração de carbono na vegetação das espécies mais abundantes, no sítio estudado, foi feita tendo ainda as amostras coletadas por Higuchi & Carvalho Jr. (1994). O peso total de cada uma destas 38 árvores foi compartimentado em tronco, casca, galho grosso, galho fino (diâmetro<10 cm), folha e, eventualmente, flores e frutos. Além


destas concentrações, a coleta compartimentada permite ainda a determinação da contribuição de cada um dos compartimentos no peso total da árvore. A estatística descritiva destes dados e a contribuição de cada compartimento no peso total e a porcentagem do Peso da massa fresca que é transformado em Peso da massa seca, visualizam-se nas tabelas 3a e 3b. Um desdobramento da pesquisa de Nutrientes é o estudo de densidade da madeira (g/cm ), nos sentidos base-topo e casca-medula da árvore (utilizando-se das amostras coletadas a 0, 25, 50, 75 e 100% da altura comercial e do DAP). Resultados preliminares deste estudo encontram-se na tabela 4, de 12 árvores analisadas. 3

O banco de dados de biomassa do INPA vem sendo completado ao longo do tempo e já foi utilizado preliminarmente por Higuchi et al. (1994), Higuchi & Carvalho Jr. (1994), Araújo (1995) e Santos (1996). (ii) Modelos Testados:

Os modelos estatísticos foram selecionados a partir do trabalho de SANTOS (1996), que testou 34 diferentes modelos em diferentes combinações. O banco de dados foi dividido em dois, para árvores com 5≤DAP<20 cm e DAP≥20 cm. Foram testados os seguintes modelos estatísticos, para todas as árvores com DAP≥5 cm, equação única, e para as duas classes de tamanho, (a) 5≤DAP<20 cm e (b) DAP≥20 cm: 1. ln Pi = β0 + β1 ln Di + ln εi 2. ln Pi = β0 + β1 ln Di + β2 ln Hi + ln εi 3. Pi = β0 + β1 Di2Hi + εi 4. Pi = β0 D β1 H β2 + εi para i = 1, 2, ... 315 - equação única i = 1, 2, ... 244 - equação (a) i = 1, 2, ... 71 - equação (b) onde: Pi = peso da massa fresca de cada árvore, em quilograma (para modelos 1, 2 e 4) e em toneladas métricas (para o modelo 3). Di= diâmetro à altura do peito de cada árvore, DAP, em centímetros (para modelos 1, 2 e 4) e em metros (para o modelo 3) Hi = altura total de cada árvore, em metros β0, β1 e β2 = coeficientes de regressão εi = erro aleatório ln = logarítimo natural Os modelos estatísticos propostos por Brown e Lugo (Foster Brown et al., 1995, Salomão et al., 1996) e aqueles que apresentaram os melhores resultados no trabalho de Saldarriaga et al. (1988), que incluem densidade da madeira, não foram testados porque esta variável é de difícil obtenção para cada indivíduo em pé. Além disso, segundo Higuchi & Carvalho Jr. (1994), a densidade da madeira (g/cm3) apresenta significativas variações intra e inter-específicas. Pelas mesmas razões, Overman et al. (1994) descartam esta variável, apesar do bom desempenho dos modelos que a contém.


Na tabela 4, onde visualizam-se as densidades de 12 árvores, observa-se que: a menor densidade é de 0,480 e a maior é de 1,031; a densidade tende a diminuir no sentido base-topo; a densidade média, considerando base-topo, é de 0,756; e esta última variável é sempre menor que a densidade média obtida na altura do DAP. A densidade média do DAP é igual a 0,803, que, por sua vez, é diferente de todas as estimativas fornecidas por Foster Brown et al. (1995) e a de Saldarriaga et al. (1988). As variações no sentido casca-medula também são significativas (Higuchi & Carvalho Jr., 1994). (iii) Escolha do Melhor Modelo Estatístico:

Para a escolha do melhor modelo estatístico visando-se estimar a biomassa em pé da área em estudo, foram adotados os procedimentos tradicionais da ciência florestal, que são: maior coeficiente de determinação, menor erro padrão de estimativa e melhor distribuição dos resíduos (Santos, 1996). Além destes procedimentos, foram simuladas amostras de diferentes intensidades, para testar a consistência dos modelos na estimativa da biomassa. Foram tomadas 15 amostras com 50 árvores selecionadas aleatoriamente do banco de dados original; 10 amostras com n = 100; 5 amostras com n = 200; e 5 amostras com n = 300. Resultados e Discussão:

Do trabalho de Higuchi & Carvalho Jr. (1994), as seguintes informações quantitativas do sítio estudado são importantes para uma melhor interpretação destes resultados e para futuras comparações com outros sítios: - Em uma parcela fixa de 2.000 m2, o peso da biomassa fresca distribui-se da seguinte maneira, em relação ao peso total: a vegetação (exceto cipós) com DAP≥5 cm contribui com 86,9% do peso total; a vegetação com DAP<5 cm contribui com 2,4%; os cipós contribuem com 1,3% e a liteira (toda a vegetação morta sobre a superfície do solo) contribui com 9,4%. - Os teores médios de carbono são os seguintes: tronco (48%), galhos grossos (48%), galhos finos (47%), folhas (39%), plântulas - até 50 cm de altura - (47%), mudas - altura>50 cm e DAP<5 cm - (49%), cipós (48%) e liteira (39%). Os coeficientes de regressão e de determinação e os erros padrões de estimativa de todos os quatro modelos estatísticos testados (árvores com DAP≥5 cm), incluindo as variações (a) para árvores com 5≤DAP<20 cm e (b) DAP≥20 cm, verificam-se na tabela 5. De um modo geral, os quatro modelos (incluindo as variações a e b) estão aprovados nos quesitos coeficiente de determinação (r2) e erro padrão de estimativa (sy.x) e, por esta razão, poderiam ser utilizados para estimar a biomassa de árvores em pé da área em estudo. Todos os modelos apresentam coeficientes de correlação (r) altamente significantes (α<0,01). De um modo geral, os modelos únicos para árvores com DAP ≥ 5 cm apresentam os maiores coeficientes de determinação (r2), exceto para o modelo 3. Com relação ao (sy.x), o modelo 4 é o que tem o melhor desempenho, apresentado os menores erros, seguido do modelo 2. Combinando as equações a e b, no mesmo banco de dados, os erros (em quilogramas) produzidos foram: 949, 693, 356 e 537, respectivamente para os modelos 1, 2, 3 e 4. Nesta situação, o melhor desempenho é do modelo 3, seguido do modelo 4. O exame da distribuição dos resíduos mostra que os modelos 1, 2 e 3 não apresentam nenhum padrão, distribuindo-se aleatoriamente ao longo do eixo da biomassa observada e estimada, ordenada de forma crescente pela variável DAP. O modelo 4, no entanto, apresenta um claro padrão, aumentando os desvios conforme aumentam os DAP’s. As equações resultantes são: Modelo 1:


- Equações a & b: (a) ln P = -1,754 + 2,665 ln D; para 5≤DAP<20 cm (b) ln P = -0,151 + 2,170 ln D; para DAP≥20 cm - Equação única: ln P = -1,497 + 2,548 ln D; para para DAP≥5 cm Modelo2:

- Equações a & b: (a) ln P = -2,668 + 2,081 ln D + 0,852 ln H; para 5≤DAP<20 (b) ln P = -2,088 + 1,837 ln D + 0,939 ln H; para DAP≥20 cm - Equação única: ln P = -2,694 + 2,038 ln D + 0,902 ln H; para DAP≥5 cm Modelo 3:

- Equações a & b: (a) P = 0,0056 + 0,621 D2H; para 0,05≤DAP<0,20 m (b) P = 0,393 + 0,473 D2H; para DAP≥0,20 m - Equação única: P = 0,077 + 0,492 D2H; para DAP≥0,05 m Modelo 4:

- Equações a & b: (a) P = 0,0336 * D2,171*H1,038; para 5≤DAP<20 cm (b) P = 0,0009 * D1,585*H2,651; para DAP≥20 cm - Equação única: P = 0,001 * D1,579*H2,621; para DAP≥5 cm A verificação da consistência de cada um dos modelos estatísticos para estimar a biomassa em pé, sobre amostras simuladas (tiradas aleatoriamente do banco de dados original), encontram-se na tabela 6. Nesta tabela verificam-se as médias observadas e estimadas em cada simulação. A análise é feita sobre o afastamento da média estimada em relação à observada, em percentagem, utilizando-se equações distintas para estimar a biomassa de árvores com 5≤DAP<20 cm e DAP≥20 cm e uma única equação para todas as árvores contidas na amostra com DAP≥5 cm. (i) Modelo 1:

- Usando as equações a e b, para estimar a biomassa do banco de dados original, a média estimada afasta-se -1,9% da média observada, ou seja, o desvio7 é de -1,9%. Quando utiliza-se uma só equação para estimar a biomassa das duas classes de diâmetro, o desempenho anterior não é repetido, apresentando um desvio de +16%. Excepcionalmente, na simulação com n = 50, o uso de uma só equação resulta em um desvio médio de +2,8%, que poderia ser considerado bom se não fosse a amplitude de variação entre o menor e o maior desvio, que foi de 0,1 a 24,9%. - Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n = 300, n = 200 e n = 100, respectivamente, com desvios de -1,9% (1,6 e 2,3, menor e maior desvio, em valores absolutos), +0,5% (2,7 e 11,6) e +2,6% (3,7 e 22,1). A simulação com n = 50, o desvio médio é de -10,2%. - A equação única para estimar a biomassa, usando este modelo estatístico, não é alternativa para as duas equações, ou seja, o uso deste modelo requer as duas equações para estimar a biomassa de árvores com 5≤DAP<20 cm e DAP≥20 cm, separadamente. 7

Desvio é afastamento, em %, do peso médio estimado pelas diferentes equações, em relação ao peso médio observado. Entre parêntesis, os desvios aparecem em valores absolutos e o primeiro é sempre o menor e, o segundo, o maior desvio.


- Trata-se de um modelo com apenas o DAP como variável independente, que é uma variável fácil de ser medida no campo, sem erros não amostrais. O único problema deste modelo é que o peso será sempre o mesmo, para um determinado diâmetro, independentemente da altura da árvore, da espécie e de outros atributos da árvore. (ii) Modelo 2:

- Usando as equações a e b, para estimar a biomassa do banco de dados original, a média estimada afasta-se -3,6% da média observada. Quando utiliza-se uma só equação para estimar a biomassa das duas classes de diâmetro, o seu desempenho é melhor do que o anterior, com desvio de +2,9%. - Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n = 300, n = 200 e n = 100, respectivamente, com desvios de -3,6% (3,2 e 4,3, menor e maior desvio, em valores absolutos), -1,8% (5,2 e 6,7) e -1,1% (0,9 e 12,7). A simulação com n = 50, o desvio médio é de –9,4%. O uso de uma só equação tem um desempenho razoável para todas as simulações, que exceto para n = 50, apresenta desvio menor do que quando se utilizam as equações a e b. - Apesar do bom desempenho da equação única, em relação aos desvios médios, onde as diferenças são negligíveis, as amplitudes de variação dos mesmos nas equações a e b são menores, sendo, por esta razão, mais apropriadas para a estimativa da biomassa. - A incorporação da altura total neste modelo permite estimar diferentes pesos para iguais DAP’s, ao contrário do modelo 1. (iii) Modelo 3:

- Usando as equações a e b, para estimar a biomassa do banco de dados original, a média estimada afasta-se +1,2% da média observada. Quando se utiliza uma só equação para estimar a biomassa das duas classes de diâmetro, o seu desempenho é melhor do que o anterior, com desvio de +0,1%. Apesar de um claro padrão na distribuição dos resíduos, este modelo tem uma boa capacidade de compensação quando se utiliza todo o banco de dados, tanto com as equações a e b como com a equação única para as duas classes de diâmetro. - Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n = 300, n = 200, n = 100 e n = 50, respectivamente, com desvios de +1,2% (0,4 e 1,6, menor e maior desvio, em valores absolutos), +3,1% (1,1 e 1,7), +3,8% (0,8 e 20,3) e -4,8% (0,4 e 19,4). O uso de uma só equação tem um desempenho tão consistente quanto ao anterior, com desvios de +0,1% (0,2 e 0,9), +2,2% (0,6 e 11,5), +2,4% (0,7 e 17,6) e -6,8% (0,4 e 16,2), respectivamente para n = 300, n = 200, n = 100 e n = 50. - A equação única para este modelo é a melhor alternativa para estimar a biomassa, principalmente considerando apenas a estimativa da biomassa média de uma parcela fixa, sem preocupar-se com as estimativas individuais. Em todos os tamanhos da amostragem, esta equação demonstrou-se bastante consistente e precisa. - Sem preocupar-se com as estimativas individuais, prestando atenção apenas no total ou na média das parcelas fixas, este é o melhor modelo entre os testados. De um modo geral, este modelo superestima o peso das menores classes de diâmetro. Para grandes inventários para estimativa de biomassa, este modelo é o mais preciso. (iv) Modelo 4:

- Usando as equações a e b, para estimar a biomassa do banco de dados original, a média estimada afasta-se -4,6% da média observada. Quando utiliza-se uma só equação para


estimar a biomassa das duas classes de diâmetro, o desempenho anterior não é repetido, com desvio de -7,3%. - Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n = 300, n = 200, n = 100 e n = 50, respectivamente, com desvios de -4,3% (3,4 e 5,1, menor e maior desvio, em valores absolutos), +0,3% (0,6 e 3,7), -4,0% (1,2 e 7,6) e -7,7% (4,2 e 16,1). O uso de uma só equação tem um desempenho inferior a todos os outros modelos testados e, por esta razão, não é uma alternativa para as duas equações. Neste caso, a opção tem que ser pelas duas equações, 4 a para árvores com 5≤DAP<20 cm e 4b para DAP≥20 cm. - De todos os modelos testados, este modelo é o que apresenta as menores amplitudes de variação, demonstrando uma boa consistência na estimativa da biomassa. É um modelo bastante conservador e que apresenta poucas surpresas na estimativa da biomassa das diferentes classes de diâmetro. Considerações finais:

1. Os quatro modelos estatísticos testados produzem estimativas confiáveis de biomassa de árvore em pé, todos com desvios inferiores a 5% em relação à média. 2. As equações distintas para árvores com 5≤DAP<20 cm e com DAP≥20 cm são mais consistentes que a equação única para todas as árvores com DAP≥5 cm. 3. Dentre os modelos testados, os melhores são os modelos 1 e 4, respectivamente com as seguintes equações: (a) ln P = -1,754 + 2,665 ln D; para 5≤DAP<20 cm (b) ln P = -0,151 + 2,170 ln D; para DAP≥20 cm

e (a) P = 0,0336 * D2,171*H1,038; para 5≤DAP<20 cm (b) P = 0,0009 * D1,585*H2,651; para DAP≥20 cm

- O modelo 1 tem a vantagem de ser dependente de apenas uma variável, o DAP, que é uma variável fácil de ser medida no campo, com poucos riscos de erros não amostrais; - O modelo 4 tem a vantagem de ser muito consistente e de poder estimar mais realisticamente árvores individuais, com mesmos DAP’s e diferentes alturas. Além disso, este modelo já foi preliminarmente utilizado por Araújo (1995), em Tomé-Açu (Pará), para confrontar com os resultados obtidos pelo método direto. Em Tomé-Açu, a biomassa estimada por este modelo ficou também a menos de 5% da observada. 4. A eficiência das equações está associada à utilização de parcelas fixas para o inventário de biomassa de um determinado sítio, com as dimensões mínimas recomendadas para os inventários florestais na Amazônia. 5. O peso do tronco seco corresponde a 61% de seu peso antes da secagem; e o da copa corresponde a 58% de seu peso fresco. 6. Do peso total de uma árvore, 65,6% é tronco e 34,4% é copa. A contribuição de cada compartimento da árvore em seu peso total é a seguinte: tronco (65,6%), galho grosso (17,8%), galho fino (1,5%), folhas (2,03%) e flores/frutos (0,01%). 7. Os teores médios de carbono são os seguintes: tronco (48%), galhos grossos (48%), galhos finos (47%) e folhas (39%).


Tabela 1: Algumas estimativas de biomassa para a floresta densa da Amazônia brasileira*. Tipo de floresta Densa (RADAMBRASIL)

local Amazônia

biomassa (t) fonte 268 Brown & Lugo (1992a) ) – cf. fonte* Densa (FAO) Amazônia 162 Brown & Lugo (1992a) - cf. fonte* Densa (RADAMBRASIL) Amazônia 289 Brown & Lugo (1992b) - cf. fonte* Densa (FAO) Amazônia 227 Brown & Lugo (1992b) - cf. fonte* Densa (presente) Amazônia 12.3 Fearnside (1992a) - cf. fonte* Densa (presente) Amazônia 319.9 Fearnside (unpub. 1993) - cf. fonte* (*) Fonte: parcialmente reproduzida de Fearnside et al. (1993) Tabela 2: Banco de Dados de Biomassa, do INPA (n = 315). (a) Distribuição de Freqüência dos Dados Observados (n = 315). Limites de classe 5 < 10 10 < 20 20< 30 30< 40 40< 50 50< 60 60< 70 70< 80 80< 90 90< 100 100< 110 110< 120 ≥120 total

Freq. 154 90 28 18 9 8 3 3 0 1 0 0 1 315

% 48,89 28,57 8,89 5,71 2,86 2,54 0,95 0,95 0,32 0,32 100

(b) Estatística Descritiva dos Dados Observados: variável DAP (cm) H-total (m) H-com (m) P-tronco (kg) P-copa (kg) P-total (kg) copa (%)

média 16,0 17,0 10,7 476,3 306,4 782,7 31

desvio 15,3 7,7 5,2 1299,3 1031,5 2271,1 1

CV(%) 96 45 49 273 337 290 45

Mínimo 5,0 5,6 2,4 4,5 0,6 9,1 2

máximo 120,0 41,4 26,1 12736,5 12897,9 25634,4 70


(c) Estatística Descritiva dos Dados Observados, Divididos em Algumas Classes de Diâmetro: Classes de diâmetro 5 < 10 10 < 15 15 < 20 20 < 30 30 < 50 >= 50

número casos 154 62 28 28 27 16

DAP média CV(%) 7,0 20 12,0 12 17,5 9 23,6 11 37,2 1 65,9 29

altura Total média CV(%) 11,4 27 16,4 20 20,8 18 23,7 1 29,3 11 34,1 10

Peso Total média CV(%) 35,7 68 15,0 42 407,5 34 852,0 43 2449,2 35 8205,4 72

Tabela 3: Dados Utilizados para estudos de Nutrientes (n = 38). (a) Estatística Descritiva dos Dados Observados: variável DAP (cm) alt. total (m) alt. com (m) P-tronco (kg) P-copa (kg) P-total (kg) copa (%)

média 39,9 28,8 17,3 217,4 1595,3 3742,6 34

desvio 20,3 6,0 3,7 2449,1 2429,5 3005,4 1

CV(%) 51 56 22 11 152 128 22

Mínimo 9,5 11,4 7,5 48,7 15,2 63,9 9

máximo 98,0 41,4 25,0 12736,5 12898,3 25634,4 63

(b) Contribuição de cada compartimento (tronco, galho grosso, galho fino, folhas e flor/frutos) no peso total de uma árvore e % do PF de cada um que é transformado em PS: PESOS

tronco g.grosso g.fino folhas flor/frutos TOTAL m 217,36 1109,68 434,24 50,30 1,07 3742,61 VERDE s 2449,1 1985,66 432,65 48,87 5,41 4793,77 n 38 38(34) 38 38 38(8) 38 m 65,60 17,83 1,52 2,03 0,01 % total s 1,19 1,43 7,21 1,28 0,03 n 38 38(34) 38 38 38(8) m 101,65 665,63 246,64 23,58 0,80 2238,30 SECO s 1552,45 1243,55 253,6 23,01 4,60 3005,38 n 38 38(34) 38 38 38(8) 38 m 61,11 60,56 57,22 47,56 36,73 60,28 % PF s 8,27 7,98 5,75 7,21 20,62 7,41 n 38 34 38 38 8 38 m = média aritmética; s = desvio padrão amostral; n = número de observações. % total = contribuição do peso de cada compartimento da árvore em relação ao seu peso total. % PF = é % do Peso Fresco da árvore ou do compartimento que corresponde ao Peso Seco.


Tabela 4: Informações sobre Densidade da Madeira. Espécie 1 2 3 4 5 6 7 8 9 10 11 12 média desvio mín. máx.

0% 0,856 0,696 0,879 0,536 0,681 0,818 0,725 1,027 0,891 0,571 1,077 0,891 0,804 0,167 0,536 1,077

25% 0,790 0,697 0,903 0,521 0,678 0,807 0,707 0,990 0,870 0,533 1,033 0,870 0,783 0,163 0,521 1,033

50% 0,757 0,683 0,866 0,509 0,640 0,806 0,711 0,946 0,862 0,485 1,000 0,807 0,756 0,159 0,485 1,000

75% 0,753 0,650 0,741 0,499 0,640 0,653 0,693 0,929 0,862 0,445 0,987 0,716 0,71 0,159 0,445 0,987

100% 0,718 0,684 0,724 0,471 0,615 0,704 0,704 0,961 0,846 0,367 1,056 0,846 0,725 0,191 0,367 1,056

média 0,775 0,682 0,823 0,507 0,651 0,758 0,708 0,971 0,866 0,480 1,031 0,826 0,756 0,165 0,480 1,031

DAP 0,824 0,706 0,91 0,546 0,700 0,838 0,717 1,015 0,896 0,528 1,059 0,896 0,803 0,168 0,528 1,059

Tabela 5: Coeficientes de Regressão e de Determinação, Erro Padrão de Estimativa dos Modelos Estatísticos para Estimar a Biomassa (Peso total) de Árvores em pé. b1 B2 r2 Modelo b0 1 -1,497 2,548 0,97 1a -1,754 2,665 0,92 1b -0,151 2,170 0,90 2 -2,694 2,038 0,902 0,98 2a -2,668 2,081 0,852 0,95 2b -2,088 1,837 0,939 0,91 3 0,077 0,492 0,90 3a 0,0056 0,621 0,94 3b 0,393 0,473 0,86 4 0,001 1,579 2,621 0,94 4a 0,0336 2,171 1,038 0,94 4b 0,0009 1,585 2,651 0,92 b0, b1 e b2 = estimadores dos parâmetros β0, β1 e β2, respectivamente. r 2 = coeficiente de determinação ajustado ry.x = erro padrão de estimativa.

sy.x 1729 43 2035 812 35 197 716 34 1508 540 31 1159

- modelo 1: ln Pi = b0 + b1 ln Di; sendo (1) para DAP≥5 cm e i = 1,..., 315; (1a) para 5≤DAP<20 cm e i = 1,..., 244; e (1b) para DAP≥20 cm e i = 1,..., 71. - modelo 2: ln Pi = b0 + b1 ln Di + b2 ln Hi; sendo (2) para DAP≥5 cm e i = 1,..., 315; (2a) para 5≤DAP<20 cm e i = 1,..., 244; e (2b) para DAP≥20 cm e i = 1,..., 71. - modelo 3: Pi = b0 + b1 Di2Hi; sendo (3) para DAP≥0,05 m e i = 1,..., 315; (3a) para 0,05≤DAP<0,20 m e i = 1,..., 244; e (3b) para DAP ≥ 0,20 m e i = 1,..., 71. - modelo 4: Pi = b0 D b1 H b2; sendo (1) para DAP≥5 cm e i = 1,..., 315; (1a) para 5≤DAP<20 cm e i = 1,..., 244; e (1b) para DAP≥20 cm e i = 1,..., 71.


Tabela 6: Resumo das simulações utilizando diferentes intensidades de amostragem (tomadas aleatoriamente do banco de dados). Biomassa (observada e estimada) observada banco de dados modelo 1 modelo 2 (n = 315) modelo 3 modelo 4 observada amostra com n = 300 modelo 1 modelo 2 (5 repetições) modelo 3 modelo 4 observada amostra com n = 200 modelo 1 modelo 2 (5 repetições) modelo 3 modelo 4 observada amostra com n = 100 modelo 1 modelo 2 (10 repetições) modelo 3 modelo 4 observada amostra com n = 50 modelo 1 modelo 2 (15 repetições) modelo 3 modelo 4

Observada equações a & b equação única 782,7 768,2 [ -1,9 ] 907,7 [+16,0 ] 754,6 [ -3,6 ] 805,2 [ +2,9 ] 792,1 [ +1,2 ] 783,3 [ +0,1 ] 746,9 [ -4,6 ] 725,3 [ -7,3 ] 794,1 779,1 [ -1,9 ] 924,1 [ +16,4 ] 765,5 [ -3,6 ] 817,0 [ +2,9 ] 803,3 [ +1,2 ] 794,7 [ +0,1 ] 760,2 [ -4,3 ] 738,9 [ -7,0 ] 784,2 788,3 [ +0,5 ] 944,2 [ +20,4 ] 770,0 [ -1,8 ] 826,4 [ +5,4 ] 808,1 [ +3,1 ] 801,3 [ +2,2 ] 786,3 [ +0,3 ] 740,2 [ -5,6 ] 844,8 866,9 [ +2,6 ] 1052,4 [ +24,6 ] 835,4 [ -1,1 ] 900,5 [ +6,6 ] 876,6 [+3,8 ] 865,1 [ +2,4 ] 811,3 [ -4,0 ] 790,8 [ -6,4 ] 836,2 750,8 [ -10,2 ] 859,3 [ +2,8 ] 757,2 [ -9,4 ] 799,8 [ -4,4 ] 795,8 [ -4,8 ] 779,1 [ -6,8 ] 771,8 [ -7,7 ] 750,8 [ -10,2 ]


Bibliografia

Araújo, T.M. 1995. Investigação das Taxas de Dióxido de Carbono Gerado em Queimadas na Região Amazônica. Tese de Doutorado, Universidade Estadual Paulista, Faculdade de Engenharia de Guaratinguetá, 212 p.. Brown, S., A.J.R. Gillespie e A.E. Lugo. 1989. Biomass Estimation Methods for Tropical Forests with Applications to Forest Inventory Data. Forest Science, 35(4):881-902. Carvalho Jr., J.A., J.M. Santos, J.C. Santos, M.M. Leitão e N. Higuchi. 1995. A Tropical Rainforest Clearing Experiment by Biomass Burning in the Manaus Region. Atmospheric Environment 29(17):2301-2309. Fearnside, P.M., N. Leal Filho e F.M Fernandes. 1993. Rainforest Burning and the Global Budget: Biomass, Combustion Efficiency, and Charcoal Formation in the Brazilian Amazon. J. of Geophysical Research, 98(D9):16733-16743. Fearnside, P.M. 1996. Amazonian Deforestation and Global Warming: Carbon Stocks in Vegetation Replacing Brazil’s Amazon Forest. Forest Ecology and Management 80:2134. Foster Brown, I., D.C. Nepstad, I.O. Pires, L.M. Luz e A.S. Alechandre. 1992. Carbon Storage and Land-use in Extractive Reserves, Acre, Brazil. Environmental Conservation 19(4):307-315. Foster Brown, I., L.A. Martinelli, W. Wayt Thomas, M.Z. Moreira, C.A. Cid Ferreira e R.A. Victoria. 1995. Uncertainty in the Biomass of Amazonian Forests: an Example from Rondônia, Brazil. Forest Ecology and Management, 75:175-189. Higuchi, N. e J.A. Carvalho Jr. 1994. Fitomassa e Conteúdo de Carbono de Espécies Arbóreas da Amazônia. Em: Anais do Seminário “Emissão x Seqüestro de CO2 - Uma Nova Oportunidade de Negócios para o Brasil”:127-153. Higuchi, N., J.M. dos Santos, M. Imanaga e S. Yoshida. 1994. Aboveground Biomass Estimate for Amazonian Dense Tropical Moist Forests. Memoirs of the Faculty of Agriculture, Kagoshima, 30(39):43-54. Overman, J.P.M., H.J.L. Witte e J.G. Saldarriaga. 1994. Evaluation of Regression Models for Above-ground Biomass Determination in Amazonia Rainforest. Forest Ecology and Management, 10:207-218. Saldarriaga, J.G., D.C. West, M.L. Tharp e C. Uhl. 1988. Long-term Chronosequence of Forest Sucession in the Upper Rio Negro of Colombia and Venezuela. Journal of Ecology 76:938-958. Salomão, R.P., D.C. Nepstad e I.C.G. Vieira. 1996. Como a Biomassa de Florestas Tropicais Influi no Efeito Estufa. Ciência Hoje, 21(122):38-47. Santos, J. dos. 1996. Análise de Modelos de Regressão para Estimar a Fitomassa da Floresta Tropical Úmida de Terra-firme da Amazônia Brasileira. Tese de Doutorado, Universidade Federal de Viçosa, 121 p.. Schroeder, P.E. e J.K. Winjum. 1995. Assessing Brazil’s Carbon Budget: II. Biotic Fluxes and Net Carbon Balance. Forest Ecology and Management, 75(87-99). Skole, D.L., W.H. Chomentowski, W.A. Salas e A.D. Nobre. 1994. Physical and Human Dimensions of Deforestation in Amazonia. BioScience, 44(5):31-321.


Capítulo 17 Cadeia de Markov para predizer a dinâmica da floresta amazônica 17.1. Introdução: Estudar a dinâmica da floresta tropical úmida amazônica, manejada ou não, é um grande desafio para os florestais. Os modelos clássicos de produção florestal foram desenvolvidos para florestas temperadas e têm como principais variáveis, o índice de sítio e idade da árvore ou do povoamento (Sullivan e Clutter, 1972; Ferguson e Leech, 1978; Alder, 1980; Smith, 1983 e Clutter et al., 1983). Essas duas variáveis são limitantes para o desenvolvimento de modelos de produção para as florestas da Amazônia porque são praticamente indisponíveis para o setor florestal, num curto prazo. Apesar de inúmeras tentativas, por meio da dendrocronologia ou da datação com 1C, a determinação das idades das inúmeras espécies que ocorrem numa determinada área, continua sendo um grande obstáculo para a ciência florestal. Sem a idade da árvore ou do povoamento ou com muita dificuldade para obte-la, a alternativa é prognosticar a dinâmica da floresta com o uso de parcelas permanentes. Na Amazônia, entretanto, as parcelas instaladas e devidamente monitoradas são poucas, mal distribuídas e recentes (as mais antigas estão na Flona de Tapajós, desde 1978). Considerando que as idades de árvores com DAP > 50 cm, na região de Manaus, podem variar de 200 a 100 anos, segundo Chambers et al. (1998), 20-30 anos de observações podem parecer insuficientes para descrever, com confiança, a dinâmica de uma floresta da Amazônia. Apesar de todas essas dificuldades, aproximadamente 1 milhão de hectares de floresta amazônica são manejados, anualmente, para produção madeireira sob algum tipo de manejo em regime de rendimento sustentável. É difícil imaginar como os empresários florestais vão planejar os ciclos de corte subseqüentes, sem um modelo de produção. Se nada for feito, o manejo florestal tomará a mesma forma da agricultura itinerante. A melhor saída para esta situação é usar modelos de curto prazo que dependem exclusivamente da situação imediatamente anterior ao atual, tendo como objetivo a projeção apenas para uma situação imediatamente posterior. Dentre os vários modelos disponíveis, o que melhor se ajusta às características das florestas da Amazônia, é a cadeia de Markov.

17.2. Cadeia de Markov: A cadeia de Markov de primeira ordem é um processo estocástico no qual as probabilidades de transição durante o intervalo de tempo (t e t+1) dependem apenas no estado do indivíduo no tempo t ou no conhecimento do passado imediato no tempo t+1 e não em qualquer outro estado prévio (Horn, 1975; Chiang, 1980 e Bruner e Moser, 1973). Shugart (1984) enfatiza que a natureza “invariável em tempo” de cada uma das probabilidades de transição é uma importante característica da cadeia de Markov, tendo muita afinidade com o comportamento dos ecossistemas florestais. De acordo com Bierzychudek (1982), um modelo de matriz de transição é um modelo classificado em tamanho ou uma forma da matriz de Leslie. A única exigência deste modelo é divisibilidade da população em grupo de estados e que existam probabilidades de movimento de um estado para outro, com o passar do tempo (Enright e Ogden, 1979). Shugart e West (1981) apontam que a importância do entendimento dos ecossistemas florestais não é baseada nas idades, mas sim nas mudanças conhecidas no presente. Os modelos determinísticos consistindo de uma simples função matemática (linear, polinomial ou


exponencial) não demonstraram ainda que são comprovadamente adequados, quando séries de tempo são envolvidas (Morrison, 1976). Segundo Enright e Ogden (1979), nas florestas tropicais, o atributo tamanho pode ser mais importante do que a idade. Uma razão para isso é que o tamanho pode ser mais ecologicamente informativo do que a idade, quando esta é difícil de ser obtida com precisão. Além disso, segundo ainda os mesmos autores, a divisão de ciclos de vida em estágios de desenvolvimento pode permitir a predição do comportamento futuro mais precisamente do que a divisão em puras classes de idade. Usher (1966) usou o atributo tamanho no lugar da idade para desenvolver um modelo para o manejo de recursos renováveis. Ele afirma que um organismo que está na i-ésima classe no tempo t, pode permanecer na mesma classe, mudar para a classe seguinte (mais de uma classe também) ou morrer, no tempo t+1. Os modelos que usam matriz de transição são apropriados para análise de muitos problemas biológicos, principalmente em estudos relacionados com a dinâmica da floresta (Enright e Ogden, 1979). Esses modelos têm sido usados intensivamente em estudos de dinâmica de populações de plantas ou animais em várias regiões do mundo. Alguns exemplos são: a demografia do jack-in-the-pulpit em Nova York (Bierzychudek, 1982); dinâmica florestal de uma população de Araucaria numa floresta tropical úmida de Papua Nova Guinea e Nothofagus em floresta montana temperada da Nova Zelândia (Enright e Ogden, 1979); sucessão de térmitas em Gana (Usher, 1979); sucessão florestal na Nova Jersey (Horn, 1975); aplicação da Cadeia de Markov em estudos de dinâmica florestal em florestas tropicais (Acevedo, 1981) e a aplicação de Markov para predizer o desenvolvimento de um povoamento florestal (Usher, 1966; Usher, 1969, Bruner e Moser, 1973; Peden et al., 1973 e Buogiorno e Michie, 1980). Alder (1980) também descreve a matriz de transição como uma possível ferramenta para análise de dados de crescimento e incremento de povoamentos multianos de florestas tropicais mistas. Na região de Manaus, Higuchi (1987) usou Markov para estudar a dinâmica das parcelas testemunhas do projeto de manejo florestal (Projeto Bionte) e Rocha (2001) nos transectos do projeto Jacaranda. A maioria dos trabalhos citados anteriormente inclui revisões razoáveis da teoria do método de Markov. Há também outras leituras úteis sobre o assunto, como Grossman e Turner (1974), Chiang (1980) e Anderson e Goodman (1957). 3. Aplicação de Markov aos dados das parcelas permanentes da ZF-2: Primeiro vamos considerar: (i) estados i e j = 1, 2, ..., m; (ii) tempos de observação t = 0, 1, .., T; (iii) p ij (t+1) (i, j = 1, 2, ..., m) = probabilidade do estado j no tempo t+1, dado o estado i no tempo t. Um processo Markov é considerado homogêneo em relação ao tempo ou tempo homogêneo, se a probabilidade de transição p ij (t, t+1) = Pr [x(t+1) = j | x(t) = i], para i, j = 1, 2, ...., m. depender apenas da diferença entre t e t+1, mas não de t e t+1 separadamente (Chiang, 1980). A montagem da matriz começa com o cálculo de p ij = n ij / n j onde: n ij = número de indivíduos na classe j no tempo t+1, dada a classe i no tempo t e n j = número total de indivíduos na classe i no tempo t. A matriz de transição probabilística de uma cadeia de Markov para um processo de n estados pode ser montada da seguinte maneira:


P = (p ij) =

i=1 i=2 i =3 . . i=m

j=1 p11 p21 p31 . . pm1

sendo que as probabilidades p igual a 1.

ij

j=2 p12 p22 p32 . . pm2

j=3 p1 p23 p33 . . pm3

...... ...... ...... ...... . . ......

j=m p1m p2m p3m . . pmm

são não-negativos e a soma de pi1 + pi2 + ... + pim deve ser

A probabilidade de transição p ij pode ser de n passos, tomando a forma de p ij (n) onde n indica o número de tentativas, ou seja, a probabilidade que a população vai de um estado i de uma tentativa para o estado j, n tentativas depois. Exemplo didático: Projeções da dinâmica de Parcelas Permanentes usando Markov (transectos Leste-Oeste e Norte-Sul)

No caso dos dados da parcela permanente do exemplo, vamos considerar 17 estados (i, j = 1, 2, ...17), onde: estado 1 = recrutamento (R) estados de 2 a 16 = classes de diâmetro. As classes de DAP são de 5-5 cm e vão de 10, passando pela classe truncada DAP ≥ 75 até à classe “próxima” depois de DAP ≥ 75. A movimentação de uma classe para outra, no caso da classe DAP ≥ 75, pode ser uma árvore com DAP = 78, em 2000, que passou para a classe seguinte (podendo ser DAP = 80 ou DAP = 81), em 2004 ou também uma com DAP = 119, em 2000, que passou para a classe seguinte, em 2004. estado 17 = mortalidade (M)

são considerados: t = 2000 e t+1 = 2004. Passos para o cálculo matricial:

1. Matriz A (Quadro 1) => transição entre a 1ª ocasião (2000) e 2ª ocasião (2004) => tabelas dinâmicas do Excel (V. Box). Daqui uns 10 anos, é bem provável que alguém não veja nenhuma importância nas instruções contidas no Box por achar completamente obsoleta. Hoje, em 2007, apesar deste recurso ser pouco conhecido pelos florestais, é um poderoso e prático instrumento para organizar os dados. Quando se trabalha com parcelas permanentes, re-medidas em várias ocasiões sucessivas, a tabela dinâmica serve também para conferir o arquivo de dados. A matriz A é simétrica; portanto, há 19 colunas e 19 linhas. 1.1. => total 1ª ocasião = (total, freqüência da linha 19 e coluna 19 ou f19,19 =6251) menos recrutas (R, linha 3 e coluna 19 ou f3,19 = 396) = 5623 1.2. => total 2ª ocasião = (total, f19,19 = 6251) menos mortas (M, f19,18 = 264) = 5987 2. Matriz B1 e B2 (Quadro 2) => probabilidades de mudanças de um estado (i) para outro (j). A matriz de probabilidade é repetida pra facilitar a multiplicação de matrizes no Excel. Portanto B1 = B2. 2.1. Recrutas (R) => das 396 árvores recrutadas em 2004 => 385, 7 e 4, respectivamente, foram recrutadas para a 1ª classe (10<15), 2ª (15<20) e 3ª (20<25). 2.2. Probabilidades de 2.1. => 385/396, 7/396 e 4/396.


2.3. 1ª classe (10<15) => das 2167 árvores que estavam na 1ª classe na 1ª ocasião (2000) => na 2ª ocasião (2004), 1869 permaneceram na 1ª classe, 205 mudaram para a 2ª classe, 2 passaram para a 3ª classe e 91 morreram. 2.4. Probabilidades de 2.3. => 1869/2167, 205/2167, 2/2167 e 91/2167. 2.5. 2ª classe (15<20) => das 1319 árvores que estavam na 2ª classe na 1ª ocasião (2000) => na 2ª ocasião (2004), 1126 permaneceram na 2ª classe, 144 mudaram para a 3ª classe, 1 passou para a 4ª classe e 48 morreram. 2.6. Probabilidades de 2.5. => 1126/1319, 144/1319, 1/1319 e 48/1319. 3. Matriz de probabilidade 2 passos adiante (até 2004) => matriz de transição probabilística (Matriz B) elevada ao quadrado que resultará na Matriz C (Quadro 3). Se quiser 3 passos adiante, a matriz de transição probabilística será elevada ao cubo. 3.1. Multiplicação de matrizes (B1*B2) => No Excel: - blocar (passando o cursor em toda a sua extensão) um espaço igual à matriz que será multiplicada (Matriz B), ou seja, mesmo número de linhas e mesmo número de colunas; - ir ao menu Inserir, selecionar a opção Função e escolher Matriz.Mult; - definir matriz 1 (B1), blocando a matriz B; - definir matriz 2 (B2), blocando novamente a matriz B e OK; - truque pra ver o resultado (matriz C) => segurar juntos Ctrl, Shift e Enter mantendo o cursor dentro da barra de função (fx) que fica acima da planilha. - Obs.: a matriz B não deve estar como fórmula e sim como Somente Valores. 4. Projeção para 2008 => Matriz D (Quadro 4) => 4.1. A multiplicação de matrizes (B1 e B2) não inclui a coluna TOTAL, portanto, é necessário copiá-la da Matriz A e colá-la na Matriz C para facilitar o cálculo da freqüência esperada por classe (Matriz D); 4.2. A Matriz D é calculada multiplicando a probabilidade de ocorrência de árvores em uma classe dois passos a diante (Matriz C) pelo número total de árvores daquela classe. Ex.: - classe 10<15 => C2*T2 = 0,8395 * 396 = 332,05 C3*T3 = 0,7439 * 2167 = 1612 - classe 15 < 20 => D2*T2 = 0,1071 * 396 = 42,39 D3*T3 = 0,1624 * 2167 = 351,81 D4*T4 = 0,7288 * 1319 = 961,24 e assim por diante para todas as classes. 4.3. O total da freqüência esperada por classe ou estado (que a projeção para 2008) é calculado da seguinte forma (dados da Matriz D): - classe 10<15 => C2 + C3 = 332,05 + 1612 = 1944. - classe 15<20 => D2 + D3 + D4 = 42,39 + 351,81 + 961,24 = 1355,5 e assim por diante para todas as classes.


4.4. Classe “PRÓX.” => esta classe é criada apenas para descrever a dinâmica das árvores truncadas ao DAP ≥ 75 cm. No quadro com as freqüências esperadas (E) (5b) a freqüência da classe “PRÓX” deve ser acrescentada à classe DAP ≥ 75 cm. Portanto, a freqüência esperada da classe DAP ≥ 75 cm deve ser somada à da classe “PROX”: - classe DAP ≥ 75 cm => Q19 + R19 = 11,56 + 4,407 = 15,963 (Quadro 5a) 5. Ajustes necessários => a cadeia de Markov não faz projeções do recrutamento. Portanto, há necessidade de fazer ajustes para que a probabilidade de recrutamento das árvores em 2004 possa ser incluída na projeção de 2008. Enquanto não tiver uma série histórica de recrutamento, o único recurso é usar o nº de indivíduos recrutados de uma ocasião para outra. 5.1. O ajuste é feito com os dados do Quadro 5a: (prob do nº de arv da 1ª classe – prob da mortalidade da 1ª classe) + (Total de recrutas de 2004 * projeção da 1ª classe para 2008). Ex.: - classe 10<15 => (1944 – 86) + (396 * 0,9722) ≅ 2242,3 - classe 15<20 => (1355,5 – 47) + (396 * 0,0177) ≅ 1316 - classe 20<25 => (865,8 – 33) + (396 * 0,0101) ≅ 837 5.2. Para as classes onde não houve recrutamento em 2004, basta diminuir a prob do nº de arv da classe sem recrutamento – prob da mortalidade dessa mesma classe. Ex.: - classe 25<30 => 543,4 – 24 ≅ 519 ... - classe DAP ≥ 75 cm => 15,96 - 3 ≅ 13 6. Se 3 ocasiões estão disponíveis, o certo é usar a média [ R = (R1+R2)/2 ], sendo que R1 é o nº indivíduos recrutados entre a 1ª e 2ª ocasião e R2 é o nº entre a 2ª e 3ª ocasião, ou seja, seriam necessários 3 inventários. 7. Comparação entre freqüências esperadas (E), para 2008, fornecida pela Cadeia de Markov e as freqüências observadas de fato em 2004 (Quadro 6) => teste qui-quadrado ( χ2 ). Neste exemplo, como o χ2 tabelado com 13 graus de liberdade e p = 0,05 é igual a 22,36, isso significa dizer que há fracas evidências para afirmar que E seja diferente de O. Usando p = 0,01, o valor de χ2 é igual a 27,69 e, do ponto de vista de estatística, pode-se afirmar que o teste é não significante. O certo seria usar um intervalo de tempo maior para fazer projeções para um período imediatamente posterior, para confirmar a eficiência de Markov. O exemplo foi usado para comprovar que Markov é eficiente para fazer projeções da dinâmica de uma floresta manejada. Essa comprovação já tinha sido realizada em florestas não perturbadas (Rocha, 2001).


Bibliografia: Acevedo, M.F. 1981. On Horn’s Markovian Model of Forest Dynamics with Particular Reference to Tropical Forests. Theoretical Population Biology 19:230-250.

Alder, D. 1980. Forest Volume Estimation and Yield Prediction. V.2 – Yield Prediction. FAO Forestry Paper 22/2. 194 p. Anderson, T.W. e L.A. Goodman. 1957. Statistical Inference about Markov Chains. Annals of Mathematical Statistics 28:89-110. Bierzychudek, P. 1982. The Demography of Jack-in-the-pulpit, a Forest Perennial that Changes Sex. Ecol. Monographs 52(4):333-351. Bruner, H.D. e J.W. Moser Jr.. 1973. A Markov Chain Approach to the Prediction of Diameter Distributions in Uneven-aged Forest Stands. Can.J.For.Res. 3:409-417. Buogiorno, J. e B.C. Michie. 1980. A Matrix Model of Unever-aged Forest Management. Forest Science 26:609-625. Chambers, J.Q., N. Higuchi e J.P. Schimel. 1998. Ancient Trees in Amazonia. Nature, 391:15-16. Chiang, C.L. 1980. An Introduction to Stochastic Processes and their Applications. Robert E. Krieger Publ. Co., Huntington, New York. Clutter, J.L., J.C. Fortson, L.V. Pienaar, G.H. Brister e R.L. Bailey. 1983. Timber Management: A Quantitative Approach. John Wiley and Sons, Inc. New York. 333p. Enright, N. e J. Ogden. 1979. Applications of Transition Matrix Models in Forest Dynamics: Araucaria in Papua New Guinea and Nothofagus in New Zealand. Australian J. of Ecology 4:3-23. Ferguson, I.S. e J.W. Leech. 1978. Generalized Least Squares Estimation of Yield Functions. Forest Science 24:27-42. Grossman, S.I. e J.E. Turner. 1974. Mathematics for the Biological Sciences. Macmillan Publ. Co., Inc. New York. 512p. Higuchi. N. 1987. Short-term Growth of an Undisturbed Tropical Moist Forest in the Brazilian Amazon. Tese de Doutor. MSU. 129p. Horn, H.S. 1975. Markovian Properties of Forest Succession. In: Ecology and Evolution of Communities (M. Cody e J. Diamond, editores), pp.196-211. Harvard University Press. Cambridge, Mass. Morrison, D.F. 1976. Multivariate Statistical Methods. McGraw-Hill Inc.. 415p. Peden, L.M., J.S. Williams e W.E. Frayer. 1973. A Markov Model for Stand Projection. Forest Science 19:303-31. Rocha, R.M. 2001. Taxas de recrutamento e mortalidade da floresta de terra-firme da bacia do rio Cueiras na região de Manaus-AM. Dissertação de mestrado CFT-INPA. 49p. Shugart, H.H. 1984. A Theory of Forest Dynamics: The Ecological Forest Succession Models. Springer-Verlag Inc. New York. 278p. Shugart, H.H. e D.C. West. 1981. Long-term Dynamics of Forest Ecosystems. Am. Scientist 69:647-652.


Smith, V.G. 1983. Compatible Basal Area Growth and Yield Models Consistent with Forest Growth Theory. Forest Science 29:279-288. Sullivan, A.D. e J.L. Clutter. 1972. A Simultaneous Growth and Yield Model for Loblolly Pine. Forest Science 18:76-86. Usher, M.B. 1966. A Matrix Approach to the Management of Renewable Resources, with Special Reference to Selection Forests. J. of Applied Ecology 3(2):355-367. Usher, M.B. 1969. A Matrix Model for Forest Management. Biometrics, June:309-315. Usher, M.B. 1979. Markovian Approaches to Ecological Succession. J. of Animal Ecology 48:41-426.


Box 1

Tabela dinâmica do Excel usando o mesmo arquivo de dados do T2-B2SB4. Passos necessários:

1. Neste arquivo há as seguintes colunas: nome comum da espécie, DAP90, DAP97 e DAP04 2. Inserir três novas colunas entre DAP90 e DAP97, entre DAP97 e DAP04 e depois de DAP04 e nomear como CD1, CD2 e CD3, respectivamente. 3. Clicar em DADOS => FILTRAR => AUTO-FILTRO => apenas para a transição entre 1990 e 1997. Para a transição entre 1997e 2004, o procedimento é o mesmo. 4. Identificar as recrutas => são células que aparecem em “branco” ou “zero” na coluna do DAP90 em DAPs registrados na coluna DAP97 => clicar em DAP90▼ e procurar “branco” e “zero” e nomear com R na própria coluna DAP90 e na coluna CD1 atribuir o código “1” => para todas as árvores nessas condições. 5. Calcular as freqüências das classes 10<15, 15<20 ... até ≥ 65 => continuar com o FILTRAR nas colunas DAP90 e DAP97. Começar com 1990 clicando em DAP90▼ e ir para PERSONALIZAR. Lembrar que a primeira classe (10<15) é o segundo estado. Em PERSONALIZAR, a primeira condição é “maior ou igual a” “10” (digitando) e a segunda é “menor do que” “15” (digitando). Depois de OK, digitar em CD1 o número da classe (2, neste caso). Repetir isso até a última classe (≥ 65), que será a classe número 1. 6. Identificar as mortas => são células que aparecem em “branco” ou “zero” na coluna do DAP97 e tinham DAPs na coluna DAP90 => clicar em DAP97▼ e nomear com M na própria coluna DAP97 e na coluna CD2 atribuir o código “15” => para todas as árvores nessas condições. 7. Repetir passo 5 para DAP97. Em DAP97 tem que incluir a classe 1 (PRÓX). Neste caso, o trabalho tem que ser feito manualmente (no olho), ou seja, tem que olhar para as colunas DAP90 e DAP97 e verificar quais árvores que estavam na classe 1 em 1990 e mudaram de classe em 1997. 8. Ir pra DADOS, clicar em FILTRAR e retirar o AUTO-FILTRO. 9. Em DADOS, clicar em RELATÓRIOS DE TABELA E GRÁFICOS DINÂMICOS e seguir as instruções lógicas. 10. Pra ter a tabela dinâmica: - arrastar CD1 até a coluna onde está escrito “solte campos de linha aqui” - arrastar CD2 até a linha onde está escrito “solte campos de coluna aqui” - arrastar DAP97 em cima de “solte itens de dados aqui”


Quadro 1: Matriz (A) => transição do estado i para o estado j durante o período de 2000 a 2004. A

B

C

D

E

F

G

H

I

J

L

M

N

O

P

Q

R

S

T

1

estados

R

10 < 15

15 < 20

20 < 25

25 < 30

30 < 35

35 < 40

40 < 45

45 < 50

50 < 55

55 < 60

60 < 65

65 < 70

70 < 75

>=75

PROX

M

Total

2

R

0

385

7

4

0

0

0

0

0

0

0

0

0

0

0

0

0

396

3

10 < 15

0

1869

205

2

0

0

0

0

0

0

0

0

0

0

0

0

91

2167

4

15 < 20

0

0

1126

144

1

0

0

0

0

0

0

0

0

0

0

0

48

1319

5

20 < 25

0

0

0

711

104

4

0

1

0

0

0

0

0

0

0

0

33

853

6

25 < 30

0

0

0

0

419

59

0

0

0

0

0

0

0

0

0

0

24

502

7

30 < 35

0

0

0

0

0

276

59

0

0

0

0

0

0

0

0

0

26

361

8

35 < 40

0

0

0

0

0

0

195

23

0

0

0

0

0

0

0

0

10

228

9

40 < 45

0

0

0

0

0

0

0

119

27

1

0

0

0

0

0

0

8

155

10

45 < 50

0

0

0

0

0

0

0

0

72

14

0

0

0

0

0

0

7

93

11

50 < 55

0

0

0

0

0

0

0

0

0

36

7

0

0

0

0

0

3

46

12

55 < 60

0

0

0

0

0

0

0

0

0

0

28

6

1

0

0

0

6

41

13

60 < 65

0

0

0

0

0

0

0

0

0

0

0

19

8

0

0

0

1

28

14

65 < 70

0

0

0

0

0

0

0

0

0

0

0

0

12

4

0

0

1

17

15

70 < 75

0

0

0

0

0

0

0

0

0

0

0

0

0

15

2

0

1

18

16

>=75

0

0

0

0

0

0

0

0

0

0

0

0

0

0

15

7

5

27

17

PROX

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

18

M

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

19

Total

0

2254

1338

861

524

339

254

143

99

51

35

25

21

19

17

7

264

6251


Quadro 2: Matriz B (B1 e B2) – transição probabilística do estado i para o estado j durante o período de 2000 a 2004. A 1

estados

B

C

D

E

F

G

H

I

J

L

M

N

O

P

Q

R

S

T Total

R

10 < 15

15 < 20

20 < 25

25 < 30

30 < 35

35 < 40

40 < 45

45 < 50

50 < 55

55 < 60

60 < 65

65 < 70

70 < 75

>=75

PROX

M

2

R

0

0,9722

0,0177

0,0101

0

0

0

0

0

0

0

0

0

0

0

0

0

3

10 < 15

0

0,8625

0,0946

0,0009

0

0

0

0

0

0

0

0

0

0

0

0

0

4

15 < 20

0

0

0,8537

0,1092

0,0008

0

0

0

0

0

0

0

0

0

0

0

0

5

20 < 25

0

0

0

0,8335

0,1219

0,0047

0

0,0012

0

0

0

0

0

0

0

0

0

6

25 < 30

0

0

0

0

0,8347

0,1175

0

0

0

0

0

0

0

0

0

0

0

7

30 < 35

0

0

0

0

0

0,7645

0,1634

0

0

0

0

0

0

0

0

0

0,1

8

35 < 40

0

0

0

0

0

0

0,8553

0,1009

0

0

0

0

0

0

0

0

0

9

40 < 45

0

0

0

0

0

0

0

0,7677

0,1742

0,0065

0

0

0

0

0

0

0,1

10

45 < 50

0

0

0

0

0

0

0

0

0,7742

0,1505

0

0

0

0

0

0

0,1

11

50 < 55

0

0

0

0

0

0

0

0

0

0,7826

0,1522

0

0

0

0

0

0,1

12

55 < 60

0

0

0

0

0

0

0

0

0

0

0,6829

0,1463

0,0244

0

0

0

0,1

13

60 < 65

0

0

0

0

0

0

0

0

0

0

0

0,6786

0,2857

0

0

0

0

14

65 < 70

0

0

0

0

0

0

0

0

0

0

0

0

0,7059

0,2353

0

0

0,1

15

70 < 75

0

0

0

0

0

0

0

0

0

0

0

0

0

0,8333

0,11

0

0,1

16

>=75

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0,56

0,259

0,2

17

PROX

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

18

M

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

19

Total


Quadro 3: Matriz C ou [B]2 - Matriz de transição probabilística dois passos adiante (até 2008) A 1

estados

B

C

D

E

F

G

H

I

J

L

M

N

O

P

Q

R

S

T Total

R

10<15

15<20

20<25

25<30

30<35

35<40

40<45

45<50

50<55

55<60

60<65

65<70

70<75

>=75

PROX

M

2

R

0,0000

0,8385

0,1071

0,0112

0,0012

5E-05

0

1E-05

0

0

0

0

0

0

0

0

0,042

396

3

10<15

0,0000

0,7439

0,1624

0,0119

0,0002

4E-06

0

1E-06

0

0

0

0

0

0

0

0,0000

0,04

2167

4

15<20

0

0,0000

0,7288

0,1842

0,0146

0,0006

0

0,0001

0

0

0

0

0

0

0

0,0000

0,035

1319

5

20<25

0

0

0,0000

0,6948

0,2034

0,0218

0,0008

0,0019

0,0002

8E-06

0

0

0

0

0

0,0000

0,038

853

6

25<30

0

0

0

0,0000

0,6967

0,188

0,0192

0

0

0

0

0

0

0

0

0,0000

0,048

502

7

30<35

0

0

0

0

0,0000

0,5845

0,2647

0,0165

0

0

0

0

0

0

0

0,0000

0,062

361

8

35<40

0

0

0

0

0

0,0000

0,7315

0,1637

0,0176

0,0007

0

0

0

0

0

0,0000

0,043

228

9

40<45

0

0

0

0

0

0

0,0000

0,5894

0,2686

0,0362

0,001

0

0

0

0

0,0000

0,053

155

10

45<50

0

0

0

0

0

0

0

0,0000

0,5994

0,2344

0,0229

0

0

0

0

0,0000

0,068

93

11

50<55

0

0

0

0

0

0

0

0

0,0000

0,6125

0,223

0,0223

0,0037

0

0

0,0000

0,073

46

12

55<60

0

0

0

0

0

0

0

0

0

0,0000

0,4664

0,1992

0,0757

0,0057

0

0,0000

0,107

41

13

60<65

0

0

0

0

0

0

0

0

0

0

0,0000

0,4605

0,3956

0,0672

0

0,0000

0,041

28

14

65<70

0

0

0

0

0

0

0

0

0

0

0

0,0000

0,4983

0,3622

0,026

0,0000

0,055

17

15

70<75

0

0

0

0

0

0

0

0

0

0

0

0

0,0000

0,6944

0,154

0,0288

0,067

18

16

>=75

0

0

0

0

0

0

0

0

0

0

0

0

0

0,0000

0,3086

0,1440

0,103

27

17

PROX

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

18

M

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

19

Total


Quadro 4: Matriz D - Cálculo das freqüências esperadas de cada classe ou estado A

B

C

D

E

F

G

H

I

J

estados

R

10 < 15

15 < 20

20 < 25

25 < 30

30 < 35

35 < 40

40 < 45

45 < 50

2

R

0,000

332,056

42,397

4,454

0,493

0,019

0

0,005

0

0

0

0

0

0

0

0

16,577

3

10 < 15

0,000

1611,980

351,813

25,773

0,399

0,009

0

0,002

0

0

0

0

0

0

0

0,000

86,023

4

15 < 20

0

0,000

961,240

242,958

19,245

0,793

0

0,169

0

0

0

0

0

0

0

0,000

46,595

5

20 < 25

0

0

0,000

592,639

173,492

18,615

0,654

1,601

0,174

0,006

0

0

0

0

0

0,000

32,818

6

25 < 30

0

0

0

0,000

349,723

94,353

9,643

0

0

0

0

0

0

0

0

0,000

24,281

7

30 < 35

0

0

0

0

0,000

211,014

95,569

5,952

0

0

0

0

0

0

0

0,000

22,466

8

35 < 40

0

0

0

0

0

0,000

166,776

37,329

4,006

0,148

0

0

0

0

0

0,000

9,740 8,239

1

L 50 < 55

M 55 < 60

N 60 < 65

O 65 < 70

P 70 < 75

Q

R

S

T

>=75

PROX

M

Total

9

40 < 45

0

0

0

0

0

0

0,000

91,361

41,632

5,615

0,152

0

0

0

0

0,000

10

45 < 50

0

0

0

0

0

0

0

0,000

55,742

21,795

2,130

0

0

0

0

0,000

6,332

11

50 < 55

0

0

0

0

0

0

0

0

0,000

28,174

10,259

1,024

0,171

0

0

0,000

3,372

12

55 < 60

0

0

0

0

0

0

0

0

0

0,000

19,122

8,169

3,103

0,235

0

0,000

4,371

13

60 < 65

0

0

0

0

0

0

0

0

0

0

0,000

12,893

11,076

1,882

0

0,000

1,149

14

65 < 70

0

0

0

0

0

0

0

0

0

0

0

0,000

8,471

6,157

0,444

0,000

0,928

15

70 < 75

0

0

0

0

0

0

0

0

0

0

0

0

0,000

12,500

2,778

0,519

1,204

16

>=75

0

0

0

0

0

0

0

0

0

0

0

0

0

0,000

8,333

3,889

2,778

17

PROX

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

18

M

0

19

Total

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

1944,036

1355,450

865,823

543,352

324,803

272,641

136,419

101,555

55,739

31,663

22,086

22,820

20,775

11,556

4,407

266,874


Quadro 5a: Dados para calcular 2008 (E). CD 10 < 15 15 < 20 20 < 25 25 < 30 30 < 35 35 < 40 40 < 45 45 < 50 50 < 55 55 < 60 60 < 65 65 < 70 70 < 75 >=75

Prob Arv 1944,04 1355,45 865,82 543,35 324,80 272,64 136,42 101,55 55,74 31,66 22,09 22,82 20,77 15,96

Prob Mort 86,02 46,60 32,82 24,28 22,47 9,74 8,24 6,33 3,37 4,37 1,15 0,93 1,20 2,78

proj 0,97 0,02 0,01

Quadro 5b: Freqüências esperadas (E) para 2008 incluindo ajustes feitos para o recrutamento (R) Estado CD 10 < 15 15 < 20 20 < 25 25 < 30 30 < 35 35 < 40 40 < 45 45 < 50 50 < 55 55 < 60 60 < 65 65 < 70 70 < 75 >=75 Próxima Total

Árvores 2000 2167 1319 853 502 361 228 155 93 46 41 28 17 18 27 5855

2004 (O) 2254 1338 861 524 339 254 143 99 51 35 25 21 19 17 7 5987

2008 (E) 2243,0 1315,9 837,0 519,1 302,3 262,9 128,2 95,2 52,4 27,3 20,9 21,9 19,6 13,2 5857,6

Mortalidade 2004 2008 (O) (E) 91 86,02 48 46,60 33 32,82 24 24,28 26 22,47 10 9,74 8 8,24 7 6,33 3 3,37 6 4,37 1 1,15 1 0,93 1 1,20 5 2,78 264

250


Quadro 6: Comparação entre freqüências observadas (O) e esperadas (E) em 2008.

estado 10 < 15 15 < 20 20 < 25 25 < 30 30 < 35 35 < 40 40 < 45 45 < 50 50 < 55 55 < 60 60 < 65 65 < 70 70 < 75 >=75 Total

O 2254 1338 861 524 339 254 143 99 51 35 25 21 19 24 5987

E 2243 1316 837 519 302 263 128 95 52 27 21 22 20 13 5859

χ2tab 0,05;13gl = 22,36 χ2tab 0,01;13gl = 27,69 P

P

P

P

χ2 0,05 0,37 0,69 0,05 4,45 0,30 1,71 0,15 0,04 2,18 0,79 0,04 0,02 2,08 20,13 P

P

Biometria florestal  
Read more
Read more
Similar to
Popular now
Just for you