Estatística Sem Matemática

April 2, 2018 | Author: Nayara Bertolino | Category: Statistics, Science, Sexual Intercourse, Physics & Mathematics, Mathematics


Comments



Description

12 3 4 5 6 7 8 9 William E. Magnusson 10 11 Coordenação de Pesquisas em Ecologia 12 Instituto Nacional de Pesquisas da Amazônia 13 14 15 Guilherme Mourão 16 17 Embrapa Pantanal 18 Empresa Brasileira de Pesquisa Agropecuária 19 20 21 Flávia R. C. Costa 22 23 Coordenação de Pesquisas em Ecologia 24 Instituto Nacional de Pesquisas da Amazônia 25 26 27 28 29 30 31 32 ESTATÍSTICA SEM MATEMÁTICA 33 A ligação entre as questões e as análises 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 1 2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Agradecimentos 26 Muitas pessoas contribuíram para o desenvolvimento deste livro, principalmente nossos alunos. 27 Entretanto, somente podemos mencionar umas poucas pessoas que contribuíram no estágio final da obra. Sua 28 estrutura geral foi concebida durante a estadia de um de nós (W.E.M.) na Universidade de Griffith, Austrália, 29 graças à intervenção de Carla Catterall e Marc Hero e a bolsa de pós-doutorado recebida da CAPES. Mike 30 Dale revisou a versão em Inglês e corrigiu muitos dos deslizes gramaticais, estatísticos e filosóficos. A 31 primeira versão em Português se beneficiou das revisões cuidadosas de Helena Bergallo, Isis Medri e 32 Agostinho Catella. Esta nova edição contou com revisões de alguns capítulos por Jim Nichols e as constantes 33 contribuições de Helena Bergallo e Victor Landeiro. WILLIAM ERNEST 8/10/10 16:57 34 38 Deleted: o 35 WILLIAM ERNEST 8/10/10 16:57 36 39 Deleted: input 37 2 1 Capítulo 1: 2 Introdução 3 4 A última coisa que o mundo precisa é de mais um livro de estatística. Existem dezenas deles, a 5 que os estatísticos podem recorrer, quando necessário. Muitos são escritos com estilo e leveza. Então, para 6 quê dois ecólogos, que se sentem especialmente incompetentes em matemática, se arriscariam a escrever um 7 livro que trata de conceitos de estatística? Uma das razões é que temos, já por alguns anos, lecionado um 8 curso um pouco "diferente" de estatística básica, especialmente endereçado para estudantes de pós-graduação 9 em ecologia e, de alguma forma, este curso tem revolucionado a habilidade destes estudantes em comunicar 10 seus resultados de pesquisa (Magnusson 1997). Entretanto, não usávamos nenhum livro-texto para 11 acompanhar este curso e os estudantes e professores sempre nos cobravam um. A outra razão é que nos demos 12 conta de que nosso curso vem servindo principalmente para remediar falhas acumuladas na formação dos 13 estudantes (Magnusson 1977). Gastamos um tempo enorme para ensinar conceitos básicos que os estudantes 14 desaprenderam durante seus cursos básicos de estatística. 15 Tukey (1980) já percebera que "Os estudantes que nunca foram expostos à estatística confirmatória 16 parecem aprender a estatística exploratória mais prontamente". Os maiores erros no delineamento amostral 17 resultam de não se levar em conta conceitos básicos de lógica que muitos estudantes levariam, se sua atenção 18 não tivesse sido desviada pela matemática das estatísticas. Platt (1964) colocou isto de forma eloquente na 19 seguinte passagem, traduzida um pouco livremente: "Você pode capturar um fenômeno em uma malha lógica 20 ou matemática. A lógica é uma malha grossa, mas forte. A matemática é fina, porém frágil. A matemática é 21 uma forma bonita de embrulhar um problema, mas não pode reter sua essência, a não ser que ela tenha sido 22 capturada na malha lógica desde o começo". Guttman (1985) se referiu a isso como "contingente e conteúdo". 23 É claro que esperamos poder ensinar algum conteúdo através da matemática, porque alguns 24 conceitos estatísticos/matemáticos podem nos ajudar a ver o mundo mais claramente. Contudo, estes não são 25 os conceitos enfatizados nos cursos regulares de estatística. Os estudantes frequentemente nos perguntam 26 porque os cursos regulares de estatística não tratam destes assuntos. A resposta é que eles tratam. Se você 27 pegar as primeiras páginas de cada capítulo de qualquer bom livro de estatística e colocá-las junto, elas 28 contariam uma história muito semelhante à que contaremos neste livro. Outros autores têm se dado conta da 29 necessidade de passar aos leitores uma visão geral que coloque as diferentes análises estatísticas em uma 30 mesma ordenação lógica. No final do primeiro capítulo de seu livro, Harris (1975) escreveu o seguinte: "Para 31 quê ler o resto deste livro? Podemos considerar que se um estudante de doutorado em psicologia entendeu 32 plenamente os conceitos contidos nesta seção, os quais se baseiam apenas em bom senso, então este estudante 33 atingiu cerca de 90% da habilidade necessária para interpretar estatísticas multivariadas." Contudo, poucas 34 pessoas leem o primeiro capítulo de Harris ou de qualquer outro livro de estatística. Um pesquisador está 35 interessado nas interações de muitos fatores e alguém diz "você precisa de regressão múltipla (ou análise de 36 componentes principais, ou análise de variância fatorial, ou outro procedimento aparentemente complicado), 37 então vá para a página 365." O autor do livro deve ter tido muita dor de cabeça para apresentar a sequência 38 lógica, que gradativamente levaria ao entendimento necessário para usar a informação apresentada na página 39 365. Contudo, poucos irão ler a obra página por página. Nenhum dos autores deste livro leu qualquer outro 40 livro de estatística do princípio ao fim, na ordem em que os autores apresentaram o conteúdo. Mas 41 gostaríamos que vocês lessem este livro desta forma e, portanto, fizemos nossos capítulos bastante curtos. 42 Este livro trata da estatística básica e desenho experimental que os estudantes precisam para entender 43 a literatura ecológica. Quando dizemos "estatística básica" não queremos dizer ficar tirando ao acaso bolinhas 44 coloridas de um saco, ou usar análise de variância para comparar as taxas de crescimento de sorgo em 45 canteiros com três níveis diferentes de fertilizantes. Estas questões não são básicas, são triviais. Em nosso 46 curso, usualmente gastamos 3 dias (24 horas/aula) para preparar os alunos para simples comparações de 47 médias, mas isto não é o ponto final. Se depois de 10 dias, o estudante não entender as bases de regressões 48 múltiplas, análise de variância fatorial, estatística multivariada e "análise de caminhos", ele não será capaz de 49 ler a literatura. É preciso estar "alfabetizado" para apreender o conhecimento científico. 50 Há muitos níveis pelos quais se pode abordar uma matéria e a escolha da abordagem é uma decisão 51 pessoal e criticamente importante. Para ilustrar a nossa escolha, vamos apresentar duas analogias bem 52 emocionais. Se você desejasse aprender a respeito de armas de fogo, poderia começar tomando aulas de 3 pode ler capítulos individuais de qualquer 18 livro-texto de estatística ou.1 simplesmente o faz por não ser capaz de se aperceber do quanto desconhece. 2. antes que você comece a sua coleta de dados? 4 . Sua variável dependente pode ser medida objetivamente e você perguntou a outros pesquisadores se eles consideram sua medida "objetiva"? 3. então não precisa ler este livro 1. você domina os principais conceitos necessários para planejar pesquisas e pode se 22 imergir na malha delicada da matemática. Você esboçou um diagrama de fluxo que indica quais variáveis influenciam a variável dependente e as relações entre as variáveis independentes? 5. pode ser uma ferramenta para 14 promover identidade cultural. Todos os membros de sua equipe estão coletando dados na mesma escala e nos mesmos lugares. apenas que ele é o mais importante para nós. eventualmente. Acreditamos que tratados 10 matemáticos sobre estatística são tão importantes quanto engenharia de materiais ou fisiologia intracelular.UM GUIA PARA PLANEJAR SEU ESTUDO. 11 porém. a maioria das pessoas que responde "sim" para todas 23 as questões da tabela 1. 20 Talvez você não precise realmente deste livro. melhor ainda. Você consultou os outros membros de sua equipe de pesquisa para se certificar que todos têm os mesmos propósitos? 4. Você decidiu se seus resultados serão usados para determinar se existe um efeito. leia Winer et al. mostrando o número de observações independentes. Você decidiu se está interessado em efeitos diretos. 3 Entretanto.1. Se você responder "sim" para todas as questões que 21 aparecem na tabela 1. acreditamos que o uso da estatística como uma ferramenta de 15 análise de dados e como meio de comunicação entre pesquisadores é o melhor ponto de partida. 13 A estatística. Você desenhou gráficos de pontos hipotéticos. Sua amostragem está na mesma escala que sua(s) questão(ões)? 12. independente das publicações científicas? 7. Um fisiologista pode praticar sexo para obter 5 dados ou amostras. Nós 7 começaríamos dizendo que o intercurso sexual tem as funções básicas de servir de meio de comunicação entre 8 duas pessoas e. Você se sente confiante de que sua formação estatística preparou você para escolher a análise apropriada para responder sua questão. Você desenhou um mapa ou um diagrama conceitual que mostra onde/quando suas amostras serão feitas em relação ao seu universo de interesse? 9. Você otimizou o tamanho. e todos os membros da equipe concordam com isso? 8. indiretos ou em efeitos gerais? 13. Não estamos dizendo que nosso ponto é melhor ou mais 9 abrangente que os demais. da mesma forma que armas de fogo e revistas sobre sexo. Revistas populares ensinam que o intercurso sexual 6 é um meio de atingir um status social elevado e que dispor de muitos parceiros é motivo para orgulho. para determinar a magnitude do efeito nas condições presentes. nós começaríamos ensinando que armas de fogo foram projetadas para matar pessoas ou animais e 4 que há considerações éticas e práticas em relação ao seu uso. Você se sente confiante de que sua formação em estatística é suficiente para torná-lo capaz de realizar todas as operações mencionadas acima? 15. e investigar a química da reprodução. talvez não seja o melhor caminho para levar estudantes a dominarem o conhecimento necessário para 12 usar a estatística de uma forma prática na interpretação de dados. Você e o resto da equipe decidiram onde e como vão disponibilizar os dados e metadados ao público. de forma que seja possível integrar os dados ao final do estudo? 6. (1991) ou Harris (1975). orientação e distribuição de suas unidades amostrais de tal forma que a variabilidade na variável dependente seja principalmente devida às variáveis independentes que você está estudando? 11. Mas se deseja uma alternativa a 19 estas opções. a variabilidade nos dados e a magnitude dos efeitos que você espera encontrar? 10. Infelizmente. Se você 16 deseja uma abordagem reducionista. forma. Entretanto. Se você quer usar a estatística 17 como uma forma de distingui-lo entre seus pares na academia. este é o livro correto para você. 24 TABELA 1.1 . 4 1 balística e engenharia de materiais. Você decidiu qual é o seu universo de interesse. Ou você poderia ler os folhetos dos fabricantes de armas e aprender 2 como a posse de armas fará você se destacar socialmente e torná-lo(a) mais atraente para o sexo oposto. Você está preparado para começar a coletar os dados de sua pesquisa? Se você responder "sim" para todas as perguntas abaixo. ou se para predizer o que acontecerá se as condições mudarem? 14. fazer bebês. Você decidiu qual é o objeto de seu estudo? (variável dependente). o texto inteiro de Dytham (1999). Este livro não pode torná-lo 6 competente em todos os aspectos abordados na tabela 1. 30 Enfatizamos bastante a comunicação. Em consequência. Os estatísticos 14 descobriram há muito tempo que o domínio da estatística só vem após uma base em amostragem e inspeção 15 dos dados brutos (p. A 18 maior diferença é que nós ensinamos os conceitos usando gráficos simples e. necessariamente. Eles veem a estatística como um troféu cultural ao invés de 45 um meio de comunicação de informações objetivas. poderíamos escrever um livro inteiro a 7 respeito de cada um. Em defesa dos biólogos. 19 Enquanto os cursos regulares de estatística gastam um dia explicando os conceitos e 9 dias afogando os 20 estudantes em matemática. Isto seria o mesmo que exigir que um operário industrial ganhe a vida 5 . não aparecem. Um dos nossos problemas com técnicas estatísticas é que cada 31 disciplina tem suas escalas de amostragem e tipos de análises características. que são 33 usualmente chamados de interdisciplinares ou multidisciplinares. a criação de bancos de dados. o líder precisa reunir as 34 contribuições de diferentes pesquisadores. quando diz que "ainda não encontrou 8 alguém que tenha adquirido domínio em qualquer área da estatística sem ter realizado muitas análises com 9 dados reais – preferivelmente dados realmente importantes para esta pessoa". que as agências 41 financiadoras esperavam. ao invés da interpretação 39 deles. a maioria manifestou vontade de aprofundar seu conhecimento de matemática e muitos disseram que 26 gostariam de repetir os cursos de estatística que fizeram anteriormente. 1). podemos passar para 10 os leitores uma introdução aos conceitos. o quê não implica. ele/ela tem apenas uma vaga ideia de como integrar os diversos protocolos de amostragem e 51 menos ideia ainda das consequências matemáticas de não integrá-los. Concordamos inteiramente com Harris (1975). Neste caso. manter seus contatos políticos e postergar o início do projeto até quando se sentisse 54 matematicamente competente. Algumas vezes. e deixa a matemática para cursos subsequentes ou estudo 22 individual. 50 Provavelmente. em 38 uma análise integrada dos dados. nosso curso emprega 10 dias na exploração de conceitos em relação às técnicas e 21 análises mais frequentes na literatura ecológica. que não gostam de serem vistos por 43 seus pares como sendo diferentes.ex. Se o pesquisador não compreendeu bem estes conceitos. para se certificar que você não está apenas enganando a si próprio? 17. e aceita os desenhos amostrais apresentados por seus colegas. Depois de fazer 25 o curso. preocupando-se em organizá-las de modo que a proposta final 35 tenha coerência e unidade. a maioria dos estudos é 40 publicada independentemente em revistas especializadas e os resultados integrados. geralmente presente nos biólogos. As agências financiadoras de 32 pesquisa vêm pressionando cada vez mais os pesquisadores a submeter projetos integrados. Deming 1975. Usualmente. 11 Um dos problemas com os livros de estatística é que eles foram escritos por estatísticos. frequentemente lado a lado. "pares" significa outros cientistas que militam na mesma 44 disciplina e não os colegas do grupo "integrado". 16 Nosso curso basicamente segue as recomendações da "American Statistical 17 Association/Mathematical Association of America joint curriculum committee" (veja Moore 1997: Fig. que tendem justamente a aumentar a fobia à 28 matemática. Isto faz com que as equipes 37 de pesquisa trabalhem no mesmo local. ou em miraculosos programas de computadores e nem 5 mesmo um monte de teoremas matemáticos pode tornar o seu trabalho útil.1. O líder e os membros mais esclarecidos do grupo frequentemente se deparam com a 47 difícil tarefa de convencer os demais a ajustarem seus esquemas de amostragem em função da questão global 48 que está sendo estudada e não às padronizações tradicionais de cada disciplina. quando necessário. Na verdade. O uso das estatísticas e análises que você escolheu o ajudará a se comunicar com sua audiência? 1 2 Mais perigosos ainda são os que acreditam que a matemática pode suprir a falta de conhecimento dos 3 conceitos referidos na tabela 1. Nestes projetos. Um 12 estatístico é aquele tipo de pessoa que enxerga o mundo em termos de abstrações matemáticas e que se sente 13 confortável com conceitos que não têm contrapartida no mundo real (Guttman 1985). Salsburg (1985) vai a ponto de se referir à estatística 46 como uma religião. analogias. lembramos que há muitas formas de 29 inteligência e a proficiência em matemática é apenas uma delas (Goleman 1995). passa a ser o objetivo principal dos projetos (Hale 1999). Tukey 1980). Contudo. mas com pouco preparo em matemática ou estatística. mostrando a ele os resultados de todas as operações mencionadas acima.1. Esta abordagem funciona bem tanto para estudantes que nunca tiveram um curso de estatística. 42 Muitos cientistas são pessoas com dificuldades no trato social. 23 quanto para estudantes e profissionais que já tiveram cursos avançados. você consultou um estatístico. 52 Uma solução simples seria o líder do grupo fazer cursos avançados de matemática e estatística e 53 simultaneamente. É provável que o líder do 49 grupo seja competente política e socialmente. 16. nenhuma 4 quantidade de fórmulas tediosas resolvidas à mão. o líder não tem experiência nos diferentes campos de estudo do 36 projeto "integrado". Se você respondeu sim para a questão 14. Este efeito é muito diferente do que o 27 provocado pela maioria dos cursos tradicionais de estatística. Alguns dos nossos alunos mais 24 entusiastas são responsáveis por ministrar cursos de estatística para estudantes universitários. podem ser ensinados graficamente e 14 escrevemos este livro para tentar convencê-los disto. Delineamento amostral e cálculos estatísticos não são necessários se as informações originais puderem 12 ser diretamente expressas em gráficos bidimensionais. mas não vai parecer certo quando a família começar a passar fome.1. que descreve 9 algumas medidas de altura de um grupo de homens e mulheres. 15 16 Figura 1. Este 2 livro foi elaborado para fornecer aos líderes e participantes de projetos integrados. sem tentar 4 transformá-los em matemáticos profissionais. No entanto. 6 1 pescando: pode funcionar na teoria. Todos os conceitos são apresentados com o mínimo de 5 matemática: só fornecemos o necessário para que o pesquisador seja capaz de se comunicar com um 6 estatístico quando julgar oportuno o aconselhamento especializado e para entender o jargão que outros 7 membros da equipe tenham memorizado. Vamos tentar mostrar que os testes 10 estatísticos mais úteis produzem resultados que podem ser interpretados em termos de gráficos simples como 11 este. acreditamos que os conceitos por detrás de 13 muitas das análises estatísticas e os resultados que elas produzem. informações suficientes 3 para que eles entendam a necessidade e as limitações de protocolos de amostragem efetivos. 8 Assumimos que os leitores podem interpretar gráficos simples como o da figura 1.1 190 185 ALTURA (cm) 180 175 170 N S ES E R OM LHE H U M 17 18 19 O que é delineamento amostral? 20 6 . 3 mostram como ele 18 apresentou seus dados às autoridades. para comparar a densidade de saguis entre anos.3 7 . Em grande parte. depende apenas do bom senso.3a não vemos nenhuma diferença convincente nas densidades do sagui entre os anos de 25 estudo. O pior é que 7 muitas vezes não nos damos conta disto. por exemplo. Ele faz uma contagem no primeiro ano e uma 15 segunda no ano seguinte. O biólogo A é contratado e decide fazer uma contagem dos saguis e das árvores 14 seguindo parcelas alongadas que atravessam a área em estudo. Contudo. Algumas pessoas sugeriram 9 que a espécie ocorre em maior densidade nas partes da reserva com maior densidade de árvores e isto tem 10 implicações em termos das ações de manejo necessárias para a conservação da espécie em questão. na figura 1. Considere. Os diagramas da figura 1. 5 O delineamento amostral pode ser tão crítico. Uma espécie de sagui 8 ocorre apenas em uma reserva e acredita-se que sua população está em declínio. onde cada sagui aparece 17 simbolizado por um "x" e cada árvore como um círculo. a estória a seguir. vamos mostrar alguns exemplos de como modelos simples podem ajudar a revelar padrões que a 4 princípio estavam escondidos.2 16 mostram os dados brutos obtidos pelo biólogo A em seus levantamentos. e os gráficos da figura 1.3b podemos observar uma forte tendência das densidades do animal serem 26 maiores onde as densidades de árvores são maiores. mas ainda assim. nos capítulos 3 seguintes.2 21 Ano 1 Ano 2 22 23 24 Na figura 1. 27 28 Figura 1. 1 Delinear uma amostragem é coletar os dados de forma que você tenha uma boa chance de 2 tomar uma boa decisão. 19 20 Figura 1. As 11 autoridades responsáveis pela proteção da vida silvestre encomendam um estudo de 2 anos para determinar o 12 quanto as densidades do sagui estão associadas com as densidades de árvores e se a população do tal sagui 13 está realmente em declínio. que pequenas diferenças nos procedimentos de 6 amostragem fazem com que ele seja apropriado ou não para responder determinada questão. 5 14 8 .4). 8 50 50 a b 40 40 NÚMERO DE SAGUIS 30 30 20 20 10 10 0 0 1 2 0 10 20 30 40 ANOS ÁRVORES 1 2 Vamos imaginar que uma organização conservacionista suspeitasse das intenções do governo e 3 contratasse a bióloga B para fazer um estudo independente endereçado em responder as mesmas questões.5b). 13 Figura 1. Ela 4 usa um desenho amostral quase idêntico. exceto que alinha suas parcelas numa direção perpendicular em 5 relação às parcelas do biólogo A (figura 1. mas uma relação fraca ou inexistente entre as densidades do animal e das plantas (figura 1.5a). 6 7 Figura 1.4 8 Ano 1 Ano 2 9 10 11 Seus resultados indicam uma diferença convincente nas densidades do animal entre os anos (figura 12 1. 8 9 10 Figura 1. 6 sendo a direção das parcelas a única diferença que atribuímos entre os delineamentos amostrais dos dois 7 biólogos. Na verdade. forma e tamanho das unidades amostrais irão determinar as questões que podem ser respondidas. sempre há uma escala em que os 24 organismos estão agrupados. 19 a orientação. Contudo. O delineamento do biólogo A foi superior 14 para detectar a relação entre plantas e animais do que o usado pela bióloga B. (1999) discute como amostrar características de habitats. 30 30 a b NÚMERO DE SAGUIS 25 25 20 20 15 15 10 10 1 2 10 15 20 25 ANO NÚMERO DE ÁRVORES 1 2 3 Os dois biólogos chegam a conclusões completamente opostas. 20 Caughley e Sinclair (1994: Capítulo 12) fornecem exemplos para vertebrados.6 Ano 1 Ano 2 11 12 13 Nenhum dos biólogos esteve mais correto do que o outro. 5 Criamos este exemplo sobrepondo parcelas alongadas sobre o mesmo diagrama. 18 Em situações como esta.6. mas um esquema diferente de 15 amostragem. 23 Mesmo quando não há gradientes fortes. Não podemos nos estender muito em como selecionar as unidades amostrais 25 neste livro. Stern (1998). baseado em parcelas quadradas ou circulares poderia ser igualmente efetivo. onde há um forte gradiente nas densidades através da área a ser amostrada. os dois biólogos estudaram os mesmos dados. como no nosso exemplo. Entretanto. mostrado na figura 1. e 21 Johnson et al. Krebs (1998) oferece uma discussão 22 sobre aspectos gerais de forma e tamanho das unidades amostrais. O delineamento 16 usado pela bióloga B foi superior para detectar diferenças entre anos e o uso de parcelas menores não seria 17 adequado para responder esta questão. a diferença no desenho 4 amostral foi apenas a direção das parcelas. para plantas. a menos que a forma e o tamanho das unidades amostrais sejam apropriados para uma 9 . experiência e curiosidade. 10 1 determinada questão. são metafísicas e a biologia é repleta de questões metafísicas. tivemos de usar alguns cálculos. 56 Neste estágio. A literatura que 39 citamos é fortemente enviesada em direção a abordagens conceituais e filosóficas. Perguntas como estas se 9 situam além da ciência e da física atual. 25 Nós fornecemos apenas os princípios mais gerais que os pesquisadores precisam entender para usar 26 as estatísticas convencionais de forma inteligente. mas nossa experiência indica que muita informação 29 retarda o aprendizado e a compreensão de conceitos centrais. nenhuma das técnicas estatísticas. o pesquisador pode rapidamente 31 descobrir os detalhes. análise e publicação. 32 Escolhemos aqueles que os pesquisadores e estudantes têm dificuldade em entender em seus cursos regulares 33 de estatística. Através de todo o livro iremos nos referir a 54 diagramas que descrevem hipóteses ecológicas. mas. se souberem onde procurar. Provavelmente. Não cobrimos os tópicos que a maioria dos pesquisadores parecem entender. ocasionalmente. Nós sofremos cada vez que decidimos 28 excluir um ponto importante ou detalhes interessantes. Nenhum teste estatístico pode ser interpretado sem que esteja 55 relacionado a um fluxograma. Talvez aqueles leitores que 51 também sejam professores de cursos de estatística. Fisher 15 (1971) opinou que: "Um delineamento experimental falho levará a um resultado falso. Perguntas do tipo "existe vida depois da morte?" são evidentemente 8 interessantíssimas. Também não é um 18 manual de um programa de computador. Recomendamos a leitura de Tukey (1980). 13 O delineamento amostral diz respeito à compreensão de conceitos que são importantes a cada passo 14 no processo da produção do conhecimento. fluxogramas são importantes para forçá-lo a ser explícito a respeito de seus objetivos e ajudá-lo 57 a começar a compreender a diferença entre as variáveis que causam efeito (variáveis independentes) e 10 . Contudo. Elas precisam ser "respondíveis". Para 46 comunicar estes conceitos preferimos usar exemplos. embora quase sempre tão escondido que a maioria dos leitores simplesmente não 36 pode encontrar. porque estão sendo usados apenas para passar 48 conceitos importantes. 47 Recomendamos que os leitores não se acanhem diante deles. 10 Formular perguntas interessantes e respondíveis é arte. Não tentamos ser completos. terão utilidade para revelar padrões da natureza ou comunicar resultados de pesquisa. já disponível. nem as mais sofisticadas. ao invés de em técnicas 40 matemáticas. 34 fornecemos o mínimo de referências possível. (2009). execução. o livro mais completo de integração de 22 computação em R e estatística. A ordem em que apresentamos os capítulos neste livro é ligeiramente diferente da 49 ordem em que os apresentamos em nosso curso. O programa R é gratuito e um dos mais 20 completos da área de estatística. que discutiremos nos 2 próximos capítulos. ou de delineamento amostral. disponível no site da editora. devido à complexidade especial deste 41 tópico. mas desafiam a mente humana a derivar hipóteses refutáveis. 42 43 O que esperamos que você obtenha deste livro 44 45 Há conceitos importantes que constituem a base da maior parte da comunicação científica. já que elas podem 37 distrair a atenção dos conceitos mais importantes. para aqueles que desejam uma orientação 12 adicional neste tópico. ou Bolker (2008) para programação em R. ao invés de nossos sumários necessariamente breves e incompletos. Na verdade. Não podemos ajudar muito os leitores neste aspecto crucial. acreditamos que 27 este livro será tanto mais útil quanto mais assunto deixarmos fora dele. independente do 16 método [de análise] que se empregue". Hilborn & Mangel (1997) e Williams et al. exceto talvez. Uma vez armado destes conceitos. Não existe necessidade de piratear programas proprietários para poder fazer 21 cálculos ou gráficos de qualidade para publicação. seja o de Zuur et al. embora talvez os leitores não possam entender isto até o final do capítulo 11. 3 Tukey (1980) enfatizou que "Encontrar a pergunta certa é frequentemente mais importante do que 4 encontrar a resposta certa". já que formular 5 questões realmente interessantes envolve intuição. queiram começar com o 52 capítulo 17 "Dicas para professores". Muitos de vocês podem simplesmente ignorar a maioria das citações. Informação demais impede a tomada de 30 decisões sensatas (Tammet 2009). Zuur e seus 23 colaboradores assumem que seus leitores já estejam familiarizados com os conceitos que apresentamos neste 24 livro. (2002). com todo seu 50 carisma. os professores estão convidados a se referirem à 38 literatura original. Além disso. Em sala de aula. 53 Capítulo 2: "Fluxogramas e questões científicas". já que a maior parte do que veremos aparece em qualquer bom 35 livro-texto de estatística. a presença do professor. na seção sobre estatística multivariada. embora não 17 traga nada que não possa ser encontrado nos livros regulares. No entanto. e que causam a maioria dos problemas de comunicação entre pesquisadores. permite uma organização menos metódica da matéria a ser apresentada. Este livro não é como os livros regulares de estatística. no sentido de que devem dar origem a hipóteses que 7 possam ser refutadas (veja capítulo 5). desde o planejamento. Mas não basta que as perguntas 6 sejam interessantes. Veja Dytham (1999) para uma introdução à computação estatística 19 num programa comercial. Guttman 11 (1985). Discute também sobre informações que não 22 aumentam a força de nossas inferências. e 18 esperamos apresentar (reapresentar) a vocês a ferramenta de comunicação científica mais importante. o que ficou conhecido entre os ecólogos como "pseudorrepetição" 23 (no Inglês "pseudoreplication"). e o título apenas mostra que modelos mais 58 complexos usualmente são requeridos para começar a responder questões ecológicas. aprenderão que o conceito de uma 50 única partição da variabilidade nos dados em suas fontes de variação. 1 variáveis que são afetadas (variáveis dependentes). Não é possível 29 entender a estrutura da maioria dos testes estatísticos. tornando as análises subsequentes irrelevantes ou enganosas. Ciência sem filosofia é uma coisa perigosa. Neste capítulo vocês deverão 48 aprender que o mundo consiste de variáveis contínuas e que converter variáveis contínuas em categorias 49 quase sempre é contra-produtivo e frequentemente. para não quebrar a sequência lógica. Nós exploramos o "erro padrão" para ensinar alguns outros 13 conceitos em nosso curso (veja "Dicas para professores"). nada mais é do que um caso especial de regressão. Entretanto. O capítulo 4 é mais importante como uma introdução ao 16 conceito de "desvio" e como uma base que permita ao leitor interpretar a literatura. é um bom exemplo de quão pouco temos avançados conceitual e filosoficamente nos últimos 34 100 anos. que. não há necessidade de se 14 memorizar fórmulas e as técnicas que envolvam conceitos difíceis de serem visualizadas em gráficos serão 15 explicadas por analogias nos capítulos subsequentes. enganador. a despeito dos espetaculares avanços tecnológicos. Na verdade. como 12 "variância". raramente são 39 considerados nos testes estatísticos. O livro do Karl Pearson. não são fáceis de se visualizar. 36 Capítulo 7: "Evitando riscos em comparações simples". Aqui apresentamos a filosofia popperiana. filogenéticas e técnicas. Infelizmente. Por este motivo. procuramos apresentá-lo em gráficos simples. recomendamos a leitura de alguns dos trabalhos que citamos neste 41 capítulo. 28 que está por trás da maioria das correntes de pensamento predominantes na estatística. Há outras maneiras de se atacar questões de 54 apenas um fator. se você não gostar 40 das implicações de se cometer estes erros. Os leitores precisam compreender este conceito. pela primeira vez neste livro. A capacidade atual de se armazenar e 3 disponibilizar dados é maior em muitas ordens de magnitude do que há 10 anos atrás. 52 Na verdade. os metadados. e ainda disponível 33 (Pearson 2007). O importante é que você compreenda que 11 alguns conceitos. é justamente nas fases iniciais dos projetos científicos (coleta e armazenamento de dados) que a 6 maior parte das informações é perdida. 9 Capítulo 4: "Descrevendo a natureza". o treinamento de pesquisadores não acompanhou a evolução da tecnologia. 42 o conceito mais importante a ser assimilado é simplesmente a possibilidade de repartir a variabilidade entre o 43 fator atuante e o resíduo. Precisam 25 entender que nenhuma observação é intrinsecamente válida ou uma pseudorrepetição. Nossa discussão sobre erros do tipo II é breve. muitos 11 . embora frequentemente sejam mais importantes do que erros do tipo I. Aqui." Este título é uma pequena pretensão 57 de nossa parte. a ANOVA de fatores categóricos. se aplica tanto para as variáveis 51 categóricas quanto para as contínuas. Infelizmente. Isto depende 26 inteiramente da questão que está sendo formulada. Entretanto. 46 Capítulo 8: "Análises para um mundo com todas as suas tonalidades" trata de uma 47 "ANOVA" com fatores contínuos. 27 Capítulo 6: "Quando improvável significa bem possível". assim. como "desvio padrão". temporais. o 19 gráfico de dispersão (gráfico de pontos ou "scatterplot"). não se preocupem muito com as fórmulas. Este 7 capítulo discute não apenas o armazenamento correto de dados. mas. 2 Capítulo 3: "Armazenamento e disponibilização de dados". as deixaremos para o capítulo 12. e está aumentando 4 exponencialmente. podem ser visualizados em gráficos enquanto outros. 20 Capítulo 5: "Quanta evidência é necessária?". Esperamos poder 17 convencê-los de que a maioria da estatística "descritiva" obscurece os dados mais do que os revela. A maioria das considerações do Pearson é tão 35 relevante hoje como foi em 1892. 24 ou pelo menos suspeitar de pseudorrepetições espaciais. ou não serão capazes de entender 44 qualquer técnica estatística usual. Embora a ANOVA de um fator seja apresentada como uma forma de evitar a acumulação de riscos. a menos que se entenda os conceitos sob uma 30 perspectiva popperiana. mas também das informações cruciais para 8 que estes dados possam ser úteis. e o mesmo 32 se dá com a estatística. publicado pela primeira vez em 1892. que geralmente é chamada de regressão. 5 Em geral. Este capítulo apresenta a relação entre a força da 21 inferência e o número de pontos em um gráfico de dispersão. 56 Capítulo 9: "Problemas do mundo real: mais do que um fator. discutiremos explicitamente erros do 38 tipo II. De qualquer forma. Isto não seria 55 necessário dentro de sala de aula (veja "Dicas para professores"). que é referida nos livros de estatística como "Análise 53 de variância". Ela é também a base para "dendrogramas de decisões" e outros procedimentos 31 científicos que sequer envolvem cálculos matemáticos. e rogamos 45 que se detenham sobre eles o tempo necessário para absorvê-lo completamente. este ainda não é o "mundo real". Aqueles que frequentam a literatura científica precisam aprender reconhecer. introduz a análise de variância simples 37 (ANOVA) para fatores categóricos. Este é o capítulo mais parecido com livros convencionais de 10 estatística. que é bastante complexa. exceto em situações extremamente simples e frequentemente triviais. através do exame de gráficos ou tabelas. indiretos e gerais. Porém. o suplemento "Dicas para professores". Talvez. 12 . Porém. precisam compreender seus 45 princípios gerais. Contudo. Não passe para os capítulos seguintes enquanto não estiver confiante de que 4 compreendeu o conceito de alocação das variâncias entre diferentes fatores. que permitem uma partição única de 3 efeitos entre os fatores. Uma das partes mais difíceis da pesquisa é 50 apresentar suas conclusões de maneira lógica de modo que os leitores possam ver a relação entre a questão. Entretanto. porque os conceitos são complexos e envolvem cálculos que vão além do que pode ser 34 tratado em um livro introdutório. estudantes podem gerar enormes matrizes de dados que impressionam a maioria das pessoas. 28 uma técnica que pode ser usada para se estimar parâmetros e. se 41 um estudante percebe um padrão na relação de diferentes variáveis. As técnicas descritas neste capítulo usam uma variedade de 20 métodos para estimar os parâmetros que descrevem nossos modelos matematicamente. fazer testes estatísticos 29 análogos aos apresentados nos capítulos anteriores. 16 Capítulo 12: "Endireitando o mundo: transformações e outros truques". e porque nenhum teste estatístico pode ser interpretado sem que esteja 15 relacionado com um fluxograma. a não ser que lancemos mão de simulações complicadas em computadores. 31 Capítulo 14: "Probabilidade Inversa". Este capítulo somente introduz os conceitos básicos e 30 remete o leitor à literatura sobre o assunto. 44 Mesmo que os estudantes não pretendam utilizar técnicas multivariadas. 55 apresenta a sequência de aulas que funcionou melhor em nossa experiência. que é diferente das probabilidades frequentistas usadas nos capítulos anteriores. e apontar as dificuldades mais comuns. em alguns casos. que é a base de cerca de 90% da 19 estatística encontrada na literatura ecológica. Entretanto. O leitor deve compreender as diferenças entre 14 efeitos diretos. os inexperientes também correm para a estatística multivariada. O objetivo principal é mostrar que as “probabilidades” frequentistas e 35 bayesianas não se referem aos mesmos conceitos. Este capítulo trata de Verossimilhança Máxima. Infelizmente. e o conceito de interação entre 5 fatores. continua a utilizar modelos lineares aditivos para modelar o 11 mundo. e estes métodos 21 frequentemente podem lidar com curvas complexas. 12 não existe uma variabilidade única que pode ser atribuída a cada fator. Diz-se que "os tolos correm por caminhos aonde os prudentes 37 vão passo-a-passo". Este capítulo deve comunicar a 13 importância dos diagramas que foram descritos no capítulo 2. este tópico 17 deveria vir em seguida ao capítulo 7. Os leitores deverão ser capazes de 47 pelo menos conceituar a relação entre dimensões "fantasmas" e gradientes reais. 12 1 pesquisadores acreditam que estas análises modelam situações do mundo real. Trata de um conceito de probabilidade usado pelos estatísticos 32 bayesianos. usamos os conceitos aprendidos nos capítulos e 9 exemplos anteriores para mostrar aos leitores o que não devem fazer para selecionar variáveis. como fazemos em sala de aula. Tentamos mostrar os princípios gerais sem 46 revisar a matemática envolvida. 49 Capítulo 16: "Como escrever melhor de trás para frente". para serem capazes de entender a literatura. 27 Capítulo 13: "Extensões de Análises Frequentistas". e fornecemos exemplos que 56 podem ser usados nos exercícios em classe. 6 Capítulo 10: "Quais variáveis analisar?". os pesquisadores mais 26 avançados comecem a considerar seriamente o emprego de técnicas de simulação para refinar seus modelos. 42 pode buscar este padrão usando técnicas multivariadas. os 51 gráficos e as conclusões. antes de terminar com esta 48 sessão. 10 Capítulo 11: "Amarrando as coisas". Se ele for bem sucedido em evitar artefatos 43 estatísticos. porque geralmente não 22 permitem a alocação da variância entre as fontes e não podem ser empregados para se determinar a 23 importância relativa de cada fator. A engenhosidade e a experiência necessária para a seleção ótima das variáveis são parte da arte do 8 naturalista e não podem ser ensinadas nos livros. Muitos 38 estudantes (e seus orientadores) pensam que a estatística multivariada é um remédio para todos os males. aqui mostramos que. As análises aqui 2 empregadas ainda são baseadas em modelos lineares simples e aditivos. 40 mas que em muitos casos não têm repetições suficientes até para o exame de um único fator. Pela lógica. 52 53 54 Para aqueles que irão adotar este livro em sala de aula. 39 Frequentemente. Provavelmente não respondemos esta questão neste 7 capítulo. 25 depois de compreender todas as limitações das técnicas de alocação de variâncias. 24 ou nos contentemos em dividir os fatores em categorias de "significantes" e "não significantes". têm sido pouco usados. então análises multivariadas podem ser usadas para facilitar comunicação. em um livro isto poderia 18 distrair o leitor da discussão sobre as técnicas de alocação de variâncias. A introdução a 33 este assunto é breve. O último capítulo impresso fornece sugestões de como fazer isto. 36 Capítulo 15: "Análise multivariada". é um bom lugar para se começar a tratar da complexidade da natureza. cedo ou tarde ele aprende. e arte diz respeito à comunicação. 10 gráficos e fórmulas matemáticas. Nós 23 descobrimos que. significa que o 39 líder do projeto está confuso. Um pintor vê uma paisagem e determina o que 5 ele quer retratar (p. desonesto. Se a questão não foi explicitamente colocada. Vamos assumir que a questão ou a variável a ser investigada já foi 49 determinada e focalizar no problema de decidir o que pode afetar esta variável e de que maneira. textura e forma. harmonia. São palavras duras. mas ao mesmo tempo trágico. através de sua 12 experiência pessoal ou pelo estudo da história da ciência. Em 15 ciência. por essa razão. 1 Capítulo 2: 2 Fluxogramas e questões científicas 3 4 Ciência é uma arte. ou qualquer outra de uma 34 multidão de condições que qualquer pessoa considere indicativa de "qualidade". dos modelos complicados. Assim. 36 mesmo quando aparentemente as questões tenham sido determinadas pela agência financiadora. condições que permitam a perpetuação de comunidades de animais 33 ou plantas que existiam no local quando as populações humanas eram pequenas. Ecólogos frequentemente fazem "análises de caminhos" (Path Analyses). um engenheiro chamaria isto de "análise de sistemas". restrições físicas. O que é que realmente se deseja medir? Qualidade ambiental poderia significar condições que 31 propiciem longas expectativas de vida para seres humanos. ex. Há muitos textos sobre processos de 45 decisão disponíveis nas livrarias e não vamos nos alongar neste assunto. Conceitos 28 complexos como "qualidade ambiental". 1980) e no capítulo 1 de Caughley e Sinclair (1994). Os detalhes desses 20 métodos não importam no momento. Contudo. 18 Contudo. quietude. portanto. ou ambos. ou é incompetente. Não há questões 38 implícitas ou óbvias em um projeto de pesquisa. "estado de conservação" e "justiça social" não têm dimensões. Um cientista faz quase a mesma coisa. competição. Hobbs 41 (1988) apresenta um fluxograma engraçado. mas a 40 consequência de questões vagas é o desperdício de tempo. pode pensar em reduzi-la a uma qualidade essencial (p. usando cor. 35 É preferível envolver toda a equipe no processo de decisão sobre quais são as questões do estudo. 9 mutualismo. ou 29 pelo menos não têm dimensões que podem ser reconhecidas pela maioria das pessoas e por isso não serão 30 úteis. usando palavras. espera-se que o autor esteja comunicando mais sobre a paisagem do que a respeito de si mesmo. que representa a contribuição de 42 pesquisas ecológicas na tomada de decisões. Esta parte do 37 estudo é usualmente a mais difícil e. ele considera alternativas e tenta calcular a 14 probabilidade de estar errado. é evitada na maioria das propostas. mas apenas a prática leva à competência. Muitas vezes o cientista acredita que sua representação da realidade é 11 "objetiva" e a única que uma pessoa racional poderia fazer. Uma boa introdução a esta discussão 46 pode ser encontrada em Tukey (1960. O 8 ecólogo. 16 A principal contribuição do líder de um grupo integrado de pesquisa é a elaboração de um diagrama 17 bi-dimensional do sistema que está sendo investigado. O importante é entender que diferentes pessoas enfrentando problemas 21 complexos fazem uso de técnicas similares e essas técnicas não são propriedade de uma ou outra disciplina. metabolismo) e representa esta qualidade em duas dimensões. Alguns 25 estudantes mais avançados e professores de cursos de bioestatística podem querer procurar em Higashi e 26 Burns (1991) outras maneiras de conectar elementos dos ecossistemas. que sua representação é apenas parcial e que está 13 distorcida pelos filtros de sua cultura e de sua época. olhando para a paisagem. ex. Vamos chamar este desenho de "fluxograma". (1999). 27 Comece por decidir o que você está estudando. ou pior ainda. grandiosidade) e representa esta qualidade essencial em duas 6 dimensões. condições que propiciem a seres humanos uma 32 ampla variedade de atividades ao ar livre. dinheiro e credibilidade dos cientistas. Isto precisa ser alguma coisa mensurável. Uma discussão 47 mais "estatística" dos problemas na seleção das questões e medidas em estudos integrados pode ser 48 encontrada em Osenberg et al. ele pode querer 7 transmitir algo a respeito da paisagem ou de si mesmo. Temos trabalhado em países e regiões pobres e admitimos que 44 nos tornamos intolerantes com esforços de pesquisa desperdiçados. os fluxogramas são os mais fáceis de serem entendidos pelos 24 estudantes e. enquanto um psicólogo falaria em "modelos 19 causais". poderia ser 43 usado para salvar vidas de crianças carentes. 22 Há uma arte para fazer fluxogramas e algumas regras básicas. Dependendo da escola a que o artista pertença. Este processo é formalizado na matemática da estatística inferencial. 50 51 Construindo a hipótese inicial 13 . Cada centavo desperdiçado em uma pesquisa ruim. Todas as premissas são falsas em algum nível. ou alguma outra razão que justifique os gastos.. Apresentamos duas citações de Allen (1998). sugerimos que 24 abandone este livro e procure suas respostas na teologia. Mas. 47 48 Figura 2.uma perda de tempo. não vem ao 20 caso. e os leitores podem 43 facilmente ver quais fatores foram deixados de fora. embora talvez fosse adequado antes fazer uma leitura 25 de Dawkins (2009) para uma reflexão sobre as dificuldades em se obter respostas absolutas. Você está interessado na 32 densidade de uma espécie de lagostim. novamente. relacionado com uma questão ecológica (figura 2. Os leitores que se sentem confortáveis com uma matemática um pouco mais complexa podem 9 consultar Burnham e Anderson (1998). você deveria repensar o 35 problema antes de submeter à proposta. a correção das premissas está fora das 21 possibilidades. Entretanto. como predação por pássaros. que refletem também o 16 nosso ponto de vista filosófico. obviamente. Portanto. Caso se 34 descubra que os membros da equipe não estão de acordo com a questão geral. Entretanto. 22 refere-se a encontrar situações onde se possa ir adiante com uma premissa – e ainda conseguir que o modelo 23 tenha alguma utilidade. desperdiçar esforços. Eles serão criticados por muitos biólogos de escritório. 36 Examinando o fluxograma mostrado na figura 2. tipo de substrato e doenças não foram 41 incluídas. Esta é a 7 arte do cientista.1. Esta é uma decisão subjetiva e os pesquisadores podem estar errados. Este 31 fluxograma preliminar é importante porque ilustra a hipótese inicial e as premissas. 1 2 Você pode começar com a premissa de que qualquer coisa é conectada com tudo o mais e tentar 3 colocar tudo em seu modelo. é acertado ou errôneo. eles 42 corajosamente mostraram quais fatores eles acreditam ser prioritários para a pesquisa. iremos tratar de modelos e suas premissas. 13 Neste capítulo. Obviamente. A ciência não diz respeito à obtenção de respostas para tudo. Não se envergonhe se seus 11 primeiros modelos não parecerem bons. Se você espera respostas absolutamente certas para todas as questões. Contudo. uma simplificação tão grande que não permite a análise na presente 30 forma. nem que seja para mostrar as 12 limitações do pesquisador ou de seus dados. "Modelos. 29 Este fluxograma é. Por outro lado. Espera-se que experiência. que tenha sido construído com lógica e consistência. Uma boa discussão sobre construção de modelos pode ser encontrada em Starfield e Bleloch 8 (1991). ainda assim. como em experimentos laboratoriais sobre 28 fisiologia ou questões sobre padrões biogeográficos em escalas continentais. e dizer 19 que um modelo. modelos envolvem conceitos filosóficos 15 mais complexos do que a matemática. alguns dos revisores podem até tecer 46 críticas realmente construtivas. presumivelmente porque ele tem importância comercial ou por estar 33 sendo considerado como ameaçado de extinção.1 49 14 . que não passam de réplicas dos sistemas reais. a noção de certo e errado não serve para nada em modelagem. você pode montar um sistema tão simples que ele não tenha 5 mais semelhança com o mundo real e. e no resto deste livro. todos os modelos são errôneos. vamos usá-lo para discutir os mecanismos de construção de um diagrama. Por vezes. não podem ser a 17 representação fiel dos sistemas em todas as situações. portanto. Nosso modelo deve ser simples o 6 suficiente para ser manejável. no sentido de 18 diferirem das observações. a 14 construção de modelos aparenta ser um processo técnico.1). e também não vem ao caso". Mesmo um modelo ruim é útil. Isto é análogo a um escultor querer colocar uma montanha inteira sobre o seu 4 pedestal . A 27 mesma lógica pode ser aplicada a estudos em outras escalas. 26 Vamos começar com um exemplo simples. descobrimos que a equipe acredita que os fatores 37 mais importantes que estão afetando a densidade do lagostim são o fitoplâncton. Além disso. estamos interessados em um nível muito mais geral do que 10 estes autores e a construção de modelos é uma arte que vem com a experiência. mas complexo o suficiente para capturar a ideia central do problema. informação da literatura e bom senso sejam usados para 39 decidir quais os fatores mais importantes a serem estudados.. 44 que exortarão a necessidade de inclusão de inúmeras outras variáveis que poderiam ter algum efeito sobre o 45 lagostim. Milhares de outras coisas que 40 potencialmente podem ser importantes. a poluição do corpo de água 38 e peixes predadores. Este é o preço da honestidade e integridade. Se duas variáveis têm 10 uma relação causal.5. Se não há pontas de flecha 6 no traço que une duas variáveis. que pode ser substituída pela figura 2. Embora teoricamente possível. Uma seta com 5 pontas nas duas extremidades indica que cada uma das variáveis influencia a outra. da forma exemplificada na figura 2.2 14 EDUCAÇÃO CAPACIDADE PROFISSIONAL 15 16 SAÚDE 17 18 19 20 21 22 23 24 25 26 27 28 15 . mas nenhuma afeta diretamente a 7 outra. 9 A figura 2. é que as setas indicam a direção do efeito. como aparece na figura 2. indica que elas variam conjuntamente. nenhuma destas duas situações é útil para modelagem e o leitor deveria 8 procurar uma terceira variável que explique a relação. deveríamos ser capazes de incluir um ou mais fatores que 11 explicassem esta causalidade. 12 13 Figura 2.4.3. PEIXES DENSIDADE POLUIÇÃO DE LAGOSTINS 1 2 FITOPLANCTON 3 4 A primeira coisa a notar no fluxograma.2 mostra uma correlação. 3 EDUCAÇÃO CAPACIDADE RENDA PROFISSIONAL 2 3 SAÚDE 4 5 6 Figura 2.5 11 EDUCAÇÃO CAPACIDADE ESCOLARIDADE HIGIENE PROFISSIONAL 12 SAÚDE 16 . 1 Figura 2.4 7 EDUCAÇÃO CAPACIDADE PROFISSIONAL 8 9 SAÚDE 10 Figura 2. difícil de ser detectado em campo. podem ter grande potencial para a medicina ou 51 agricultura. que era "desnecessariamente complexos". 47 tornando os efeitos indiretos impossíveis de serem acessados. dependentes umas das outras. porque a maioria destes modos não contribui para gerar os dados necessários para a 25 análise estatística do fluxograma global. 12 Retornando ao exemplo do lagostim. 52 A maneira mais convincente de mostrar que efeitos diretos estão atuando é através de um 53 experimento que manipule o sistema. estes diagramas são necessários para interpretar a maioria das análises 8 estatísticas. Além disso. Antes. Isto é real? 30 A questão básica. mas também afeta indiretamente. 7 Surpreendentemente. 44 É importante entender que frequentemente os testes estatísticos mais poderosos não respondem a 45 questão "O efeito normalmente existe?". mas nada é tão simples assim. Esta diferença não é trivial. Veremos. Contudo. mas sem o diagrama é 10 difícil enxergar onde o estudo se encaixa dentro de todo o esquema. de forma que apenas as variáveis estudadas possam influenciar o 54 resultado. se seus níveis puderem ser manipulados artificialmente. Entretanto. Por exemplo. 26 27 Três tipos de estudo 28 29 1. Isto está 40 longe do que o senso comum indicaria como o procedimento lógico e não é o tipo de probabilidade com que a 41 maioria das pessoas se sente à vontade. Eles 5 não são "sofisticados" no sentido original da palavra. precisamos considerar os diferentes modos dos pesquisadores estudarem as setas que 24 lhes cabem do diagrama. e sem dúvida os 34 cientistas adeptos da estatística Bayesiana têm facilidade de se comunicar com políticos e com o público em 35 geral. também. 1 2 Este exercício resultou em fluxogramas que mostram os fatores que julgamos importante para o 3 processo em estudo e o que afeta o quê. mas. ou algumas vezes muitas.e. mas sim à questão "Se todas as outras variáveis forem mantidas 46 constantes. porque constrangem as outras variáveis 48 tratando-as como constantes. dos textos de estatística e dos programas estatísticos para computadores são baseados 39 em técnicas frequentistas e calculam a probabilidade de a seta não existir em nossos fluxogramas. Estes testes consideram apenas os efeitos diretos. Diz-se que os resultados destes experimentos permitem uma "inferência forte" (sensu Platt 1964). e algumas variáveis que normalmente têm um 50 pequeno efeito direto. 14 podemos notar que algumas das outras variáveis em nosso modelo (chamadas de "variáveis independentes") 15 são. por favor. porque o desmatamento afeta a 19 poluição do riacho. é determinar se um efeito 31 existe. se o leitor não 43 é familiarizado com a filosofia Popperiana. e Guttman (1985) refere-se a ela como "uma cura pior do que a doença". e não contêm 6 aqueles hieróglifos que usualmente associamos com textos científicos. No entanto. a mudança desta variável produz algum efeito?". algumas das 16 variáveis que afetam diretamente a densidade dos lagostins produzem também efeitos indiretos. É claro que todos os modelos apresentados até agora demandam ainda 4 muito trabalho e pode ser difícil admitir que eles são vitais como ponto de partida de estudos científicos. e frequentemente a única questão deste tipo de estudo. deveria ler o capítulo 5. a estatística Bayesiana não é fácil de se entender ou 37 calcular (Moore 1997). das flechas de um fluxograma. Isto justifica sua designação de "variável dependente" no jargão estatístico. de fato. Isto pode complicar nossas análises. já 55 que as variáveis que poderiam estar confundindo os resultados foram eliminadas. Isto equivale a perguntar se nós deveríamos mesmo incluir esta seta em nosso diagrama. porque elas 17 influenciam outras variáveis que afetam a densidade do lagostim. a maioria dos testes estatísticos que os membros de sua 42 equipe irão usar será baseada em técnicas frequentistas (i. Alguns poucos cientistas calculam a 33 probabilidade de que a seta exista. Pode parecer 32 simples provar que um efeito existe. Existem técnicas estatísticas para lidar com efeitos 20 indiretos e variáveis independentes quando elas não são realmente independentes umas das outras. Alguns fatores que não têm efeitos diretos nas 49 variáveis-resposta podem ser muito importantes no mundo real. o desmatamento afeta 18 diretamente a densidade do lagostim. na filosofia Popperiana). Raramente poderemos satisfazer as 22 premissas destas análises e a maioria dos pesquisadores de sua equipe estará focalizada em partes limitadas do 23 seu diagrama. Os estudos científicos investigam uma. vemos que sua densidade presumivelmente depende de muitas 13 outras variáveis. 9 Raramente ocorre de os pesquisadores investigarem todas as setas de seus modelos. Albert (1997) nos dá uma explanação fácil de ser digerida de como a estatística Bayesiana pode ser 36 usada para responder questões simples. que afeta a densidade do lagostim. que só podemos 11 determinar a validade da maioria das análises estatísticas se soubermos onde elas se encaixam no fluxograma. lançando mão da estatística Bayesiana (Capítulo 14). não pule para este capítulo ainda. Portanto. como "P<" ou "χ2=". como as 21 descritas no capítulo 11. os resultados 17 . A maioria 38 dos testes estatísticos. Entretanto. 1 obtidos podem não ter muita relevância para o mundo real (p. ex. Carpenter, 1999) e os ecólogos serão 2 sempre capazes de sugerir um ou mais fatores que poderiam ter algum efeito (Tukey 1991, Johnson 1999), 3 mesmo que estes efeitos não tenham muita importância nos sistemas não manipulados. O líder e os membros 4 do grupo precisam se assegurar de que as questões formuladas por cada um dos pesquisadores da equipe 5 sejam relevantes para a questão geral. 6 7 2. Qual é a forma e a magnitude do efeito? 8 Descobrir que um efeito é ou não diferente de zero frequentemente não é muito útil (p. ex. Rosenthal 9 e Rubin 1994). A segunda fase da pesquisa frequentemente levanta questões a respeito da forma da relação 10 existente ou que se presume existir. A maioria dos modelos é construída sobre relações lineares simples ou 11 linearizadas e nosso fluxograma reflete isto. Poderíamos achar que, para cada peixe predador acrescentado ao 12 sistema, reduzimos a densidade do lagostim em três indivíduos por metro de riacho. Mas, um resultado 13 simples como este é improvável. Muitos estudos ecológicos têm mostrado que o efeito de predadores sobre as 14 densidades das presas não é simplesmente uma função linear de suas densidades. Caughley e Sinclair (1994: 15 Capítulo 11) fornecem muitos exemplos. Lagostins em pequenas densidades podem não ser suficientes para 16 manter populações de peixes. Em altas densidades de lagostins, a população de peixes pode não ser limitada 17 pela disponibilidade de alimento, mas por outros fatores, como, por exemplo, a densidade de seus próprios 18 predadores. 19 Muitas variáveis que afetam processos biológicos se comportam desta forma, não produzindo efeitos 20 em baixos níveis, efeitos positivos em níveis intermediários e efeitos negativos em níveis elevados. A figura 21 2.6 mostra a relação entre a temperatura e a proporção da população em atividade de um inseto hipotético. 22 Pensem quantas relações em seu campo de estudo têm esta forma. 23 É importante conhecer a forma da relação entre as variáveis para decidir como vamos incorporá-las 24 em nosso modelo, se devemos mudar as unidades de medida das variáveis (ou seja, transformá-las), ou se 25 vamos decidir investigar apenas uma gama limitada de condições, antes que possamos aplicar a maioria dos 26 testes estatísticos ou técnicas de modelagem. Na verdade, é óbvio que precisamos de informação sobre a 27 forma da relação antes de testar se um efeito existe. Se compararmos os níveis de atividade do inseto a 5°C e a 28 20°C, concluiremos que a temperatura tem pouco ou nenhum efeito, ao passo que, se compararmos os níveis 29 de atividade nas temperaturas de 5°C e de 15°C, concluiremos que a temperatura tem um efeito muito forte. 30 Este problema é frequente quando são aplicados testes para determinar a existência de fenômenos com 31 premissas incorretas quanto ao formato da relação, ou quando os pesquisadores não investigaram todos os 32 níveis possíveis do fenômeno. Vamos considerar mais sobre estas questões nos capítulos 8 e 10. 33 34 Figura 2.6 35 75 60 % ATIVIDADE 45 30 15 0 0 5 10 15 20 25 TEMPERATURA (°C) 36 37 38 3. O que acontecerá se as condições mudarem? 18 1 Muitos pesquisadores gostariam de responder à questão "Quanto efeito uma variável tem sobre a 2 outra" e este é o terceiro nível do estudo. Infelizmente, quase sempre, a resposta é "depende". Para responder 3 a esta questão, devemos investigar os níveis em que esta variável normalmente ocorre no sistema, nas 4 frequências em que estes níveis ocorrem. Então, normalmente as manipulações experimentais recomendadas 5 para a "inferência forte" não são apropriadas para responder a esta questão. Além disso, quando o efeito de 6 uma variável depende dos níveis de outras variáveis ‘independentes", como ocorre no mundo real, não há uma 7 única resposta correta (i.e. a resposta é "depende"). Usualmente, as pessoas que se dedicam à modelagem de 8 sistemas não tentam fazer previsões precisas e não estão interessadas em experimentos de "inferência forte". 9 Elas tentam simular como os sistemas funcionam, usando um computador e relações matemáticas simples. 10 Elas modificam o nível e/ou a variabilidade de cada fator e rodam o modelo centenas ou milhares de vezes 11 para tentar determinar quais as variáveis mais importantes do sistema. Alguns pesquisadores, especialmente 12 aqueles que empregam métodos bayesianos, usam Cadeias de Markov em procedimentos de Monte Carlo com 13 milhões de simulações, para obter estimativas de parâmetros baseadas em médias ponderadas de todos as 14 simulações. Se você tem um modelador em sua equipe, vocês deveriam discutir logo as necessidades dele, 15 porque geralmente os modeladores não podem fazer uso do tipo de dados que a maioria dos pesquisadores 16 coleta. Osenberg e colaboradores (1999) fornecem uma boa discussão sobre as dificuldades enfrentadas em 17 estudos integrados, mesmo quando todos os pesquisadores estão ostensivamente estudando a mesma questão 18 simples. Se a complexidade das estatísticas que os pesquisadores de seu time empregam o atordoa, 19 considere delinear o estudo para permitir análises mais simples, ao invés de ficar tentando reparar os 20 erros amostrais por meio do emprego intensivo de matemática. 21 Vimos que os pesquisadores podem ter questões muito diferentes, mesmo quando estão 22 aparentemente estudando o mesmo fenômeno. Alguns cientistas tentam encontrar uma situação intermediária, 23 coletando dados de uma maneira que permita fazer inferências sobre a probabilidade de um efeito ocorrer, e 24 também obtêm os dados necessários para os modeladores de sistemas. Provavelmente, eles serão criticados 25 por todo mundo. 26 Não há uma resposta correta, e a ciência tem avançado espetacularmente com pesquisadores 27 diferentes trabalhando com diferentes abordagens. Entretanto, em estudos integrados, tanto o líder quanto os 28 colegas de equipe devem conhecer que tipo de coleta e análise de dados cada membro pretende fazer, e 29 precisam decidir o quanto esses dados serão úteis para os demais. Delineamentos amostrais integrados são 30 frequentemente os mais eficientes e discutiremos alguns daqui a pouco, mas antes, vamos considerar a escala 31 da questão. 32 33 Qual o tamanho do problema? 34 35 Muitas das controvérsias na literatura científica ocorreram porque pesquisadores trabalharam sobre o 36 mesmo problema em escalas diferentes. A densidade de uma espécie de planta pode não ser relacionada com 37 características do solo em uma escala de dezenas de metros, embora as características do solo expliquem 38 grande parte da variação na densidade de plantas entre regiões. Mas em uma escala mais ampla ainda, por 39 exemplo, em uma escala continental, pode não haver relação entre a ocorrência de espécies e os tipos de 40 solos. A resposta para a questão de se o solo afeta a distribuição de espécies é "não, sim, não". Se tivéssemos 41 examinado outras escalas, poderíamos ter obtido outras combinações de sim e não. Portanto, não é 42 surpreendente que os leitores de revistas científicas fiquem confusos com os "avanços" da ciência e o público 43 geral ainda mais. Allen e Starr (1982) apresentam uma série de fotografias de um jogo de futebol que mostra 44 como a escala na qual se observa um sistema determina o que podemos descobrir. Quando visto de um avião, 45 não é possível tirar conclusões a respeito do jogo, embora possamos ver todo o estádio e ter uma boa ideia do 46 comparecimento do público. Mais perto, podemos ver os jogadores, mas ao fundo, a imagem do público nas 47 arquibancadas se mistura à dos jogadores. Na aproximação seguinte, é possível observar a ação de jogadores 48 individuais e o jogo em progresso. Numa escala ainda mais próxima, em um ponto de vista no interior da 49 bola, a fotografia é completamente negra. Os pesquisadores pensam bastante nestes aspectos quando vão 50 assistir a jogos de futebol, mas, surpreendentemente, costumam dar pouca atenção a eles quando planejam 51 seus estudos científicos. 52 É claro que não há uma escala "correta" para os estudos científicos. Muitos artigos recentes têm 53 discutido a importância da escala (p. ex. Peterson e Parker 1998, Lawton 1999, Pascual e Levin 1999, 54 Petersen et al. 1999). Alguns dos avanços científicos mais importantes vêm de estudos em escalas diminutas e 55 outros em escalas muito grandes. Entretanto, em um estudo integrado, especialmente um desenhado para 19 1 subsidiar os políticos na tomada de decisões, haverá um leque limitado de escalas apropriadas para atender a 2 necessidade geral do estudo, e estas escalas são, usualmente, grandes (Bradshaw 1998, Ormerod et al. 1999). 3 Para decidir em que escala trabalhar, você deveria primeiro considerar a área/população/período de 4 tempo/situações físicas/químicas/sociais a que você deseja que os resultados se apliquem. Isto é chamado de 5 seu universo de interesse. Potencialmente, todos os membros da equipe podem trabalhar em escalas similares, 6 mas os cientistas tendem a copiar seus desenhos amostrais de publicações recentes na literatura especializada 7 de sua área. Pode ser difícil convencer um membro da equipe que ele deveria usar uma determinada escala de 8 amostragem, se um famoso cientista acabou de publicar na revista de maior prestígio da área, um estudo a 9 respeito do mesmo organismo (ou processo), usando uma escala de amostragem completamente diferente. 10 Embora muito seja feito para inovar a ciência, a maioria dos cientistas acredita que serão criticados por seus 11 colegas se desafiarem os dogmas estabelecidos, inclusive no que tange à escala de amostragem – e eles estão 12 certos. Nos casos mais extremos, o líder da equipe deve decidir o quanto de prestígio pessoal ele está disposto 13 a sacrificar pelo bem do projeto. 14 15 Para onde ir? 16 17 Em geral, os pesquisadores decidem qual método de análise irão usar copiando um disponível na 18 literatura, e não consideram a especificidade de suas questões. Por causa disso, as análises tendem a definir as 19 questões, ao invés de as questões definirem as análises (Yoccoz 1991). Portanto, é importante que o líder e 20 cada membro da equipe tenham algum conhecimento sobre os conceitos que embasam os tipos de análises 21 mais comumente empregados pela maioria dos cientistas. Afortunadamente, as análises estatísticas mais 22 usadas são baseadas em poucos conceitos básicos. Para usá-los, precisaremos ser capazes de construir 23 fluxogramas, interpretar gráficos simples e entender a filosofia que está por trás dos testes de hipóteses. Os 24 fluxogramas que construímos mostram onde pensamos estar. Eles nos sugerem experimentos críticos ou 25 observações que precisamos fazer. Platt (1964) disse que deveríamos "devotar de 30 a 60 minutos por dia para 26 reflexão e análise, anotando explicitamente, em um caderno de notas permanente, as alternativas lógicas 27 referentes aos nossos experimentos críticos". Infelizmente, estas habilidades não são ensinadas na maioria dos 28 cursos de estatística para biólogos. Tentaremos considerar alguns dos aspectos básicos destas habilidades nos 29 próximos capítulos. 30 31 20 Quando os autores 22 "seniors" deste livro estavam iniciando suas atividades de pesquisa. todos os algoritmos de manipulação têm de consultar as tabelas de dados para fazer seu trabalho. mas todos têm dois componentes básicos: 35 tabelas de dados e algoritmos de busca e manipulação dos dados. e o computador precisa saber o seu 48 tamanho (quantos elementos ela possui). O desenvolvimento de sistemas de arquivamento e recuperação de dados é 30 uma área ativa de pesquisa e não podemos fazer jus à imensa literatura ou rever os "softwares" e as 31 capacidades dos "hardwares" dos modernos sistemas de computação. a ciência tem sido construída baseada essencialmente em iniciativas individuais e 7 os maiores reconhecimentos têm sido atribuídos a pesquisadores que publicam em revistas prestigiadas. vamos rever os conceitos básicos e mostrar como um pouco de planejamento pode levar a um 33 grande ganho em termos dos resultados científicos. Os últimos podem ser extremamente 36 complicados. via de regra. que hoje são disponíveis a custos razoáveis. Hoje. Hoje sabemos que não há respostas simples. como em outras seções 32 deste livro. e a maioria dos ecólogos pode não ter a formação necessária para compreender suas sutilezas. Ao 13 final do século XIX. erros de transcrição eram comuns e apenas para se conferir a aritmética de uma grande 18 quantidade de cálculos gastava-se dias de trabalho. 37 Contudo. 38 Assim. a interpretação era o objetivo final de 23 pesquisa e os dados já "usados" eram essencialmente sem valor. Vamos batizá-lo de MASSA e ele tem o comprimento de 50 seis. um pequeno chip de memória pode arquivar a 19 maioria dos dados que um cientista individual pode coletar durante uma vida de trabalho. Neste capítulo. Isto era compreensível. desenvolvidas quando a capacidade de arquivar e gerir dados era 27 mínima. continuam sendo usadas. A 8 competição tem sido a força motriz impulsionando a maior parte do progresso tecnológico. para responder muitas questões diferentes das que inicialmente 29 determinaram a coleta dos dados. 25 Infelizmente. Ela precisa ter um nome. vamos tecer 41 considerações de como colocar os dados em tabelas de forma que eles possam ser eficientemente inseridos na 42 maioria dos programas de arquivamento e busca de dados hoje disponíveis. Estes dados poderiam 28 ser usados por outros pesquisadores. Os dados são 9 coletados primariamente para testar hipóteses específicas que são de interesse da comunidade científica 10 naquele momento e os dados originais. Os "computadores" de Pearson eram de 17 carne e osso. Nelson 2009). O vetor abaixo representa os 49 pesos de seis peixes de uma determinada espécie. quanto mais os dados forem pré-processados ao durante o processo de entrada nos bancos de dados. "campo" 47 ou "variável". 43 44 Tabelas de dados 45 46 A tabela de dados mais simples é uma série de números ou caracteres chamada de "vetor". mas o valor dos dados aumenta com o tempo. mas em geral poucos 15 pesquisadores individuais tiveram os recursos necessários para arquivar literalmente toneladas de papel. se ele não recorrer a 20 sistemas automáticos de coleta de dados consorciados com seus próprios sistemas de memória com 21 transmissão rápida e facilitada de dados. 1 Capítulo 3: 2 Armazenamento e disponibilização 3 de dados 4 5 6 Tradicionalmente. Ao invés disso. Karl Pearson contratou dezenas de "calculadores" para lidar com a quantidade massiva 14 de dados enviados por seus colaboradores de diferentes partes do globo (Salsburg 2001). de forma que saberá onde ela termina. resultando em perda e degradação de dados valiosos. 34 Há muitos programas de banco de dados disponíveis. são perdidos depois de servirem aos propósitos pelos 11 quais foram coletados. para distingui-la de outros vetores. 39 menor será o trabalho dos algoritmos para lidar com eles e consequentemente menor será a demanda de 40 recursos computacionais para os pesquisadores acessarem os dados. 16 Tudo isto mudou com o advento da computação moderna. 21 . porque o tempo e os recursos financeiros para a gestão de uma 12 imensa quantidade de dados não estavam ao alcance da maioria dos pesquisadores e gerentes de pesquisa. a formação dos ecólogos não acompanhou o ritmo da revolução da informática (Lynch 26 2008. 24 então as interpretações são regularmente descartadas. Práticas antiquadas. na verdade estes vetores têm duas linhas cada. 1 MASSA: 5 12 7 9 10 6 2 3 4 Podemos ter outras informações sobre os mesmos peixes. data ou algum outro formato especial. eles são essencialmente apenas nomes e não podem ser manipulados 28 matematicamente. então os dois 9 vetores terão muito mais valor se forem relacionais. se pudermos identificar quais elementos de cada 10 vetor vêm de cada indivíduo. 23 Isto é uma tabela relacional (ou "dataframe" no programa R). mas estas tabelas não são 25 relacionais e geralmente não são muito úteis para análises de dados. Dados que descrevem outros dados são chamados de metadados e por isso vamos chamar a 40 tabela que os contêm de tabela de metadados primários. Na tabela abaixo usamos uma variável 26 (IND) para indicar a qual indivíduo se refere os dados daquela linha. embora tenhamos usado 27 números para codificar os indivíduos. teremos 19 de assumir que esta informação é dada pela ordem (SEQUENCIA) na qual os valores ocorrem. então. 30 31 32 Tabela 3. 6 SEXO: M F F M M F 7 8 A maioria das questões científicas trata das relações entre objetos ou fenômenos. Portanto. É claro que é possível criar tabelas em que as 24 colunas de uma mesma linha não tragam informação sobre o mesmo objeto. usualmente guardamos informações 22 relacionadas de uma forma que as informações sobre um mesmo objeto fiquem ligadas em uma mesma linha. Note que.1 IND MASSA SEXO "1" 5 M "2" 12 F "3" 7 F "4" 9 M "5" 19 M "6" 6 F 33 34 35 Metadados primários 36 37 Uma tabela de dados como esta é essencialmente sem utilidade na ausência da informação que 38 descreva o contexto no qual os dados foram coletados e que informe o que os nomes das variáveis 39 representam. porque se a ordem for diferente ou misturada 21 para um dos vetores. as relações terão perdido o sentido. isto é. vamos colocá-los entre aspas. Obviamente 20 podemos ter muitos problemas se lidamos apenas com vetores. Os metadados para a tabela que criamos acima poderia ser algo como: 42 22 . Nenhum dado deveria ser arquivado sem seus 41 correspondentes metadados primários. Assim. e não sabemos quais indivíduos estão envolvidos. 12 13 MASSA: 5 12 7 9 10 6 SEQUENCIA: 1 2 3 4 5 6 14 15 16 SEXO: M F F M M F SEQUENCIA: 1 2 3 4 5 6 17 18 Se desejamos relacionar os dois vetores. Esta informação pode ser dada pela sequência em que os dados aparecem no 11 vetor. A maioria dos programas define cada variável 29 como numérica. categórica. então podemos criar um outro vetor (SEXO) que 5 representa o sexo dos peixes. Um grupo de tabelas com alguma característica em 20 comum. 27 28 Metadados secundários 29 30 Qualquer coisa que descreva dados são metadados.. Por exemplo. Entretanto.. 38 A perda pode começar ainda mesmo no campo. e pode-se 9 criar um único arquivo de metadados para descrever muitos arquivos... medidos e preservados em.. Nomes e descrições das variáveis: IND – Número de identificação de cada peixe capturado na rede.. ... Os pesquisadores têm desenvolvido metadados padronizados para diferentes tipos 5 de dados.®. É útil tirar vantagem de sistemas que já existem. tem se tornado norma para muitos 39 pesquisadores de campo coletar apenas metadados secundários. e isto leva à 37 perda de informação. De fato. 1 2 Provavelmente você vai lembrar-se de muitos outros detalhes que gostaria de ver incluídos nos 3 metadados primários.. é mais fácil manusear um banco de dados se as tabelas tiverem um mínimo de variáveis 22 (minimamente a própria variável de interesse e uma variável "chave" que permita que dados do mesmo objeto 23 em tabelas diferentes sejam agrupados durante as consultas ou operações de sumarização e pesquisa no banco 24 de dados)... Por 15 exemplo.. Os peixes foram coletados com uma rede de espera de 5x2 m de tamanho e malha de 10 mm de entrenós opostos. Isto não será um problema.ecoinformatics. Os espécimes foram depositados na coleção de peixes do Museu da Fundação do Lago Cristalino (números de acesso.5g. vamos preferir ter uma 17 tabela separada com as características de cada sítio e fornecer apenas um código do sítio na tabela de captura 18 dos peixes.. determinado pela coloração dorsal (presença de rosa nas fêmeas) e subsequente confirmação por exame histológico das gônadas pelo colaborador. Long. Nós usamos o sistema adotado na rede de Pesquisas Ecológicas de Longo Prazo 6 (http://knb.. De fato. e frequentemente os metadados ocupam muito mais espaço do que os 4 dados propriamente ditos. de modo que se possa combiná-las.). desde que tenhamos pelo menos um campo que seja comum às 19 diferentes tabelas. botânicos frequentemente usam 23 ... Embora poucas pessoas escrevam e guardem seus metadados 36 primários. Isto é típico. se temos uma tabela com informação onde cada peixe foi capturado. 10 11 12 Banco de Dados 13 14 É difícil procurar informações em tabelas grandes. com acuracidade de 0. usualmente é mais fácil para os ecólogos encontrar informações nas tabelas seguindo 25 caminhos mentais que se relacionam mais com a forma com que os dados foram coletados do que com a 26 forma como são manipulados no computador... Provavelmente. SEXO – O sexo do peixe. 33 porque eles resultam de uma simplificação da tabela de dados originais. A rede foi armada a 4m de distância da margem entre 04:00 e 06:00h em 25 de junho de 2007. pesado ainda fresco e logo após a retirada da rede em uma balança marca ... . Por exemplo. então sumários dos dados de uma tabela também 31 são metadados. Metadados 35 secundários apenas sumarizam os resultados. .1 Estes dados foram coletados como parte de um estudo mais amplo sobre o ciclo reprodutivo da icitiofauna de Lago Cristalino (Lat. e muita informação é repetida e redundante. de modo que possam ser examinadas e combinadas por um algoritmo de busca é chamado de "banco 21 de dados". e não uma descrição do contexto em 34 que os dados foram coletados. A profundidade da água foi .. podemos reportar a massa média dos peixes coletados em cada sítio ao invés de 32 indicar as massas de cada peixe individual.. não vamos querer descrever 16 todas as características de cada sítio cada vez que este for listado. Todos os indivíduos da espécie Pisces edulis foram pesados. MASSA – Massa líquida do peixe em gramas.).. Metadados primários permitem que o estudo seja repetido..org/software/eml/). os metadados secundários são frequentemente arquivados ao invés dos dados originais. Chamamos este tipo de metadados de "metadados secundários". Diferentes tabelas de dados podem ter muitos elementos em comum. mas os leitores 7 deveriam complementar estas informações com qualquer outra que julguem serem relevantes para a 8 interpretação de seus dados.. Metadados Primários para a Tabela 3. . e não vão precisar se preocupar se algum botânico sueco poderia prever nuances de seus estudos 80 12 anos atrás.2 Sexo Idade Clássica Jazz Rock Outro Feminino 20-24 24-28 28-32 32-36 36-40 Masculino 20-24 24-28 28-32 32-36 36-40 25 26 27 Tabela 3. rock ou outra)? 20 Qual a sua idade? 21 Qual o seu sexo (macho ou fêmea)? 22 23 24 Tabela 3. Não se preocupem se realmente não 6 estimaram com precisão de um por cento. 4 É mais fácil estimar percentagem de cobertura como 26% e registrá-la como tal. mas isto nem sempre é possível. como médias. Na verdade. jazz. dadas as restrições de tempo. Talvez como resultado de treino inapropriado nas 15 escolas e cursos de graduação.3 Idade Clássica Jazz Rock Outro M F M F M F M F 19-22 22-25 25-28 28-31 >31 28 29 Tabela 3. ao invés de estimar a 5 cobertura como 26% e registrá-la como "categoria 4 de Braun-Blanquet". Uma vez que os dados estejam em seus bancos de dados. 10 pode-se derivar deles quaisquer categorias de metadados secundários que julgarem adequadas para seus 11 estudos. 13 Mas mesmo supondo que os dados sejam coletados em campo sem degradação. se você dispuser de dados 9 suficientes. Os dados originais foram respostas de 18 estudantes às seguintes questões: 19 Qual o seu tipo favorito de música (clássica.4 Idade 20-25 Idade 25-30 Idade 30-35 M F M F M F Clássica Jazz Rock Outro 30 31 Nem sempre é fácil para os estudantes visualizarem como as tabelas devem ser organizadas para 24 . 1 o sistema de Braun-Blanquet para registrar cobertura vegetal. Os exemplos seguintes são relatos reais de como estudantes de mestrado iriam tabelar os dados 17 de um estudo sobre preferências entre diferentes estilos de música. a perda de 14 informação durante a tabulação pode ser bem rápida. Este sistema converte percentagem de cobertura 2 em categorias ordinais não-lineares de cobertura vegetal. isto depende da quantidade de dados que você dispõe. Não recomendamos que os leitores usem estimativas 3 se podem tomar medidas objetivas e acuradas. a maioria dos estudantes de pós-graduação degrada seus dados antes de 16 arquivá-los. Mesmo estimativas muito 8 imprecisas podem originar estimativas precisas de parâmetros. Não é preciso decidir a priori o quanto é a precisão mínima útil de 7 seus dados. com os metadados primários adequados. que corretamente identifica os estudantes como objetos e a preferência musical. que 3 descrevem as características de cada objeto. 22 No processo de sumarizar a informação. O nome ou simplesmente um código numérico de cada objeto é o que define sua identidade e 36 permite atualizações da tabela no futuro. perdemos também os objetos originais da pesquisa. O mesmo acontece com os outros atributos em todas as tabelas apresentadas. Imagine que você 24 desconfie que a origem dos estudantes seja também relevante para determinar sua preferência musical e então 25 distribua outro questionário com esta nova questão. nunca mais poderemos recuperar as idades originais dos estudantes que responderam os 16 questionários. É fácil acrescentar a informação nova sobre a origem de cada estudante 32 simplesmente adicionando uma nova coluna. A 5 maioria dos programas trabalha com a estrutura de linha-objeto/coluna-atributo. Note que ao arquivarmos a informação a respeito de idade codificada em 15 classes. porque os objetos (estudantes) não são linhas da tabela. 1 manter toda a informação no lugar certo. os 23 estudantes. coloquem os objetos como linhas e os atributos como colunas em sua tabela. embora se você entrar ao 6 contrário (as linhas como atributos e os objetos como colunas) sempre é possível transpor a matriz. 29 Entretanto. mas sim um estado (ou nível) do atributo 10 "preferência musical". toda a informação deste estudo pode ser arquivada em uma tabela simples mostrada 30 abaixo (tabela 3. Os 11 estados de sexo (Macho e Fêmea) e as classes nas quais a idade foi codificada aparecem como diferentes 12 colunas ou linhas. como foi feito para idades 14 em todos os exemplos acima. 13 Outro erro comum é o empacotamento de variáveis contínuas em classes. idade e sexo à qual esta nova informação se liga e isto precisa ser feito para 27 cada objeto original individualmente. a localização a respeito da origem. que também está ligada 34 a cada estudante. Atributos de localização são importantes em muitos estudos e 25 . 7 No exemplo do estudo sobre preferências musicais dos estudantes.2 e 3. e cada indivíduo foi medido. o que não é apenas tedioso. e seus atributos. Isto ilustra uma propriedade importante de tabelas de dados. outro) não representa um atributo. mas um processo propenso ao surgimento 28 de erros. foram amostradas duas 44 parcelas. e isto não 19 seria suficiente para responder nossa questão com um grau razoável de acuracidade. A base para a organização de qualquer tabela de dados é o 2 relacionamento entre os objetos.6) tem cada indivíduo como um 45 objeto. nas tabelas 20 3. E se desejarmos plotar a preferência por um tipo musical em função da idade para ver quando 18 mudanças nas preferências ocorrem? Usando a tabela 3. bem como a reserva e a parcela em que foi encontrado.4 teríamos apenas três pontos no gráfico. Uma vez que sejam capazes de reconhecer quais são os objetos e 4 quais são seus atributos. sexo e 33 preferência musical estão ligadas a cada estudante. 40 41 42 Em alguns casos. Para colocar esta nova informação na tabela. que são as menores unidades de interesse em um estudo. rock. Além disto.5 Estudantes Preferência musical Idade Sexo Origem Maria Rock 23 F São Paulo André Jazz 31 M Paraná …. que é o 35 identificador. 38 39 Tabela 3. não há uma maneira simples de adicionar informação nova na tabela. e desde que as informações originais de idade. e 46 ainda seu tamanho. dois atributos do objeto (Reserva e 47 Parcela) definem sua localização no espaço.2. neste caso. As informações de idade nestas tabelas foram degradadas em uma variável contínua com três 17 categorias. na tabela 3. A espécie a que cada indivíduo pertence. a idade e 31 o sexo como seus atributos. os objetos podem ter mais do que um identificador. jazz. Assim.1 43 ilustra um levantamento de espécies realizado em duas reservas. Veja que. Ademais. já está definida. pela simples adição de novas colunas ou combinando com outras 37 tabelas que tenham os mesmos identificadores. Em cada reserva. precisaremos 26 descobrir a preferência musical. 9 cada coluna (clássica.3 as idades foram categorizadas de forma diferente e cada forma de "empacotar" uma variável 21 contínua pode determinar um resultado diferente (Capítulo 7). É um erro comum dar o "status" de atributo a cada estado de um atributo.5). A tabela para estes dados (tabela 3. O exemplo da figura 3. podemos ver que nenhuma das 8 tabelas apresentadas é correta. são atributos de cada indivíduo. que não 42 sumarizam os dados. as 5 parcelas são os objetos e umidade do solo. Mas é possível 4 construir uma outra tabela.5 e 3. cobertura de serrapilheira. Hoje.6 32 12 A 2 19. Podemos sumarizar os dados da tabela 3. Não é eficiente repetir esta 3 informação a respeito das parcelas cada vez que um novo indivíduo for acrescentado na tabela. 9 10 Figura 3.5 21 17 38 39 40 Vimos que o processo de criar metadados secundários pode degradar a quantidade de informação que 41 pode ser extraída das tabelas. podem ser disponíveis para cada parcela. A forma ideal de arquivar os dados é apresentada nas tabelas 3.6. um 26 . atributos como a umidade do 2 solo. A quantidade de informação na tabela é exatamente igual à quantidade de informação 43 que era disponível originalmente.5 para obter quaisquer das tabelas 44 que os estudantes construíram e que foram mostradas acima. 1 comumente definem a ligação entre diferentes tabelas de dados.7 37 Reserva Parcela Umidade do solo (%) Cobertura de Cobertura de copa (%) serrapilheira (%) A 1 5. como a tabela 3.1 11 12   Parcela1 Parcela1 13 14 15     16 17     18 19     20 21 Parcela2 Parcela 2 22 23 24     25 26     27 28     29 30 31 Reserva A Reserva B 32 33 Tabela 3. O fato da informação sobre parcelas e 7 reservas ser comum nas duas tabelas permite ligá-las em sistemas de consulta que todos os bons programas de 8 base de dados podem fazer facilmente. etc. Na tabela 3.7. na tabela 3. mas as deles não podem ser usadas para 45 recuperar os dados originais ou para construir outros sumários.6 34 Indivíduo # Reserva Parcela Espécie Tamanho 1 A 1 Espécie bola 30 2 A 1 Espécie estrela 5 … 42 B 1 Espécie losango 70 35 36 Tabela 3..6 as parcelas eram atributos de indivíduos.7. que registra os atributos das parcelas. Veja que. Neste estudo. cobertura de serrapilheira e cobertura de copa são atributos das 6 parcelas. Para fazer qualquer destes sumários a partir de 46 uma tabela grande de dados nos tempos dos "calculadores" de Pearson levaria dias de trabalho. os dados são valiosos na 36 medida da qualidade dos metadados. e os leitores estarão livres 35 dos custos de manutenção do banco de dados e das páginas pessoais. deve fazer cópias eletrônicas delas (p. Antes de entrar com os 17 dados em programas de banco de dados. tanto os 15 comerciais quanto os livres (freeware). mesmo as melhores tabelas de dados são inúteis. onde 29 todos que tem direito podem acessá-los. faça uma segunda avaliação plotando gráficos das variáveis com 44 relações previsíveis. o quê o tamanho quer dizer? Onde está localizada a parcela 1 na reserva A? E assim por diante. certifique-se de optar por um que 22 exporte facilmente os dados para este formato simples (ASCII) e faça isto imediatamente após entrar com 23 seus dados. 7 8 Arquivamento de dados 9 10 Os dados devem ser arquivados em mais de um lugar. ou ainda 45 largura e profundidade de corpos d'água. então não há razão para não 3 guardar toda a informação que tenham coletado. e coordenadas geográficas. 55 Não se esqueçam de colocar outra pessoa também checando seus metadados. Quanto mais cedo for feita esta checagem. Entretanto. Este formato é adequado. maior é a chance de o pesquisador 51 ainda se lembrar de possíveis causas de valores discrepantes. então é importante alimentar os bancos de dados com informação de 37 metadados detalhada de forma a facilitar as buscas e cruzamento de dados. Os diversos programas de banco de dados. A menos que se trate de 27 dados sensíveis em termos de segurança de informação tecnológica ou de segurança nacional. porque pode ser diretamente importado por 20 quase qualquer programa de banco de dados ou pacote estatístico. o que raramente 28 é o caso de ecólogos. porque os dados precisam ser arquivados em ambientes mais estáveis. mas vamos começar com os dados guardados 11 perto do leitor. Entretanto. e ser capaz de separar os erros de valores 52 discrepantes. e 14 guardá-las como objetos em seu banco de dados. A disponibilidade de computadores de mão (palmtops) está levando ao aumento do número de 12 pesquisadores que entram com seus dados diretamente no campo. e que depois de certo 54 tempo serão eternamente indecifráveis. etc. recomendamos que você mantenha cópias de todos as tabelas de 18 dados no formato simples e mais universal da computação. 25 Arquivar seus dados em diferentes locais independentes assegura que eles estarão disponíveis para 26 você no futuro. o ASCII. 1 laptop medianamente rápido pode sumarizar dados de milhares de observações em milissegundos e a 2 capacidade de estocagem dos discos rígidos começa a passar dos terabites. requerem que os dados sejam arquivados em algum formato 16 particular. mas reais. Disponibilizar os dados em páginas pessoais é uma opção de curto 30 prazo. Entretanto. já que o uso que têm para os dados hoje pode ser diferente 4 daquele que terão no futuro. porque dados díspares podem ser especialmente importantes 50 para muitas questões científicas. mm e cm) e que são prontamente detectadas em gráficos de pontos. 38 39 Checagem dos dados 40 41 Os dados devem ser checados por duas pessoas depois de introduzidos na tabela digital. Se for mais conveniente entrar com os 21 dados diretamente em um programa de banco de dados ou de planilha. algumas vezes os valores 48 díspares são reais e isto só aumenta a responsabilidade dos pesquisadores engajados na geração e 49 arquivamento dos dados em detectar os erros. sem os metadados. peso e comprimento de organismos.) assim que retorne do campo. Uma pessoa 42 lê as fichas de campo e outra confere as planilhas digitais. Muitas coisas que 56 parecem óbvias para quem coletou os dados podem não parecer óbvias para alguém tentando entender como 27 . o melhor local para se depositar os dados é a rede mundial (world-wide web). Também é maior a chance de que ele ainda se lembre o que significam certos 53 hieróglifos escritos nas fichas de campo. É surpreendente a quantidade de dados 46 discrepantes que aparecem nas planilhas apenas como resultado de erros de digitação ou unidades trocadas (p. 47 ex. Uma vez que esteja certo de 43 que entrou com os dados corretamente. que podem ter causado erros de digitação. se o leitor usa fichas de campo 13 em papel. podemos evitar ficar dependentes de um programa particular e evitar perda de dados 24 pela descontinuidade do programa ou incompatibilidade entre versões. mas bancos de dados nacionais e até internacionais estão 32 começando a se tornar disponíveis e nada os impede de depositar seus dados em mais de um banco de dados.6.. ASC. como pH do solo e concentração de cálcio.. 33 A vantagem de submeter seus dados para grandes sistemas de gerenciamento de dados on-line é que eles 34 estarão mais prontamente disponíveis para um grande número de pesquisadores. Eles poderiam ser partes de uma 31 página da própria instituição de pesquisa. ex. 5 E lembre-se que. e geralmente não terão a capacidade de manipular arquivos de imagem. mas não estarão acessíveis para a maioria de outros pesquisadores. No exemplo da 6 tabela 3. JPG. Desta forma. CSV. formatos PDF. que frequentemente aparece associado 19 com as extensões TXT. para detecção de erros. e as oportunidades para intercâmbio científico e colaboração 29 superam a remota possibilidade de alguém não reconhecer seu crédito pelos dados e tirar o ineditismo de sua 30 publicação. Isto é especialmente importante se mais de uma pessoa coletou os dados em campo. 36 Além disso. dados que podem levar a patentes. corrija os problemas 19 imediatamente. podem mudar a estimativa de cobertura em 10- 9 20%. Lembre-se que espaço não é mais um problema. e é provável que represente 46 cerca de 10-15% dos custos totais de um grande projeto. 42 43 Uma receita para gestão de dados 44 Como em todos os demais aspectos da pesquisa. Provavelmente este tempo poderia ser melhor aproveitado ensinado-os a registrar metadados 13 primários. Não se esqueça de fichas para registrar mudanças nos metadados (protocolos) juntamente com as fichas de campo. Quando for escrever uma proposta. Nunca é cedo demais para começar a acumular experiência. O mundo está em transformação e pesquisadores egoístas e de visão estreita logo se 35 verão isolados e excluídos do sistema. certifique-se de 47 ter alocado tempo e dinheiro para fazer isto apropriadamente. 1 isto foi feito. Na nossa perspectiva. Isto vai assegurar que você colete todos os dados que precisa da forma correta e será fácil atualizar os metadados com quaisquer mudanças que você introduzir durante os trabalhos de campo quando voltar. fazem seu trabalho 31 usando recursos públicos ou trabalham em áreas públicas. 49 50 Tabela 3.). Nunca deixe os dados e os metadados para serem 4 digitados ou checados somente ao final do estudo. Seria realmente uma honra 26 se alguém quisesse roubar seus dados. depois de 18 fazer o upload. os dados gerados nestes 32 estudos são públicos também. Uma grande proporção de pesquisadores trabalha para agências públicas. 2010). 28 . Escreva os metadados primários antes de ir para o campo.8. Contudo. é melhor pensar cuidadosamente a respeito da 45 gestão dos dados antes mesmo de começar. É muito provável que em médio prazo todas as 40 revistas científicas adotem este padrão e. dados sobre a localização de espécies 28 ameaçadas e valiosas comercialmente. e nunca é demais detalhar minuciosamente os 20 metadados primários. Usualmente 11 ensina-se a estudantes secundários e universitários a sumarizar (degradar) dados (fazer metadados 12 secundários). 2 mesmo se uma única pessoa coletou todos os dados. O checklist na tabela 3. Há uma arte em registrar metadados. até muito menos tempo. pode envolver decisões potencialmente enganadoras. que usualmente só é aprendida depois de um longo e doloroso 10 desperdício de oportunidades. até coisas simples podem não ser óbvias três ou quatro 3 meses depois. 21 22 Propriedade dos dados 23 24 Os pesquisadores mais velhos frequentemente se preocupam com a possibilidade de outras pessoas 25 roubarem seus dados se os dados forem depositados em bancos de dados públicos. 14 Um banco de dados postado na internet feito realmente com responsabilidade deveria incluir uma 15 pessoa responsável pela checagem dos dados e pela qualidade dos metadados. Há maneiras de se restringir o 27 acesso a dados sensíveis (p. quem não tiver seus dados corretamente depositados em 41 bancos de dados públicos não poderá publicar seus resultados. Coisas tão simples como medidas de cobertura de 5 herbáceas usando o método point-quadrat. ex. mas é improvável que isso ocorra. 51 1. às vezes. feitas em campo. as grandes revistas internacionais estão adotando um sistema em que o pesquisador 37 precisa indicar na publicação onde os dados usados no estudo estão depositados (com acesso público). de 38 modo que qualquer pessoa interessada em checar se os dados originais realmente suportam as conclusões 39 apresentadas no estudo possa fazê-lo (Whitlock et al.8 deve ajudá-lo nesta 48 tarefa. ou. mesmo depois do pesquisador 16 ter feito seu próprio controle de qualidade. Incluímos o registro se a vareta toca uma 7 folha morta ou a parte morta de uma planta? Incluímos o registro se a vareta passa através de um furo de uma 8 folha viva? Pequenas decisões como estas. Se eles não sentirem que poderiam usar os dados com confiança. e na verdade seria imoral sequestrá-los e mantê-los presos em gavetas de 33 escritórios ou em computadores privados até que o pesquisador responsável pela coleta dos dados morra e a 34 informação seja perdida. Se não houver esta pessoa disponível no banco de dados do qual é 17 usuário. que emprega uma vareta vertical para decidir quais plantas serão 6 amostradas. então peça a outro pesquisador para checar seus dados e especialmente seus metadados. etc. Gerir dados não é uma tarefa trivial. portanto. salve-as e grave backups em formato txt (ASCII). Entre com os dados. 6. Se ele não for. 5. se você está planejando submeter uma grande proposta. 2. 4. Certifique-se que os dados não foram sumarizados (degradados) quando foram colocados nas tabelas. Deposite seus dados e metadados em algum banco de dados on-line que seja confiável. Interaja com o gerente do banco de dados on-line. 1 2 3 29 . Confira cuidadosamente os dados nas tabelas digitais comparando com os dados originais. Grave imagens digitais das fichas de dados originais com a informação de como os metadados devem ser atualizados assim que você voltar do campo. então não se esqueça de incluir os recursos necessários. plote gráficos dos dados e procure por anomalias e dados extremos. se ele for o responsável pela checagem da qualidade dos dados. Peça um colega para avaliar seus metadados primários. 3. peça a um colega que não esteja diretamente envolvido com o estudo para acessar os seus dados e metadados e certifique-se de que ele compreendeu a estrutura de seus dados e que não encontrou anomalias não explicadas. Um grande projeto deve ter um profissional dedicado a esta tarefa. 14 Vamos considerar um pesquisador interessado em lagostins. estes dados são frequentemente apresentados 18 juntamente com outros dados para comparação (veja capítulos 6 e 7). Será útil para os leitores 11 conhecer os termos. vamos refletir sobre como eles 19 podem ser apresentados da forma mais proveitosa. se o modelo representado pelo nosso fluxograma for complexo. na verdade.1 23 30 . e estes são conceitos facilmente 13 visualizados em gráficos bidimensionais. 1 Capítulo 4: 2 Descrevendo a natureza: 3 convenções "científicas" e algumas 4 técnicas úteis 5 6 Neste capítulo. Técnicas estatísticas podem ajudar a elucidar padrões 8 ocultos nos dados. dentre todos os possíveis organismos 15 aquáticos que ocorrem nos riachos de sua área de estudo. que são usadas para descrever dados ou 7 as populações de medidas das quais eles foram obtidos. vamos discutir algumas estatísticas simples. a maioria das estatísticas encontradas na literatura científica relaciona-se com 10 situações extremamente simples. Entretanto. como veremos nos 9 capítulos 8 e 10. O pesquisador amostrou 5 riachos e apresenta os 16 dados como o número de lagostins por 100 m de riacho.1). Mas. Contudo. 21 22 Figura 4. Portanto. 12 apenas poucos conceitos serão importantes para os próximos capítulos. e escondem mais os padrões do que revelam. 3. 4. 7 lagostins/100 m). Os dados poderiam ser apresentados como uma lista 17 de densidades (1. 5. assim poderão ler a literatura científica e conversar com seus colegas. A forma mais simples seria colocá-los em um gráfico 20 (figura 4. seria usar o desvio médio absoluto. Uma alternativa um pouco mais 8 complexa. A figura 4. exceto para a distância do valor "4". mas possibilita a avaliação instantânea do valor geral dos 4 dados (média) e a variabilidade em torno da média. 13 14 Figura 4. Poderíamos resumir os dados expressando a média=4 e o desvio médio 11 absoluto=(3+1+0+1+3)/5=1.2 mostra estas distâncias. Usamos o desvio absoluto (módulo do desvio) porque a soma dos desvios 12 simples será sempre zero. 8 NÚMERO DE INDIVÍDUOS POR 100m 7 6 5 4 3 2 1 0 Lagostins ORGANISMOS AQUÁTICOS 1 2 3 O gráfico ocupa muito espaço no papel. a média das distâncias de cada 9 ponto até a média. ou seja. mas não o que várias estatísticas descritoras da variabilidade significam. que está à 10 distância zero da média. já que os desvios dos pontos situados abaixo da média sempre são negativos.6. mas ainda intuitiva. A maioria dos 6 iniciantes usaria a amplitude (a diferença entre o maior e o menor valor) para descrever a variabilidade. mas 7 isto tem a desvantagem de usar apenas informação de dois dos cinco pontos. A maioria dos pesquisadores sabe instintivamente o quê a 5 média representa.2 15 31 . lembrem-se que há inúmeros 18 outros descritores de dispersão que podem ser mais apropriados em muitas situações (Iglewicz 1983). nos últimos 10 15 anos. Entre uma a três vezes por ano. Poucos 12 puderam aproximar a posição correta. ele é raramente usado. é o descritor de variabilidade mais frequentemente empregado. 16 O desvio padrão e as estatísticas relacionadas são usados tão frequentemente que vale a pena 17 despender um pouco de tempo para visualizar o que ele representa. Muitos destes estudantes já haviam publicado trabalhos nos quais usaram o desvio padrão para 14 descrever seus dados. o desvio 7 padrão. Entretanto. que indiquem onde deve passar a linha que 11 corresponde ao desvio padrão de cada lado da média em gráficos simples como o da figura 4. O desvio absoluto é tão intuitivo que se poderia esperar que fosse a estatística mais usada 6 para descrever a variabilidade dos dados. temos solicitado. e destes. 8 { NÚMERO DE INDIVÍDUOS POR 100m 7 6 +3 } +1 5 } 4 3 -1 { -3 2 1 0 Lagostins ORGANISMOS AQUÁTICOS 1 2 3 Com um pouco de prática. quase nenhum soube explicar porque escolheram aquela 13 posição.1. a maioria dos pesquisadores pode olhar para um gráfico e rapidamente 4 estimar qual a região do gráfico compreendida entre a média menos um desvio absoluto e a média mais um 5 desvio absoluto. Entretanto. teremos uma quantidade chamada "soma de quadrados". Assim 19 como o desvio absoluto. ou alguma derivação dele. o desvio padrão é baseado nas diferenças do valor de cada observação em relação à 20 média. ele está longe de ser intuitivo. e uma outra estatística. a nossos alunos de pós-graduação. Se somarmos os desvios 21 quadrados. só que. O desvio 8 padrão tem vantagens relacionadas com algumas análises mais complexas. Foi preocupante constatar que eles não sabiam o que estavam descrevendo e que não 15 eram capazes de interpretar os resultados de outros autores que usaram o mesmo descritor. Isto não é muito útil para descrever a 32 . no caso do desvio padrão as diferenças são elevadas ao quadrado. No entanto. que serão consideradas em 9 capítulos posteriores. para a interpretação 13 gráfica a diferença é trivial. esta quantidade aumenta com cada observação extra. Contudo. Mas. é difícil de se visualizar lagostins com 6 comprimento médio de cinco centímetros ± quatro centímetros quadrados! Para trazer a medida de variação 7 de volta à escala original em que as medidas foram tomadas. basta interiorizar que o valor do desvio padrão usualmente não é 15 muito diferente da média dos desvios absolutos e. 10 Os valores de um desvio médio absoluto (mostrados como estrelas na figura 4. ao contrário da média absoluta. mas. se 2 tomarmos a média dos desvios quadrados. porque está em uma potência diferente da dos dados originais e 5 provavelmente nem irá caber em nossos gráficos. Isto deverá ajudá-los a entender as descrições que 17 outros pesquisadores fazem de seus dados.3) e de um desvio 11 padrão de cada lado da média (pentágonos) são quase idênticos. em um gráfico. mas. 1 variabilidade. Estes descritores. teremos um descritor que é independente do tamanho da amostra. estamos descrevendo apenas as amostras. Como os dados usualmente são amostras tiradas 23 de populações muito maiores. portanto. chamados 24 "estatísticas" são frequentemente usados como estimativas dos descritores reais das populações estatísticas. Alguns autores usam terminologia um pouco diferente. do desvio médio absoluto. já que. por hora. 18 19 Figura 4. 25 estes últimos chamados de "parâmetros". mas não muito diferente. sendo uma soma. o desvio quadrado médio (variância) não é 4 útil para descrever a variabilidade.3 20 8 NÚMERO DE INDIVÍDUOS POR 100m 7 6 5 4 3 2 1 0 Lagostins ORGANISMOS AQUÁTICOS 21 22 Temos discutido a respeito de descritores de dados. podemos imaginar a posição aproximada de um 16 desvio padrão em cada lado da média. Isto parece uma rota sinuosa para se chegar a 9 um valor que é diferente. porque. Vamos discutir sobre os usos do 14 desvio padrão posteriormente. em 33 . mas não vamos explicar as diferenças aqui. exceto para amostras extremamente pequenas. Por exemplo. Ambos os desvios foram calculados para a 12 população ao invés de para a amostra. A raiz quadrada 8 da média dos desvios quadrados é chamada de desvio padrão. 3 Isto é chamado de variância. podemos extrair a raiz quadrada. parâmetros são características das populações e estatísticas são estimativas dos parâmetros. A primeira amostra encontra-se 21 ao lado das 60 médias na figura 4. estão se referindo ao erro 18 padrão da média. 34 . Note que.4 7 6 5 4 VALOR 3 2 1 0 AMOSTRA 1 MÉDIA 25 26 27 A amostra 1 tem uma média (2. A população de alturas de homens 4 possui uma média muito maior do que a média da população de alturas de mulheres. sem especificar de qual parâmetro. o desvio padrão não tem utilidade para descrever a 14 variabilidade da população (Mosteller e Tukey 1968). 16 Podemos também calcular o desvio padrão de parâmetros. que podem ou não estar relacionadas com populações biológicas. que é chamado de "erro padrão" (EP). Neste caso. uma para cada amostra. baseadas 2 em amostras. 1 geral. A altura média de uma 7 espécie de antílope pode ser igual à altura média de homens. um fato que parece ter sido esquecido pela maioria dos 15 pesquisadores. Em 17 geral. Para ilustrar isto. 10 se a população de medidas tem uma distribuição de frequências que se conforma à distribuição teórica 11 chamada de "normal". tiramos 20 60 amostras de cinco elementos. Se a distribuição não é normal. cerca de 68% dos valores está compreendido no intervalo de um desvio 12 padrão em torno da média e cerca de 95% dos valores está compreendido no intervalo de dois desvios-padrões 13 em torno da média. 23 24 Figura 4.4) que é bastante diferente da média real das 300 medidas (4). quando os autores tratam de erro padrão. 9 O desvio padrão é um parâmetro útil para descrever a variabilidade em uma população de medidas.3.4 e a média que corresponde a esta amostra está assinalada como um círculo 22 cheio entre os círculos vazios que simbolizam as outras médias. usamos um gerador de números aleatórios para produzir 300 medidas de 19 uma distribuição com média e desvio padrão iguais aos dos dados que aparecem na figura 4. obtendo 60 médias. estamos nos referindo a uma população 6 biológica que consiste aproximadamente em metade de homens e metade de mulheres. mas isto não significa que homens e antílopes 8 pertençam à mesma população biológica. Então. quando falamos "populações estatísticas" estamos nos referindo a populações de 3 números. e estamos nos referindo a 5 populações estatísticas. Mas quando se fala em "população humana". 22 23 Figura 4. estimar o desvio padrão das 15 médias válido para um grande número de amostras de cinco elementos.77. Há um erro padrão diferente para cada tamanho de amostra que desejarmos tirar. Quanto maior o tamanho da amostra. Em nosso caso.5 apresenta a distribuição das 60 19 estimativas de erro padrão. Muitas estão distantes da melhor estimativa. que é desconhecido. Obviamente. a não ser para examinar como alguns pesquisadores 11 apresentam seus dados. não se 10 preocupem. esperamos que cerca de 68% das médias tiradas desta população estejam compreendidas entre 5 4 + 0. chamando-o de "real". a média de 60 amostras 2 traz muito mais informação do que uma única amostra de cinco elementos.5 0. com uma única amostra de cinco elementos. Ninguém usa 60 12 amostras para calcular um erro padrão. A distribuição das médias tende à normalidade.0. teoricamente. baseada em nossas 60 amostras. 1 Entretanto. podemos. 16 A fórmula "mágica" é apenas dividir a estimativa do desvio padrão da população baseada na amostra 17 pela raiz quadrada do número de observações da amostra. Com 60 médias.0 0. sabemos que o erro padrão das 18 médias das amostras de cinco elementos está próximo de 0. mais acuradas 35 . porque ele deve ser muito próximo do valor 21 real do erro padrão. a média das 60 médias (3. 9 Se todas estas médias de médias e parâmetros de parâmetros os deixaram confusos. mesmo se a distribuição das medidas 6 originais não fosse normal.77 e 4 . e como eles poderiam apresentá-los de forma mais simples e efetiva.0 EP "REAL" ESTIMADOS 24 25 26 Obviamente.8) foi mais próxima da média real. Isto é consequência do "Teorema do Limite Central" e é o que justifica o uso de 7 testes estatísticos baseados na distribuição normal quando a população de medidas originais não segue esta 8 distribuição.77.77. não vamos usar muito estes conceitos. podemos também 3 estimar o desvio padrão das médias (erro padrão) com razoável acurácia. O desvio padrão das 60 médias foi 4 0. Nós acrescentamos nesta figura o erro padrão 20 baseado no desvio padrão das 60 médias. porque os estatísticos nos dizem que podemos estimar o erro padrão a 13 partir de uma única amostra. A figura 4. 14 Entretanto.5 VALOR DO ERRO PADRÃO 1.5 1. Portanto. as estimativas dos erros padrão baseadas em amostras de cinco elementos são 27 imprecisas. 13 Poucos pesquisadores entendem estes conceitos.7b separamos os pontos. 6 Do ponto de vista da estatística clássica. Se o leitor não estiver seguro de que ele mesmo e seus 29 leitores entenderão as implicações das três estatísticas sumárias. Primeiro. É possível inferir intervalos de confiança baseados na 4 estimativa do erro padrão e no tamanho da amostra.6a. estes 10 intervalos de confiança só funcionam se forem aplicados em todos os casos. então 12 os intervalos de confiança apresentados nos livros de texto são pequenos demais (Meeks e D’Agostino 1983). 34 porque alguns pontos podem se sobrepor e obscurecer outros. mas não comunica muito mais do que isto. como é a prática corrente. esta explicação não tem sentido. 1 as estimativas obtidas pela fórmula mágica. 2000a).6 25 a b NÚMERO DE INDIVÍDUOS POR 100 m 20 15 10 5 0 Lagostins IC95 DP EP ORGANISMOS AQUÁTICOS 23 24 25 A figura 4. Ou a média cai no intervalo ou não. mas não 28 muito do intervalo de confiança de 95% (IC-95%). Ela mostra algumas estatísticas usadas para sumarizar dados e que 27 frequentemente aparecem em gráficos. 15 Frequentemente. Na figura 4.6b foi 26 baseada nos mesmos dados da figura 4. mas em termos de comunicação pode ser considerado 36 um gráfico de dispersão com os pontos separados de modo que nenhum ponto obscureça os demais. Entretanto. 7 A interpretação correta do intervalo de confiança de Neyman (1937) é que. a maioria dos erros padrão é apresentada 14 em gráficos sem qualquer informação do tamanho da amostra na legenda (Magnusson. se um experimento for repetido 8 muitas vezes. Se intervalos de confiança forem 11 aplicados apenas após algum teste estatístico ter tido resultado significativo. há diferentes tamanhos de amostras em diferentes partes do gráfico. Isto demonstra cultura 16 "científica". e o intervalo de confiança for calculado para cada um deles. A figura 4. Entretanto.7a 32 mostra um gráfico de dispersão do número de lagostins onde aparecem os dados de um pesquisador que 33 amostrou 40 riachos com peixes e 40 riachos sem peixes. O desvio padrão (DP) é bem diferente do erro padrão (EP). então deveria considerar apresentar os dados 30 da mesma forma que os apresentados na figura 4. De qualquer modo. Os estudantes interpretam um intervalo de confiança de 5 95% em torno da média como se houvesse 95% de chance de que o parâmetro real estivesse neste intervalo. 9 aproximadamente 95% dos intervalos calculados irão incluir a média real (Bard 1974). A figura 4. Este 35 último gráfico é tecnicamente um histograma de pontos. 37 36 .6). e a maioria dos pesquisadores (os leitores de seus trabalhos) 3 têm apenas uma vaga ideia do que elas representam. 20 21 22 Figura 4. 17 A seguir.6a. raramente elas podem ser melhor interpretadas por um 2 estatístico do que um gráfico dos dados brutos.6a mostra os dados de densidades de lagostins em diferentes riachos. com o mesmo tamanho amostral. ilustraremos diferentes métodos para apresentar dados em gráficos e deixaremos que os 18 leitores decidam quais os melhores para comunicar informações sobre os dados obtidos. Este gráfico é um pouco difícil de interpretar. Gráficos como o mostrado na figura 4.6a são chamados 31 de "gráficos de dispersão" e podem apresentar uma quantidade surpreendente de informação. vamos 19 considerar um gráfico mostrando dados de uma amostra pequena (figura 4. Afinal.7. A figura 4. Os 11 estatísticos dirão que não há problemas para se interpretar as barras de erros. incluindo barras de erros para os erros padrão. O "box plot" da figura 4. mas ao contrário deste. mesmo que estes gráficos distorçam a informação. e podemos assegurá-los de que 16 nenhuma destas duas afirmações é verdadeira. temos 14 ministrado cursos de estatística para estudantes de graduação e pós-graduação e temos sido consultados por 15 pesquisadores experientes durante um período de mais de duas décadas. mas muitos cientistas não 6 consideram gráficos de dispersão "científicos". Contudo. "Box plots" são uma boa alternativa quando você tem tantos dados que seria difícil apresentá-los em 20 um gráfico de dispersão (Tukey 1972). porque suas premissas a respeito 12 do mundo real estão sempre corretas e qualquer biólogo competente tem um sentimento intuitivo do que um 13 erro padrão representa e deve ser capaz de reconstituir o gráfico original em sua cabeça.8 25 37 . não têm utilidade para se planejar a 21 amostragem (capítulo 5). Use-os como última alternativa. Se você deseja esconder seus dados. 1 Figura 4. poucos pesquisadores sabem como 18 interpretá-los e ainda perdemos a informação a respeito de quantos dados foram utilizados para produzir o 19 gráfico. Este tipo 10 de gráfico efetivamente esconde toda a informação a respeito da quantidade de dados que coletamos.7 2 12 a b 10 NÚMERO DE LAGOSTINS 8 6 4 2 0 COM PEIXES SEM PEIXES COM PEIXES SEM PEIXES 3 4 5 Note que este gráfico mostra quase todos os detalhes a respeito dos dados.8a ilustra um gráfico de 9 barras representando os mesmos dados da figura 4. até os não-cientistas podem avaliá- 7 los. Seus colegas em uma equipe de pesquisa provavelmente irão preferir gráficos que demonstrem sua 8 cultura científica. nunca como o método padrão de apresentar os 22 resultados. Entretanto. sejam dados hipotéticos ou não. coloque-os em gráficos de 17 barras. qualquer pessoa. 23 24 Figura 4.8b é um pouco melhor. lembre-se que os erros padrão baseados em métodos de distância 8 referem-se aos erros padrão daquele transecto. Entretanto. Há métodos para o cálculo de erros padrão baseados em transectos 7 de linha (p. Isto precisa ser estimado por outros métodos (Caughley e Sinclair 1994). Vamos usar 27 alguns dos termos discutidos aqui nos capítulos posteriores. Krebs 1998). Eles confundem a variabilidade da amostragem repetida daquele transecto 13 com a variabilidade entre transectos. 1983). a não ser que a população ocupe uma área restrita e todos 21 os animais na população sejam suscetíveis de serem capturados (Anderson et al. 26 Neste capítulo. "Primatólogos" 11 frequentemente apresentam erros padrão de densidades de macacos em reservas. devido à variação nos 23 recursos. Animais 22 frequentemente variam sua área de vida sazonalmente ou em períodos interanuais. O método poderia ser aproximadamente válido se o transecto fosse tão 14 comprido que amostrasse quase toda a reserva. Entretanto. mas não informa nada a respeito do erro padrão esperado caso você replicasse os transectos na área 10 de interesse. Ele estima a variabilidade esperada se você repetir o mesmo 9 transecto. As estimativas do tamanho da população e de seus erros padrão podem estar estatisticamente 24 corretas. 33 34 38 . Converter 20 isto em uma estimativa de densidade é complicado. exceto 30 para mostrar cultura acadêmica. estivemos preocupados com as estatísticas usadas para resumir dados. onde a variação será frequentemente expressa 28 como soma de quadrados. As outras estatísticas que sumarizam dados raramente são úteis. Métodos de marca- 19 recaptura estimam o número de indivíduos na população que são suscetíveis de serem capturados. ou variância. 17 Um problema relacionado é a estimativa do erro padrão associado à estimativa do tamanho da 18 população em estudos de marcação e recaptura (Abuabara e Petrere 1997. Krebs 1998). e não deveriam ser usadas. Elas são como as roupas do rei. ex. a não ser quando tabelas ou gráficos de dispersão 31 não sejam alternativas viáveis. baseados em um ou dois 12 transectos. Isto não faz sentido. o leitor não precisa ser capaz de visualizar a soma de 29 quadrados ou a variância para usá-las. e não na do tamanho da 25 população que pode ser capturada em armadilhas. Não se preocupe se não puder visualizá-las. precisamos estar certos de que ela se refere ao nosso 16 universo de interesse. 32 somente os verdadeiramente honestos vão admitir que não podem vê-las. 12 a b 10 NÚMERO DE LAGOSTINS 8 6 4 2 0 COM PEIXES SEM PEIXES COM PEIXES SEM PEIXES 1 2 3 Pseudorrepetições geradas no computador 4 5 É importante lembrar que algumas medidas de variabilidade geradas por computadores podem não 6 ser aquelas nas quais você está interessado. mas a maioria dos ecólogos está interessada na estimativa da densidade. 15 Quando apresentamos uma medida de variabilidade. Entretanto. este seria um desenho amostral muito ineficiente. Vamos oferecer outras dicas de como decidir o tamanho da 35 amostra nos próximos capítulos. 22 (2001) chamaram de "experimento de pensamento" (thought experiment). Há algumas "dicas" que podem ser usadas. Krebs 1989). mas é uma das maneiras mais poderosas de se planejar a pesquisa. 15 16 Figura 5. 5. decide testar o quanto locais sem peixes predadores têm mais 10 lagostins do que locais com peixes predadores. Em geral. para comparações entre 31 categorias. entretanto todas requerem amostras preliminares e a maioria somente pode ser aplicada 25 em situações trivialmente simples. solicitar a um pesquisador experiente que esboce um gráfico 26 mostrando a variabilidade esperada para aqueles dados é quase tão bom quanto qualquer um dos métodos que 27 empregam computações matemáticas. já não resta muita 14 dúvida (fig. mas ainda 13 permanece a dúvida (fig. Connolly et al. 32 geralmente não há vantagem em ter mais que dez observações por categoria. Vamos começar considerando uma questão simples e um gráfico 8 simples. mas quatro observações por categoria vão funcionar bem para a maioria dos 36 casos.5. estudando o lagostim. 1 Capítulo 5: 2 Quanta evidência é necessária? 3 4 Nosso artista pintando a paisagem não usa uma tela maior que a parede da sala. ou se há alguma razão especial para desejarmos detectar 34 diferenças muito pequenas entre as categorias. até que o 28 padrão pareça convincente. Obviamente. que Dytham (1999) chamou de "coleta de dados substitutos" ("collecting dummy 21 data") parece ser trivial. a não ser que os dados possam 33 ser coletados facilmente e a um baixo custo. Apenas vá aumentando o número de pontos no gráfico. mas está inseguro sobre quantas seções deve amostrar. quando as variáveis de interesse são de fato categóricas. Se ele deseja se comunicar e não morrer de 6 fome antes de completar seu trabalho. terá que decidir o quanto é suficiente. Dados ecológicos 30 usualmente mostram variabilidade semelhante àquela da figura 5. Entretanto. Ele conta o número de lagostins em seções de riachos com e 11 sem peixes predadores. Assim.1b). com cinco seções de riachos de cada categoria. ex. se você não conseguir extrair dos seus 29 colegas de equipe informação útil em relação às questões na escala proposta para o projeto. Entretanto.1. 9 Nosso cientista. deveria haver pelo menos quatro observações por categoria ou preferivelmente mais. 5. Há muitas fórmulas matemáticas 23 elegantes para decidir quantas observações são necessárias para se detectar um efeito de uma dada magnitude 24 (p. uma seção de 12 cada tipo não vai nos dizer muito (fig.1c). 37 38 Qual a qualidade da informação? 39 39 . é também a arte do cientista. Decidir o quanto de informação é 7 adequado. Ele também não 5 tentará contar a estória de 10 maneiras diferentes na mesma tela.1a).1 17 10 a b c NÚMERO DE LAGOSTINS 8 6 4 2 0 COM PEIXES SEM PEIXES COM PEIXES SEM PEIXES COM PEIXES SEM PEIXES 18 19 20 Este processo. Então ele aumenta o número para três de cada tipo. muitos membros da equipe vão querer estudar sazonalidade. 49 antes de incluírem variação temporal nos objetivos gerais de seus estudos. Cada coisa está conectada com tudo o mais e 22 é extremamente difícil determinar quando as observações são realmente independentes. Portanto. Décadas de trabalho em um único lugar ou estudos em muitos lugares 44 com diferentes padrões climáticos são necessários para se determinar os efeitos de mudanças estacionais em 45 sistemas biológicos. as cinco observações não carregam 19 muito mais informação do que uma única observação. porque nossas questões estatísticas devem 3 refletir as questões biológicas. Variações temporais são extremamente difíceis de se estudar (p. Uma 27 pseudorrepetição para uma questão pode ser uma repetição válida para outra. Powell & Steele 1995. Repetições são o que os estatísticos chamam de observações independentes. Hurlbert (1984) forneceu muitos exemplos bons. porque nenhuma observação é inerentemente válida ou inválida. temporais. Estudos com sementes. 41 embora o evento que determinou o início do processo de frutificação tenha ocorrido muitos meses antes. (1992). se o nosso biólogo 28 estivesse interessado em diferenças nas densidades do lagostim entre os dois riachos (e apenas entre os dois). 50 Pseudorrepetição filogenética é um tópico complexo e. porque 46 eles acreditam que os efeitos da sazonalidade são tão óbvios que eles certamente conseguirão resultados 47 "significativos". mas é uma qualidade rara. ex. mas o tempo e dinheiro gastos 35 em transporte usualmente são mais do que compensados pela solidez das conclusões que podem ser tiradas de 36 evidências de alta qualidade. na maioria das vezes. 29 as 5 observações em cada corpo d’água poderiam ser repetições perfeitamente válidas. cada uma trazendo 30 mais informação a respeito da densidade do lagostim em cada riacho. por causa do material genético ou efeito do 56 aprovisionamento materno e usualmente não apresentam todo o espectro de respostas exibido por populações 40 . 6 Geralmente. ela não aumenta a quantidade total de conhecimento disponível para nós. ainda 42 durante a estação seca. uma observação da densidade de lagostins em um riacho obviamente 18 não é independente de outras observações no mesmo riacho. 31 As pseudorrepetições podem ser espaciais. Lembrem que a questão biológica era determinar se a presença de 13 peixes predadores influencia na densidade dos lagostins. porque os organismos usados nos experimentos têm estreito 54 parentesco. as questões envolvendo sazonalidade não podem ser respondidas em 43 um único lugar em apenas um ciclo. está associada a estudos 51 onde espécies são as unidades amostrais. Por exemplo. Hurlbert denominou-a 11 "pseudorrepetição". Porque esta 10 observação não é uma repetição real. Esta é uma pergunta importante. filogenéticas ou técnicas. Os membros da 34 equipe vão atribuir suas pseudorrepetições espaciais a dificuldades logísticas. espera-se que a quantidade de informação disponível aumente com o número de observações. Portanto. Isto é uma tarefa difícil. 48 von Ende 1993) e os membros de equipes deveriam procurar o aconselhamento de estatísticos especializados. Os leitores mais interessados podem consultar Garland et al. o estatístico Stuart Hurlbert alertou o mundo a 4 respeito de um tipo de erro que vinha ocorrendo em grande parte das análises ecológicas. e pode 9 nos confundir e nos fazer acreditar que dispomos de mais informação do que realmente temos. coletadas na escala espacial apropriada. A engenhosidade dos 23 cientistas revela-se em sua capacidade de coletar observações realmente independentes em relação a suas 24 questões. girinos de uma mesma desova ou larvas de insetos encontradas em 55 um local em particular são frequentemente muito similares. Ocorrem porque o estado de 38 um sistema não pode mudar instantaneamente. Se uma árvore está produzindo frutos em um mês chuvoso. e a precipitação nesse mês provavelmente 40 ainda será alta. Kruskal (1988) fornece vários exemplos de falta de 21 independência em situações que não têm nada a ver com ciência. os membros de grupos integrados precisam se certificar de que 25 as observações que estão sendo feitas por seus colegas de equipe não são pseudorrepetições em relação à 26 questão global. Nós discutimos um 32 exemplo de pseudorrepetição espacial e Hurlbert (1984) fornece inúmeros outros. Este é o tipo de 33 pseudorrepetição mais comum. mas também é a que pode ser evitada com maior facilidade. que significa falsa repetição. 1 Para responder a questão "Quanta informação é suficiente?" precisamos primeiro responder "Qual a 2 qualidade da informação?". Por esta razão. girinos e larvas de insetos frequentemente 53 sofrem de pseudorrepetição filogenética. O que aconteceria se nosso biólogo amostrasse cinco 14 seções de um riacho sem peixes e cinco seções de um riacho com peixes predadores? Todas as seções do 15 primeiro riacho poderiam ter menos lagostins porque este riacho era menos produtivo. 39 provavelmente ainda estará produzindo frutos no mês seguinte. 20 Este erro simples permeia a literatura científica. Para a nossa questão. e que ele denominou 5 de "pseudorrepetição". Sementes de uma única árvore. no sentido de fornecer mais informação. A despeito disso. mas vamos 12 continuar com nosso exemplo do lagostim. Quando uma nova observação fornece apenas a mesma informação que tínhamos 8 em observações anteriores. Parece haver uma grande associação entre alta precipitação e produção mensal de frutos. ou porque fora poluído 16 ou por causa de uma epidemia no passado recente ou qualquer um de uma multidão de fatores que poderiam 17 afetar os lagostins. 37 Pseudorrepetições temporais são mais difíceis de se detectar e evitar. 7 mas nem sempre é assim. Em meados da década de 80. 52 um bom ponto de partida para este tópico. há falhas de equipamento ou acidentes de percurso que podem alterar os resultados. 1 maiores. e nenhum computador. o efeito de pseudorrepetição é reduzir o número de observações 10 realmente independentes. todos os pontos mostrados na figura 5. nossas análises também o serão e não 15 teremos feito uma apreciação honesta das evidências. Nestes 8 casos. Magnusson 1999). Quando não é detectada. a maioria dos resultados publicados em trabalhos 29 científicos é. mas há poucas desculpas para este tipo de erro na maioria dos estudos bem planejados. 7 Ocasionalmente. Poucos 12 biólogos. Há algumas técnicas estatísticas que podemos usar para 16 levar em consideração o fato de que nem todas as observações foram independentes (p. Dados somente são 14 úteis se fornecem informação. 9 Retornando ao nosso gráfico. na melhor das hipóteses. Entretanto. o teste do qui-quadrado em tabelas 31 de contingência. Se nossos gráficos são enganadores. Se a escala de amostragem for apropriada 3 para a questão. Um biólogo estudando a dieta de uma espécie de peixe formula a pergunta de se a dieta dos 34 adultos é diferente da dos alevinos. que contrasta o número de copépodos e algas 35 encontrados nos estômagos de alevinos e peixes adultos. e o processo é notadamente 28 simples.2 10 a b NÚMERO DE LAGOSTINS 8 6 4 2 0 COM PEIXES SEM PEIXES COM PEIXES SEM PEIXES 23 24 25 Para decidir quanta evidência é suficiente. Não é preciso ser um estatístico ou um biólogo para fazer isto. usualmente é preferível tentar 2 coletar indivíduos não relacionados entre si para os experimentos. e produz a tabela 5.1 COPÉPODOS ALGAS 41 . mas somente serão úteis se os pesquisadores puderem reconhecer a falta de 18 independência e informar este fato ao estatístico ou ao computador. Se apenas dois riachos foram 11 amostrados. 4 Pseudorrepetição técnica ocorre quando diferentes observadores ou instrumentos são usados em 5 diferentes partes do experimento. admitir honestamente a possibilidade de pseudorrepetição é a única opção. ex. Nenhuma destas técnicas é tão boa quanto 19 reconhecer que o desenho proposto leva a pseudorrepetições e re-delinear o sistema de amostragem para 20 evitá-las. Vamos dar um passo adiante e 30 fazer considerações sobre um teste do qual quase todos já ouviram falar. menos estatísticos. pela falta deste primeiro passo. não interpretável e na pior. que podem ser representadas por pontos no gráfico. enganosa.2a não pode ser interpretada em relação à questão inicial.2b. isto deverá acontecer quase naturalmente. análise de 17 variância hierárquica). Análises de tabelas de contingência quase nunca são apropriadas para questões estatísticas 32 (Hulbert 1984.2a ficam reduzidos aos dois pontos da figura 5. ela recai no que Hurlbert chama de "intrusão 6 demoníaca". serão capazes de perceber que a maior parte da 13 informação mostrada na figura 5. e isto se relaciona com o que é uma observação independente em relação a 33 uma questão. temos de pensar em quantos pontos teremos que colocar 26 em cada gráfico e nos assegurarmos de que estes pontos carregam informação independente em relação à 27 nossa questão.1. 36 TABELA 5. 21 22 Figura 5. Em vez de tentar fazer correções para excluir efeitos filogenéticos. Estes diagramas não precisam ser 36 acurados ou artísticos. servem apenas para proporcionar uma impressão geral. etc. grupo focal. escopo.2). O importante aqui é que a maioria dos ecólogos iria 6 interpretar este resultado como indicativo de que é muito improvável que peixes adultos e alevinos tenham a 7 mesma dieta. pixel. 27 A melhor maneira de evitar pseudorrepetições é desenhar um mapa conceitual da distribuição dos 28 objetos de interesse em seu estudo. 37 Dois exemplos reais podem ilustrar a técnica.001. após ler mais alguns capítulos. e que ainda faça sentido em relação à 33 questão investigada. Cada ponto no seu diagrama deve representar uma unidade de amostragem 29 em potencial. cada um coletado em um cardume 17 diferente. 4 Não se preocupe se você não sabe o que eles significam. Obviamente. A unidade de amostragem pode ter diferentes nomes. Há uma pequena chance de a análise estar correta e neste caso o desenho 23 amostral provavelmente foi muito ineficiente. unidades experimentais ou outros 32 objetos. Ela estuda muitos indivíduos. Entretanto. parcela. eles podem não ter muita relevância para a maioria dos ecólogos. Por isso eles são fáceis 26 de modelar matematicamente.2 COPÉPODOS ALGAS ADULTO 1 0 6 ADULTO 2 3211 7 ADULTO 3 6 5 ALEVINO 1 8 2906 ALEVINO 2 8 1 ALEVINO 3 7 29 10 11 Agora. mas quando mapeia os 39 cerrados de interesse (a figura 5. 8 9 Tabela 5. P<<0. se pegássemos ao acaso apenas um item por cada estômago de peixe. mas pode ser uma espécie. pode estar razoavelmente 21 seguro de suspeitar que o pesquisador tenha cometido pseudorrepetição e que as inferências estatísticas 22 são desprovidas de sentido. Pode ser 30 chamada de transecto. Unidades de amostragem são frequentemente 31 relacionadas com a área. grão. 20 Quando o leitor encontrar uma análise de tabela de contingência. esta seria uma maneira muito ineficiente de atacar a questão. Isto iria requerer 6194 indivíduos de peixes. ela descobre que seu universo 42 . A maioria dos leitores vai rever o que eles achavam 5 que isto significava. ninguém acredita em uma diferença geral na dieta de adultos e alevinos. extensão. Nós poderíamos levar a cabo um teste de 15 contingência válido..3a é uma representação conceitual do mapa). Por quê o teste 13 nos deu uma resposta falsa? Porque a análise assumiu que o registro de cada copépodo ou alga foi 14 independente dos outros. Elas são sempre a menor unidade em que se pode medir. Uma estudante quer comparar o comportamento de 38 pássaros nos cerrados amazônicos e do Brasil central. Por acaso. Os dados não refletem contingência. dependendo da disciplina. É justamente o fato de 18 que as tabelas de contingência requerem observações independentes e somente acumulam informação na 19 forma de presença/ausência que as faz tão ineficientes para a maioria das questões ecológicas. 34 O diagrama deve cobrir todo o universo de interesse. não nadam em cardumes e não mudam muito com o tempo. Agora o leitor pode ver porque cursos de estatística básica 24 frequentemente examinam apenas probabilidades referentes a se retirar bolas pretas e brancas de um barril. ADULTOS 3217 18 ALEVINOS 23 2936 1 2 O biólogo sabe que será praticamente impossível publicar os resultados sem um teste estatístico e 3 então aplica um teste de tabela de contingência. Este pode ser chamado de universo de 35 inferência. imagem e outros nomes. um adulto 12 encontrou um grupo de copépodos e um alevino fez um banquete em um aglomerado de algas. e descartássemos 16 todo o resto da amostra. Contudo. 25 Barris não se reproduzem. esta impressão muda quando vemos o caderno de anotações do biólogo (tabela 5. escala de inferência. que resulta nos seguintes hieróglifos: χ21=6030. um intervalo de tempo. Eles dirão que o objetivo dos estudos científicos é estimar probabilidades. com formas 2 irregulares representando grandes áreas de cerrado. vamos discutir como grande parte das análises estatísticas pode ser vista 23 como métodos de se reduzir problemas complexos a problemas com duas dimensões. ou algum meio 15 termo. eles não 26 compreendem aquelas análises e não deveriam usá-las. Embora ele se interesse por várias espécies de 7 pássaros (representados pelos pontos cinza). Mapas conceituais 13 quase sempre irão dar uma boa ideia de se o pesquisador está usando os dados apenas como uma vaga pista 14 (sem repetições verdadeiras). foi 10 suficiente para mostrar o quanto o universo de amostragem do estudante era limitado em relação ao seu 11 universo de interesse. como uma inferência forte (inúmeras evidências independentes). 5 A figura 5. 17 18 Figura 5. 9 Um diagrama simples como o da figura 5. é um processo para se decidir qual a 16 questão que pode ser atacada.3b. 1 amostral não é o mesmo que o universo de interesse. de forma que 24 possam ser apresentados em simples gráficos de dispersão. ele compreendeu que. quando confrontados com sua 27 incapacidade de produzir gráficos bidimensionais que representem seus resultados. antes de fazer inferências fortes ele deveria 12 aumentar o número de espécies amostradas ou restringir sua questão a apenas uma espécie.3b mostra o universo de interesse de um estudante que trabalha com pássaros migratórios 6 e deseja fazer inferências sobre migrações de longas distâncias. Se os membros de equipes de pesquisa não 25 puderem representar os resultados esperados de suas análises em forma de gráficos simples. Note que este mapa conceitual simples. Nos próximos 30 capítulos vamos considerar a estranha definição de probabilidade usada pela maioria dos cientistas. Consequentemente. com espécies de interesse representadas por pontos. os líderes de equipe irão 28 clamar que o objetivo de um estudo científico não é produzir gráficos simples. O que parece ser mapear as unidades amostrais. uma linha reta representando a borda entre os dois biomas 3 e três pontos pretos representando áreas amostrais é suficiente para mostrar que o universo de amostragem 4 não corresponde ao universo de interesse da questão original. amostrou apenas uma das espécies que fazem aquela migração 8 (representada pelo ponto preto na figura). na verdade. que podem ser entendidos por 29 qualquer pessoa.3 19 a b A mazônia Brasil C entral A ves migratórias 20 21 22 Nos capítulos seguintes. 31 43 . Entretanto. Aqueles que não tiverem tanto tempo. note que não importa quantos objetos macios ela tenha tocado. é preciso ler muito mais do que poderíamos apresentar aqui. muitos cientistas não se dão conta disto e usam 10 a filosofia Popperiana apenas como um árbitro imparcial para determinar um mundo "objetivo". Durante milhares de anos. que vai 6 contra a nossa intuição (Platt 1964). 24 Hilborn e Mangel (1997) escreveram um grande livro chamado "The Ecological Detective". 40 para rejeitar toda sua conjectura sobre um mundo macio. uma definição sui generis de probabilidade. Para 12 realmente entender isto. 30 Recomendamos que os professores de estatística leiam o livro de Hilborn e Mangel antes de ministrarem seus 31 cursos e que os alunos leiam-no após a completa leitura deste livro. de muitas maneiras. Bastaram alguns séculos para que Eistein refutasse Newton. a aceleração. 15 podem consultar "Popper" de Magee (1982). por muito tempo. 32 Popper ensina que só aprendemos quando erramos. apenas "desprovar". em uma prosa colorida. Aqueles interessados em 13 um "tour" a respeito de Popper e suas ideias. todas as 46 observações corroboravam a afirmativa de Aristótoles de que um corpo permanece parado na ausência de 47 forças. e é este o aspecto que 21 vamos considerar neste volume. e somente irá adiante quando 42 houver alguma razão para refutar esta nova conjectura. ela não tem razões para rejeitar sua preconcepção de 38 que o mundo todo é macio. A criança descobre que estava errada e aprende. Popper desmantelou a justificativa 16 "científica" nazista para o genocídio de judeus. Ela está 33 programada para esperar alguma coisa do mundo. a aceitação geral desta definição remonta a Sir Karl Popper. ciências sociais e estudo do aprendizado. devem ler a sua 14 "Unended Quest: an Intellectual Autobiography" (Popper 1976). Sua filosofia teve larga aplicação nos ramos 9 da política. Embora Hilborn e Mangel (1997) 28 foram avessos a chamar seus modelos de "hipóteses" e ministraram o paradigma Bayesiano. e não o movimento. até que Newton finalmente a tenha refutado. Entretanto. 20 Sua filosofia é o eixo central de quase toda a literatura moderna sobre estatística. talvez que apenas objetos azuis sejam rígidos.e. a filosofia Popperiana. não é o único ou necessariamente o melhor método científico. e a aceleração de um corpo era diretamente dependente da força exercida sobre ele. caminhos para a moderna sociobiologia. talvez um brinquedo de cor azul. Entretanto. 50 demonstrando que essa relação não é válida para todos os casos (i. seria 34 como um computador sem um sistema operacional – totalmente morto. isto 39 nunca provará que o mundo é macio. No campo político. será suficiente. e especialmente a abordagem 22 "frequentista". 43 Este exemplo ilustra o fato de que é muito fácil obter evidência para rejeitar alguma coisa. 48 demandava forças. que contrarie as expectativas. Considere uma menina recém-nascida. Pichett e colaboradores (1994) 23 fornecem uma boa introdução sobre outras maneiras de se olhar o mundo. 44 Frequentemente uma única observação. Entretanto. Segundo Newton. 11 O fundamento da teoria Popperiana é que não se pode provar nada. A 18 filosofia Popperiana é a base para a abordagem de chaves dicotômicas de decisão em estudos de 19 planejamento. 1 Capítulo 6: 2 Quando improvável significa 3 bem possível 4 5 Os estatísticos vêm usando. já que os autores admitem que não têm 36 lembranças tão antigas). para escalas muito grandes ou muito 44 . Basta tocar um único objeto rígido. eles iniciaram 29 sua discussão com a premissa de que os leitores já conheciam tudo de que tratamos neste livro. Contudo. que tem sido reconhecida como uma das abordagens mais poderosas na ciência (Platt 1964). portanto. e por isso foi agraciado por Sua Majestade. e 49 inversamente dependente de sua massa. Ela 41 criará uma nova conjectura. Entretanto. embora prolíxa. Ao invés de considerarmos diferentes agendas de pesquisa como abordagens 27 diferentes. 7 nas primeiras décadas do século XX. Se ela não tivesse nenhum programa em seu cérebro. podemos interpretá-las apenas como diferenças nas ênfases. Suas ideias sobre o 17 processo de aprendizado humano abriram. Os pais da criança fazem o possível para que tudo o que toque a menina seja cor-de- 37 rosa e macio em seus primeiros dias de vida e. nenhuma 45 quantidade de corroboração provará que aquela conjectura seja correta. Vamos imaginar que a criança é 35 programada para acreditar que o mundo é macio (isto é hipotético. Popper era um austríaco. no qual 25 ofereceram uma visão geral de diferentes meios de se abordar fenômenos ecológicos e contrastaram algumas 26 abordagens de investigação. e por isso foi surpreendente que ele tenha sido 8 agraciado com o título de "Cavalheiro" pela Rainha da Inglaterra. 1 pequenas). Hoje, os físicos se esforçam para refutar Einstein e empurrar a ciência adiante. As coisas mais 2 interessantes, e normalmente as mais importantes, são imprevisíveis baseadas na experiência passada (Taleb 3 2007). 4 A estatística Popperiana se baseia nesta linha de raciocínio, de que é mais fácil refutar do que provar 5 alguma assertiva, embora o embasamento da maioria dos livros convencionais de estatística seja muito mais 6 restritivo do que a teoria geral de Popper, uma linha que tem sido chamada de "frequentista". Os adeptos da 7 estatística convencional (frequentista) não perguntam qual é a probabilidade de estarem certos, mas a 8 probabilidade de estarem errados. A filosofia deste paradigma foi muito aprofundada pela filósofa Deborah G. 9 Mayo (Mayo 1996, 2004). Para avaliar a probabilidade de estarem errados, eles começam estabelecendo uma 10 hipótese nula. Uma hipótese nula é uma assertiva de como o mundo deveria ser, se nossa suposição 11 estivesse errada. As melhores hipóteses nulas representam o senso comum, ou o que a maioria dos cientistas 12 acredita naquele momento, e nós vamos falar mais sobre isso no capítulo 13. No entanto, aqui nós 13 começaremos considerando situações muito simples (muito mais simples do que teria interessado a Popper). 14 Nos capítulos anteriores, fizemos a conjectura de que a presença de peixes afetava a densidade de lagostins e 15 o nosso gráfico foi consistente com nossa conjectura. Nossa hipótese nula era que não havia diferenças entre 16 as densidades de lagostins entre os riachos com e sem peixes. A figura 6.1a ilustra nosso gráfico inicial, 17 construído sob a hipótese de que os peixes afetam as densidades do lagostim. A figura 6.2b ilustra como 18 imaginamos que o gráfico poderia parecer se a hipótese nula (não há diferença nas densidades de lagostins em 19 riachos com e sem peixes) fosse "correta". 20 A arte do cientista é ser capaz de visualizar gráficos que representem a hipótese nula e comparar esta 21 idealização com o gráfico obtido com dados reais. Entretanto, há muitos gráficos que podem representar a 22 hipótese nula. Poderíamos ter amostrado outros 10 riachos e o resultado seria ligeiramente diferente. A 23 estatística inferencial diz respeito a lidar com muitas possibilidades diferentes sob a hipótese nula. 24 25 Figura 6.1 OBSERVADO HIPÓTESE NULA 12 12 a b NÚMERO DE LAGOSTINS 9 9 6 6 3 3 0 0 COM SEM COM SEM PEIXES PEIXES 26 27 28 Podemos comparar os dados entre os dois gráficos para decidir sobre a validade da hipótese nula 29 como uma descrição da relação entre lagostins e peixes predadores. Obviamente não podemos ajustar muitos 30 gráficos em uma única página, portanto, iremos olhar para apenas uma coisa em cada gráfico para fazer a 31 comparação. Esta medida de cada gráfico é chamada de uma estatística. Agora, precisaremos fazer algumas 32 operações matemáticas, mas serão contas simples. Para os dados mostrados na figura 6.1a, calculamos a 33 média das densidades nos riachos com peixes (3,8) e nos riachos sem peixes (7,7), e a diferença entre as 45 1 médias, que chamaremos de "DIF" foi igual a -3,9. Para os dados hipotéticos mostrados na figura 6.1b, a 2 diferença entre a média da densidade de lagostins nos riachos com peixes (7,7) e sem peixes (7,0) foi igual a 3 0,7 (i.e. DIF=0,7). 4 Esta estatística (DIF) é intuitiva. Quando peixes afetam as densidades de lagostins, esperamos 5 maiores diferenças absolutas entre as médias das densidades em riachos com e sem peixes do que quando os 6 peixes não afetam as densidades de lagostins. Entretanto, um cético poderia dizer que a associação entre a 7 densidade de lagostins e a presença de peixes foi acidental. Ao amostrarmos apenas cinco riachos de cada 8 tipo, poderíamos ter selecionado inadvertidamente cinco riachos com peixes que, por acaso, tinham menos 9 lagostins do que os riachos sem peixes. Devemos reconhecer que o crítico tem sua razão. Se apenas um riacho 10 não tivesse lagostins, e por puro acaso fosse justamente um dos riachos da categoria dos "com peixes", 11 poderia ser suficiente para abaixar a média geral das densidades de lagostins em riachos com peixes. 12 Para avaliar este argumento, vamos criar uma hipótese mais específica a respeito de nossas 13 observações. Poderemos dizer que esperamos uma diferença nas densidades dos lagostins entre riachos com e 14 sem peixes maior que a esperada para uma associação ao acaso entre a presença ou ausência de peixes. A 15 hipótese nula estabelece que ainda esperamos alguma diferença entre as médias das densidades de lagostins 16 nas duas categorias de riachos, mas que esta diferença não é maior que a esperada para uma associação 17 aleatória entre as densidades de lagostins e a presença de peixes. A questão agora é: de que tamanho deve ser 18 DIF para que nós rejeitemos a hipótese nula e continuemos a acreditar em nossa hipótese alternativa? 19 Para responder isto, precisamos calcular DIF quando a hipótese nula é "verdadeira" (os Popperianos 20 ortodoxos diriam: quando a hipótese nula não é falsa). Para isto, vamos usar uma moeda e atribuir 21 aleatoriamente a qualidade de "peixes presentes" (cara) e de "peixes ausentes" (coroa) aos valores medidos de 22 densidades reais de lagostins, mostradas na tabela 6.1. Criamos as variáveis PEIXE1, PEIXE2 e PEIXE3 da 23 tabela 4 por este sorteio, com a restrição de que somente cinco riachos de cada tipo (PEIXE + ou PEIXE -) 24 foram admitidos, para que, como na amostra original, houvesse sempre o mesmo número de riachos com e 25 sem peixes. 26 TABELA 6.1 RIACHO PEIXE LAGOSTINS PEIXE1 PEIXE2 PEIXE3 1 + 1 + + + 2 - 5 - + - 3 + 3 + + + 4 - 7 - - - 5 + 4 + - - 6 - 8 + - + 7 + 5 - - - 8 - 9 + - + 9 + 6 - + + 10 - 9.5 - + - 27 28 As colunas PEIXE e LAGOSTINS mostram os dados originais usados para construir a figura 6.1a. 29 As colunas PEIXE1, PEIXE2 e PEIXE3 foram o resultado do sorteio e são alocações ao acaso da presença ou 30 ausência de peixes. Podemos parear cada uma destas colunas com a coluna das densidades "observadas" de 31 lagostins (LAGOSTINS) para construir gráficos dos resultados esperados quando a hipótese nula é verdadeira 32 (figuras 6.2a, b, c). 33 34 35 Figura 6.2 46 10 10 10 NÚMERO DE LAGOSTINS 8 a 8 b 8 c 6 6 6 4 4 4 2 2 2 0 0 0 COM SEM COM SEM COM SEM PEIXES PEIXES PEIXES 1 2 3 Agora, podemos calcular DIF para cada um destes gráficos. O primeiro tem uma DIF=1,1, o 4 segundo tem uma DIF=1,7 e o terceiro uma DIF=-0,7. Se tivéssemos feito mais desses gráficos de resultados 5 esperados quando a hipótese nula é verdadeira, qual seria a probabilidade de encontrarmos uma diferença tão 6 grande ou maior que a calculada para os dados "observados" (DIF= -3,9)? Para responder a isto, 7 precisaríamos de mais um grande número de gráficos e de lançar a moeda muitas e muitas vezes: – uma 8 maneira ineficiente de alocar a característica de presença ou ausência de peixes para os riachos. Felizmente, 9 um computador pode eficientemente simular este processo que acabamos de descrever, então pedimos a ele 10 para calcular 100 DIFs baseadas na alocação aleatória da presença ou ausência de peixes em riachos. A tabela 11 6.2 traz as primeiras 20 DIFs calculadas pelo computador. 12 TABELA 6.2 GRÁFICO DIF GRÁFICO DIF 1 2,70 11 2,10 2 1,90 12 2,70 3 -0,09 13 -3,10 4 2,50 14 1,50 5 -2,70 15 -1,10 6 1,70 16 -0,10 7 0,50 17 1,30 8 0,10 18 -0,50 9 1,50 19 -0,70 10 3,10 20 -0,30 13 14 Todos os primeiros 20 resultados tiveram um valor absoluto menor do que o valor da DIF observada 15 de -3,9, mas ainda restaram muitas combinações possíveis entre as densidades de lagostins observadas e o 16 atributo de presença ou ausência de peixes nos riachos. Quando comparamos a DIF observada com 99 DIFs 17 calculadas sob a hipótese nula (figura 6.3), encontramos dois casos que tiveram uma diferença absoluta tão 18 grande ou maior do que o valor observado. 19 20 Figura 6.3 21 47 sua hipótese seja falsa). Se 9 tivéssemos perguntado se a presença de peixes faz diminuir a densidade de lagostins. 14 15 Passo 1. poderíamos fazer um 10 teste mais sensível. Este é um teste de duas caudas. 19 Passo 3. Ele é 18 chamado de hipótese nula e este é o processo de criação da hipótese nula. Entretanto. Compare o valor da estatística para os dados observados com os valores da estatística calculados 25 quando a hipótese nula é verdadeira (valores nulos). 16 Passo 2.9. Obtenha muitos valores de sua estatística. Incluímos o valor observado quando vamos computar esta frequência. concluímos que há somente em torno de três chances em 100 de se obter um valor absoluto 4 de DIF tão grande ou maior que 3. 48 . Então use a proporção de valores nulos iguais 26 ou maiores que o valor observado como uma indicação da probabilidade de se obter um valor tão 27 grande ou maior do que o observado. contando somente quantos resultados simulados eram iguais ou 11 menores a -3. Esta medida é chamada de uma 21 "estatística". de apenas uma cauda. ou seja as hipóteses devem ser opostas e excludentes. Consideramos os valores absolutos dos resultados porque 8 fizemos a pergunta geral se peixes afetam ou não a densidade de lagostins. 24 Passo 5. 4 3 2 1 0 DIF -1 -2 -3 -4 -5 OBSERVADO SIMULADO 1 2 3 Portanto. ex. e caso a hipótese nula fosse correta. Visualize o resultado esperado quando a hipótese que você esta testando não for a correta. Hulbert 1987). porque estamos 6 procurando por valores "maiores ou iguais" ao observado. usando um processo no qual a hipótese nula seja 23 verdadeira (i. porque o processo é geral para todos os testes inferenciais.9. quando não há associação entre a presença de peixes e a densidade de 5 lagostins em riachos. 13 Processos similares são advogados por muitos autores (p. Visualize o resultado esperado quando a hipótese que você está testando for a correta. 12 Vamos rever nossos passos até aqui. 22 Passo 4.e. quando a hipótese nula é verdadeira. Crie uma medida que reflita a diferença que você espera entre a situação em que a hipótese nula seja 20 a correta e quando a sua hipótese (hipótese alternativa) seja a correta. o princípio geral é o mesmo e não queremos nos alongar em detalhes. Este 17 resultado deve ser a antítese do anterior. o valor 7 observado também teria sido gerado sob ela. Estatísticas gerais que não dependem de 50 escala e que têm distribuição independente do valor do parâmetro estimado. eles aceitam que podem estar certos em suas novas explicações. Decida se a probabilidade é suficientemente pequena para que você rejeite a hipótese nula e continue 2 acreditando em sua hipótese (note que você nunca prova que sua hipótese está correta. embaralhá-los e retirar 750 amostras de quatro 49 . quando fizemos o 32 teste sorteando a moeda. apenas que a 3 hipótese nula não é um bom modelo daquele processo). Duas amostras tiradas ao 34 acaso de uma mesma população só podem ser diferentes por acaso. estão errados. Um bom desenho amostral usualmente tem uma única 19 interpretação lógica. e 26 parte é devido a inversão desnecessária dos eixos nos gráficos. além do acaso. basta que compreenda que foi um truque matemático para resolver o problema 48 da escala. Medições em milímetros resultam em diferenças numéricas 10 vezes maiores que 41 medidas em centímetros. e vão inventando explicações novas de 13 como o mundo funciona. que envolvia uma centena de gráficos. A pergunta de Gosset foi "Qual é a probabilidade de que as duas amostras foram 33 tiradas ao acaso da mesma população de medidas?" A lógica desta questão é óbvia. Gosset questionou-se "Com que 35 frequência esperaríamos amostras com médias tão ou mais diferentes do que a de nossas amostras se elas 36 realmente vieram da mesma população de medidas?". 44 Para resolver o problema da escala de medidas. Sua nova fórmula ficou como DIF/DPDIF. 1 Passo 6. Será uma boa 6 ideia anotar este processo. a menos que já tenha tido algum contato com a estatística e deseja entender como nossos 28 gráficos se relacionam com os que são usualmente mostrados nos livros. Deve ser suficiente para clarificar. dividindo-as pelo seu 45 desvio padrão (reveja o capítulo 4 se você esqueceu o que é um desvio padrão). 52 A vida não era fácil no início do século XIX. Basicamente. ele padronizou as diferenças. uma diferença) e usamos os valores resultantes para 9 construir um único gráfico simples. Desenhos amostrais inadequados levam a muitas interpretações alternativas e poucas 20 conclusões podem ser tiradas com confiança. não se preocupe a respeito do desvio 47 padrão da diferença (DPDIF).3. A fórmula de Gosset DIF/DPDIF ficou mais tarde conhecida como estatística "t" [veja Mosteller e 49 Tukey (1968) para outras implicações históricas do teste de Gosset]. são chamadas “pivotais” e elas 51 podem ter outras vantagens na construção de testes estatísticos (Manly 1977. 21 22 Como os livros-texto contam a estória? 23 24 A estória que contamos é simples. Entretanto. Portanto. Por agora. Entretanto. 29 Para compreender as diferenças. Eles estão se 12 perguntando se a ciência conhecida. 14 quando a probabilidade das explicações tradicionais estarem certas for muito pequena. agora. Legendre & Legendre 1998). Mesmo a lógica intrincada da 10 filosofia Popperiana pode ser representada em um simples gráfico! 11 Deve estar claro. 4 5 Se está parecendo complicado. e seria complicado a um tempo comparar coisas pequenas como 43 camundongos e coisas grandes como antas. os 25 livros de estatística fazem parecer que algo muito mais complexo foi feito. Sua hipótese nula era um pouco diferente da que usamos. retorne à figura 6. O nome real de Student foi William S. e precisou simular o 55 processo escrevendo 3000 números em pedaços de cartolina. que nos possibilita tomar uma decisão. Para mostrar que as 15 explicações tradicionais estão erradas. Lembre-se que usamos um computador para calcular 53 para nós as 100 DIFs. porque os cientistas procuram por probabilidades pequenas. Grande parte das 17 polêmicas na literatura científica se deve a desavenças sobre qual é a hipótese nula. vamos considerar a análise mais usada para se determinar quando 30 duas amostradas são diferentes. Usamos alguma matemática simples para calcular uma 8 medida na qual estávamos interessados (neste caso. foi 38 provavelmente responsável pelo resultado de uma diferença entre as médias tão grande ou maior que a dos 39 valores observados. Você não precisa se preocupar com a próxima 27 seção deste capítulo. 37 A hipótese nula de Gosset é similar à nossa. um conjunto diferente de DIFs esperadas sob a hipótese nula precisaria ser 42 calculado para cada escala de medidas. Gosset percebeu que a diferença entre as médias depende da escala na qual 40 medimos as variáveis. uma vez que você passe a usar a lógica Popperiana. para deixar os resultados em 46 uma mesma escala. como medi-la e o quanto 18 as evidências disponíveis são suficientes para rejeitá-la. Parte do problema é histórico. porque o processo de lançar moedas e calcular uma nova DIF para cada amostra de 54 hipótese nula era muito demorado. já que o usaremos em todo o decorrer deste livro. ao perguntar se algum outro processo. Gosset e ele 31 trabalhou em uma cervejaria. o teste t de Student. eles precisam criar um processo (hipótese nula) que represente a 16 maneira como a ciência conhecida ou o senso comum espera que o mundo funcione. Tínhamos uma questão 7 complexa. Gosset não tinha acesso a um computador veloz. ou o senso comum. 55 Passo 2.e. não precisamos nos preocupar em apresentar o primeiro 44 número. e as tabelas estatísticas quase 33 não são mais usadas. você 47 entrará na tabela no ponto errado e a probabilidade que estimar será uma pseudoprobabilidade. Entretanto. Visualizou o resultado esperado quando sua hipótese não era correta (i.95 terão menos do que 1% de chance". A ideia de reescrever outros 3000 números com muitas casas decimais não agradou 4 muito a Gosset que rapidamente compreendeu que coletar fisicamente amostras sob a hipótese nula era muito 5 complicado. precisamos na verdade de dois números. para ser usado em muitas situações. Se conhecermos alguma coisa a respeito da distribuição de medidas em nossa 7 população nula hipotética.81 terão menos 28 do que 10% de chance de serem observados. 24 talvez um milionésimo de segundo a mais para fazer as computações adicionais. Usualmente se diz que 36 os graus de liberdade dos testes estatísticos são o número de observações independentes menos o número de 37 parâmetros estimados. Valores de t maiores do 29 que 2. muitas das probabilidades apresentadas na 49 literatura são pseudoprobabilidades. usou a teoria matemática para estimar a proporção de ts hipotéticos tão grandes ou 14 maiores que o t observado. se comparássemos sete riachos com peixes e cinco sem peixes. que só servem para indicar que o autor pertence à cultura 50 científica e não transmitem qualquer informação objetiva sobre o mundo real. sem a ajuda de 25 computadores velozes. Ele usou os dados coletados para estimar algumas características da população 10 nula hipotética. que não pode 48 ser relacionada com a hipótese nula em questão. Para encontrar a probabilidade associada com qualquer valor em particular de uma estatística. tínhamos 10 riachos e estimamos a média e o desvio padrão. Ele visualizou o resultado esperado quando sua hipótese de como o mundo deveria funcionar era 54 correta. similares ao que usamos.e. ele 2 considerou que seu gráfico não estava satisfatório. Será 42 mais consistente com outros testes se considerarmos os graus de liberdade de nosso exemplo como sendo 1. quando a hipótese nula estiver correta. porque arredondara os números quando os escreveu nos 3 pedaços de cartolina. este tipo de teste foi 11 chamado de paramétrico. basta notar que os graus de liberdade são associados com o número de observações 46 independentes.8. 43 No caso de nossa comparação de duas amostras. Em nosso exemplo. Isto foi adequado para ilustrar a distribuição geral de sua estatística. como a ciência tradicional 50 . 41 um que se refere ao número de parâmetros estimados e outro ao número de observações independentes. 17 18 Como os estatísticos contam observações independentes? 19 20 Quando a hipótese nula está correta. O brilhantismo de Gosset é revelado pelo fato de que. 30 Estes valores críticos foram usados para se construir as tabelas de valores críticos usualmente 31 encontradas no final dos livros de estatística. Nós comparamos cinco riachos com peixes e cinco riachos sem 22 peixes. teríamos encontrado 23 diferentes populações de DIFs e de ts. 51 Não se preocupe se achou esta última seção de difícil leitura. Por isso. 45 Por enquanto. 53 Passo 1. Portanto. 1 unidades (Student 1908). porque o teste t sempre estima apenas 2 parâmetros. Contudo. Entretanto. podem calcular a probabilidade exata da hipótese nula ser verdadeira. 12 Como ele não teve facilidades de computação para gerar muitas distribuições de valores de t quando 13 a hipótese nula era correta. especializados em 32 estatística. para 38 construir a distribuição de resultados esperados quando a hipótese nula era verdadeira. Isto não muda muita coisa em nosso método de computação intensiva. Assim. Se suas observações não forem independentes (i. Não é preciso preocupar-se com os detalhes. A maioria dos programas de computadores. uma população diferente de ts existe para cada combinação de 21 número de observações em cada amostra. este exemplo introduz o conceito de graus de liberdade usados nos testes 34 estatísticos. quando suas premissas a 15 respeito da distribuição da população hipotética são satisfeitas. todos os valores de t maiores do que 1. seu método leva a um resultado extremamente 16 próximo aos resultados gerados pelos métodos de computação intensiva. para interpretar corretamente as tabelas estatísticas. 40 Mas. Entretanto. eles podiam dizer: "Se você 27 tem 5 observações na primeira amostra e 7 na segunda. A partir daí ele embarcou numa viagem de "e se" que só um 6 matemático poderia vislumbrar. o processo é proibitivo em termos do tempo gasto e os estatísticos do início do século 26 XIX precisaram inventar o conceito de valores críticos para as estatísticas. e se a distribuição destas medidas tiver uma forma que permita que a teoria 8 matemática trabalhe com ela. Infelizmente. você cometeu pseudorepetição). Características de populações são chamadas de parâmetros. poderíamos saber qual a distribuição que a estatística t deveria ter quando a 9 hipótese nula estivesse correta. o grau de 39 liberdade para a estatística t em nosso exemplo foi 10-2=8. O importante aqui é entender que 52 estatísticos como Gosset seguiram o mesmo processo do nosso teste de cara-ou-coroa. 35 precisamos conhecer quantas observações independentes foram usadas para calculá-la. 1 e/ou o senso comum acreditavam que o mundo deveria funcionar). Uma razão pela qual os estudantes ficam confusos com as distribuições estatísticas e com valores 20 de dados é que a distribuição de valores de uma medida ou uma estatística é sempre apresentada na horizontal 21 nos livros de estatística. usam os dados para estimar as características desta distribuição 37 (figura 6.e. será tentado a pular diretamente para a próxima seção. 38 51 . por favor. Ele usou a matemática para comparar o valor da estatística estimada para os dados observados com a 7 estatística esperada quando a hipótese nula era verdadeira (valores nulos). 12 13 É mais fácil compreender o mundo se você não virá-lo de cabeça 14 para baixo. 15 16 Se o leitor leu alguns livros de estatística e se lembra de coisas a respeito da distribuição normal e 17 outras distribuições. 30 31 Figura 6. Relacionamos os valores de densidades de lagostins com categorias de riachos. 18 porque o mundo ficará desnecessariamente complexo se nos afastarmos de nossos gráficos simples de 19 dispersão. quando sua hipótese era falsa). se tivéssemos apenas uma categoria de riachos. a única coisa que poderia variar seria a frequência de cada 27 densidade dos lagostins. colocamos as densidades de lagostins no eixo vertical (eixo y). Ele decidiu se essa probabilidade era tão pequena que ele deveria rejeitar a hipótese nula e continuar 11 acreditando em sua hipótese. Então.5a) e descartam os dados. os dados da figura 6. 6 Passo 5. vamos inverter alguns gráficos. os matemáticos parecem não ver pontos individuais e. e não o 24 contrário. assumindo uma distribuição em 36 particular chamada de "distribuição normal". Por causa disto. 4 Passo 4. 26 como nas hipóteses nulas de testes paramétricos. não faça isto.4 32 12 a b 10 NÚMERO DE LAGOSTINS 8 SEM PEIXES 6 4 COM PEIXES 2 0 COM PEIXES SEM PEIXES 0 2 4 6 8 10 12 NÚMERO DE LAGOSTINS 33 34 35 Entretanto.5b). Esta medida é agora conhecida como a estatística t. as distribuições são convencionalmente apresentadas com a variável 28 dependente no eixo horizontal (eixo x).4b. Entretanto. seguindo a convenção de que a 25 variável dependente é representada no eixo y. Ele criou uma medida que refletia a diferença esperada entre a situação quando a hipótese nula era a 3 correta e quando sua hipótese era a correta. ficando apenas com a curva teórica (figura 6. 2 Passo 3. Para entender isto. usou a proporção esperada 8 dos valores nulos iguais ou maiores que o valor observado como um indicador da probabilidade de se obter 9 um valor daquela magnitude ou maior quando a hipótese nula fosse verdadeira. 23 Porque consideramos as densidades de lagostins como sendo dependentes das categorias de riachos. 10 Passo 6. Considere a distribuição dos dados 22 de pontos na figura 6. Ele usou a teoria matemática para obter muitos valores da estatística usando um processo no qual a 5 hipótese nula era "verdadeira" (i. Neste caso.4a. Mas.4a passariam a ser apresentados 29 como na figura 6. 6a . A distribuição de dados esperados quando a hipótese nula é verdadeira é.6b).3). 1 Figura 6. na verdade. apagar os pontos e comparar apenas a posição da bolinha 12 preta com a distribuição teórica de DIF ao longo do eixo x (figura 6. Os matemáticos não amostram fisicamente suas populações nulas. 13 14 Figura 6. quando a hipótese nula está "correta". isto não ajuda muito na 19 compreensão do processo.5 a b SEM PEIXES COM PEIXES 0 2 4 6 8 10 12 0 2 4 6 8 10 12 NÚMERO DE LAGOSTINS NÚMERO DE LAGOSTINS 2 3 4 Podemos ver que a distribuição normal nem sempre parece ser uma aproximação muito boa dos 5 dados dos riachos com peixes. poderíamos inverter os eixos. mas geralmente isto não afeta a validade dos testes estatísticos comumente 6 usados.a 11 mesma da figura 6. uma única curva 7 híbrida que é um tipo de média matemática das duas curvas da figura 6. Usamos esta curva para estimar a 8 diferença nas médias para as amostras de um determinado tamanho. 9 O tipo de distribuição esperado é similar ao da nossa DIF (figura 6. Para comparar nossos valores 10 observados de DIFs com a distribuição esperada de DIFs quando a hipótese nula é correta (figura 6. mas se 20 imaginarmos que eles fazem esta amostragem e se tentarmos imaginar as distribuições das estatísticas no eixo 52 .3).6 15 4 20 3 a b 2 FREQUÊNCIA RELATIVA 15 1 0 DIF 10 -1 -2 5 -3 -4 -5 0 OBSERVADO SIMULADO -5 -2 1 4 DIF 16 17 18 Isto é o que a maioria dos livros de estatística nos ensina a fazer.5b. Entretanto. Portanto. 5 Tudo isto está ficando um pouco complicado. 53 . vamos considerar como podemos testar eficientemente diferenças entre várias 7 categorias.1 vertical. vamos retornar aos exemplos do mundo real. Quase todas as análises que 2 vamos considerar destinam-se a examinar a variação dos valores expressos nos eixos verticais de nossos 3 gráficos (variáveis dependentes). 6 No próximo capítulo. portanto. nós apenas complicaríamos mais as coisas se insistíssemos em 4 inverter a orientação dos gráficos. ficará mais fácil relacionar o processo com os nossos próprios dados. 01 parecia restritiva demais para os biólogos.01 e 0. Isto faz sentido. é muito 10 pequena. Se este 15 conhecimento é falso. Entretanto. Por isso. Poucos cientistas 50 aceitariam o nível de significância arbitrário de 0. e a probabilidade de 0. os cientistas da área biológica têm considerado que um fenômeno existe se há 19 menos do que uma chance em 20 (0.001. A estatística convencional é construída para se resguardar deste tipo de erro. possivelmente. extinção de espécies. A probabilidade de sua sogra morrer atropelada. Lidamos com probabilidades e 9 coisas improváveis acontecem. Isto 13 acontece. sempre causa dificuldades aos estudantes. porque os cientistas tentam evitar decidir que um fenômeno existe. aceitar a hipótese nula quando ela é falsa é muito mais custoso. até 43 probabilidades muito menores não serão suficientes para que você leve adiante a ideia de terem filhos. neste caso. 34 Entretanto. 24 As pessoas frequentemente perguntam porque 0. Vemos que os cientistas não abraçam novas explicações 22 facilmente.05 faz sentido como um limiar fixo.05) de que ele não exista. refletindo a falta de seriedade que devotam à 54 . é chamado de erro do tipo II e a probabilidade de se 40 cometer um erro do tipo II é conhecida como "β" pelos estatísticos. a probabilidade de se cometer o erro do tipo II é 46 inversamente proporcional à probabilidade de se cometer o erro do tipo I.04. e desejem ter filhos. quando ele não 14 existe. e 0. sem 44 antes pelo menos exigir dele(a) uma bateria de exames laboratoriais.06 ou 0. milhares de sogras morrerão atropeladas esta noite. seu(sua) parceiro(a) argumenta: "Não se preocupe. Se não. Entretanto. Rejeitar erroneamente a hipótese nula e decidir que um fenômeno existe. quando ela é falsa. Entre 28 eles. É uma conclusão válida do ponto de 37 vista estatístico e científico. 0. muitos cientistas usam 47 níveis de significância muito maiores do que 0. tudo o mais que for baseado nele estará errado. Escolhendo entre eles. Se decidíssemos que peixes afetam a 16 densidade de lagostins.05 e ela virou o padrão. Isto ocorre 48 comumente em estudos que tratam de saúde humana. Os níveis "críticos" 26 disponíveis na tabela geralmente eram 0. Esta probabilidade que funciona como um 20 critério para se determinar se o fenômeno existe ou não (neste caso 0. 11 O fato das probabilidades com que os estatísticos usualmente trabalham serem muito diferentes 12 daquelas com que as pessoas se preocupam no dia-a-dia.5. ou quando a rejeição prematura da 49 hipótese levará ao abandono de uma linha de pesquisa potencialmente importante. Isto é mais facilmente compreendido com um exemplo 32 pessoal. 0.05). Contudo. porque. vamos deixar de ver a causa limitante real e 17 tomaríamos medidas erradas para aumentar a densidade de lagostins (caso isso fosse desejável).05 quando o erro do tipo II envolve um custo alto.1.05 e não 0. Se você quizer basear suas decisões nas limitações de uma 29 tabela feita há mais de 100 anos atrás.05 para planejar sua vida pessoal.1 parecia frouxo 27 demais (rejeitar a hipótese nula em 10% das vezes).05. A resposta reside nas tabelas 25 de valores críticos que foram usadas antes do aparecimento de computadores digitais. é 23 chamado de erro do tipo I. hoje mesmo. 0. Mesmo que haja apenas uns 20% de 41 chance de seu parceiro ser portador de uma doença contagiosa e potencialmente fatal. quando na verdade não afetam. hoje em dia você pode 30 apresentar um valor de probabilidade muito preciso e deixar o leitor decidir se concorda com seu limiar ou 31 não. eu fiz todos os cálculos e a chance de eu não 35 ter contraído alguma doença sexualmente transmissível é de 6%. 45 Para uma amostra de determinado tamanho."α"). 0. 0. ainda não será 42 suficiente para que você continue seu relacionamento sem uso de preservativos e. provavelmente você não se importará muito em cometer o erro do tipo 38 I. Imagine que você se apaixone por um(a) estatístico(a). 18 Tradicionalmente. Erros do tipo I nem sempre são os mais custosos. a tabela só tinha 0. Imagine que ele ou ela 33 tenha justamente retornado de uma conferência onde tenha se envolvido em relacionamentos promíscuos. muitos deles 51 estão prontos para aceitá-lo em suas atividades profissionais.06 não é suficiente 36 para rejeitar a hipótese nula de que eu não tenha sido contaminado(a)". 39 Aceitar a hipótese nula. porque a ciência avança sobre o conhecimento anteriormente acumulado. principalmente. é chamada pelos estatísticos de 21 "nível de significância" (ou em seus hieróglifos. quando ele não existe. 1 Capítulo 7: 2 Como evitar acumular risco em 3 comparações simples 4 5 Com que tipo de risco estamos preocupados? 6 7 O fato de constatarmos que um determinado resultado não é frequente quando a hipótese nula está 8 correta não quer dizer que nunca o observaremos quando ela estiver correta. ou menos. 15 16 Usando a variabilidade para reconhecer uma diferença 17 18 No capítulo anterior. e RCPH com RCPC. Por enquanto. 1 ciência. riachos com apenas peixes herbívoros (RCPH) e riachos com peixes carnívoros (RCPC). Entretanto. Entretanto. 35 disso acontecer ao acaso. de que não há diferenças entre as categorias de riachos. alguns programas de computador podem calcular o 12 tamanho amostral necessário para se detectar efeitos de magnitude e probabilidades especificados (p.05) ou menos das DIFs simuladas (ou ts calculados) forem 55 . se houver apenas uma chance em 20. Referindo-se especificamente a uma 7 análise. Entretanto. sempre haverá alguns "truques" matemáticos envolvidos nestas 14 operações e geralmente será melhor o leitor estar certo de ter alguns gráficos hipotéticos convincentes. 32 RSP com RCPC. 27 28 Figura 7. Vamos considerar agora o que acontece quando comparamos mais do 24 que dois grupos. Seus 26 resultados são mostrados na figura 7. vamos seguir a convenção e assumir que só devemos rejeitar a hipótese 34 nula.1. construindo uma hipótese nula. não teremos tempo para enfatizar a importância de erros do tipo II. Péladeau. Entretanto. somente 36 rejeitaremos a hipótese nula quando 5% (0. esperamos que os leitores não se 6 esqueçam de avaliar a importância de erros tipo II em sua pesquisa. Informando-se alguns dados preliminares. Talvez nosso biólogo esteja interessado nas densidades de lagostins em riachos sem peixes 25 (RSP). cada vez que executarmos o teste corremos o risco de 33 cometermos um erro.1 12 NÚMERO DE LAGOSTINS 8 4 0 RCPC RSP RCPH 29 30 31 Poderíamos usar nosso teste de cara-coroa ou o teste t de Student para comparar RSP com RCPH.ex. A capacidade de se detectar uma diferença quando ela realmente existe (isto é. Isto facilitará o aprendizado dos conceitos gerais. consideramos um exemplo no qual comparamos uma amostra com outra e 19 avaliamos a probabilidade de declarar erroneamente que alguma coisa além do acaso causou a diferença entre 20 elas. Referências úteis sobre este tópico incluem Koele (1982). Koele (1982) declarou que "Uma avaliação adequada dos resultados experimentais sob estes modelos 8 é simplesmente impossível sem o conhecimento a respeito do poder dos testes que usam a estatística F". de não se cometer um 2 erro do tipo II) é chamado de "poder" do teste. 1966). 9 Diríamos que este comentário se aplica a todos os modelos e todos os testes estatísticos e não apenas àqueles 10 que usam a estatística F. nossa hipótese nula se relacionou 23 somente à comparação de dois grupos. Huberty (1987) e Green 11 (1989). 3 Neste volume. Se nada além da sorte estiver causando as diferenças nas médias. e para a maioria 4 das discussões que se seguirão assumiremos que estamos lidando com situações nas quais o erro do tipo I é o 5 mais custoso. 13 SIMSTAT. Não faz diferença se realizamos uma permutação física (nosso teste das 21 DIFs) ou usamos uma matemática complicada (teste t de Student) para gerar os resultados esperados caso a 22 hipótese nula estivesse correta. Os princípios são os mesmos. rejeitaremos a hipótese nula se qualquer das probabilidades calculadas nos testes. A probabilidade geral de.05. Entretanto. novamente teremos uma chance em 20 de encontrarmos uma diferença. Ronald Fisher desenvolveu um método 33 superior para comparar muitas categorias. O problema de usarmos DIF ou t é que um gráfico simples como o 34 da figura 7. Os cientistas também tendem a encolher os ombros e não dar atenção para 14 o problema de testes repetidos. 40 41 Figura 7. ou praticam esportes radicais como voo livre. multiplicando a probabilidade de 20 cada teste pelo número de testes realizados. quando jovens. 28 A correção de Bonferroni é simples. 7 Esta taxa cumulativa de erro nos é familiar em nosso dia-a-dia. Em nosso caso. 18 Quando fazemos mais de um teste para a mesma hipótese. Benjamini e Hochberg 1995). No entanto. sejamos 8 inclinados a crer que nunca acontecerá conosco. Fisher raciocinou que seria mais eficiente se o gráfico pudesse dar 35 origem a apenas uma estatística que refletisse a diferença geral entre as categorias. o princípio já era conhecido muito 24 antes. Entretanto. Portanto. e tão boa quanto qualquer outro método quando 29 poucos testes estiverem sendo feitos. a chance de cometermos o erro do tipo I quando 2 comparamos RSP com RCPH é cerca de uma em 20 quando a hipótese nula não é falsa. embora não 6 linearmente. inclusive cientistas! Tukey (1991) apresenta uma discussão 17 iluminada sobre a filosofia de múltiplas comparações.2 42 56 . decidimos só rejeitar a hipótese nula se houver no máximo uma chance em 20 de 26 ela estar correta. fácil de fazer. com o número de testes. se formos 3 comparar RSP com RCPC.2). 15 Geralmente são necessárias algumas experiências desagradáveis até que eles se convençam de que as leis da 16 probabilidade se aplicam a todas as pessoas. agora é de 5 duas em 20. e pode ser derivado das ideias publicadas pelo inglês George Boole mais de 80 anos antes de 25 Bonferroni. Toda vez que uma criança vai contra as 11 orientações de seus pais. A maioria dos pais fica receosa quando seus filhos pegam o 9 carro emprestado e dirigem em alta velocidade. de ausência de diferenças entre as amostras. quando 4 ela não existe. podemos corrigir a probabilidade de 19 rejeitar a hipótese nula geral. ou 10 simplesmente não têm o bom senso de praticar sexo seguro. Podemos examinar a lógica de Fisher usando a amplitude em 38 lugar das diferenças dos quadrados. encontrarmos uma diferença que não existe. Portanto. uma vez que a amplitude é facilmente reconhecível em gráficos (figura 39 7. por puro azar. os pais 12 sabem que se um comportamento de risco é repetido um número suficiente de vezes. for menor do que o nível de significância escolhido de 0. 27 após serem multiplicada por três. Este procedimento recebeu o 22 nome de "Correção de Bonferroni" em homenagem ao estatístico italiano Carlo Emílio Bonferroni. o procedimento de Bonferroni 30 tende a aceitar a hipótese nula mais do que deveria (erro do tipo II).1 tem muitos DIFs ou ts. Com três testes será aproximadamente três em 20 e continua aumentando. Fisher foi um matemático 36 e podia raciocinar em termos de diferenças dos quadrados (reveja o capítulo 4 se achar que precisa saber mais 37 alguma coisa sobre diferenças dos quadrados). Modificações neste procedimento podem 31 incrementar seu poder (Rice 1989. 1 menores do que a DIF (ou t) dos dados observados. que se relaciona com questões do mundo real. se torna mais e mais convencida de que é imune aos perigos. uma pequena chance de 13 perigo se torna quase uma certeza. Entretanto. então a hipótese nula geral é rejeitada. embora. mas algumas vezes também mudam a 32 questão que está sendo respondida (Benjamini e Hochberg 1995). porque eles estão convencidos de que suas hipóteses estão corretas. Se qualquer das probabilidades multiplicadas for pequena o 21 suficiente para rejeitar a hipótese nula. no caso de muitos testes. que 23 publicou sobre o assunto em revistas italianas nos anos 1930. que foi a medida usada por Fisher. podemos ver que a variabilidade dentro da categoria "variabilidade total" é igual 17 a variabilidade dentro de cada categoria. mas as médias forem 4 diferentes. 26 A comparação dos dois gráficos mostra que.2 e certifique-se que pode enxergar a diferença entre as situações quando a hipótese nula não é 57 . embora o gráfico 22 para este exemplo pareça um pouco forçado (figura 7. não esperamos diferenças muito grandes quando a hipótese nula é "verdadeira" 25 e. Fisher não usou RV. A partição de variação pode 31 ser feita usando-se a amplitude (Beyer 1966). Vamos 29 chamar nossa estatística conceitual de "RV" (razão da variação). retorne à 37 figura 7. como 35 veremos na seção de partilha da variabilidade. de forma genérica. lembrando que a barra sobre o Vi significa que se trata 13 de uma média e que o índice subscrito "i" está substituindo. 33 Fisher chamou sua estatística de razão de variâncias. o gráfico preenche nossas expectativas. 15 A figura 7. Não há diferença 16 entre as médias e. essa relação pode ser representada pela equação 8 a seguir. incluindo a variância.e. Entretanto. Em termos matemáticos. a mesma lógica se aplica com qualquer outra 6 medida de variabilidade. neste sentido.2b). o valor esperado para F quando 36 a hipótese nula é "verdadeira" é sempre 1. É claro que a chance disto ocorrer com amostras 24 reais é desprezível. Nele. Podemos expressar isto matematicamente pela equação a seguir: 18 19 V1=V2=V3=VT 20 21 que também poderia ser expressa como Vi = VT. Esperamos que possam ver isto no gráfico. combinando os dados de todos os tipos de riachos e a chamamos de 3 variabilidade total (VT). então a variabilidade total será muito maior do que a de cada categoria. Se equações lhe dão arrepios.VT/ Vi ). 7 quando a hipótese nula não é verdadeira. Uma estatística simples 28 que reflete isto é a variação total dividida pela variação média dentro das categorias (i. Embora tenhamos usado a 5 amplitude (V) para representar a variabilidade das categorias. Quando a hipótese nula é falsa. mas assim como em nossa RV. VT > Vi e RV>>1. Como sempre. 9 10 V1 = V2 = V3 < VT 11 12 Esta mesma equação pode ser escrita como Vi < VT. ou outras medidas (Tukey 1977). a variabilidade em cada categoria foi quase 23 igual à das demais e as médias foram exatamente iguais.2a. os índices que representam as 14 categorias 1 a 3. Se a variabilidade dentro de cada categoria é a mesma. VT 30 = Vi e RV=1. Quando a hipótese nula for "verdadeira".2b mostra um resultado esperado quando a hipótese nula está correta. mas em sua homenagem ela foi chamada de 34 estatística F. A ideia é essa. se as equações deixaram-no confuso. neste caso. assim como 32 Student não usou a estatística DIF. A estatística F de Fisher é construída de uma forma um pouco diferente de nossa RV. DADOS OBSERVADOS HIPÓTESE NULA } } } 12 12 NÚMERO DE LAGOSTINS a b NÚMERO DE LAGOSTINS 8 4 } v1 v2 v3 vT 8 4 } } } } v1 v2 v3 vT 0 0 RCPC RSP RCPH TOTAL RCPC RSP RCPH TOTAL 1 2 Incluímos uma outra categoria. recorra aos gráficos para apreciar a mesma informação. como na figura 7. Ele usou a razão de duas variâncias. No entanto. esperamos que a 27 variação média dentro de cada categoria seja aproximadamente igual a variação total. quando a hipótese nula é "verdadeira". Entretanto. então podemos perceber que seria muito mais fácil encontrar valores 30 extremos para médias de amostras tiradas da distribuição representada pela categoria de riachos sem peixes 31 (com grande variabilidade) do que para a distribuição representada pela média de Vi. A lógica é que. Assim. mas esta diferença seria devida a uma 36 subestimativa da variabilidade na hipótese nula. a sigla em 34 Inglês para "Analysis of Variance"). De fato. estaríamos 37 rejeitando a hipótese nula de ausência de diferença entre as médias quando a hipótese nula era verdadeira. precisamos assumir que a variabilidade dentro das categorias é aproximadamente 22 igual. As equações e as estatísticas apenas 2 refletem a diferença mostrada no gráfico. 27 O computador não enxerga a variabilidade de cada categoria (V1 e V2) e cria a distribuição nula 28 baseada na variabilidade média ( Vi ). F=t2. sempre poderá usar testes de 8 permutação como o nosso usando DIF. teve que assumir que a distribuição de valores na 5 população nula hipotética seguia a distribuição normal. esperamos encontrar diferenças entre 25 as médias na mesma proporção prevista nas tabelas estatísticas ou pelos computadores. ou que a variabilidade dentro das categorias difere entre as categorias. há uma outra premissa que não pode ser deixada de 19 lado. Fisher teve de lançar mão de uma 4 matemática pesada. 3 Para gerar amostras de F quando a hipótese nula era "verdadeira". quando se compara apenas 17 duas amostras. para testar por diferenças nas médias entre os níveis do fator. No entanto.2b).e. 35 provavelmente descobriríamos uma diferença significativa. Tanto a estatística F quanto a t são calculadas dividindo-se a variabilidade entre as médias das 23 categorias pela variabilidade dentro das categorias. Isto nos levaria a cometer um erro do tipo I. o teste pode ser mais sensível no que diz respeito a simetria. 39 se as variâncias são aproximadamente iguais). (2009) 10 descrevem como fazer testes usando dados com distribuições muito diferentes do normal (mas da mesma 11 família de distribuições). 41 chamados pelos estatísticos de "outliers". Zuur et al. 13 14 Uma premissa importante 15 16 As lógicas dos testes de Fisher e de Student são muito parecidas. Portanto.3 representam a variabilidade 29 do universo de cada categoria de riachos. que não requerem todas as premissas dos testes paramétricos. a figura 26 7.3 45 58 . 38 Embora a maioria dos livros de estatística se preocupe com a homogeneidade das variâncias (ou seja. Se desejamos testar as 21 diferenças entre médias. Da mesma forma que Student. embora os resultados de seu teste não tenham sido 6 muito sensíveis a desvios moderados desta premissa. i. 43 44 Figura 7. Manly (1997) apresenta muitos exemplos de testes de permutação e 9 outros assemelhados. estes cálculos usam conceitos que somente vamos mencionar nos 12 últimos capítulos deste livro. é muito importante inspecionar o gráfico antes de aplicar 42 qualquer avaliação estatística. se as amostras foram tomadas de uma 24 única população com uma determinada variação média (hipótese nula). Grandes valores de F podem indicar ou que as médias são muito diferentes entre as "categorias" (níveis 20 do fator).3 mostra um exemplo onde a variabilidade diferiu entre as categorias (presença ou ausência de peixes). Já dissemos que eles são relativamente robustos em relação à premissa de "normalidade" 18 da população da qual os dados são tirados. Se as amostras representadas na figura 7. a distribuição 32 nula não está correta e as probabilidades tenderão a ser pequenas. 1 verdadeira (figura 7. Entretanto. Se aplicássemos o teste de Fisher (chamado de análise de variância ou ANOVA. A 40 análise de variância e muitos testes análogos de aleatorização são muito sensíveis a pontos muito extremos. indicando diferenças nas médias quando 33 elas não existem.2a) e quando ela é "verdadeira" (figura 7. Se o leitor estiver especialmente preocupado com a 7 forma da distribuição da população da qual seus dados foram tomados. para localizar a diferença (p. Daqui para diante. 28 podemos dizer que a variabilidade entre as categorias (VPEIXES) decorreu da presença de peixes e que a 29 presença ou ausência de peixes é o "tratamento" ou "fator" que potencialmente está afetando a densidade de 30 lagostins. Temos a variabilidade dentro das categorias (V1 e V2). ex. que será útil quando tratarmos de exemplos mais complexos. porém não nos diz quais médias 16 são diferentes. vamos considerar alguma 24 terminologia. O teste de Levene.07 isto equivale a escrever que "há 7% de chance de que minha conclusão não seja completamente 10 sem sentido". 7 atribuirá um efeito significativo quando ele não existe. 12 diferenças na variabilidade são mais importantes (p. para teste de premissas. 20 21 Partição das variâncias 22 23 Antes de terminarmos com o modelo de análise de variância de Fisher. ex. ex. Dytham 1999). no qual a variabilidade dentro das categorias é similar entre as categorias de riachos 26 com peixes (RCP) e riachos sem peixes (RSP). é usado para determinar se as variâncias dentro dos níveis 4 do fator não são suficientemente homogêneas o que resultaria em valores improváveis de F. Isto parece "seguro" para você? 11 Por alguma razão os biólogos têm fixação em comparar médias. Não vamos nos preocupar com estes testes agora. que não pode ser 31 atribuída a uma causa em particular. 18 já que se o leitor compreender os conceitos por detrás de testes múltiplos e ANOVA. Entretanto. Day e Quinn 1989). 6 o erro do tipo I não é o mais custoso. O uso de baixos 5 valores críticos para P é geralmente tido como "seguro" ou "conservador". Callaghan e Holloway 1999).05 para estes testes (p. Entretanto. {} } 30 NÚMERO DE LAGOSTINS 20 10 V1 { V2 ViMÉDIA VTOTAL 0 COM PEIXES SEM PEIXES TOTAL 1 2 Erros do tipo II são comumente encontrados em testes para determinar se as premissas de uma análise estão 3 sendo cumpridas. será capaz de entender 19 as comparações entre tratamentos após uma ANOVA. as 27 médias das categorias (cada uma assinalada por um asterisco) e a variabilidade total (VT). é preciso olhar o gráfico ou usar um teste mais fraco.4. embora algumas vezes usaremos a variabilidade para fazer inferências 14 sobre médias ou outras características (parâmetros) de populações. Vamos considerar os dados 25 mostrados na figura 7. Se você erroneamente deixar de identificar que a premissa está incorreta. frequentemente. Conceitualmente. por exemplo. Para determinar isto. Os autores de livros de estatística frequentemente 8 recomendam um valor crítico de P=0. 13 iremos sempre discutir a variabilidade. A diferença entre a variabilidade total e a VPEIXES é devida à variabilidade residual. como o teste de 17 Tukey. mas isto 59 . Se a probabilidade calculada 9 foi de 0. A variabilidade residual é algumas vezes chamada de "erro". 15 A análise de variância nos diz que há uma diferença entre as médias. Mas a fim de deixá-la um pouco mais universal. mas usando a variância ao invés da amplitude para representar a 7 variabilidade. estaremos fazendo o que os estatísticos chamam de "partição das variâncias".4.5 é basicamente igual à figura 7. o que não é verdade. por favor. 13 Experimentem para ver se são capazes de visualizar nas figuras 7. em 19 relação aos conceitos que desejamos transmitir. Vamos continuar nos 11 referindo à partição da variabilidade como mostrada na figura 7. Este é o processo usado pela maioria das análises 9 complexas que estaremos examinando no resto deste volume.5 a equação simples mostrada 14 a seguir: 15 16 VFATOR + VRESÍDUO = VTOTAL 17 18 A figura 7. Para facilitar a 60 . Portanto.4 4 12 } } } NÚMERO DE LAGOSTINS 8 V2 } VPEIXE VT 4 V1 0 RCPC RSP MÉDIAS TOTAL 5 6 Se fizermos um processo análogo. 1 implica que esta variabilidade não faz parte do mundo real. reveja esta seção. mas o princípio é o mesmo.4 e 7. 2 3 Figura 7.4 e os leitores só serão capazes de 12 acompanhar nossa linha de raciocínio se visualizarem este processo em termos de dados exibidos em gráficos. Os cálculos ficam 8 um pouco mais complicados. se o leitor ainda tem dificuldades com 10 o processo de partição da variabilidade em gráficos. introduzimos pequenas modificações. elas são análogas às variâncias que calculamos no capítulo 4. A média dos quadrados do fator é uma estimativa da variância devido ao fator mais a 19 variância residual. 3 enquanto na figura 7. elas podem ser 18 variâncias compostas.4 a variação devido ao fator "presença de peixes" aparece como VPEIXE. Portanto. 20 Conceitualmente. e a média dos quadrados do resíduo é uma segunda estimativa da variância do resíduo.5 6 7 } } } } 12 NÚMERO DE LAGOSTINS 8 V1 = V2= VRESÍDUO VTOTAL } 4 VFATOR 0 8 9 Fisher trabalhou com uma quantidade que ficou conhecida como "soma dos quadrados" (SQ) e 10 tomou decisões baseadas nas "médias dos quadrados" (MQ).e. as razões F podem se tornar complicadas. temos a seguinte equação: 21 22 F = (σ 2Fator + σ 2Resíduo)/ σ 2Resíduo 23 24 onde σ 2 significa a variância. Na ANOVA. a média dos quadrados do fator não representa apenas a variabilidade 14 entre as médias. 1 representação da variação residual (VRESÍDUO) que não aparece explicitada na figura 7.4. Ela é uma estimativa da variabilidade entre as médias mais a variabilidade dentro dos níveis 15 do fator ou tratamento (i. e esquecendo umas poucas constantes. 28 Os estudantes sempre perguntam como os programas de ANOVA podem calcular F < 1. se a 29 equação do parágrafo anterior for correta. Devido às incertezas 61 . Quando a variância devido ao fator for zero (a hipótese nula está "correta"). 16 As médias dos quadrados são calculadas como a soma dos quadrados dividida pelos graus de 17 liberdade. Como foram baseadas em variâncias compostas. o conceito de que a variabilidade pode ser repartida em uma fração devido ao 27 fator e outra devido à variação residual é simples.5 a variação devido ao fator aparece como VFATOR. Ao invés de comparar a variação residual com a variação 12 total. nós alinhamos V1 e 2 V2 e abstraímos os pontos. como veremos 26 no capítulo 9. a variância 30 do resíduo. a estatística F de Fisher é a razão entre a média dos quadrados do fator (tratamento) e a média dos 13 quadrados dos resíduos. variação residual). Entretanto. mas não é preciso saber calcular estas coisas 11 para entender os princípios por detrás da análise. é estimada de formas diferentes no numerador e no denominador da equação. Entretanto. Isto acontece porque uma mesma quantidade conceitual. F = 25 1. 4 5 Figura 7. Na figura 7. que 6 têm a cauda mais espichada para o lado direito). 4 O valor esperado para um estatístico é o valor que se poderia esperar se repetíssemos o exercício um 5 grande número de vezes e usássemos a média. um valor ocasional muito elevado 7 pode resultar em um F próximo ou igual a um. Para os 8 estatísticos. simples mortais. 2 esperamos encontrar. Na verdade. 1 da amostragem e porque o valor esperado pelos estatísticos é diferente do valor que nós. se o leitor estiver construindo seus próprios testes. 10 As tabelas de F levam em conta o desvio para a direita e fornecem as probabilidades corretas. Na maioria das vezes em que for necessário lidar com categorias. valores esperados sem vieses relacionam-se com o valor médio esperado em uma infinidade de 9 tentativas. ocorre do resultado das estimativas serem algumas vezes diferentes. estas análises só são simples dentro de salas de aula e são 17 virtualmente sem utilidade em estudos ecológicos (veja o exemplo do capítulo 5. compreenda que alguns valores "esperados" 12 podem não estar tão próximos daqueles que você espera encontrar frequentemente. modelos de análise de 19 variância serão mais simples e eficientes do que análises baseadas em tabelas de contingência. 11 Entretanto. a 3 maioria dos Fs são menores do que um. como a dos valores de F. ou 18 Magnusson 2000b). 20 62 . quando a hipótese nula está "correta". Caughley and Sinclair 13 (1994:210) apresentam um exemplo para a estimativa de Petersen de tamanho populacional que mostra como 14 os valores esperados daquela estimativa são muito maiores que a maioria dos valores calculados. embora a maioria dos valores seja menor do que um. 15 Muitos cursos de estatística começam com exemplos de tabelas de contingência como a maneira 16 mais simples de se analisar categorias. Já o ecólogo usualmente está tentando tomar uma decisão baseado em um único experimento. Para uma distribuição enviesada para a direita (quer dizer. Hulbert 1984. Entretanto. Em 6 nossa vida cotidiana.1a e b. 7 Chamamos estas pessoas de sexistas. 12 Para entender algo sobre as cores é preciso entender que o olho e o cérebro humano interpretam uma 13 estonteante diversidade de cores a partir de apenas três tipos diferentes de receptores de cores em suas retinas. e uma multidão de fatores que só de longe podem ser relacionados com a aparência da genitália. reconhecemos diferenças sexuais "fixas". quase sempre. mas é claro que. mas com níveis de hormônio. João e Maria. Suponha que dois biólogos. 14 Os engenheiros de equipamentos de computação usam esta informação para projetar impressoras coloridas 15 que reproduzem milhões de cores usando combinações de pigmentos vermelho. em última análise.1 63 . ao fazermos isto. densidade dos 21 ossos. conteúdo de gordura do corpo.2). taxa metabólica. mas esta categorização é grosseira 19 para muitos propósitos. a única coisa que realmente muda de uma cor para outra é o 17 comprimento da onda eletromagnética. De 16 qualquer maneira. Se as 24 categorias são uma base fraca para nossas relações sociais. racistas. 9 estamos incorrendo no mesmo erro e categorizando-as também. xenófobas ou outros termos que. Entretanto. verde. Estudos científicos usualmente começam com 10 categorizações. carregam um 8 tom de nossa censura ou desconfiança em relação ao seu modo de pensar. azul e preto. uma variável contínua. A maioria das drogas não interage diretamente com o sexo do 20 organismo. 22 Mesmo no contexto social. Muitas pessoas homossexuais. A figura 8. cada um produziu um gráfico para mostrar os resultados (figura 8. 18 Em nosso cotidiano. 1 Capítulo 8: 2 Análises para um mundo com todas 3 as tonalidades 4 5 Passamos bastante tempo fazendo considerações de como testar as diferenças entre categorias. Depois 36 de coletarem seus dados. a categoria sexo não funciona muito bem. e delinearam seus experimentos de forma a 33 amostrar a temperatura em dois níveis: baixa (=1) e alta (=2). inclusive na medicina. mas tendem a estagnar-se até que alguém comece a estudar os processos ao invés de apenas os 11 padrões. cada um decidiu usar níveis 34 diferentes para representar "alto" e "baixo" e estes níveis estão mostrados na figura 8. decidiram fazer experimentos para 32 investigar a atividade deste inseto em função da temperatura.1 mostra dados sobre a atividade de um inseto em 31 relação a temperatura do ar. Notem que eles 35 não tiveram informação sobre a atividade dos insetos fora dos níveis de temperatura que escolheram. com todo 23 direito. porque deveriam ter uma posição tão exaltada na 25 ciência? 26 27 Encaixotando o mundo 28 29 Vamos considerar o que acontece quando categorizamos um fenômeno contínuo e depois investigar 30 formas mais diretas de se atacar o problema. 37 38 Figura 8. somos cautelosos em relação a pessoas que insistem em colocar tudo em categorias. recusam-se a ter sua sexualidade definida com base apenas em alguns detalhes anatômicos. O teste de João estimou uma 9 probabilidade de 0. dispensando o uso de qualquer estatística extravagante ou lógica 14 Popperiana.2 19 64 . portanto rejeitou a hipótese nula como improvável e passou a aceitar que a 12 temperatura afeta a atividade do inseto. no fim das 8 contas. mas decidiram usar o teste t de Student. introduzido 7 para garantir que a premissa de homogeneidade das variâncias do teste t não fosse violada. 15 16 17 18 Figura 8.2. com uma correção para as diferenças entre 6 as variâncias dentro de cada categoria. Consequentemente. este teste vai dar resultados similares ao de simulações de DIF. João rejeitou sua hipótese de 10 que a temperatura afeta a atividade do inseto.78 de que a hipótese nula fosse correta. Eles poderiam ter 5 usado nosso teste de DIF. João Maria 30 30 % ATIVIDADE 24 a 1 2 24 b 1 2 18 18 12 12 6 6 0 0 10 16 22 28 34 40 10 16 22 28 34 40 30 30 c 1 2 d 1 2 % ATIVIDADE 24 24 18 18 12 12 6 6 0 0 10 16 22 28 34 40 10 16 22 28 34 40 TEMPERATURA (°C) TEMPERATURA (°C) 1 2 3 Já que João e Maria leram o capítulo anterior deste livro. O leitor não precisa se preocupar com este refinamento.035 de que a 11 hipótese nula estivesse correta. apenas 13 examinando os gráficos da figura 8. decidiram testar se as diferenças entre as 4 médias das amostras em temperatura "alta" e "baixa" deveriam ser atribuídas ao acaso. O teste de Maria estimou uma probabilidade de 0. porque. A maioria das pessoas tenderá a chegar às mesmas conclusões. no caso da amostragem de João e de Maria. o modelo conceitual passa a ser: 13 14 VRESÍDUO + VFATOR + VNÍVEIS = VTOTAL 15 16 Quando amostramos todos os níveis de um fator. que tornam a interpretação 22 dos resultados ainda mais difícil. nenhum 18 destes termos é muito apropriado. Podemos chamar este termo de VNÍVEIS. porque agora nos 21 concentraremos em outros efeitos resultantes de se categorizar variáveis contínuas. ele é chamado de "randômico". vamos supor que João e Maria poderiam ter escolhido níveis de temperatura 24 "alta" e "baixa" que apresentassem as mesmas médias que as apresentadas nas figuras 8. Diríamos que toda a variabilidade devido a amostragem está na variabilidade residual. João agora rejeita a hipótese nula como sendo improvável (P=0. Vamos discutir isto depois. e nem todos os possíveis níveis têm igual probabilidade de serem amostrados.1.3). mas com 25 intervalos mais largos para cada nível. João Maria 25 20 a b 23 17 % ATIVIDADE 21 14 19 11 17 8 15 5 BAIXA ALTA BAIXA ALTA TEMPERATURA TEMPERATURA 1 2 3 A obtenção destes resultados contraditórios é compreensível em termos de um modelo de análise de 4 variância. há uma outra fonte de variação que afeta a 10 variação total: a variação devido ao fato de terem amostrado apenas alguns dos níveis possíveis do fator e o 11 modelo conceitual deve incorporar um termo para esta variabilidade.013) e Maria "aceita" a hipótese nula 28 (P=0. 29 30 Figura 8. os níveis de um fator randômico são amostrados de uma 19 forma não aleatória.22). Este 20 desenho inadequado pode afetar muito o resultado. exatamente como os 26 gráficos com níveis estreitos mostrados na figura 8. 23 Voltando à figura 8. Usando o 27 teste t. dizemos que este é um fator "fixo".1b. Este modelo 5 conceitual poderia ser escrito como: 6 7 VRESÍDUO + VFATOR = VTOTAL 8 9 Entretanto. Se fizermos os gráficos de seus resultados. Se amostramos apenas 17 uma pequena proporção dos possíveis níveis do fator. nossas conclusões serão opostas (figura 8. Entretanto. Quase sempre.1a e 8.3 31 65 . 12 Então.2. não é possível 20 assegurar que todos os níveis de cada categoria sejam medidos em todos os níveis de outro fator que também 21 esteja sendo estudado.1 INTERVALOS JOÃO MARIA Amplos Significante Não significante Estreitos Não significante Significante 6 7 Nosso modelo conceitual agora indica que a variação total não apenas depende dos níveis 8 amostrados. Uma outra razão é que experimentos de "inferência forte" usualmente só 19 são possíveis quando se usa categorias. Isto está relacionado com 28 nossas discussões sobre escalas nos capítulos anteriores. 5 TABELA 8. fracas. mas também da amplitude dos intervalos escolhidos para representar a categoria. pode haver uma grande informação na ordem em que as "categorias" 22 ocorrem na natureza. iremos retornar a ela 25 posteriormente. João Maria 30 30 a b 24 24 % ATIVIDADE 18 18 12 12 6 6 0 0 BAIXA ALTA BAIXA ALTA TEMPERATURA TEMPERATURA 1 2 3 A tabela 8. 24 Não se preocupem se não compreendem toda esta terminologia aqui. 15 Neste ponto. Além disso. 9 10 VRESÍDUO + VFATOR + VNÍVEIS + VAMPLITUDE = VTOTAL 11 12 Existem algumas técnicas estatísticas para lidar com a variação devida aos níveis do fator (VNÍVEIS) e vamos 13 tecer considerações sobre eles no próximo capítulo. este é o motivo pelo qual tendemos a 18 ser racistas. Quando existe um número infinito de intervalos. Como dissemos anteriormente. e portanto. Hierarquias baseadas na escala (quantidades 29 mensuráveis) podem ter uma base objetiva. com a qual a análise de variância "padrão" simplesmente não consegue lidar (Gaines e 23 Rice 1990). quando um pesquisador categoriza uma variável contínua em nome do desenho 26 experimental. 31 66 . está trocando uma inferência fraca a respeito de uma categoria forte (há apenas uma categoria) 27 por uma inferência forte a respeito de categorias subjetivas. Parte da resposta é que os seres humanos se sentem confortáveis 17 com categorias aparentemente simples. Basicamente. esperamos que os leitores estejam se questionando porque os pesquisadores despendem 16 energia para categorizar variáveis contínuas. não há um método objetivo de lidar com a 14 variação devida à escolha da amplitude destes níveis (VAMPLITUDE). sexistas e xenófobos. Hierarquias baseadas em "níveis" sempre serão subjetivas e 30 podem impedir o avanço da ciência (Allen 1998).1 compara as conclusões de João e Maria quando usam intervalos estreitos ou largos para 4 definir suas categorias. Entretanto. 6 7 Figura 8. precisamos 4 começar com o tipo de relação contínua mais simples: uma linha reta. se não houver outros fatores atuando.5 16 67 .5.4 mostra um mapa de 5 árvores (representadas pelo símbolo "○") em 6 reservas de tamanhos diferentes. Os pontos representam o número de árvores contados em cada reserva. A figura 8.4 8 3 ha o o o 6 ha o 1 ha o o o o 5 ha o oo o o o o o o o 2 ha 4 ha o o 9 10 11 Vamos construir um modelo simples deste sistema. 1 Descrevendo um mundo retilíneo 2 3 Para entender como computadores e testes estatísticos lidam com variáveis contínuas. Podemos esperar uma relação direta entre a área 12 da reserva e o número de árvores em cada reserva. 14 15 Figura 8. O modelo está 13 representado pela linha na figura 8. O 13 "B" é a inclinação.6 mostra uma relação entre a atividade 18 de um inseto e a temperatura. em média. teremos a seguinte forma: 5 6 NÚMERO DE ÁRVORES=A+B*ÁREA DA RESERVA 7 8 Os livros especializados usariam letras gregas para "A" e "B". A=0 e B=1. na faixa entre 26 e 36º C. na maior parte das vezes. porque elas são teóricas e não foram 9 estimadas a partir dos dados. Substituindo na equação. Não conhecemos a verdadeira relação entre a 19 atividade do inseto e a temperatura. vale a pena empregar algum tempo e se certificar de que podem visualizar esta equação no gráfico. não estamos tratando com equações teóricas e tentaremos 17 determinar a posição da linha a partir dos dados coletados. Já que a maioria das análises frequentes em ecologia é baseada em variações desta 15 equação. Em nosso exemplo. Esta equação geral pode ser usada para descrever uma linha 12 reta. usando o símbolo "*" para 4 representar a multiplicação. A figura 8. ou a quantidade que a variável dependente aumenta para cada unidade de aumento da 14 variável independente. julgando-se pelo fato de que em geral os pontos estão 3 perto da linha. não há árvores. teremos. 21 22 Figura 8.6 68 . uma árvore a mais. mas esboçamos no gráfico a linha que achamos que provavelmente 20 representa esta relação. 7 6 NÚMERO DE ÁRVORES 5 4 3 2 1 0 0 1 2 3 4 5 6 7 ÁREA DA RESERVA (ha) 1 2 Nosso modelo teórico parece ser bastante bom. veremos que a 10 equação diz que quando não há reserva (área=0). ou o valor da variável dependente quando a variável independente é igual a zero. A equação diz também que para cada hectare 11 extra. O modelo teórico pode ser representado por uma equação e. O "A" é a elevação. baseados apenas na distribuição dos pontos. 16 Entretanto. é o que faz o 13 método chamado de regressão do maior eixo. As principais variações 25 das análises estatísticas mais comuns se resumem a minimizar diferentes distâncias. Já a regressão do "maior eixo reduzido" encontra a posição da 14 reta que resulta na menor área dos triângulos formados pelas linhas horizontais e verticais do ponto até a reta 15 (figura 8. 28 69 . Vamos fazer 26 considerações sobre isto no capítulo 12. 16 Minimizar apenas a distância vertical (linha contínua na figura 8.7a mostra uma forma lógica de minimizar a distância de dois pontos até a reta. A operação 12 de minimizar as distâncias perpendiculares à reta até os pontos. como mostrado na figura 8.7a. Isto parece uma ação simples e direta.7b).7c). Não vamos nos ater neste ponto 20 e se os leitores desejarem uma discussão a respeito. mas na verdade há muitas maneiras diferentes pelas 5 quais as distâncias podem ser minimizadas. podem consultar Ricker (1973). 21 A minimização dos quadrados das distâncias verticais até a linha permitiu o desenvolvimento de uma 22 grande variedade de análises complexas e geralmente as mais úteis em termos de previsão. para variáveis categóricas independentes. e apresenta três 6 maneiras de como as distâncias podem ser minimizadas. 7 8 Figura 8.7 9 10 11 A figura 8. Minimizar a 17 soma dos quadrados das distâncias verticais dos pontos até a reta (a área contida nos quadrados na figura 8. da mesma forma que a variação dentro 27 das categorias na análise de variâncias. Estas distâncias são resíduos.7c) 18 parece ainda mais ilógico. 25 21 % ATIVIDADE 17 13 9 5 26 28 30 32 34 36 TEMPERATURA (°C) 1 2 3 Quando as pessoas colocam linhas retas em gráficos. Cada 19 um destes métodos de minimizar as distâncias tem vantagens e desvantagens. fazem isto minimizando a distância média da 4 linha aos pontos.7c) não parece muito lógico. ela é chamada de "regressão dos mínimos quadrados". este é o processo por trás do método estatístico mais empregado. Por razões óbvias 23 (veja figura 8.7 mostra uma parte de nosso gráfico. Entretanto. Estes dois métodos são lógicos e provavelmente os mais intuitivos para a maioria das pessoas. A figura 8. Ela é matemática e logicamente 24 equivalente à análise de variância de Fisher. Quando a variabilidade é medida pela soma de quadrados (veja capítulo 3). 14 Figura 8. Para regressões. e X é qualquer variável independente (no caso. certifique-se de que possa visualizar o 11 tipo de variação representado na figura 8.7). Para análises que envolvem categorias. 1 O quanto o modelo se ajusta? 2 3 A variação em torno da linha é a variação residual não explicada pelo modelo (a linha) e é ilustrada 4 na figura 8.8 15 } 25 21 } VRESÍDUO % ATIVIDADE } 17 VTOTAL 13 VFATOR 9 5 20 21 22 23 24 25 TEMPERATURA (°C) 16 17 18 Quando estimamos a posição da linha a partir dos dados. R2 (capítulo 7 9). 9 Embora provavelmente a maioria dos leitores terá dificuldade em visualizar a soma de quadrados 10 (imagine a soma das áreas dos quadradinhos pontilhados da figura 8. 23 24 Figura 8. "temperatura").9. porque descrevem a população de pontos nos quais a regressão foi 22 baseada. As letras "a" e "b" 21 representam estimativas de parâmetros.8 como VFATOR/VTOTAL. não é uma boa medida da magnitude do efeito em 8 análises categóricas (Rosenthal and Rubin 1982). onde Y é qualquer variável dependente (em nosso 20 caso "% atividade").8. Embora o r2 seja uma das estatísticas mais usadas.9 70 . usamos letras minúsculas para representar a 19 elevação e a inclinação na equação descritiva Y = a + b*X. A hipótese nula pode ser representada na situação mostrada na figura 8. 12 temos que assumir que a variação dentro das categorias é constante. se há mais de uma variável independente. a proporção da 5 variabilidade que pode ser atribuída à variável independente (neste caso a temperatura) é chamada de 6 coeficiente de regressão e é simbolizada como r2 ou. precisamos assumir que 13 a variação ao redor da linha é constante ao longo de toda a linha. porque temos apenas uma 13 categoria. Entretanto. nosso modelo conceitual começa 8 exatamente pela mesma simples equação: 9 10 VFATOR + VRESÍDUO = VTOTAL 11 12 Na regressão. } } 25 21 % ATIVIDADE 17 VRESÍDUO VTOTAL 13 9 5 20 21 22 23 24 25 TEMPERATURA (°C) 1 2 3 Da mesma forma que nas análises categóricas. É óbvio que o que fizemos foi diminuir a variação 17 devida ao fator ao mesmo tempo que mantivemos inalterada a variação residual. não precisamos nos preocupar com seleção de categorias.8 desaparece quando diminuímos 16 pela metade a amplitude da temperatura em nosso gráfico. Portanto.10 mostra como a relação forte mostrada na figura 8. 5 ou VFATOR=0. a probabilidade de se detectar uma relação aumenta com o aumento da amplitude do 15 intervalo. precisamos nos preocupar com a amplitude do intervalo da categoria. tanto para regressão quanto para análise de variância. Na verdade. quando a variação residual é tão grande quanto a 4 variação total. 18 71 . A figura 8. Se a relação for 14 realmente linear. o modelo de análise de variância é geral e a maioria dos programas de 6 computadores executa a análise de variância de dados categóricos e regressão exatamente da mesma 7 forma. assumimos que não há efeito daquela variável independente sobre nossa variável dependente. Tudo o que fizemos neste capítulo foi 12 aplicar a análise de variância para dados categóricos às relações lineares.2 VTOTAL 15. e que. } 23.8 13. podemos descrever a relação por 15 equações que seguem a forma: 16 17 Y = a + b*X + e 18 19 O e apenas indica que qualquer valor observado de Y está desviado da linha por uma quantidade que 20 pode ser atribuída ao efeito de fatores aleatórios ou não estudados. revise o capítulo antes de passar ao próximo. Aprendemos que relações lineares podem ser descritas por dois parâmetros.4 } VFATOR 11. 24 mas que levam a interpretações biológicas totalmente diferentes. quando variáveis não-lineares contínuas são categorizadas. nosso modelo conceitual precisa considerar a variabilidade devido à amplitude do intervalo. mas se este é o caso do leitor. 4 5 VRESÍDUO + VFATOR + VINTERVALO = VTOTAL 6 7 Afortunadamente. o aumento do intervalo faz 9 diminuir a chance de se detectar um efeito.0 22 23 24 25 TEMPERATURA (°C) 1 2 Portanto. mesmo 3 quando a relação é linear.0 20. A habilidade 22 para interpretar as estatísticas não é tão importante quanto a habilidade de interpretar gráficos. 28 29 72 . Poucas pessoas têm problema com esta 21 matemática simples. Há métodos de linearizar relações não- 25 lineares pela transformação de variáveis e podemos obter modelos mais "corretos". como 10 fizeram João e Maria em seu estudo sobre atividade de um inseto. o leitor compreenderá melhor 27 os conceitos se passar diretamente para o próximo capítulo.6 } VRESÍDUO % ATIVIDADE 18. se a relação é linear. Veja 23 Anscombe (1973) para um exemplo de cinco gráficos que têm exatamente as mesmas estatísticas descritivas. minimizando resíduos que 26 não são o quadrado das distâncias verticais (veja capítulos 12 e 13). se estimarmos estes parâmetros corretamente. Por outro lado. 11 Precisamos nos preocupar em não nos perdermos em detalhes. em um exemplo já apresentado. Entretanto. a elevação (a) e a 14 inclinação (b). o aumento da amplitude do intervalo no qual tomamos os 8 dados só pode aumentar nossas chances de detectarmos um efeito. para constatarmos que o conceito é 13 geral. podemos 16 imaginar que o aumento de algumas espécies será bom para os macacos.1 20 21 22 23 Teremos. Se a análise estatística sugere uma conclusão diferente do padrão que aparece no gráfico. muito 28 frequente na biologia. pode causar aumento do 25 número de macacos quando as árvores são esparsas. 1 Capítulo 9: 2 Problemas do mundo real 3 . 24 monotônica. por simples 8 gráficos de dispersão. como densidade de árvores. Pesquisadores inexperientes podem se deixar enganar por ilusões estatísticas 9 (Anscombe 1973). Vamos começar com um modelo mais simples. Johnson 1999). porque macacos se 39 refugiam de predadores terrestres em árvores.2a) parece ser linear e mostra um 38 aumento na densidade de macacos com a densidade de árvores. Se a variável independente (árvores) é categórica e tem mais 14 do que dois níveis.2b). 10 não acredite em nenhum dos dois. também. 13 Considere o fluxograma da figura 9.6 (capítulo 2) que 27 apresenta a variação da atividade de um inseto em função da temperatura. Cherry 1999. se "árvores" está representando "espécies de árvores". a seta pode representar apenas o sentido da influência. Ela não pode representar que tipo 15 de efeito a variável sofrerá. mas um aumento semelhante pode determinar o 26 decréscimo do número de macacos.1. Por exemplo. é importante compreender que estes testes univariados (com apenas uma 7 variável independente) são usualmente redundantes. comunicar que a 12 pessoa que está apresentando aquele resultado é um cientista.3. 18 19 Figura 9. quando a cobertura arbórea for muito densa. que não ocorre com frequência na 29 natureza. o mesmo problema se a relação é contínua. Se coletarmos dados sobre a densidade de uma espécie de 40 arbusto que os macacos usam como alimento. ou pelo menos.2 44 73 . A figura 2. Esta relação parece lógica. também encontraremos uma relação linear positiva (figura 41 9. Vamos assumir que há uma relação linear entre 30 árvores e macacos. mas o aumento de outras pode ser 17 ruim ou ainda os macacos podem ser indiferentes ao número de muitas espécies de árvores. ilustra este tipo de relação. 42 43 Figura 9. mas que é muito comum em modelos estatísticos. Muitos tratamentos estatísticos são triviais e não servem a outro propósito 11 que expressar identidade cultural (Yoccoz 1991. Um aumento em uma variável contínua.mais de um fator 4 5 Embora os exemplos de testes estatísticos apresentados nos capítulos anteriores tenham sido úteis 6 para ilustrar alguns princípios. com vantagens. 31 32 33 34 35 Fatores simultâneos 36 37 O gráfico que ilustra a relação entre macacos e árvores (figura 9. ou seja. Estes dois gráficos sugerem o fluxograma apresentado na figura 9. Eles podem ser substituídos. mas não linear. esta 10 medida é imprópria para o objetivo proposto. Para saber como isto é feito. primeiro temos de dar uma 13 olhada nos quatro gráficos intermediários (figura 9. considerando os dados disponíveis.4). 14 15 Figura 9.3 5 ÁRVORES + MACACOS + ARBUSTOS 6 7 8 Baseados nestes gráficos.4 16 74 . 8 8 a F b F NÚMERO DE MACACO S NÚMERO DE MACACO S 7 7 6 6 5 D E 5 D E 4 4 3 B 3 B 2 C 2 C 1 A 1 A 0 0 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 1 NÚMERO DE ÁRVORES NÚMERO DE ARBUSTOS 2 3 4 Figura 9. Se analisarmos os dados pela técnica de regressão de mínimos 11 quadrados. os estudantes usualmente sugerem que plantar árvores e arbustos deve ser 9 um bom método de aumentar o número de macacos. podemos produzir gráficos de dispersão que ilustram os efeitos parciais de arbustos independente 12 de árvores e de árvores independente de arbustos. No entanto. 4a contra os 13 resíduos da figura 9. ou. que 8 chamamos desvios ou resíduos. As linhas 4 verticais indicam o desvio de cada ponto em relação à linha. As distâncias dos pontos até a linha. 22 23 Figura 9.4b.4a. De fato. pareando cada ponto pela reserva que o originou. Da mesma forma. refletem as mudanças no número de árvores ou macacos devido a outros 9 fatores que não os arbustos.5b).5a é a "regressão parcial" de 16 macacos com árvores. o método de 20 regressão múltipla usa o mesmo processo para isolar os efeitos prováveis de cada fator independente dos 21 efeitos de todos os outros fatores que aparecerem no modelo. de forma equivalente. veremos que eles não indicam 11 qualquer relação com os arbustos. 8 7 7 a F 6 b E NÚMERO DE MACACOS NÚMERO DE ÁRVORES 6 5 F 5 D E 4 C 4 3 D 3 B 2 C 2 A 1 A 1 B 0 0 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 NÚMERO DE ARBUSTOS NÚMERO DE ARBUSTOS 8 7 7 c F 6 d F NÚMERO DE ARBUSTOS NÚMERO DE MACACOS 6 5 E 5 D E 4 D 4 3 C 3 B 2 C 2 B 1 A 1 A 0 0 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 NÚMERO DE ÁRVORES NÚMERO DE ÁRVORES 1 2 3 As letras maiúsculas junto aos pontos indicam a reserva de onde vieram aqueles dados.4c e 9. a variabilidade não explicada pelo 5 modelo linear. 10 Se esboçarmos o gráfico destes resíduos contra o número de arbustos. independentes de árvores (figura 9. Se construirmos o gráfico dos resíduos da figura 9. podemos obter a 7 variabilidade de árvores não associada com arbustos na figura 9. 18 Podemos generalizar este processo e usar os resíduos das figuras 9. a relação esperada se o 15 número de arbustos fosse constante entre as reservas (figura 9. Alguns autores diriam que eles descrevem a variabilidade esperada se o 12 número de arbustos fosse mantido constante.4d para produzir o gráfico 19 da regressão parcial de macacos e arbustos. a variabilidade de macacos explicada por arbustos é representada pela linha e 6 os desvios indicam a variabilidade de macacos não associada a arbustos.5 24 75 .5a). Na figura 9. ou seja. teremos a relação entre macacos e 14 árvores esperada se removêssemos o efeito de arbustos. Ela é chamada regressão parcial porque mostra apenas a parte da variabilidade nos 17 dados que não está associada com arbustos. A figura 9.4b. nunca existiu uma linha reta. se a 12 hipótese sugerida na figura 9. quando estatisticamente mantivemos constante o efeito de 10 arbustos. Entretanto. a=0). O 21 leitor pode ter achado nosso exemplo trivialmente simples. que na natureza 40 nunca existiu uma distribuição normal. ela foi construída 34 pela soma das regressões parciais. A elevação não é a mesma. e não o sumário estatístico 19 ou valores de probabilidade que os pacotes estatísticos jogam nas telas dos computadores. a similaridade 37 da regressão geral com as regressões parciais ilustra sua natureza comum.5a for corroborada. talvez devêssemos começar a cortar árvores como medida 13 para aumentar o número de macacos. O processo implica na produção de outros gráficos 16 de dispersão. 1 3 a 2 b MACACOS (PARCIAL) 0 1 0 -1 -1 -2 -2 -3 -2 -1 0 1 2 -2 -1 0 1 2 ÁRVORES (PARCIAL) ARBUSTOS (PARCIAL) 1 2 3 Adicionando variabilidades repartidas 4 5 Este processo de partilha da variação entre muitos fatores parece complicado no início. mas que 39 provou ser útil em muitas situações. A relação simples 7 entre macacos e árvores (figura 9. De fato. Matematicamente.667 * árvores(parcial) 31 macacos(parcial) = 0 + 1. porque um único valor não poderia substituir as 35 elevações individuais de cada regressão parcial. mas ainda assim.667 * arbustos 27 28 As regressões parciais são: 29 30 macacos(parcial) = 0 . Empregando 24 a técnica de regressão de mínimos quadrados. A regressão múltipla não passa 38 da soma de efeitos lineares estimados pelas regressões parciais. De qualquer modo. levando a maioria dos pesquisadores a acreditar que as 8 árvores provavelmente seriam boas para estes macacos.33 . Na ausência de outras informações. reduzimos o modelo descritivo da forma Y=a+b1*X1+b2*X2+e para dois 17 modelos da forma YPARCIAL=a+b*XPARCIAL+e. muitos problemas complexos do 22 mundo real têm sido enfrentados com sucesso por modelos de partilha de variâncias. Box (1976) afirmou que "o estatístico sabe.1a) é positiva.0.667 * árvores + 1. certamente não deveríamos embarcar em um programa de 11 plantio destas árvores. por exemplo. que em nosso exemplo foram iguais (ambas as regressões 36 passaram pela origem dos eixos i. se o nosso objetivo for conservar ou aumentar o número de macacos. com premissas de 41 normalidade e de linearidade reconhecidamente falsas. Este é um modelo simples. 18 Notem que estes gráficos parciais são o verdadeiro resultado da análise.667 * arbustos(parcial) 32 33 A regressão geral tem as mesmas inclinações (valores de b) das regressões parciais.0.e. De fato. 23 A equação para a regressão múltipla e regressões parciais nos contam a mesma estória. encontraremos a seguinte equação geral para o nosso exemplo: 25 26 macacos = 0. O processo apresentado neste exemplo é geral e ilustra a forma pela 14 qual a análise de variâncias ou outras técnicas de modelagem podem ser usadas para revelar padrões. que não 15 eram óbvios nos gráficos simples de dispersão originais. muitas vezes pode derivar resultados que são uma 76 . Ele nos ajuda a ver mais claramente. a regressão parcial (figura 9.5a) indica um 9 efeito negativo de árvores sobre os macacos. Entretanto. mas que poderiam ser diferentes. As estatísticas 20 podem ser usadas como uma informação acessória aos gráficos parciais. mas não é 6 uma complicação imposta apenas por razões culturais. mas nunca poderão substituí-los. e muitas vezes 33 foram desenvolvidas para resolver problemas estatísticos muito diferentes dos problemas que realmente 34 preocupam os biólogos. é importante fazer o teste paramétrico sobre a regressão múltipla 11 geral. 50 51 Figura 9. mas ficam óbvios em gráficos de parciais. Frequentemente. a lógica destas análises pode ser complexa. a mudança de uma relação provocará 27 mudanças em todas as outras da análise. porque as alturas médias das duas espécies. sem olhar os gráficos parciais. embora muitos livros de 36 estatística tenham seções para variáveis contínuas (regressão múltipla)." 2 3 4 Checando premissas com gráficos de parciais 5 6 Pesquisadores frequentemente calculam a probabilidade de que o efeito de uma variável 7 independente (valor de b) seja igual a zero (ou algum outro valor). não há um efeito simples de espécies. 46 Neste exemplo. neste capítulo. estabelecendo assim sua hipótese nula. as observações não são independentes). 2009). Da mesma forma. inclusive um novo exame dos gráficos de parciais. Já que o 13 número de graus de liberdade é calculado pelo número de observações independentes menos o número de 14 parâmetros estimados. Veja Anscombe (1973) para 21 exemplos que se aplicam igualmente a regressões simples e gráficos de parciais. variáveis categóricas (análise de 37 variância . são iguais. e portanto. 1 aproximação útil daqueles encontrados no mundo real. mas a maioria dos livros não enfatiza as 39 similaridades. as alturas médias dos sexos. ou a simples erros de digitação. a menos que os dados tenham sido coletados segundo um 31 desenho amostral adequado. Estas probabilidades podem ser calculadas por testes de randomização ou testes 10 paramétricos. que as variações devidas a inúmeras variáveis independentes podem ser 44 adicionadas para se obter a variação global. o computador usará o número errado de graus de liberdade em suas contas. Entretanto. e dentro de cada sexo há um 49 efeito forte de espécies. há um efeito óbvio de sexo. 35 As análises de variáveis categóricas obedecem aos mesmos princípios. 38 Todos estes métodos poderiam ser chamados de análise de variância.6 ilustra uma 45 situação onde os efeitos de duas variáveis independentes cancelam uma à outra. Portanto. 47 sem considerarmos o sexo. Gráficos de parciais são 22 também usados para verificar outras premissas da regressão múltipla. Em nossa experiência. Entretanto. No entanto. ou corrigir ou deletar alguma 25 observação. A figura 9. 40 41 Interações 42 43 Assumimos. Se a inspeção dos gráficos de parciais indicar que 24 alguma coisa está errada e for preciso transformar os dados (veja capítulo 12). 28 Se as variáveis são autocorrelacionadas (isto é. Existem maneiras de lidar com autocorrelação espacial (Legandre e Legendre 32 1998. 8 Não entraremos em detalhes aqui. foram usados para calcular cada regressão parcial. nenhuma das 30 averiguações abaixo terá qualquer utilidade. são as mesmas. a fonte mais comum de valores significantes 18 de P em regressões múltiplas é a inclusão de um único ponto que foi registrado na escala errada. 16 De qualquer maneira. Entretanto. a análise 29 identificará muito mais variáveis significantes do que realmente existe (Lennon 2000). Fortin & Dale 2005. como o teste t. talvez 19 milímetros ao invés de centímetros.ANCOVA). mas os princípios de testar uma hipótese nula de b=0 são similares a testar 9 a hipótese nula de DIF=0. e não diretamente sobre as parciais. parâmetros. O motivo disto se deve ao fato de que o computador não sabe 12 quantos outros fatores.ANOVA) e mistura de variáveis contínuas e categóricas (análise de covariância . caso não 15 seja adequadamente informado sobre o número de parâmetros que foram estimados. como a de que as relações são lineares e 23 a de que a variabilidade é constante ao longo da linha. nunca tente interpretar as probabilidades de regressões múltiplas e suas 17 parciais. Já que a 26 técnica é baseada na análise dos resíduos em torno de relações. estes pontos não se 20 sobressaem em regressões simples. toda a análise precisará ser refeita. nem sempre isto é verdade. dentro de espécies. sem considerarmos 48 espécies.6 77 . Não vamos nos ater nestes 36 pontos estatísticos porque. Entretanto. se os dados foram coletados segundo um delineamento adequado. Alguns programas de computador perguntarão se os fatores são fixos ou 27 randômicos. isto pode ser representado pela seguinte inequação: 7 8 VFATOR1 + VFATOR2 + VRESÍDUO < VTOTAL 9 10 Podemos inventar um fator "fantasma". Matematicamente. 23 Lembrem-se que o cálculo das razões de F. porque a maioria 17 dos programas estatísticos para computadores automaticamente sempre leva em conta todas as interações 18 possíveis para um dado modelo de ANOVA. (1991) para aprender como construir as razões de F corretas. envolve médias quadradas. Entretanto. Elas são mais frequentemente estudadas com variáveis categóricas. ou usar um programa que não solicita informação sobre se os fatores 30 são fixos ou randômicos. necessárias para se estimar as probabilidades em 24 ANOVA e regressão. 28 23 ALTURA (cm) 18 13 8 SP1 SP2 ESPÉCIES 1 2 3 4 Se adicionarmos os efeitos simples de sexo e espécie (ambos são aproximadamente zero) à 5 variabilidade dentro de cada sexo por nível de espécie (o resíduo). Para se 25 determinar quais variâncias estão incluídas em cada média quadrada. Em geral. deverá consultar um livro de estatística apropriado. não teremos a variabilidade total. Em termos de nosso fluxograma conceitual. isto nem sempre é adequado e iremos discutir a 19 seleção de variáveis no próximo capítulo. porque os 34 pesquisadores analisaram os dados como se todos os fatores fossem fixos (Bennington et al. Zar 32 (1996) traz um apêndice que apresenta como fazer isto sem entrar em detalhes do processo envolvido. a não ser que haja um número grande de repetições e de níveis dos fatores randômicos. Portanto. para equilibrar a equação: 11 12 VFATOR1 + VFATOR2 + VRESÍDUO + VINTERAÇÃO = VTOTAL 13 14 Uma interação indica que o efeito de um (ou mais) fatores depende dos níveis de outros fatores. fixo). Outros requerem que o usuário ativamente forneça esta 28 informação e outros só são capazes de calcular razões de F para um tipo de fator (em geral. temos que levar em conta se os fatores 26 são fixos ou randômicos. a presença de interação 20 indica que deixamos de fora uma ou mais variáveis importantes. Os leitores com facilidade em 31 matemática podem consultar Winer et al. chamado termo de interação. descobrir interações não é um 21 exercício interessante por si próprio. e calcularão as razões de F corretas. que são variâncias compostas (capítulo 7). 78 . interações são sinais importantes de que precisamos repensar 22 nosso fluxograma de forma que possamos entender por que as interações ocorrem. que é 6 muito maior. 15 Interações podem ocorrer tanto em variáveis categóricas quanto em variáveis contínuas e entre variáveis 16 contínuas e categóricas. Revisem o capítulo 8 para ver como este modelo é muito restritivo. de 39 modo que as estimativas de variância devido aos níveis amostrados possam ser adequadamente analisadas. qualquer 37 estatístico pode ajudar em sua análise. se 29 o leitor fizer os cálculos manualmente. Entretanto. 33 Muitas conclusões na literatura ecológica foram baseadas em análises incorretas. Newman et 35 al. 1997). é importante compreender que modelos mistos de ANOVA 38 serão muito fracos. 1994. 3 79 .1 Koele (1982) disse que: "Experimentos que tenham fatores randômicos com apenas dois ou três níveis devem 2 ser considerados tão absurdos como testes t entre amostras com duas ou três observações". Para ilustrar um dos perigos de se incluir variáveis desnecessárias em nossas 11 análises. que era a ausência de 13 relação entre a densidade de lagostins e a poluição era muito improvável (P=0. vamos acompanhar o exemplo seguinte. A resposta mais simples é incluir todos os 6 fatores que apareceram em seu fluxograma. Isto é uma evidência forte 14 de que a poluição afeta os lagostins. e é uma pergunta que os 5 pesquisadores experientes deveriam se fazer com maior frequência. A seguir. pelo bom senso ou por informação da 8 história natural.1 mostra o efeito de se adicionar 16 estas variáveis espúrias na proporção da variação explicada (linha contínua) e a probabilidade de o modelo 17 estar de acordo com a hipótese nula (linha tracejada). Calculamos a relação entre densidade de lagostins e um 12 índice de poluição em 12 locais. Entretanto. sorteamos números ao acaso para construir 6 variáveis 15 completamente aleatórias e as incluímos uma a uma na análise. Uma análise de regressão indicou que a hipótese nula. 18 19 Figura 10. somente deveriam aparecer nos fluxogramas os 7 fatores cuja inclusão seja altamente justificada pela teoria ecológica. A figura 10. Lembrem-se de que perdemos um grau de liberdade para cada parâmetro 10 estimado (veja capítulo 6). ambas expressas em porcentagens. Não queremos incluir muitos fatores. 1 Capítulo 10: 2 Quais variáveis analisar? 3 4 Esta é uma das perguntas mais comuns de estudantes para orientadores.014). especialmente se eles não contribuem com informações 9 a respeito da variável dependente.1 20 70 60 50 PORCENTAGEM R2 P 40 30 20 10 0 0 1 2 3 4 5 6 7 8 NÚMERO DE VARIÁVEIS 21 22 80 . 500 0. As variáveis adicionais aumentam a proporção da variância aparentemente explicada pela 3 regressão.328 -0. Atribuímos a elas nomes realísticos.361 -0.781 PROFUNDIDADE 0. a adição de variáveis irrelevantes somente irá comprometer as interpretações 10 biológicas.817 TEMPERATURA -0. ex.345 0.1 Dep Var: LAGOSTIN N: 14 Multiple R: 0.221 0. vamos considerar o tipo de resultados 23 produzidos por alguns esquemas automatizados de seleção de variáveis. 25 não há relação causal entre as variáveis e as relações entre elas são apenas (e exatamente) aquelas esperadas 26 pelos azares da probabilidade.304 0. Portanto.790 GALHOS SUBMERSOS -0.231 VELOCIDADE -0.520 -0.477 0. mas lembrem-se que foram criadas 44 em um gerador de números aleatórios. que não têm interpretação lógica. já que os "fatores" acrescentados não passaram de números sorteados 4 ao acaso. 24 usaremos apenas dados produzidos por computadores através de um gerador de números aleatórios.645 0. Nela se vê os 42 resultados de uma análise de regressão múltipla convencional. A razão disto é que deveríamos conhecer alguma coisa a respeito do relacionamento das variáveis 38 independentes antes de incluí-las na análise (veja capítulo 11).256 -0.291 0. Apenas como ilustração. Isto representaria embasar sua interpretação de dados biológicos nos azares 9 da matemática.128 81 .134 0. e a inclusão de uma variável aleatória pode aumentar a 8 "significância" de sua regressão. Em geral.928 Squared multiple R: 0. vamos imaginar que 39 os leitores têm um conhecimento detalhado das relações entre as variáveis independentes. Capítulo 9 1 Depois da adição de três variáveis aleatórias.140 0. embora na verdade isto faça pouca diferença 31 (Berk 1978). Freedman 1983.421 0.860 Adjusted squared multiple R: 0. os métodos estatísticos não são eficientes em escolher 22 quais delas são relacionadas com as outras.289 0. Entretanto. 45 Tabela 10. não há razão para 35 apresentar pseudoprobabilidades. relacionando a densidade de lagostins com 10 43 potenciais variávies independentes.320 0. Este é o padrão geral esperado quando o número de variáveis 5 no modelo é alto em relação ao número de observações independentes (em nosso exemplo.308 -0. Podemos garantir aos leitores que 36 perguntar a um biólogo competente é uma maneira muito melhor de decidir quais variáveis deveriam ser 37 estudadas.1 foi gerada por nosso computador usando o pacote estatístico SYSTAT 8.253 0. Mundry & Mann 2009). evite desenhos de 12 experimentos que resultem em menos de dez graus de liberdade no resíduo (Green 1989). Os praticantes 30 defendem uma ou outra como sendo "melhor" do que as demais. James and 33 McCulloch 1990. mas este resultado é espúrio. "step- 29 down" (passo abaixo) e "best-subsets regression" (regressão dos melhores subconjuntos). De qualquer modo. algum leitor pode ser sortudo.627 0.000 . Se a técnica for usada apenas para gerar hipóteses.395 Standard error of estimate: 0.941 0. 18 19 Inteligência artificial 20 21 Quando temos inúmeros tipos de medidas. dividi-las por dez e tentar restringir 11 seu modelo para que não inclua mais do que este número de fatores. Elas são pseudoprobabilidades e não devem ser apresentadas como 34 se fossem qualquer coisa além disto.108 0. a não ser no caso de haver pelo menos 50 observações a mais 15 do que o número de variáveis independentes! A filosofia de selecionar variáveis tem muito em comum com a 16 filosofia de comparações múltiplas e um artigo de Tukey (1991) é um bom lugar para se começar a entender 17 os tipos diferentes de questões que podem ser formuladas a respeito do mundo real. incluindo aquelas denominadas "step-up" (passo acima). Para os próximos exemplos.092 0. 27 Um dos esquemas mais comuns de seleção de variáveis é a regressão "step-wise". 7 Entretanto.05 (5%).380 -2.401 -0.131 0. mas não podem 40 gerar uma hipótese sobre quais tem maior chance de afetar a variável dependente. diferentes corpos 6 d’água).926 0. nosso ponto é que as probabilidades associadas com os resultados de qualquer uma 32 delas não podem ser relacionadas com nenhuma hipótese nula conhecida (p.305 0.448 -1.423 LARGURA -0. 13 Harris (1975) sugeriu que a análise de regressão múltipla não é robusta a violações de sua premissa 14 sobre a distribuição normal de suas variáveis.109 0.283 COBERTURA 0.482 0. Uma boa regra é decidir quantas repetições serão coletadas. 1.732 0. Para entender isto. por um gerador de números aleatórios. 41 A tabela 10. a regressão não pode ser mais considerada significante 2 à 0.122 0.428 0. Existe um grande 28 número de variações neste procedimento.235 Effect Coefficient Std Error Std Coef Tolerance t P(2 Tail) CONSTANT 0. além disso. desde o início.448 0. Note que as estatísticas apresentadas na tabela 10.056 0.416 0.368 0.1 e que. 34 O modelo agora incluiu outra variável e as pseudoprobabilidades mudaram drasticamente.989 -4.454 -0.126 0.055 1 2 3 Não se preocupe se ainda não entende a maior parte da tabela.653 Standard error of estimate: 0. 31 alterando-a ligeiramente.592 0.2 Dep Var: LAGOSTIN N: 14 Multiple R: 0. Pela forma que criamos os dados. apresentam as 13 pseudoprobabilidades entre aspas.160 0. Em tudo é a mesma análise.045 0.311 0. Entretanto. a 7 este nível de significância. já que a análise foi baseada em variáveis aleatórias.000 LARGURA -0.166 3 0. quando ajustamos apenas uma das opções da análise.661 PEIXES HERBÍVOROS 0. Portanto. Na verdade.05.032 23 24 Não há razão para apresentar os resultados de regressões "stepwise" em publicações. 11 Usamos a opção "stepwise" para selecionar as "melhores" variáveis a partir do mesmo arquivo de 12 dados e o algorítmo "stepwise" selecionou três variáveis. Mudanças 35 em outras opções ou procedimentos podem mudar o "melhor" modelo ainda mais dramaticamente.102 1. Nenhuma delas foi 5 significante ao nível de 0. Alguns programas como SYSTAT.023 GALHOS SUBMERSOS -0.951 0. a tabela 10.291 9.212 0. que eles se conformam à 19 hipótese nula convencional (nenhuma relação maior do que a esperada ao acaso entre as variáveis 20 independentes e a variável dependente).135 0. Isto é reconfortante. não temos nenhuma ideia de com qual hipótese nula estas 21 pseudorepetições se relacionam.166 -0.000 . A 8 tabela de análise de variância no final de nossa tabela indica que a probabilidade geral de nosso modelo estar 9 de acordo com a hipótese nula é 0. As hipóteses 25 baseadas na opinião de especialistas serão. usamos P=0. a pseudoprobabilidade indica apenas 17 duas chances em 1000 de que "galhos submersos" se conforme com a hipótese nula e a da regressão geral foi 18 de apenas três em 1000.406 0. sabemos.145 -0.266 Analysis of Variance Source Sum-of-Squares df Mean-Square F-ratio P Regression 1.856 Squared multiple R: 0. o algorítmo "stepwise" pode encontrar outra 29 combinação de variáveis que descreva os dados igualmente "bem".2 este valor foi de 0.866 GARÇAS -0.440 0.359 0.3. em regra.536 0. Na tabela 10.733 Adjusted squared multiple R: 0. 22 Tabela 10.335 Residual 0. 7.347 -0.002 PEIXES HERBÍVOROS 0.907 PEIXES CARNIVOROS -0. ROCHAS 0.095 0. porque sabemos que os dados se conformam 10 exatamente com a hipótese nula. o valor "default" de 33 SYSTAT (Wilkinson 1998). O leitor 82 . para o nosso exemplo. Por exemplo.20. esperamos que cerca de um em vinte resultados apareça como significante.177 0. Isto é esperado.165 0.640 1. Entretanto.2 não se relacionam de uma maneira 28 inteligível com os resultados da tabela 10. teríamos o resultado apresentado na tabela 10.484 0.335. Neste 15 caso.672 0.030 Analysis of Variance Source Sum-of-Squares Df Mean-Square F-ratio P Regression 0. e não fornecem uma "probabilidade" geral para a regressão.317 10 0.993 2.184 0. além do que poucos de seus leitores 26 entenderão que as pseudoprobabilidades apresentadas não são probabilidades em qualquer senso 27 convencional.996 -2.873 3 0.363 0. A última coluna fornece a 4 probabilidade de cada variável (primeira coluna) estar de acordo com a hipótese nula. o valor "default" de alguns outros programas.848 0.263 0.024 10 0. 14 muitos programas não são tão cuidadosos e irão apresentar as probabilidades de regressões "stepwise".438 -0. mais úteis. Na análise da tabela 10.236 -0.2 em que as três variáveis 16 selecionadas aparecem como altamente "significantes".05. 6 não teríamos nos surpreendido se uma ou duas das dez probabilidades tivesse sido menor que 0.071 0. exceto que mudamos o valor de P para entrada ou 32 remoção de variáveis no modelo.069 0. porque.690 0.178 Effect Coefficient Std Error Std Coef Tolerance t P(2 Tail) CONSTANT 0.003 Residual 0.378 0.15.057 0.3 mostra outro 30 "melhor" modelo obtido por regressão "stepwise". 284 0.659 0.000 0.301 0. Entretanto.000 LARGURA -0.010 1 0.5).695 Standard error of estimate: 0.032 1 0. O pesquisador. o 7 volume das publicações aumentaria milhares de vezes.339 0. Considere os 23 resultados de um pesquisador que executou um experimento controlado para testar o efeito de cinco fatores 24 sobre a densidade de lagostins.531 PEIXES CARNÍVOROS 0.038 Analysis of Variance Source Sum-of-Squares df Mean-Square F-ratio P PROFUNDIDADE 0.235 8.122 0.168 0. 6.354 90 0.294 0. 3 Deve ter ficado claro que incluir variáveis espúrias na análise pode ser tão danoso quanto deixar de 4 fora variáveis importantes.853 -2. Medir tudo e deixar "os dados falarem por si mesmos" não é uma maneira 5 eficiente de descobrir coisas.169 -0.888 Squared multiple R: 0.804 1764 0.537 0. a maioria das revistas científicas exige que os pesquisadores 6 testem suas hipóteses.210 GALHOS SUBMERSOS 0. Harris (1975) opinou que "A estatística é uma forma de controle social sobre o 10 comportamento profissional dos pesquisadores.349 0. antes de publicá-las.071 0.251 9 0.001 PEIXES CARNÍVOROS -0.731 PEIXES HERBÍVOROS 0.032 0. Capítulo 9 1 que desejar deixar o computador pensar por si.010 0. deve esperar até reunir dados para testar as hipótese do 2 computador.229 VELOCIDADE 0.082 28 29 30 Então.120 1 0.028 14 15 16 Variáveis fantasmas geradas por computadores 17 18 Programas de computadores podem nos enganar fazendo-nos pensar que não precisamos usar o bom 19 senso quando estivermos decidindo sobre quais variáveis devemos estudar.537 0.159 PEIXES HERBÍVOROS 0. 26 27 Tabela 10.396 0.000 1 0.4).596 0.130 1 0. usando dois níveis por fator. Tabelas de ANOVA são 83 .167 Effect Coefficient Std Error Std Coef Tolerance t P(2 Tail) CONSTANT 1.130 1.120 1.119 0.3 Dep Var: LAGOSTINS N: 14 Multiple R: 0.001 0.468 0. Deste ponto de vista.138 -0. um estudante de pós-graduação.962 -1.196 Squared multiple R: 0.000 . Se cada pesquisador publicasse cada hipótese que gerasse sem ter que testá-la. Por esta razão.4 Dep Var: LAGOSTIN N: 96 Multiple R: 0.167 0. eles podem criar 20 variáveis espúrias. 13 Tabela 10. muitos programas que executam análise de variância podem 22 gerar automaticamente. 25 fica chocado ao descobrir que nenhum dos fatores sugeridos por seu orientador foi significante (tabela 10.402 0.974 ERROR 7.628 0. quer o pesquisador queira ou não.068 GALHOS SUBMERSOS -0.343 0.111 Analysis of Variance Source Sum-of-Squares df Mean-Square F-ratio P Regression 0.689 -1. Hipóteses não testadas só deveriam ser publicadas quando prometem a mudança 9 de paradigmas (Kuhn 1970).004 Residual 0. Os modelos que consideramos até agora não investigam interações (veja o capítulo anterior 21 se esqueceu o que é uma interação). todas as possíveis interações.221 -0. enquanto a comunicação diminuiria na mesma 8 proporção (veja Platt 1964).789 Adjusted squared multiple R: 0. ele decide testar todas as interações possíveis (tabela 10. Além disso.713 0. A justificativa final de qualquer procedimento estatístico 11 reside no tipo de comportamento que ele encoraja ou desencoraja nos pesquisadores".939 4 0. os 12 procedimentos "stepwise" geralmente encorajam comportamentos antissociais. mas a ciência terá avançado? Este exemplo também foi baseado em dados sorteados ao acaso.075) que indique uma tendência que vale a pena ser 12 discutida.267 0.923 0.092 1.123 1 0.000 1 0. 1 interpretadas de baixo para cima.481 PEIXES HERBÍVOROS*P. Se o fator está envolvido em uma interação significante. Isto é estranho. Há 14 25 possíveis termos de interação em uma ANOVA com cinco fatores.130 1.130 1 0.HERBÍVOROS PROFUNDIDADE*GALHOS SUBMERSOS* 0.123 1.5.001 GALHOS SUBMERSOS*PEIXES CARNÍVOROS 0. porque agora há uma "tese" volumosa para ser 13 defendida.340 PROFUNDIDADE*VELOCIDADE 0. poderão usá-las para ajudar a decidir 32 entre diferentes modelos-candidatos (p. como nos dados aleatórios do exemplo. o pesquisador nunca 33 pode abrir mão da responsabilidade de usar a lógica para decidir quais variáveis devem ser incluídas. seja 26 em regressão ou em ANOVA. sem 30 refletirmos quais devem ser as mais apropriadas.202 0.715 PEIXES HERBÍVOROS 0.700 0.956 1 0. mas que programas de 23 ANOVA para dados categóricos não fazem isso.032 0. com mais habilidade em matemática.001 1 0.5 Dep Var: LAGOSTIN N: 96 Multiple R: 0.643 0. ou reconsiderando as escalas nas quais as variáveis 29 foram medidas. as interações envolvem mais do que 16 um fator.017 1 0.CARNÍVOROS 0. já que a ocorrência de um resultado geral não 24 significante coexistindo com efeitos parciais significativos é um bom indicador de que incluímos variáveis 25 demais em nosso modelo e que a "significância" estatística das parciais podem não passar de artefatos.000 0. Isto é ilógico.036 1 0.078 PROFUNDIDADE*PEIXE CARNÍVOROS 0.087 1 0.973 PROFUNDIDADE*GALHOS SUBMERSOS 0. Entretanto. Entretanto.CARNÍVOROS 84 .956 13. No entanto. O estudante e seu orientador ficam contentes.804 0.015 0. então não existe resposta simples.448 0. O estudante considera 10 ainda que a probabilidade associada com a hipótese nula (de que não há interação entre profundidade. 8 Há muitas explicações biológicas possíveis para uma interação entre galhos submersos e peixes 9 herbívoros e isto permite uma seção extensa na discussão da tese dedicada a este ponto. df Mean-Square F-ratio P Squares PROFUNDIDADE 0. o 6 estudante concluiu que há uma interação significante (P=0.087 1. principalmente porque 28 indicam que deveríamos estar incluindo outros fatores.032 1 0.046 1 0. 27 É importante identificar interações quando elas ocorrem em nossos modelos. Se o fator está envolvido em uma interação.277 VELOCIDADE PROFUNDIDADE*GALHOS SUBMERSOS* 0.659 0. Baseado na tabela 10.067 0.046 0.223 0.05 para dados ao acaso.022 1 0.629 Squared multiple R: 0. Fazer 34 isto bem feito é a arte do cientista.023 1 0.580 P.240 0. estaremos apenas gerando muitas relações espúrias e muita 31 confusão. Fowler 1990). os 3 pesquisadores algumas vezes concluem que o efeito simples de um fator envolvido em uma interação não é 4 significante. O 5 efeito do fator depende do nível do outro fator ou fatores envolvidos na interação.197 P. 11 velocidade e peixes herbívoros) é tão baixa (P=0. Portanto. se permitirmos que o computador gere todas as possíveis interações.010 1 0.231 1 0.001) entre galhos submersos e peixes herbívoros. O estudante tinha 17 quase garantia de encontrar resultados "significantes".321 0. Alguns pesquisadores.199 0.001 0. Harris (1975). e em consequência esperamos que mais de um fator apareça como "significante".626 PROFUNDIDADE*GALHOS SUBMERSOS* 0.120 1 0.184 GALHOS SUBMERSOS 0. então todos os 2 termos acima. Burnham and Anderson 1998).506 PEIXES CARNÍVOROS 0. 35 Tabela 10.023 0.025 0.036 0.067 1 0.426 VELOCIDADE*PEIXES HERBÍVOROS 0.341 0.001 0. salienta que muitos programas de 22 regressão múltipla usualmente apresentam um teste de significância da regressão geral.025 1 0. esperamos em média um 15 resultado "significante" ao nível de 0. 19 Muitos autores parecem não enxergar que muitos programas de ANOVA não controlam a taxa de 20 erro geral (e.092 1 0.022 0.231 3. são presumivelmente significantes.265 PROFUNDIDADE*PEIXE HERBÍVOROS 0. nos quais o fator está envolvido.309 0. ex.120 1. Muitos tipos de tabelas estatísticas apresentam grande número de testes e 21 também não controlam a taxa de erro geral (Rice 1989). que galhos submersos e peixes herbívoros afetam a densidade de lagostins.503 0. mesmo que suas variáveis não tivessem nenhuma 18 relação entre si.573 VELOCIDADE*PEIXES CARNÍVOROS 0.010 0.903 GALHOS SUBMERSOS*PEIXES HERBÍVOROS 0.561 GALHOS SUBMERSOS*VELOCIDADE 0. Entretanto.017 0.g.395 Analysis of Variance Source Sum-of.135 0. e 7 portanto.202 VELOCIDADE 0. 099 1 0. precisamos de grande número de dados para poder dividí-los em um sub-grupo de 4 dados exploratórios e outro de dados de validação.HERBÍVOROS GALHOS SUBMERSOS*VELOCIDADE* 0.231 1 0.129 1.040 0. 2006.007 1 0. 11 O problema se extende a comparações entre estudos.710 0.597 0.115 1 0. Sub-grupos de validação não são evidência tão boa 9 quanto uma repetição mais substancial (Guttman 1985).200 VELOC. Neste caso. interpretação da literatura.*P.CARNÍVOROS 1 2 Algumas vezes desejamos coletar dados para construir hipóteses e dados para testar hipóteses ao 3 mesmo tempo.CARNÍVOROS 0. Capítulo 9 PROFUNDIDADE*VELOC.HERBÍVOROS*P. mas nada substitue a 17 experiência.CARNÍVOROS 0.186 PROFUNDIDADE*P.*P. este processo pode economizar tempo e dinheiro.006 0. e se ambos forem representativos da 7 população de interesse.211 P.CARNÍVOROS GALHOS SUBMERSOS*P.231 3.817 0. o bom senso e o conhecimento da literatura na elaboração de modelos ecológicos.000 1 0.984 VELOCIDADE*P.237 P.HERBÍVOROS*P.CARNÍVOROS PROFUNDIDADE*GALHOS SUBMERSOS* 0.051 0.007 0.843 P.424 0.HERBÍVOROS PROFUNDIDADE*GALHOS SUBMERSOS* 0. Os dados exploratórios usualmente resultam em 5 estatísticas superotimistas em relação à capacidade de previsão do modelo (Picard and Cook 1984).785 0.CARNÍVOROS GALHOS SUBMERSOS*VELOCIDADE* 0.000 0.CARNÍVOROS GALHOS SUBMERSOS*VELOCIDADE* 0.103 1. em outro local e tempo.187 0.761 P. muitas vezes é o melhor que podemos fazer.014 0.075 PROFUNDIDADE*VELOC.*P.113 1.093 0.131 1.667 P.051 1 0.103 1 0.088 0.014 1 0.113 1 0. mas pesquisadores preocupados em gerar dados 15 "significativos" continuam a usá-los (Whittingham et al. Se o sub- 6 grupo de dados de validação é representativo da amostra exploratória. revisões e técnicas 12 de meta-análise (Palmer 1999.HERBÍVOROS*P.HERBÍVOROS* 0.194 0. 18 85 . o pesquisador deve se perguntar o 13 que foi testado mas não relatado. Nós vamos discutir 16 outros métodos de seleção de variáveis para inclusão em modelos no Capítulo 13.003 0.099 1.HERBÍVOROS 0.000 0.768 VELOCIDADE*P.366 0. Os problemas com o uso de procedimentos automáticos para a seleção de 14 variáveis para incluir em modelos são bem conhecidos.129 1 0. 10 Ainda assim.HERBÍVOROS*P.115 1.CARNÍVOROS VELOC.247 PROFUNDIDADE*GALHOS SUBMERSOS* 0.403 P.006 1 0.217 P.HERBÍVOROS* 0.131 1 0.HERBÍVOROS*P.003 1 0. Em todos estes níveis. A ciência trabalha basicamente 8 testando o quanto os resultados podem ser repetidos.*P. Thornhill et al 1999). Mundry & Mann 2009).CARNÍVOROS PROFUNDIDADE*VELOCIDADE* 0.557 0. feita por outro pesquisador.CARNÍVOROS PROFUNDIDADE*GALHOS SUBMERSOS* 0. "fitoplâncton" é a 20 concentração de clorofila relativa a um padrão e "lagostins" é o número de lagostins capturados por armadilha 21 por hora. mas não especificamos o que flui ao longo das setas.0 15.6 14.2 14. mas geralmente as interpretações são mais difíceis (Mac 9 Nally 2002). Existem outras maneiras de se atacar problemas 8 semelhantes. nas quais as variáveis 5 independentes podem afetar a variável dependente.9 11.1 15. além da que vamos apresentar aqui.3 8.2 10. "peixes" é 19 medido como o número médio de peixes capturados por hora por rede de espera. e os efeitos de fitoplâncton em lagostins são medidos em termos de clorofila.5 2. 1 Capítulo 11: 2 Modelos complexos 3 4 Até agora.1.1 8.0 9. 22 Poderíamos dizer coisas como "o aumento de uma unidade de poluição levará à diminuição de tantas unidades 23 de lagostins". mas não podem afetar umas às outras.5 9.9 5.6 10.1 POLUIÇÃO PEIXES FITOPLÂNCTON LAGOSTINS 9.3 15.0 8. 12 13 Figura 11.1 14. Quando tratamos de relações simples.2 5.6 5.3 4.2 4.7 4.8 10.2 12. Entretanto.2 9.4 86 .9 14.0 3. 10 Vamos analisar o exemplo dado no capítulo 2. É claro que isto não 6 é muito realista. se os efeitos de poluição em fitoplâncton são medidos como unidades de metal 24 pesado.6 9.0 7. o mesmo efeito não 25 pode fluir ao longo de ambas as setas de nosso fluxograma.0 12.1 3.5 6.4 9. 26 27 Tabela 11. temos considerado como analisar situações muito simples. apresentamos os dados referentes a 30 lagoas onde as quatro variáveis foram medidas 18 simultaneamente.0 9.4 3.0 13. O fluxograma apresentado na figura 11.7 8.1 mostra a 11 direção da influência.9 6.2 9.0 11. mas vamos permitir 7 que as variáveis independentes se afetem mutuamente. "Poluição" representa a concentração de metal pesado em partes por bilhão. diferenças nas escalas de medida não importavam muito. vamos continuar a lidar com relações lineares simples.3 5.1 14 PEIXES POLUIÇÃO LAGOSTINS 15 FITOPLÂNCTON 16 17 Na tabela 11.8 8.4 4.9 6.4 8.1 8. Neste capítulo.5 9.4 10. 9 7.3 15.8 13.3 6. Os dados originais e os desvios padrão têm a mesma dimensão.2 7.5 4.16 * Poluição – 0. Neste contexto.8 8.3 5.3 12.2 14. de forma que possam entender os conceitos e 16 remeter-se à literatura.7 9.3 15.0 3.0 13.7 13.3 6.8 6.8 9. mas 24 utilizando os coeficientes padronizados da regressão.0 8.4 9.1 9. Muitos programas de computador fornecem as estimativas 11 de parâmetros padronizadas mas.9 6.7 8.0 14. A equação resultante foi: 27 28 Lagostins = 0.55 * Fitoplâncton 29 30 Podemos representar isto no fluxograma.7 6.5 16.2 4. a menos que estejamos interessados em ver 12 como os efeitos se propagam através dos fluxogramas.2 6.5 9.2 9.1 8. é impossível desenhar 19 esquemas amostrais efetivos.1 8.8 7. Agora.9 10.4 10. quando 5 dividimos uma pela outra.4 9.7 7. atribuindo valores para os coeficientes padronizados para 31 representar a força de cada relação (figura 11.8 15. Não se importem se não entenderem a álgebra. 9.2 87 .7 12. sem o que. estes valores são chamados de coeficientes 32 de "caminhos" ("path").0 – 0. Quando calculamos estatísticas baseadas em dados padronizados.6 10.3 3.7 4.1 15.0 9. podemos dividir o valor de cada variável pelo 3 desvio padrão desta variável. Efetivamente. elas são 10 chamadas estimativas padronizadas de parâmetros.0 10. eles são adimensionais e podemos usá-los 25 para avaliar a contribuição relativa das variáveis independentes.0 10.0 8.0 9.5 14. indiretos e efeitos gerais. para a variação observada na variável 26 dependente. Vamos mostrar como fazer isto de uma 15 forma simples (e alguns diriam não completamente correta). podemos 8 dizer coisas como "Um aumento de um desvio padrão em poluição levará ao decréscimo de tantos desvios 9 padrão no número de lagostins".8 7. onde poderão encontrar detalhes sobre os métodos mais usados atualmente. elas são de pouco uso.4 7. Antes que 17 se envolvam em demasia com os aspectos matemáticos do método.0 9.3 1 2 Para colocar todas as variáveis na mesma escala.1 4.4 7.8 6. vamos analisar os dados da tabela 11.8 6. Como vimos.39 * Peixe + 0.1 usando uma regressão múltipla padrão.8 14.3 8.5 8.4 3. 13 O uso de coeficientes padronizados para avaliar cadeias de efeitos é chamado de "Análise de 14 Caminhos" ("Path Analysis") ou "Modelagem de Equação Estrutural". 20 21 Estimando efeitos diretos 22 23 Primeiramente.8 8.9 6. 33 34 Figura 11.4 12.1 8. temos uma quantidade aparentemente adimensional (as unidades do numerador e 6 do denominador se cancelam). gostaríamos que entendessem alguns 18 conceitos relacionados com efeitos diretos. ao dividirmos 7 pelo desvio padrão.0 5.2 8.8 5. portanto. em geral. como Student fez para remover os problemas de escala de sua estatística t e 4 centrar os dados em zero.6 15.0 3. estamos colocando todas as medidas em unidades de desvio padrão.9 12.5 13.2). Podemos obter as regressões padronizadas para estas conexões por regressões simples. As direções das setas são arbitrárias.55).41. O problema é que. mas há alguma evidência de um efeito de peixes (P = 0. não significante.39 -0. o 20 efeito da poluição sobre os lagostins será negativo e. o efeito da poluição é negativo e sua magnitude (0. porque as variáveis 15 independentes não afetam umas às outras. onde podemos manipular alguns fatores além dos níveis que eles ocorrem naturalmente e eliminar 26 ou controlar outros quase totalmente. 28 29 Estimando efeitos indiretos 30 31 Podemos usar a análise de caminhos para investigar tanto os efeitos diretos quanto os indiretos. podemos ver que o fluxograma 12 representado pela regressão múltipla (figura 11. se tudo o mais fosse mantido constante. somamos os efeitos diretos e indiretos. Para obter o 38 efeito geral de uma variável sobre outra.39) e do fitoplâncton (0. e de 24 difícil execução. possivelmente. 39 40 Figura 11.16 LAGOSTINS POLUIÇÃO +0. Para 37 calcular os efeitos indiretos. 19 A regressão múltipla está nos dizendo que se peixes e fitoplâncton forem mantidos constantes. 11 Regressões simples podem ser enganosas (capítulo 9). no 21 mundo real.3 41 88 . com uma magnitude de 0. PEIXES -0. Os 32 coeficientes de regressão padronizados nos revelam os efeitos diretos hipotéticos das variáveis que tem setas 33 diretamente ligadas aos lagostins (figura 11.53) associada com 7 a hipótese nula para esta parcial.16) é menor do 5 que a do efeito dos peixes (0. e não seus efeitos hipotéticos.2 tem a forma de uma estrela. A figura 11. será muito mais útil 27 conhecer os efeitos reais de um fator. mas espero que concordem que isto seria eticamente questionável. O conhecimento de efeitos diretos pode ser útil em campos como o da medicina ou 25 agricultura.55 1 FITOPLÂNCTON 2 3 4 Baseado na regressão múltipla. 34 Notem que os efeitos diretos das variáveis que afetam diretamente os lagostins são os mesmos da 35 figura 11.2. Isto vai contra a intuição.3). Em situações em que não possuímos este controle. já que a regressão múltipla estimou uma probabilidade alta (P = 0.2) não representa o sistema como acreditamos que ele 13 funcione (figura 11. Entretanto. se extinguíssemos todos os peixes e fitoplâncton dos lagos poderíamos ver o efeito 23 previsto pela regressão múltipla. É por este motivo que devemos construir um fluxograma que represente 18 a maneira como acreditamos que o sistema em estudo funcione.01). não parece haver um efeito 6 significante de poluição. antes de escolher a análise. Talvez. Mas agora aparecem também os efeitos diretos da poluição sobre os peixes e da poluição sobre o 36 fitoplâncton. em todos os ângulos. Sistemas que podem ser representados por um fluxograma em 16 forma de estrela são muito raros em ecologia.07) e uma forte 8 indicação de um efeito de fitoplâncton (P = 0.03) 10 de poluição sobre os lagostins. quando este tipo de 22 poluição varia. com todas as setas dirigindo-se para a 14 variável dependente. não é possível manter as densidades de peixes e fitoplâncton constantes.1). porque geralmente há mais 9 lagostins em lagoas mais poluídas e uma regressão simples indicou um efeito positivo significante (P = 0. multiplicamos os coeficientes de "caminhos" ao longo de cada fluxo. Estatisticamente. mas a maioria dos procedimentos estatísticos comumente 17 empregados assume este formato. Por exemplo. Um aspecto perturbador das análises 16 convencionais é que elas tendem a desconsiderar os efeitos que os fatores sofrem de outros fatores. sem retroalimentação nos fluxos. ela indicou um efeito direto positivo de poluição sobre lagostins que 13 não existe. Por esta razão. e são baseadas em desvios 30 padrão.16 POLUIÇÃO LAGOSTINS + 0. Portanto. é difícil interpretar a análise de caminhos 32 quando os pesquisadores experimentalmente manipularam algumas variáveis (Petraitis et al. 34 especialmente se a análise não inclui todos os fluxos possíveis. na ausência de 22 fluxogramas. as análises estatísticas não podem ser interpretadas. que na verdade são apenas o resultado das variáveis mais importantes da 18 porção mais a esquerda do modelo. trazem um bom apanhado sobre 44 problemas de escalas). Portanto. A análise de 21 caminhos permite-nos interpretar um mundo carregado de sentido biológico. Entretanto.56 + 0. 23 24 Alguns problemas com a análise de caminhos 25 26 Fizemos a análise de caminhos parecer muito atraente. temos os seguintes fluxos e seus coeficientes de "caminhos" correspondentes: 5 6 Poluição — Lagostins –0. Em nosso modelo. há mais de um 29 tipo) geralmente assumem relações lineares. porque não tínhamos evidência de uma relação causal. Experimentos manipulativos. mas isto é uma 14 resposta a respeito de um mundo que não acreditamos existir. ou se pelo menos forem ordinais. se não amostrarmos a variabilidade real de cada variável do sistema. A regressão múltipla forneceu a resposta correta em relação aos efeitos diretos. Embora a regressão simples tenha 12 fornecido uma resposta numérica correta. Usamos esta análise apenas para ilustrar o primeiro passo em 28 direção a lidar com modelos ecológicos mais realistas. 33 Além disso. não incluímos o fluxo de peixes 35 para fitoplâncton em nosso exemplo. 1996). a análise de caminhos pode não ser boa para revelar padrões que podem ser mostrados 42 por outros métodos.41. a interpretação de uma variável cuja distribuição não pode ser descrita por seu desvio padrão é 41 difícil.26 8 Poluição — Fitoplâncton — Lagostins +0. têm a 20 mesma limitação.39 – 0. ela pode ter algumas limitações 27 sérias (Petraitis et al.31 9 10 O efeito geral (a soma dos efeitos diretos e indiretos) da poluição é 0. o uso de coeficientes padronizados de regressões simples pode não ser correto. Variáveis categóricas só 39 podem ser colocadas no modelo se elas tiverem apenas dois níveis.55 1 FITOPLÂNCTON 2 3 4 Para poluição. que coincide com o 11 resultado que obtivemos pela regressão simples de lagostins e poluição. onde o pesquisador mantém algumas 19 variáveis constantes ou produzem combinações de níveis de fatores que não existem na natureza.67 – 0. Shipley 1999). podemos "enganar" o computador modificando a matriz que ele usa para 37 calcular as regressões múltiplas. os coeficientes de 31 "caminhos" não vão fornecer os efeitos esperados. Geralmente. embora algumas formas de análise de caminhos provavelmente serão sempre necessárias 43 ao se analisar sistemas com escalas múltiplas (O’Neill e King 1998. 1996. PEIXES – 0. Algumas vezes. As análises de "caminhos" (na verdade. embora só tenha um pequeno efeito direto sobre lagostins. 40 Entretanto. 17 focalizando-se nas causas próximas. embora tenhamos sugerido que todas as análises estatísticas requerem o 89 . Se não 36 incluirmos todos os fluxos possíveis.16 7 Poluição — Peixes — Lagostins +0. Eles estão se reportando a efeitos diretos esperados em um mundo imaginário. 1996 ). ou então usar um programa de verossimilhança máxima desenhado 38 especificamente para modelagem de equações estruturais (Petraitis et al. poluição está dirigindo o 15 sistema. 2010). Neste caso. 1 exame prévio de um fluxograma. ex. Spitz e Leks 1999. Link 1999. para ilustrar os conceitos atrás dos modelos mais complicados. no próximo capítulo retornaremos a métodos lineares de mínimos 24 quadrados e à análise de relações simples. Nos capítulos seguintes. Precisará também dispor de um bom programa 3 estatístico e de um estatístico para livrá-lo da confusão matemática em que quase certamente mergulhará. A capacidade de fazer estas análises. Entretanto. 13 A dificuldade de se estimar parâmetros é relacionada à classe geral de problemas chamada "problemas 14 inversos" (Wood 1997). Todas estas técnicas estão muito além do escopo desta introdução e requerem a ajuda de um estatístico 18 competente. Se decidirmos analisar o fluxograma matematicamente. Starfield e Bleloch 1991) ou outras 16 técnicas matemáticas complexas (p. que podem ir muito além 9 do objetivo mais simples de apenas uma análise de caminhos. que se tornaram o "emblema" de ecólogos 21 iniciados. 22 inclusive em programas de livre acesso. eles estão 6 juntando as técnicas de análise de caminhos do tipo descrito neste capítulo com métodos multivariados de 7 análises que descreveremos no Capítulo 15. Guttman (1985) comentou a este 12 respeito "Não é diferente de dar um martelo de brinquedo a uma criança: ela vai usá-lo em tudo que avistar". usualmente mais complexas. como o R. Wardle 1999. nos concentramos em técnicas de análise de variâncias. temos de considerar a 15 possibilidade de usar simulações intensivas em computadores (p. está aumentando a cada dia. o leitor precisa prestar atenção nos objetivos da análise. Entretanto. descreveremos a derivação de 23 algumas destas técnicas. Burnham e Anderson 17 1998). o leitor só deveria considerar aplicar modelos de equações estruturais 2 quando estiver lidando com sistemas relativamente simples. 19 Esperamos que tenhamos ao menos dado uma ideia de porque alguns pesquisadores estão lançando 20 mão de técnicas muito diferentes das técnicas estatísticas padrão. 4 Muitos pesquisadores usam modelos de equações estruturais para modelar os caminhos e para estimar os 5 efeitos de variáveis inerentes que afetam ou compõe outras (Grace et al. 11 porque este é um ponto de partida e os conceitos são simples. 10 Neste livro. Normalmente. 25 90 . ex. Neste caso. como na maioria dos livros. também usam técnicas de verosimilhança máxima 8 (Capítulo 13). que 9 não há erro estocástico na medida das variáveis independentes. Entretanto. e não para obscurecer os padrões da natureza. enquanto a medição da biomassa é tarefa árdua 23 e destrutiva. Nossos modelos serão muito simples e não nos 15 ateremos em detalhes. Se preferirem um 19 problema aplicado. que os efeitos dos fatores são aditivos. Procuraremos esclarecer os aspectos conceituais mais importantes. Neste capítulo. Entretanto. 1 Capítulo 12: 2 Endireitando o mundo com 3 transformações e outros truques 4 5 Até agora. Eles assumem que as relações são 8 lineares. Quando estas condições não são satisfeitas.1. Os dados para as 30 árvores estão mostrados na figura 12. Estes métodos algébricos de mínimos quadrados são teoricamente 7 apropriados somente sob um conjunto de condições muito restritivas. Portanto. 32 Não é possível produzir uma equação preditiva acurada usando a álgebra de mínimos quadrados diretamente 33 com estes dados. 26 27 Figura 12. que a variação da variável dependente é 10 homogeneamente distribuída ao longo dos níveis da variável independente e ainda outras condições 11 improváveis. 17 Nosso exemplo diz respeito a pessoas tentanto estimar massa ou volume a partir de medidas lineares. de forma que as 16 transformações possam ser usadas para esclarecer. vamos primeiro considerar sobre maneiras de operar estas 14 transformações e depois examinaremos modelos alternativos. nossas análises foram baseadas em modelos lineares nos quais temos minimizado os 6 desvios quadrados para estimar parâmetros. nosso ecólogo decide determinar a relação entre o diâmetro e a biomassa de 30 árvores 24 e usar esta relação para predizer a biomassa florestal a partir de medidas do diâmetro de árvores tomadas 25 sobre toda a área de interesse. algum outro modelo será um melhor estimador dos 12 parâmetros. 18 digamos. imaginem um engenheiro florestal empenhado em estimar o volume de madeira. e 21 fisiólogos têm problemas similares quando a massa corpórea afeta as variáveis em que estão interessados. um ecólogo interessado em estimar a biomassa de uma grande área de floresta. provavelmente a relação conforma uma função potência da seguinte forma: 34 35 Biomassa=a*Diâmetrob +e1 36 91 .1 28 3000 BIOMASSA (kg) 2000 1000 0 0 5 10 15 20 25 30 35 DIÂMETRO (cm) 29 30 31 A relação não é linear e a variabilidade em biomassa aumenta a medida que o diâmetro aumenta. É 22 relativamente simples tomar medidas do diâmetro de árvores. Biólogos 20 de pesca usam técnicas similares para estimar o peso a partir de medidas de comprimento de peixes. que os resíduos dos modelos tenham distribuição normal. algumas vezes é possível transformar os dados e fazê-los se conformarem às 13 premissas dos mínimos quadrados. 18 A reta da figura 12.3 38 92 .3 mostra a posição estimada da curva em relação aos dados originais. 3 Logaritmizando os dois lados da equação (desconsiderando o "erro"). A linha não explica cerca de 96% da variação nos dados e a 32 variabilidade muda ao longo da linha.96) e estimamos o coeficiente "b".2 pode ser descrita pela equação: 19 20 log10(biomassa)=-0. 5 6 log(Biomassa)=log(a) + b*log(Diâmetro) +e2 7 8 Portanto. 10 11 Figura 12. o biólogo decide transformar seus dados. não transformados. Tudo parece bem. poderiam ter biomassa variando de menos de 34 1000kg até mais de 2000kg.168). Os pesquisadores as vezes apresentam o gráfico dos dados transformados.775+2. Podemos ver que aquele r2 31 não faz sentido em termos dos dados originais. 33 mas árvores grandes. 36 37 Figura 12.778 29 30 A figura 12. Isto facilita a matemática e permite ao biólogo usar a álgebra de mínimos quadrados.168*Diâmetro2. A equação é muito boa para estimar a biomassa de árvores pequenas. enquanto e1 representa a 2 variação aleatória ou explicada por fatores que não entraram no modelo e é chamado de "erro".2 1000 Log10 (BIOMASSA) 100 10 1 0 10 20 30 Log 10 (DIÂMETRO) 12 13 14 15 A relação agora é linear e a variabilidade da biomassa é similar através de toda a amplitude de 16 valores de diâmetros. 1 onde "a" e "b" são coeficientes que descrevem o formato e a posição da curva. o problema de como lidar com o termo de erro da equação original. na faixa de 25-30 centímetros de diâmetro. colocando ambos os eixos em escalas logarítmicas de base 9 10 (Figura 12.775 (10-0.2). para estimar o valor de "a" e re-escrever a equação 26 original como: 27 28 Biomassa=0.778*log10(diâmetro) 21 22 Esta equação preditiva pode ser usada para estimar a biomassa de árvores para as quais apenas o 23 diâmetro foi medido. porque o r2 (um indicativo grosseiro da capacidade de predição da 24 equação) é alto (0. 17 Vamos deixar para os estatísticos. obtemos um equação linear em uma 4 forma que pode ser tratada pela álgebra convencional de mínimos quadrados.775 = 0. mas o 35 ajuste do modelo só pode ser avaliado em relação aos dados originais. e o logaritmo do coeficiente "a". Agora podemos 25 calcular o antilogaritmo de –0. ele usa um computador para aplicar uma técnica intensiva de 14 estimativa não-linear. Isto não era o que o biólogo esperava. 10 mesmo uma mudança diminuta na posição da linha pode mudar a estimativa de biomassa de uma única árvore 11 grande em centenas de quilogramas. obtida por 29 transformação logarítmica. Entretanto. Por causa disto. Então ele tenta novamente. Isto deu tanto peso para árvores pequenas quanto para árvores grandes. Na figura 12. a transformação logarítmica reduziu a variabilidade das árvores grandes quando a 7 posição da linha foi estimada. 3000 BIOMASSA (kg) 2000 1000 0 0 7 14 21 28 35 DIÂMETRO (cm) 1 2 3 Estimativas por tentativa e erro sem transformação 4 5 A grande variabilidade na biomassa das árvores maiores é real e nenhum modelo pode fazê-la 6 desaparecer. 15 "Modelos não-lineares" são parcialmente tentativa-e-erro e parcialmente matemáticos. mas a linha 27 resultante ocupa uma posição similar.3.4 o modelo estimado por iteração está representado pela 28 linha contínua. O 22 computador fez 16 tentativas (chamadas iterações) para estimar a seguinte equação: 23 24 Biomassa=1. portanto. Estes métodos são muito efetivos. Erros na estimativa da 9 biomassa de árvores pequenas terão pequeno efeito na estimativa da biomassa de toda a floresta. ao custo de superestimar a maioria das árvores pequenas. até conseguir um modelo que resulte nos menores desvios dos pontos 19 observados até a linha. O programa 16 começa com estimativas arbitrárias dos parâmetros. Entretanto. Um modelo deste tipo seria melhor para 32 estimar a biomassa da floresta mas poderia ser inapropriado para questões fisiológicas associadas com árvores 33 pequenas.178 25 26 Os valores são ligeiramente diferentes daqueles estimados por transformação dos dados. e porque o programa usa algorítmos matemáticos para se assegurar que está 21 mudando as estimativas na direção que vai resultar nos menores desvios. A matemática está envolvida porque o pesquisador precisa informar a forma geral da 20 equação para o computador. 34 35 36 Figura 12. aplica o modelo (o que equivalente a desenhar a linha no 17 gráfico) e calcula os desvios dos pontos até a linha. Modelos 13 lineares não são apropriados. 30 A vantagem para o biólogo é que o método não linear ajustou melhor a linha aos dados das árvores 31 grandes. enquanto a linha tracejada diz respeito a mesma relação representada na figura 12.139*Diâmetro2. no 8 momento da estimativa da posição da linha.4 37 93 . nosso biólogo procura agora por um método que possa 12 preservar a grande variabilidade das árvores grandes e assim dar maior peso a elas na análise. com valores um pouco 18 diferentes e assim sucessivamente. As técnicas padrão de mínimos quadrados geralmente são as melhores para predição. Para dados morfométricos. O ponto é que qualquer resíduo pode ser minimizado por 18 iteração. Considere a relação entre comprimento e 8 altura do corpo para uma espécie de peixe. ao invés de reduzir a área dos quadrados. 3000 BIOMASSA (kg) 2000 1000 0 0 5 10 15 20 25 30 35 DIÂMETRO (cm) 1 2 3 Outros métodos atípicos 4 5 Modelos não-lineares também são úteis para estimar parâmetros quando não queremos usar mínimos 6 quadrados. embora possa ser importante em alguns casos. 16 especialmente se o pesquisador estiver analisando os dados em seções. instruindo-se o programa a usar uma outra equação (chamada 11 função de perda ou "loss function") para minimizar a área dos triângulos formados entre os pontos e a linha 12 do gráfico (veja capítulo 8). como no caso das análises regulares de 13 mínimos quadrados. Ricker 1973). 19 20 Figura 12. 10 É fácil de se estimar esta regressão. mesmo se não houver uma fórmula matemática simples para fazê-lo. ex. 15 A diferença não foi muito grande neste caso.5 mostra a posição da linha quando minimizamos os desvios quadrados 14 (linha contínua) e desvios segundo o modelo do maior eixo reduzido (linha tracejada). A figura 12.5 50 40 ALTURA (cm) 30 20 10 0 0 10 20 30 40 COMPRIMENTO (cm) 21 22 94 . ao invés de com toda a amplitude de 17 variação da variável independente (Ricker 1973). a regressão do maior eixo reduzido 9 (média geométrica) pode ser o modelo mais apropriado (p. mas podem 7 não ser as melhores para descrever as relações de maneira acurada. 6 3000 BIOMASSA (kg) 2000 1000 0 0 5 10 15 20 25 30 35 DIÂMETRO (cm) 37 38 39 Os métodos de verossimilhança máxima minimizam a função de verossimilhança. sendo os pesos dados pelo inverso da matriz de covariância (Bard 1974). de modo a manter a igualdade. estimativas razoáveis dos parâmetros podem ser 17 obtidas por técnicas de tentativa e erro (iteração). Em alguns casos. Um modelo é especificado e. Entretanto. Entretanto.6. Sokal e Rohlf 24 (1995) opinaram que "a abordagem da verossimilhança máxima para ajustar uma linha de regressão para 25 dados bivariados ou multivariados é o método mais geral e correto". 35 36 Figura 12. os 8 dados são transformados de modo a serem linearizados. não precisam minimizar resíduos. as estimativas por verossimilhança máxima dos 33 parâmetros resultaram na posição da linha cheia mostrada na figura 12.4. Neste caso. morte/sobrevivência. 16 Mesmo quando as relações não podem ser linearizadas. desvios 29 moderados das premissas não resultam em grandes diferenças entre as técnicas de mínimos quadrados e as de 30 verossimilhança máxima. efeito/ausência de efeito. como a de verossimilhança máxima. com covariância conhecida. mas geralmente uma técnica iterativa é usada. a verossimilhança máxima se reduz a mínimos quadrados 28 ponderados. Zuur et 41 al. Em geral. pode ser possível 15 fazer isto algebricamente. Entretanto. aplicamos a 10 mesma transformação nos dois lados da equação. As estimativas por verossimilhança máxima podem ser calculadas usando-se programas não- 95 . as premissas das técnicas de mínimos quadrados são seriamente violadas. nem todas as 11 transformações para se obter a função de ligação terão esta propriedade e a escolha de que tipo de 12 transformação empregar e de qual desvio será minimizado (veja figura 8. no qual as 9 transformações se baseiam.7. O caso 4 mais comum é quando a variável dependente é medida em uma escala binária. 2009). capítulo 8 para exemplos de 13 distâncias que podem ser minimizadas) depende da questão que se quer responder. Para linearizar a função potência. Esta é a razão pela qual poucos pesquisadores se preocupam em usá-las. como em mínimos quadrados. se necessário. que se sobrepõe quase 34 completamente à linha obtida pelo modelo não linear mostrado na figura 12. 18 19 Verossimilhança máxima 20 21 As técnicas não-lineares. A maioria dos métodos que discutimos neste capítulo se enquadra 7 dentro da técnica geral chamada de modelos gerais lineares. os pesquisadores usam 6 regressão logística para analisar os dados. Não 31 sabemos o formato real da distribuição dos resíduos dos valores de biomassa usados para construir a figura 32 12.). o modelo. assumindo uma distribuição de poisson. da forma esperada do 14 resíduo e da forma como os dados foram coletados (Zuur et al. Esta técnica será descrita em mais detalhes no Capítulo 12. Na modelagem geral linear. etc. Para uma 27 distribuição normal. esta 40 função só pode ser determinada conhecendo-se a distribuição dos resíduos (Hilborn e Mangel 1997. 1 Modelos lineares gerais 2 3 Em alguns casos. Esta 22 técnica estima os parâmetros escolhendo os valores que maximizam a probabilidade de se encontrar 23 justamente os valores observados. para amostras pequenas.1. Entretanto. o 26 método de verossimilhança máxima não é resistente a erros sistemáticos (viéses) e nem eficiente. 2009). é chamado "função de ligação". do tipo 0 ou 1 (ou 5 presença/ausência. ao invés de cair na porção realmente mais baixa de toda a superfície.e. Portanto. torcendo para que o autor tenha programado a função correta de 12 verossimilhança. 10 Quando se deparar com um modelo de verossimilhança máxima em suas leituras. Entretanto. avaliar 14 os resultados. com 21 ondulações. No capítulo 13 vamos fazer uma breve introdução à estas técnicas. fazendo com que elas estejam próximas dos valores mais prováveis (i. Muitos adeptos relatam que usaram verossimilhança máxima sem fornecer detalhes do 13 método e suas premissas. modelos complexos representam superfícies complexas. e quando se tem grandes 9 amostras. envolve um alto grau de subjetividade. 15 16 Problemas e armadilhas da estimativa não-linear 17 18 Todas as técnicas não-lineares (iterativas) apresentam uma fraqueza quando usadas em modelos 19 complexos. de modo que frequentemente é difícil. toda modelagem. e não são tão importantes quanto os conceitos 34 gerais que exploramos nos capítulos anteriores. Não opte por usar estas técnicas. Os pulos usualmente ficam menores a cada tentativa 23 (iteração) para assegurar que o programa chegue a uma solução. 2009). o pesquisador pode iniciar o processo repetidas vezes e escolher os valores iniciais 27 para as estimativas. deve interpretá-lo como 11 faria com um modelo de mínimos quadrados. os métodos de verossimilhança máxima são os mais apropriados quando há fortes razões 8 teóricas para se adotar um modelo em particular (Guttman 1999. independentemente de com que método se trabalhe. eles são conceitos puramente estatísticos. Modelos complexos podem também ser atacados por técnicas não-lineares. 32 Os conceitos apresentados neste capítulo foram complexos e não temos espaço para explorá-los em 33 detalhes. 26 Para evitar isto. 1 lineares (iterativos). Entretanto. e os resultados apresentam 3 diferentes propriedades (Capítulo 13). No capítulo 11. a não ser em colaboração com um estatístico muito competente.7). Os elementos de modelos simples podem ser descritos por uma reta ou por uma curva crescendo 20 ou diminuindo monotonicamente. Uma vez que o modelo começa a ficar moderadamente complexo. representada pelo ponto mais 22 "baixo" na superfície. 31 É difícil lidar com modelos complexos. As técnicas iterativas geralmente aproximam a solução ótima. Zuur et al. Isto introduz um elemento de 29 subjetividade no processo que alguns pesquisadores desaprovam. fazendo com que 28 o programa vá para a área onde provavelmente se encontra o mínimo global). o "mínimo global" (figura 12. minimizando o negativo do logaritmo da função de verossimilhança. mesmo para estatísticos experientes. executando uma série de "pulos". Entretanto. Entretanto. 39 40 Figura 12.7 41 96 . Entretanto. há 2 diferentes abordagens para a estimação por verossimilhança máxima (Bard 1974). este procedimento pode levar o 24 programa a cair em algum local particular da superfície que apresente uma irregularidade chamada "mínimo 25 local". Muitos 36 programas de computador usam métodos de verossimilhança máxima para estimar os parâmetros de equações 37 lineares nestes modelos. lidamos com modelos lineares para descobrir 35 como podemos construir modelos mais realistas com dependências entre variáveis independentes. mas 38 usualmente. Friendly (1995) apresenta algumas analogias físicas com a estimativa 4 por verossimilhança máxima. inclusive a 30 modelagem de rejeição de hipóteses nulas da estatística convencional. esta alternativa não é mais satisfatória do que os métodos convencionais. não há um 5 estimador de verossimilhança máxima simples e procedimentos muito complexos precisam ser programados 6 no computador. É virtualmente impossível determinar a forma da distribuição estudada pela inspeção dos 7 dados. Temos usado análises inferenciais sob uma definição um tanto esotérica de 49 probabilidade. fizemos uma passagem breve e. Em nosso cotidiano. Descrições (nível 1) fornecem 37 estimativas de parâmetros para os nossos modelos (nível 3). que parece bastante diferente da que usamos em nosso dia-a-dia. é uma ferramenta e 26 uma linguagem especializada que empregamos para falar de ciência e descrever resultados de investigação 27 científica". 1 Capítulo 13: 2 Uma extensão às estatísticas 3 frequentistas 4 5 6 Neste livro. consequentemente. A técnica mais útil não é necessariamente a técnica mais abrangente ou mais embasada 22 na teoria. 33 Estes três objetivos são frequentemente relacionados. Os tipos de análises 8 que descrevemos são as bases para mais do que 90% das estatísticas reportadas na literatura ecológica. não há razão para se pensar em "técnicas corretas". parece que estamos falando de um conceito objetivo. nossa abordagem será enfatizar os pontos em comum entre as 16 análises e a filosofia por trás delas. a probabilidade é apenas uma forma 51 de comunicar uma expectativa ou um grau de confiança. 28 Vimos que as estatísticas são usadas para (1) descrever grupos de observações. (2) para perguntar se 29 uma observação ou grupo de observações constitui evidência suficiente para mudar nossa opinião a respeito 30 de alguma coisa ou fenômeno. mas que é prontamente desbaratada pelos comentários 20 nos capítulos que se seguem. porque a maioria das estimativas de parâmetros é baseada em 47 considerações sobre probabilidades. que independe de nossa experiência ou 97 . eles geralmente são hierárquicos. quando otimizamos os métodos para um nível. Agora. superficial pelos conceitos que 7 embasam as estatísticas geralmente mais usadas. De fato. 39 Entretanto. mas incitamos os leitores a consultar a coleção de textos em Taper e Lele 17 (2004a) para um mergulho nas desavenças. Um aspecto particularmente revelador na coletânea de Taper e 18 Lele é a maneira como o autor de cada capítulo tece uma linha de razões filosóficas e matemáticas 19 absolutamente convincente para a maioria dos leitores. e que são chamadas de frequentistas. 9 Entretanto. e (3) para construir modelos que simulam alguns aspectos da maneira como o 31 mundo funciona. As pessoas simplesmente procuram 24 aquelas que sejam mais efetivas em organizar suas ideias e que as ajudem a comunicar-se com outras pessoas 25 em determinada ocasião. a não ser que você seja profundamente religioso e creia que Deus tenha convicções 23 estatísticas arraigadas. vamos mostrar as relações conceituais 12 entre algumas destas técnicas e as que tratamos anteriormente. 46 vamos retornar à probabilidade (nível 2). há uma tendência crescente de uso de outras análises. 42 43 Probabilidade 44 45 Antes de tratarmos de modelos descritivos (nível 1) e da construção de modelos preditivos (nível 3). e usar técnicas estatísticas filosoficamente diferentes para 41 propósitos diferentes não é necessariamente ilógico. 13 Algumas vezes. estimulado em grande parte pela atual 10 facilidade de se usar métodos que demandam computação intensiva para fornecer respostas para problemas 11 que não poderiam ser resolvidos com álgebra simples. os usuários de diferentes técnicas usam a mesma palavra para designar conceitos 14 diferentes e pode haver divisões filosóficas profundas separando os grupos ou mesmo subgrupos culturais dos 15 praticantes destas técnicas. Como sempre. Como Ellison (2004) expressou "a estatística não é uma ciência. de forma a podermos fazer predições a respeito do futuro ou de um passado que não foi 32 observado. Na verdade. Talvez a mensagem mais importante seja a de não se tornar fã incondicional de 21 qualquer abordagem. e só queremos incluir em nossos modelos os 38 parâmetros que tiveram evidência suficientemente forte para convencer-nos de que são informativos (nível 2). Quando produzimos probabilidades no campo 52 científico. 40 Assim. pode não existir um método "melhor". Neste capítulo. Não podemos perguntar 35 sobre quão forte é a evidência (nível 2) até que tenhamos descrito a evidência (nível 1) e articulado-a com a 36 respectiva hipótese ou a um modelo que corresponda a esta hipótese. e algumas vezes usamos informação de um 34 nível para fazer inferências sobre outros. vamos considerar 50 outras abordagens para o conceito de probabilidade. frequentemente os comprometemos para os outros. e a probabilidade é frequentemente usada para decidir quão complexos 48 precisam ser nossos modelos. precisaríamos de muitas outras observações da presença/ausência de chuva em dias 47 independentes. Para testar a 46 hipótese nula. alguns são mais úteis que outros. mas dependendo do contexto." é derivada de um número "de entidades das quais 27 uma proporção conhecida.58.42. usualmente temos apenas um valor 98 . ela calcula a probabilidade de 50/120=0. o modelo baseado na formação de tempestade se aproximando era obviamente 35 superior para a previsão de chuva no dia seguinte. Todos os modelos 33 são errados. crença ou confiança) a respeito de uma situação não observada (chuva no dia seguinte). No contexto de nossos 34 passageiros hipotéticos. mas 14 igualmente válidas. Um deles consultou um livro de geografia e descobriu que nos últimos 20 6 anos choveu em média 100 dias por ano naquela localidade. 1 emoções. Baseado nisto. com cerca de 50 dias com chuva. um evento. Nenhum dos 45 resultados pode ser considerado extremo em relação à expectativa segundo a hipótese nula. Este 21 método de calcular probabilidades é geralmente associado ao trabalho de John Venn (1888). porque não sabemos quantos valores podem ser gerados quando a 53 hipótese nula é verdadeira. possui alguma característica relevante. teria sido 0. P. Podemos dividir as 18 ocorrências passadas (dias) em duas categorias: dias chuvosos ou sem chuva. vamos considerar a probabilidade relevante para as duas 2 instâncias: nosso dia-a-dia e na ciência. 10 Assim.27 a 7 probabilidade de chover no dia seguinte. 11 O terceiro viajante assistiu ao noticiário na televisão local e. calculada pela segunda 44 passageira. Considere o caso de três viajantes chegando a um país. para que a consideremos como um modelo 31 inadequado. 28 Quando usamos estatística inferencial. com a intenção de praticar 5 esportes ao ar livre no próximo dia. que o restante não possui". conclui que a probabilidade de chuva no dia seguinte é perto de 1. Poderíamos registrar a ocorrência de chuvas durante muitos dias e perguntar se a frequência 48 de dias chuvosos foi significantemente diferente da esperada para aquele número de observações. Para mostrar isto. Este exemplo ilustra o fato de que as probabilidades não são nada mais do que uma forma 15 de expressar o grau de nossa expectativa de que determinada coisa irá acontecer. na verdade. baseado na experiência 16 passada. 8 A segunda viajante procurou em uma página na internet e descobriu que o país tem um clima 9 marcadamente sazonal.. dado a hipótese nula de que a chuva nesta estação tenha sido gerada pelo 42 mesmo processo que gerou chuvas nas estações chuvosas dos anos anteriores. Como colocado por Ronald Fisher (1973). com três probabilidades diferentes. 3 As pessoas frequentemente consultam a internet ou outro tipo de mídia para saber a chance de 4 chover no dia seguinte. da mesma forma que as 32 probabilidades de chuva de nossos passageiros dependeram do modelo que eles usaram. o resultado depende do modelo nulo que estamos usando. 39 Geralmente não usaríamos estatística para avaliar se a ocorrência de chuva em um dia particular foi 40 extrema em relação a nossa hipótese nula. A 37 estimativa anual poderia ser a melhor. calculamos a proporção de ocorrências em nosso teste e em 29 um passado hipotético (hipótese nula). 13 Três observadores tentando prever o mesmo fenômeno. uma probabilidade de uma ocorrência. 57 Uma das dificuldades que enfrentamos ao delinearmos experimentos é que usualmente só podemos 58 conduzir uma ou poucas experimentações em um certo tempo. Portanto. Dividimos a proporção de 19 ocorrências de interesse (dias chuvosos) pelo total de ocorrências (dias) para calcular a probabilidade 20 (expectativa. Em 49 estatística frequentista. sobre as quais vamos tecer considerações a seguir. e que aquela estação usualmente dura 120 dias. Mas imagine que tenhamos observado chuva no dia seguinte e 41 perguntamos se isto era improvável. 17 No exemplo. "que pode ser 26 concebida como um objeto. 23 O método é lógico e basicamente consiste na separação de ocorrências em duas categorias e o uso da 24 proporção de uma das categorias como a melhor estimativa da proporção desta categoria nas observações 25 futuras. Não podemos 51 calcular a probabilidade de obter exatamente aquele valor da estatística. mas o conceito já 22 vinha sendo usado muito antes de Venn.. baseado em uma amostra de valores 52 quando a hipótese nula é verdadeira. Este artifício pode parecer estranho para muitas pessoas e. ele calcula em 100/365=0. ou uma hipótese. poderíamos calcular uma estatística (uma estimativa de um parâmetro) e perguntar se 50 este valor é diferente dos valores esperados desta estatística se a hipótese nula fosse verdadeira. se quiséssemos estimar a proporção de dias chuvosos durante todo o 38 ano na próxima década. baseado na imagem de satélite de uma 12 tempestade se aproximando da cidade. Então.42 de haver chuva no próximo dia. há outras maneiras de 56 combinar expectativas para um grupo de observações. usou-se um método similar ao que se usa nos testes inferenciais. e nos perguntamos se a proporção que encontramos no teste foi 30 suficientemente diferente das que encontramos na hipótese nula. reformulamos a questão e fazemos uma pergunta a respeito da 54 probabilidade de encontrar um valor da estatística igual ou mais extremo do que o valor observado para a 55 estatística. Se a precipitação nesta estação 43 chuvosa foi similar às dos anos anteriores. mas isto não é verdade. e isto levaria à probabilidade de não chover ter sido igual a 0. a probabilidade de chover no dia seguinte. Portanto. mas o modelo baseado em sazonalidade poderia ter sido 36 melhor se estivéssemos querendo prever a probabilidade de chuva em qualquer dia daquela estação. 1 observado para nossa estatística.1 17 9 Frequência 6 3 0 0 20 40 60 Estatística 18 19 20 Na figura 13.1. 13 14 15 16 Figura 13. o cálculo de 9 probabilidades envolve dividir um passado observado ou hipotético em objetos que podem ser distinguidos 10 em categorias discretas. Não podemos estimar a probabilidade de qualquer valor individual. A probabilidade de se obter um valor relacionado com um conjunto de interesse (valores 23 iguais ou maiores que o valor observado. na maioria 3 dos casos. Para lidar com isso. indicados pelo quadrado preto e pelos quadrados hachureados na 24 figura 13. mas usualmente usamos matemática para estimar 8 proporções de distribuições de frequências em testes paramétricos. O quadrado preto representa o valor da estatística para o resultado 22 de um experimento. o resultado poderia ter sido qualquer um de uma gama de valores tão ampla que qualquer resultado 4 em particular teria sido incrivelmente improvável de ocorrer.1) foi obtida dividindo-se o número de quadrados preenchidos de preto ou hachureados (15) pelo 25 número total de quadrados (50) resultando na estimativa de P=0. Note que isto é apenas uma estimativa. Se 26 tomarmos outra amostra de permutações. 27 O valor de nossa inferência depende amplamente do modelo nulo usado. De fato. mas a probabilidade de ocorrência de qualquer valor igual ou 6 mais extremo do que o observado. Poderíamos fazer isto 7 acumulando observações em testes de permutação. o valor poderia ser ligeiramente diferente. Um modelo nulo irrelevante 99 . mesmo que tenhamos feito muitas observações da variável de interesse para 2 gerar esta estimativa. os quadrados representam os valores esperados quando a hipótese nula é verdadeira e 21 foram obtidos em um teste de permutação. Este processo pode ser visto na figura 13. Como enfatizado por Fisher.3.1. Isto é. A probabilidade de um evento é a razão entre o número de eventos na categoria de 11 interesse e o número total de eventos (que é o número de eventos na categoria de interesse + eventos de todas 12 as outras categorias). temos um conjunto com muitos valores. não calculamos a 5 probabilidade de ocorrência do valor observado. 39 Se todos os fatores forem ortogonais (i. Se o modelo alternativo é tão amplo que abrange qualquer situação. mudamos todos os coeficientes da 56 regressão. Neste teste. Entretanto. nível de hormônios 17 durante o desenvolvimento. 13 um modelo nulo deste tipo não reflete o senso comum. Isto é. sem nenhuma justificativa. comparamos o modelo H = a + 25 b1NM + b2NC + e ao modelo alternativo H = a + b1NM + b2NC + b3DH + e. É fácil testar modelos nulos simples (p. com 10 observações para cada variável. porque algumas variáveis que deveriam ser 46 "independentes" de fato afetam outras variáveis "independentes". As variáveis e seus coeficientes associados não são apenas subconjuntos simples de modelos 57 alternativos. e as hipóteses deste tipo têm sido chamadas de "nulas tolas" (silly nulls) (Anderson et al.). Para testar o efeito da nutrição da mãe (NM). Entretanto. ou 22 múltiplos testes que regularmente alternam fatores entre o modelo nulo e o alternativo.e. 40 poderíamos testar cada fator usando o procedimento de substituição descrito acima e cada teste seria 41 independente dos outros (Grömping 2007). ou até se podemos 6 persistir com este modelo nulo. estamos testando fatores e os incluindo no modelo nulo. no mundo real os fatores são sempre correlacionados (e isto deveria ser nossa 51 hipótese nula!). de modo 5 que possamos identificar o que precisa ser mudado para aperfeiçoar o modelo nulo.e. e este modelo não leva em consideração a miríade de 15 fatores que sabemos afetar as alturas de seres humanos (p. 45 não-correlacionados). ex. Portanto. mas ao mesmo tempo complexos o suficiente para representar as opiniões 11 mais atuais de como o mundo funciona. se homens e mulheres têm 12 alturas similares) contra uma alternativa clara (homens e mulheres não têm tamanhos similares). fatores genéticos. Para testar se a dosagem de hormônio afeta a altura. Hipóteses nulas tolas levam a testes triviais.1 mostra as correlações entre 10 variáveis aleatórias independentes criadas por um 53 gerador de números aleatórios. e outros continuam a "descobrir" os perigos de fazer isto (p. Whittingham et al. 16 uso de drogas durante esta fase. Embora a correlação esperada entre 54 números aleatórios independentes seja zero. 49 mas poderia não afetar os coeficientes da regressão (os valores de "b" nas equações). já que poucas pessoas realmente acreditam que 14 homens e mulheres têm alturas médias semelhantes. onde cada um pode ou não ter um efeito suficientemente grande para ser de interesse. 21 Os testes com que temos lidado têm considerado basicamente uma alternativa ao modelo nulo. Estamos tentando selecionar modelos e testá-los simultaneamente. ou pelo menos o que é esperado pelo senso comum. 2006. É natural querer fazer isto. O problema surge porque a lógica do teste é 30 baseada em uma única comparação ou em um pequeno número de comparações (capítulo 5). não incluímos todas as possíveis 100 . Os modelos nulos mais úteis representam o estado da arte da 2 ciência. que é 18 semelhante às mostradas na maioria dos livros de estatística. Agora DH está em ambos os modelos. e o alternativo H = a + b1NM + b2DH + b3NC + e. produzirem efeitos completamente independentes). embora a probabilidade de encontrar um fator aparentemente 42 "significante" aumente com o número de fatores testados (capítulos 6 e 9). à nutrição da mãe 24 (NM) e da criança (NC). apenas 7 aprenderemos que o modelo nulo é errado (o que já sabíamos de qualquer forma) e não teremos indicações do 8 que deve ser mudado para torná-lo mais útil. não é apropriada para descrever o estado atual do 19 conhecimento. O modelo alternativo deve representar 4 alguma coisa que difere do que é comumente aceito em uma ou em número limitado de maneiras. Estamos assumindo que não há 58 dúvida sobre a estrutura do modelo (neste caso linear e aditivo). eles devem ser plausíveis e no mínimo 3 razoáveis com base na experiência da comunidade científica até então. vamos detalhar mais as dificuldades de construir modelos nulos realísticos 38 para muitos fatores. ao invés 31 de ter um modelo nulo simples e fácil de lidar. na 32 mesma sequência de testes. etc. 52 A tabela 13. A remoção de um fator (como fazemos em 48 procedimentos de alternação de fatores como o que descrevemos acima) afetaria a variabilidade nos resíduos. 1 leva a uma probabilidade irrelevante. estado nutricional da mãe durante a gravidez. Portanto. alguns pesquisadores 36 continuam a usá-los. todas as vezes 55 que adicionamos ou retiramos um fator no modelo da hipótese nula. Fora de nossos experimentos controlados. 28 Parece haver alguma coisa errada com o processo que ora considera DH como parte do modelo alternativo e 29 ora como parte do modelo nulo. a DH aparece 26 somente no modelo alternativo. Precisamos de modelos 10 razoavelmente simples e tratáveis. ex. 37 Mundry & Mann 2009). Mesmo que as inadequações 35 dos procedimentos stepwise sejam conhecidas há muito tempo (p. 33 Vimos no capítulo 9 o que acontece quando tentamos usar procedimentos automatizados como 34 regressão stepwise para selecionar e testar modelos. os fatores quase nunca são ortogonais (i. mas os resultados podem não refletir os efeitos destes fatores no 44 mundo real (capítulo 7). A hipótese nula usada nestes testes simples. 20 2001). Considere uma 23 regressão múltipla relacionando a altura da criança (H) à dosagem de hormônio (DH). e muitos não são independentes. Wilkinson 1979). o modelo nulo deve ser H = a + 27 b1NC + b2DH + e. Isto torna os modelos extremamente 47 sensíveis a quais outros fatores foram incluídos no modelo. Agora. ex. Delineamentos ortogonais são 43 plausíveis em experimentos controlados. as estimativas das correlações não são. nutrição e saúde do indivíduo durante o desenvolvimento. e o número de alternativas até para um modelo simples é enorme. 9 É preciso experiência e bom senso para construir modelos nulos úteis. se os fatores forem 50 ortogonais. ex. Entretanto. Lembre-se que criar modelos envolve a decisão de quais fatores precisam ser 29 incluídos. que seja aceitável para estatísticas frequentistas.29 0.30 1 13 14 15 Precisamos tomar cuidado.47 -0. .15 -0. talvez a verossimilhança máxima não seja um 38 conceito.32 0.17 1 .08 -0. Devido a essas múltiplas 4 possibilidades de interação.36 -0. o cálculo de seus coeficientes e envolve. .36 -0.17 1 .11 1 .06 -0. Estes procedimentos se mostraram efetivos para fazer ajustes finos aos 17 nossos modelos. . escrito em 1769 (Stigler 1999). 31 portanto. ainda. 34 35 Verossimilhança Máxima 36 37 Stiger (1999) comentou que "no fim das contas.25 -0. . Portanto.22 0. . .14 -0. 1 As rapsódias se caracterizam por reunir diferentes temas musicais em uma única composição 101 .31 -0.43 0. 27 Procedimentos como estes só deveriam ser aplicados quando houver apenas um pequeno número de modelos 28 alternativos para serem testados. 40 algumas rapisódicas1. I -0. (2009) fornecem uma boa 3 introdução a métodos para inclusão de diferentes formas de incertezas nos modelos.25 -0. . estipular como os fatores interagem. e economia. até mesmo a parte do modelo que representa nossa ignorância (e) precisa ser modelada. mas são péssimos para prever fenômenos importantes que não foram considerados nos 18 modelos. baseado 26 em probabilidades. H 0. mas antes disso precisamos 33 considerar alguns outros conceitos de probabilidade ou coisas que se assemelham a probabilidades. . . Quase todos os grandes avanços nas áreas de ciência. .01) caso o número de testes não seja levado em consideração 12 A B C D E F G H I J A 1 .05 0.11 1 . . e 20 também os retrocessos mais desastrosos.60 0.20 0. outras discordantes. mas ainda pode-se reconhecer os ecos das primeiras notas de Bernoulli e Euler". . . Nas 32 próximas seções trataremos de outros algoritmos para a seleção de modelos. Correlações entre 10 variáveis aleatórias. 8 9 10 Tabela 13. . é essencialmente impossível calcular probabilidades que façam sentido depois de 5 um procedimento de seleção automática de modelos quando o sistema não foi artificialmente forçado a ser 6 ortogonal (Wilkinson 1979). ninguém descreveu um procedimento automático de seleção de modelos.1. Todos os 30 procedimentos de seleção de modelos e estimativas de parâmetros têm premissas a respeito dos resíduos e. 25 Até o momento. que 22 são a base das estatísticas mais usadas nos mais variados campos da ciência. após considerar-se vários modelos alternativos. De fato. Muitas variações modernas deste tema. Bernoulli forneceu uma abordagem alternativa para o mesmo problema em um manuscrito não 44 publicado. para entender as limitações das técnicas 24 que apresentamos ao longo deste volume. resultaram de cisnes negros impossíveis de serem previstos usando 21 estatística convencional (Taleb 2007). F -0.32 0.15 0. * indica as correlações que seriam consideradas 11 significativas (P≤0.32 1 . a que Taleb (2007) se refere 19 como "cisnes negros". 1 fontes de variação. G -0. ou que resultam de interações não lineares imprevisíveis ou caóticas. vamos começar 45 com o de 1769. D -0. .14 -0.09 0. C -0.28 1 .57 0.31 1 .27 0. e 39 que só atingiu o completo desenvolvimento dois séculos depois. enriqueceram nossa sinfonia estatística e foram muito além da 41 estrutura inicial. mas um tema cujas primeiras notas tenham sido encontradas na segunda metade do século dezoito.42 0.07 0. sociologia. . como uma grande fraude 23 intelectual. . . .30 -0.88* -0. Hilborn e Mangel (1997) e Zuur et al. Recomendamos aos leitores que leiam o livro de Taleb. O mesmo se aplica ao cálculo de probabilidades depois de decisões ad hoc sobre 7 quais variáveis incluir.77* -0. Como o exemplo é o mesmo nos dois manuscritos. .22 0. Taleb chega a se referir à distribuição normal. . . .08 -0.13 0. E -0.22 -0.45 1 J -0.01 0. Os modelos diferem dependendo se consideramos a medida de erro para as variáveis 2 dependentes ou independentes (capítulo 11). quando há muitas alternativas.14 0. . e suas familiares. . porque nossos modelos estatísticos são baseados na frequência de 16 ocorrência de fenômenos no passado. . vamos retornar ao exemplo de Daniel Bernoulli de 43 1778. 42 para começar nossa discussão sobre verossimilhança.25 0.15 0. B 0. . De uma perspectiva moderna. o importante é que ele estava buscando 9 um descritor mais apropriado de observações. Se este foi um ponto de partida para grandes matemáticos como Bernoulli e 26 Euler. Seu raciocínio foi o de que as 3 observações próximas da média provável deveriam ser mais confiáveis do que as observações que fossem 4 muito discrepantes e que estas deveriam ter um peso menor no cálculo. o valor "real".. ao invés de simplesmente serem 5 descartadas. e usou este valor como o raio de seu semicírculo. 38 39 40 41 Figura 13. equivalente ao raio do semicírculo.2 42 102 . Espera-se que a 13 maioria das observações fique próxima da média e que observações distantes da média ocorram em baixa 14 frequência. T na figura 13. note que a distância T-a aparece representada como x).2) poderia ser obtida pelo teorema de Pitágoras como a raiz quadrada da diferença da hipotenusa ao 33 quadrado (o segmento "r".2). a 6 abordagem de Bernoulli não parece apropriada. e 22 a variância para descrever a dispersão destas medidas. Talvez simplista. a altura 31 até a curva desde qualquer valor ao longo do eixo X (p. Daniel 36 Bernoulli usou as alturas para ponderar suas observações e obter a média que dava o maior peso às 37 observações perto de "T". 12 Então. mas precisou de uma medida de o quanto os valores estavam dispersos para limitar o tamanho 16 do semicírculo. equivalente à distância da média 17 verdadeira até aquela que o observador poderia estar confiante de que uma observação não contribui com 18 qualquer informação útil. 10 Bernoulli estava trabalhando antes que Gauss e Laplace tivessem popularizado a distribuição que 11 atualmente chamamos de "normal". e se a média aritmética de todas 2 as observações era a melhor estimativa para o parâmetro em questão.2. De qualquer forma. e no manuscrito de 1778. a altura da curva acima de qualquer ponto ao longo do 29 eixo X é proporcional à nossa expectativa de encontrar uma observação com aquele valor (figura 13. Se 30 conhecêssemos o valor do parâmetro que estamos procurando (neste caso a média.2). Bernoulli chegou mesmo a sugerir 7 um método que dava mais peso as observações mais discrepantes (um problema para a abordagem de 8 verossimilhança máxima até para os dias atuais). e os raios estão representados por linhas 34 tracejadas na figura 13. ex. No manuscrito de 1769. ele usou um semicírculo para representar uma distribuição de frequências com estas 15 características. 23 Embora hoje se saiba que um semicírculo não é um bom modelo para distribuições de frequências de 24 medidas. é conveniente usá-lo para ilustrar alguns conceitos estatísticos. Por isso. embora Abraham de Moivre tivesse usado-a já em 1733 (Stigler 1999). mas com dois 19 conceitos chaves: um modelo de distribuição de frequências de medidas ("curva de erro") e uma medida de 20 dispersão. como era prática corrente na época para lidar com este problema. porque suas propriedades podem ser 25 modeladas com álgebra simples. Bernoulli tomou um valor subjetivo dado pelo astrônomo. 1 Bernoulli estava interessado no erro em observações astronômicas.1). Os estatísticos modernos provavelmente escolheriam a distribuição normal ou outra curva da 21 família das exponenciais para descrever a forma da relação entre as medidas e sua frequência de ocorrência. as alturas h1 e h2 para os valores de "a" e "b" na 32 figura 13. superpondo um 28 contorno de um semicírculo nas barras da figura 13. é provável que seja um bom ponto de partida também para nós. Bernoulli empregou apenas o conceito geral de como uma curva de erro deveria ser. 27 Considerando que a curva representa as frequências esperadas (por exemplo.2). menos o quadrado da distância da observação até a média T (os segmentos T-b ou 35 T-a na figura 13. o ponto onde a altura da curva é a maior (hT). porque todos os valores observados podiam ser expressos como uma função da incógnita "x". 20 Bernoulli usou um método diferente em 1778. Embora as médias ponderadas ainda sejam usadas em 9 algumas análises modernas..2. Isto 4 é. Os que não se 33 lembrarem podem consultar os livros de ensino médio ou pedirem explicações para o secundarista mais 34 próximo. uma passando pela altura no valor "a" (h1) e 35 outra em "T". Nossa definição de 14 parâmetro até agora era "um atributo (descritor) de uma população". a despeito de que podia ser estimado através de muitas amostras 16 diferentes. Em lugar de considerar as observações 21 individualmente. que em termos 17 matemáticos são igualmente válidos (embora não igualmente prováveis. o ponto importante desta abordagem é que nela Bernoulli reconheceu que quando 10 não temos uma solução algébrica para o problema.. No método de Bernoulli. . 12 O exemplo de Bernoulli também nos introduz uma diferença conceitual entre os métodos 13 frequentistas dos capítulos anteriores e os métodos que estamos descrevendo agora. Um parâmetro era considerado útil 15 porque era conceitualmente constante. ele pode 30 combiná-las em uma única expressão multiplicando-as para obter: √(r2-x2) * (√[(r2-(x-(b-a))2]) * (√[(r2-(x-(b- 31 c))2]) *. não mostrada na Figura 13. pode-se 39 determinar algebricamente o valor de x que resulta no maior produto de alturas da curva acima dos valores 103 . Bernoulli usou um método iterativo baseado na convergência 5 de suas médias ponderadas movendo passo a passo seu semicírculo ao longo do eixo X. caso você já disponha de alguns 18 dados). etc. Vamos dar um exemplo numérico em breve. Note que a inclinação da tangente neste ponto é 36 zero. A distância 26 conhecida entre a primeira observação e a segunda (b-a) poderia ser usada para calcular a altura da curva 27 acima da segunda observação como √[(r2-(x-(b-a))2]. há um número infinito de valores de parâmetros. ele poderia calcular as médias ponderadas baseado em semicírculos de raio "r" 7 centrado em a. e escolhemos acreditar que seu valor deve ser aquele 19 que tenha a maior probabilidade de ter produzido os valores que observamos em nossos dados. ele estimou o valor do 23 parâmetro como sendo igual à distância entre o menor valor observado e a média (x na Figura 13. poderemos resolver esta 37 equação para obter o valor mais alto da curva. se conhecermos a fórmula da diferencial e a igualarmos a zero. Portanto. ele poderia calcular a altura da curva acima de "c" 29 como √[(r2-(x-(c-a))2]. A altura da 25 curva acima do primeiro valor (h1) poderia ser expressa como √(r2-x2) pelo teorema de Pitágoras. podemos usar métodos de tentativa e erro para obter uma 11 boa aproximação. nosso parâmetro agora é uma variável. O centro do semicírculo para a posição que resultou na maior média ponderada 8 foi aceita como a melhor estimativa do parâmetro..2 mostra duas tangentes à nossa curva. A Figura 13. Para uma distância conhecida entre a primeira e uma 28 terceira observação ("c". a+2. h2 hT Frequencia h1 r a b T x 1 2 3 O problema é que não sabemos qual dos valores potenciais de uma observação é o "verdadeiro". Ele fez 24 isto. Se o seu "a" fosse o 6 menor valor observado.. Bernoulli sabia que diferenciando a equação para o produto das 38 alturas obteria a inclinação da tangente para a função em x. 32 A álgebra básica nos ensina que o processo de diferencial resulta na tangente da curva. Tendo expressado todas as alturas em termos de apenas uma incógnita.2). Igualando a inclinação da tangente à zero. ele procurou encontrar a melhor estimativa do valor real baseado no conjunto de 22 observações. Isto é. Assim. ao invés de tentar encontrar o valor da média por tentativa e erro..2). não sabemos o valor de "T" na Figura 13. a+1. a área sob um 30 semicírculo é ½(π*r2) e vai ser igual a 1 quando r = √(2/ π) = √0.2 0.5 1. Para traçar a PDF para uma determinada média e raio.2). devemos notar que a forma da curva não será afetada se dividirmos todos os valores da 25 variável no eixo X por uma constante.637 = 0.5 0. A área do círculo é dada por π*r2. equivalentemente.8 0. há mais de uma raiz (o valor de x que torna a diferencial igual a zero) já 13 para duas observações (medidas) e o número de raízes aumenta com o número de observações. 28 Embora não exista justificação teórica para isto. 1 observados. Lembre-se que a 37 fórmula para o raio (i. ex. Ou. embora isto vá encurtar o raio r na proporção da redução nos valores 26 observados. Se acertarmos a escala de r de modo que a área debaixo da curva seja igual a um. o avanço conceitual foi 11 maior do que o prático. podemos gerar uma 29 PDF usando o semicírculo de Bernoulli. 21 Multiplicar as alturas das curvas para cada observação parece estranho à primeira vista. a média). "a" ou "b" na figura 13. e ele pôde apenas aplicar a diferencial 12 para umas poucas observações. 31 32 33 Figure 13.6 0.3).3 não tem unidades no eixo X. A equação de Bernoulli em x não é unimodal. 36 precisamos atribuir uma escala. Na 3 Figura 13.0 Valor 34 35 A figura 13. Podemos escalar os dados para 39 que a área do semicírculo seja igual a um.3 1. e Euler 22 (1778) sugeriu que seria mais lógico adicionar as alturas. e há muitos passos lógicos. Autores 15 subsequentes iriam mostrar que. Os autores atuais geralmente usam uma solução intermediária. para outras distribuições de frequência e outros parâmetros.0 Frequência relativa 0. Pior. e a inclinação da tangente para uma curva unimodal é zero para o valor do ponto (ou do 8 parâmetro) no qual a curva atinge a altura máxima. é possível determinar o valor mais 10 provável de um parâmetro algebricamente a partir dos valores observados.4 0. Este foi um grande avanço conceitual. Vamos examinar o processo usando exemplos numéricos abaixo. Portanto. Entretanto. altura) da circunferência derivada pelo teorema de Pitágoras é √(r2-x2). Para compreender a lógica de 24 multiplicar as alturas. Bernoulli mostrou 9 que. 5 Recapitulando: a multiplicação de Bernoulli resultou em uma distribuição de frequências do 6 parâmetro que ele buscava (neste caso. A posição da curva que resulta no maior produto de alturas da curva acima dos pontos é igual ao 2 maior valor da soma dos logaritmos das alturas. Portanto.2). uma solução similar à de Bernoulli no manuscrito de 23 1769. 17 Este processo é complicado. Para atribuir uma escala. e já que o círculo está 40 centrado na média (zero).2 podemos ver que o valor de "T" mais provável é o valor do ponto "a" mais o valor do intervalo 4 "x". então não se desespere se a relevância para 18 seu trabalho não for imediatamente óbvia. ele 14 teve de escolher entre as raízes para determinar o ponto onde a curva atinge o valor máximo.0 0.e.0 -1. quando conhecemos o formato da distribuição de frequências. incluindo na equação os valores para a média e o raio. x será igual a zero menos o valor particular do ponto ao longo do eixo X para o qual 41 desejamos calcular a altura da curva sobre ele (p.798 (Figura 13. há apenas uma 16 raiz da diferencial que fornece o valor do parâmetro no qual a distribuição de frequências alcança o máximo. 19 algumas vezes armados de dois séculos de truques matemáticos que não eram disponíveis na época de 20 Bernoulli e Euler. a curva torna-se 27 uma função de distribuição (ou densidade) de probabilidades (PDF do inglês "Probability Density Function").0 -0. expressando o termo como √(0.7982-(0-x)2). é igual a maior média geométrica. 104 . onde r é o raio 38 e x é a distância ao longo do eixo X a partir do centro do círculo (figura 13. exceto pela forma geral do semicírculo. Por cálculo diferencial ele obteve a inclinação da tangente 7 desta distribuição. a curva resultante é mostrada na figura 13. podemos calcular a altura da curva acima da massa=5 kg. onde c é a constante de proporcionalidade. dada a premissa improvável de que a distribuição de 17 frequências de massa de peixes possa ser modelada como um semicírculo.066) de 16 frequência com que encontramos peixes de 1. 26 Embora as alturas dos pontos ao longo da curva não sejam probabilidades no sentido que indicamos 27 acima. as 31 alturas (h) podem ser consideradas proporcionais às probabilidades (P).798/R]2}.4.4 1. Para uma linha infinitamente delgada.5)* 0.4 r=4 0. Como as alturas representam linhas de larguras 20 infinitamente finas. conceitualmente podem representar poucas ou um número enorme de observações dentro 21 delas.798 e 0. C é a posição do centro do círculo ao longo do 3 eixo dos Xs nas unidades originais. mas podemos dizer 15 que esperamos encontrar peixes de massa de 5 kg com aproximadamente o dobro (0.7982- 13 [(5-5)* 0. Portanto. 1 temos de expressar os valores nas unidades originais. nos testes frequentistas.8 Frequência relativa 0. Lembre-se que calculamos probabilidades a partir 19 de proporções de observações em diferentes grupos de dados. 18 As alturas da curva ainda não são probabilidades.798/4]2} e os valores resposta 0.6 0.798/0. Isto é. elas são conceitualmente proporcionais às probabilidades.0 0 1 2 3 4 5 6 7 8 9 10 Massa do peixe (kg) 10 11 12 Para checar a fórmula. Expressando matematicamente. a ligeira curvatura ao topo da linha onde ela 30 toca a curva é irrelevante e a área conceitual definida por ela é proporcional à altura da linha. não há uma forma razoável de colocar 22 infinidades em nossas equações. Isto simplifica para h=√{0.2 0. este 24 procedimento não faz sentido para combinar observações individuais. Para um exemplo 5 onde a massa média de indivíduos de peixes é 5kg.0 0. como h=√{0 . mínima=1kg). isto é 32 h=c*P. dependendo de seu conceito de infinitesimal. onde R é o raio na unidade de medida original. e X é o valor de x nas unidades de medidas originais para o qual estamos 4 querendo conhecer a altura da curva.5 kg como h=√{0.798/R]2}.798 0.798/R)2-[(C- 2 X)*0.386=2. 7 8 9 Figura 13. e massa=1.4.7982-[(C-X)*0. e a equação se torna √{(R*0. Por isso. por que alguns valores vão estar em 25 agrupamentos de dados que estão em posição mais extrema que outros agrupamentos.7982-[(5-1.5 kg. 33 34 35 Figura 13. 29 como uma probabilidade.386 0. Estas alturas da curva não nos fornecem uma probabilidade. Todavia. e o valor limítrofe que consideramos plausível é dado pelo 6 raio igual a 4 (massa máxima do peixe=9kg.798/4]2}. calculamos a probabilidade de obtermos 23 um valor igual ou mais extremo que uma estatística.386 14 são mostrados na figura 13. Embora isto funcione para estimar parâmetros.5 105 . 28 poderíamos calcular a área contida nelas e expressar a razão desta área em relação à área sob toda a curva. se as linhas têm uma largura definida. já 5 que a divisão pela área total (=1) não vai alterar o resultado. Isto é adequado.5 exemplifica o processo para uma curva que delimita uma área de uma unidade. Neste caso.5 mostra 6 em destaque a área "A" sob a curva onde os valores são mais extremos (neste caso.4. Entretanto. Neste caso. pela área total. 106 . P=c*h1. Nós poderíamos calcular a probabilidade de obter um valor igual ou menor do que "b". b≈a e h2≈h1). podemos calcular a probabilidade. Quando o intervalo tende a desaparecer de tão 14 pequeno (i. onde c é uma constante de proporcionalidade de 19 valor desconhecido).e. À medida que o intervalo vai se tornando pequeno (gráfico superior da 13 figura 13. 1 2 3 A figura 13. porque qualquer área de interesse sob a curva já será igual à probabilidade.5). a área de "A" começa a ficar trivialmente pequena. e a área total 17 debaixo da curva é igual a um. Neste caso. 12 representado por "A". o máximo que podemos 18 dizer é que a probabilidade (P) é proporcional à h (P=c*h. entre 4 ela e o eixo X. O gráfico intermediário mostra em destaque a 10 área sob a curva entre os valores "a" e "b" quando o intervalo de interesse não é tão grande. dividindo a área 8 sombreada pela área total sob a curva (área sombreada + área clara). a parte "A" vai ficando menor em relação a "B". 16 porque podemos calcular h1 a partir do teorema de Pitágoras. como não conhecemos o valor de "c". como ilustrado na figura 13. a área total sob a 15 curva se aproxima de c*h1. 11 dividiríamos esta área do retângulo B (=h2*c) e mais a parte do polígono irregular no topo do retângulo. O gráfico na parte inferior da figura 13. o intervalo "c" para o qual 9 estamos calculando a área sob a curva é relativamente grande. menores do que) o valor 7 "b". Se conhecermos o valor de "c". 4. 24 25 Figura 13. faz sentido multiplicar os "h"s. 19 iríamos excluir o peixe pesando 10 kg. Então. Duzentos anos depois. 12 este ainda é o maior problema. pode ser descrita por dois parâmetros: a média. estimativas de parâmetros) que são esperadas sob um determinado regime de 15 amostragem. Suponha que a massa de 18 quatro peixes seja 4. Note que podemos 5 estimar verossimilhanças de observações individuais. a maioria dos cálculos é feita em logaritmos 8 das verossimilhanças (logVer). e o desvio padrão. mas incorporando informação da função de 16 densidade de probabilidades esperada para mensurações. Afortunadamente. chamamos "h" de verossimilhança (Ver) e 3 combinamos verossimilhanças multiplicando-as. da mesma forma que o semicírculo. A PDF de Bernoulli era baseada em um semicírculo. nós somamos os logVer. Usando o método de Bernoulli ilustrado na figura 13. algo que só é possível para probabilidades de processos 6 com resultados discretos (do tipo sorteio com moedas. 7 e 10 kg. já que a estimativa de probabilidades requer 7 informação acerca da área sob a curva. Vamos continuar a usar a lógica de Bernoulli. respectivamente. Os frequentistas desenvolveram PDFs para variáveis 14 e para estatísticas (ou seja. O produto das verossimilhanças é a verossimilhança geral 4 para um determinado conjunto de dados e uma determinada estimativa de um parâmetro. uma medida de "espalhamento" (dispersão) dos dados 23 análoga ao raio do semicírculo. Como veremos adiante. Os conceitos realmente não mudaram tanto 9 assim desde a época de Bernoulli e Euler! 10 O maior problema de Bernoulli era determinar a curva de erro teórica. nós as multiplicamos. 5. muitos estatísticos usaram os neurônios para inventar 13 formas de gerar funções de densidade de probabilidades. Atualmente. ou seja. Pesquisadores modernos 20 provavelmente usariam uma distribuição normal para descrever a PDF. 17 que tem dois parâmetros: a posição do centro ao longo do eixo X e o raio do círculo. A 21 distribuição normal. e ela não requer limites arbitrários.6 107 . porque ele está fora de nosso raio plausível. 22 análoga ao centro do semicírculo. etc). que são 2 proporcionais às probabilidades. 1 Para combinar probabilidades. que é atualmente conhecida 11 como função de distribuição de probabilidades (PDF). para o parâmetro de interesse. para combiná-los. 15 0.10 0. 0.1508 0.05 0.20 Função de distribuição de probabilidade 0.00 0 5 10 15 Massa (kg) 0.1508 0.20 Função de distribuição de probabilidade 0.15 0.1404 0.0793 0.0793 0.00 0 5 10 15 Massa (kg) 1 108 .0115 0.10 0.0793 0.05 0.1133 0. A função 4 de verossimilhança (PDF) da distribuição normal para um conjunto de observações é 5 Ver={[1/(σ*√(2*π))*exp(-(y1-µ)2/(2*σ2))]* [1/(σ*√(2*π))*exp(-(y2-µ)2/(2*σ2))]*.1404. O gráfico inferior da figura 13..5 kg. A multiplicação destes valores nos dá a verossimilhança 14 deste conjunto de observações (0. Isto resulta em grandes números positivos que aumentam com a distância do 35 valor mais provável do parâmetro (figura 13. 9 Olhando estes hieróglifos. 13 respectivamente (gráfico superior da figura 13.0001074. A log-verossimilhança mínima negativa ocorre 109 . 0. Podemos calcular a verossimilhança dos valores 11 observados (4. A maioria dos programas não-lineares (veja o capítulo 11) 31 trabalha com desvios de modelos e são desenhados para procurar um valor correspondendo ao mínimo. 1 2 Inicialmente.8). 0..0115. onde σ representa o valor do desvio padrão. 5. 22 23 24 Figura 13.000107 Verossimilhança 0.00000 0 3 6 9 12 Massa média (kg) 26 27 28 Podemos ver na figura 13. entendemos que a fórmula não é tão complicada assim. Incluímos os valores numéricos dos exemplos que calculamos 21 (para as médias 4 e 7) junto dos pontos. é preferível usar o negativo dos 34 logaritmos da verossimilhança. Portanto.1133.0000193) se a média fosse igual a 4 kg. ao 32 invés do máximo. podemos entender porque Bernoulli usou um semicírculo. Considerando 12 que a média era 4kg. e tentar determinar o valor mais provável da média por tentativa e erro. 30 Verossimilhanças são números muito pequenos. numa segunda 10 vista.7 que o valor de média com maior probabilidade de ocorrer dadas as 29 massas de nossos quatro peixes e assumindo uma distribuição normal com σ=2. respectivamente) se a média fosse igual a 17 7 kg.7 25 0.6 mostra-nos a 16 verossimilhança para estes dados (0. µ é o valor da média e yi representam os valores 7 observados (os dois primeiros foram indicados como y1 e y2. Podemos fazer isto para tantos 15 valores potenciais de médias quanto desejarmos. resultando na verossimilhança geral para o conjunto de dados como 0. A figura 13.00010 0.00005 0. 0. mas 33 como o logaritmo de números menores do que um é sempre negativo. ou qualquer valor de média (linha contínua). a maioria dos pesquisadores transforma as verossimilhanças pelo logaritmo.0793 e 0.00015 0. Os negativos dos valores de log-verossimilhança (log- 36 likelihood) para as médias 4 e 7 kg são mostrados na figura. Não vamos continuar a 18 calcular valor por valor. vamos assumir que o desvio padrão paramétrico (σ) é equivalente ao desvio padrão 3 desta amostra (DP=2.0793. Mas.1508 e 0. [1/(σ*√(2*π))*exp(-(yi- 6 µ)2/(2*σ2))]}. 0.646). 7 e 10 kg) usando cada fator (delimitado pelos colchetes) da fórmula acima. as verossimilhanças para cada observação foram 0.1508.7 mostra os resultados de verossimilhança destas 4 observações para 19 cada uma de 12 médias possíveis (indicadas pelos pontos).0793. esta equação calcula a 8 altura da curva acima de cada ponto e então as multiplica para encontrar um valor geral da verossimilhança.000019 0. 20 calculados exatamente da mesma maneira. respectivamente). Isto é.6).646 é próximo a 6. Em muitos casos. tivemos de 13 assumir apenas a forma (no caso.(log-verossimilhança) 15 10 10. Na verdade. poderíamos ter procurado pelos valores mais 10 prováveis de média e desvio padrão simultaneamente. 4 5 Figure 13.9 mostra os valores de verossimilhança 11 para médias entre zero e 15.139 5 0 3 6 9 12 Massa média (kg) 7 8 Nós determinamos o valor da média com a maior verossimilhança a partir destes dados.5 kg. e desvios padrão entre zero e 10. 1 próximo à média de 6. o uso 2 da log-verossimilhança simplifica a matemática.854 9.9 110 . 15 16 17 Figura 13. mas 9 assumindo um valor para o desvio padrão. mas é mais fácil compreender a base lógica diretamente em 3 relação à verossimilhança. e usamos verossimilhança máxima para 14 estimar ambos os parâmetros simultaneamente. O ponto mais alto do gráfico indica a 12 combinação mais provável de média e desvio padrão para os dados observados. conclusão idêntica a obtida pelo uso da verossimilhança. A figura 13. a distribuição normal) da PDF.8 6 20 . Neste caso. 0000000000292.000953.0000000000292. Por exemplo. 20 N=10*3=30) e os três valores de y (4.7). Dado o número total de observações N (neste caso. um processo que gera resultados com um frequência relativa igual 14 a P).3.34*(1-0. Tudo o que podemos ver no gráfico é 23 que o valor mais provável da probabilidade foi um pouco maior que 0. Muitas de suas aplicações estão relacionadas ao cálculo de proporções.5.37*(1- 19 0. 8 Voltando ao exemplo da chuva na cidade visitada por nossos hipotéticos esportistas.). Para P=0. poisson.3)(10-5)]*[0. 6 ex. se a probabilidade de 16 chuva na estação for 0.316*(1-0.34*(1-0. escolhido ao acaso dentro da estação chuvosa. a verossimilhança é P∑xyi*(1-P)( ∑Ni-∑yi). mesmo usando 9 casas 24 decimais. 5 e 7 dias de 17 chuva em três períodos de observação de 10 dias. podemos 9 calcular a melhor estimativa da proporção de chuva na estação chuvosa se tivermos dados de um período de 10 dez dias por ano. dado que a probabilidade de chuva naquela estação seja 0. etc.3)(10-4)= 0. Isto pode ser simplificado. Dada 13 uma probabilidade geral esperada P (isto é.5. no seguinte choveu 5 e no último ano choveu em 7 dos 10 dias. 2 Jacob Bernoulli (1654–1705) foi tio de Daniel Bernoulli (1700–1782).3)(30-16)=0.3)(10-4)]*[0. isto resulta em 21 0. a escala do eixo dos Y ainda é pouco informativa. 111 . choveu 11 em 4 dos 10 dias. Os valores de verossimilhança são muito pequenos para todos os 22 valores potenciais de P. ou seja [0. 18 é obtida pela multiplicação das verossimilhanças. a expectativa de se observar Y ocorrências em N observações é dada pela verossimilhança como 15 Py*(1-P)N-y. 2002).3. A chance de se observar 4.10). mas. que só podem variar entre 0 e 1 (figura 13. em três diferentes anos. normal. Em um ano. é dada por 0. a expectativa de se observar 4 dias de chuva em 10 dias. 1 2 3 Verossimilhança para estimar proporções 4 5 A verossimilhança máxima é melhor desenvolvida para a família das distribuições exponenciais (p. que vimos 7 serem frequentemente usadas para calcular probabilidades (Williams et al.3)(10-7)]=0.3. A função de densidade de 12 probabilidade (PDF) para proporções foi desenvolvida por outro famoso Bernoulli: Jacob Bernoulli2.35*(1-0. teremos 16/P-14/(1-P)=0. a derivada das log-verossimilhanças é conhecida (∑yi/P-(∑Ni-∑yi)/(1-P)).000000000 0.11). indicando que o menor valor da log-verossimilhança (onde a tangente da curva é zero) foi 0. 7 Se igualarmos esta expressão a zero e usarmos os nossos valores numéricos. 9 Chegamos à mesma conclusão. usando iteração ou álgebra para resolver a diferencial.000000000 0. Intervalos de confiança podem ser calculados para 11 estimativas baseadas em distribuições de verossimilhanças (Hilborn and Mangel 1997.0 Probabilidade 3 4 5 Os negativos das log-verossimilhanças são muito maiores e podem ser lidos na escala do eixo Y com 6 facilidade (figura 13.000000001 Verossimilhanca 0. quando ela existe.11 112 . ou 8 P=16/30. Obviamente uma 10 solução algébrica é mais direta.000000001 0. 12 13 14 15 Figura 13. Williams et al.2 0.0 0. Ademais.4 0. 1 2 Figura 13.10 0.6 0.5333. 2002).8 1. e o parâmetro é a variável. para um determinado conjunto de valores do parâmetro. O desvio é o mesmo. os 5 conceitos básicos permanecem aqueles que foram elaborados por Bernoulli dois séculos atrás.0 0. Isto é. 2008). onde há um valor paramétrico e um ou mais valores observados. agora o parâmetro é uma variável. Isto pode ser escrito como Ļ{pm|Y}.0 Probabilidade 1 2 Os exemplos que usamos provavelmente demandaram mais matemática do que a maioria dos 3 biólogos gostaria. onde e1 é a 19 distância que Y1 está da média. O traço vertical indica a condição dado que. 40 Negativo das log-verossimilhancas 35 30 25 20 0. dado que o valor paramétrico é p por 15 Pr {Yi p}. 6 Os praticantes da verossimilhança precisam das frequências esperadas para os valores que foram 7 observados. Bolker et al. Note que isto é muito diferente da expressão sobre probabilidade que fornecemos no 24 parágrafo acima. é precisar consultar muito mais literatura do que podemos 113 .2 0. e a expressão inteira indica a probabilidade de se 16 observar os Yis (parte antes do traço vertical). que chamamos Yi dado um valor particular de um parâmetro p. Os estatísticos representam a 14 probabilidade de se encontrar este conjunto de dados em particular. onde e1 é a distância que µ1 está da observação.6 0. O uso de verossimilhanças geralmente envolve matemática muito mais complexa. Em termos de 18 um modelo simples de uma observação baseada no parâmetro média= µ. µ1= Y+e1. isto seria Y1= µ+e1. dada a condição estipulada depois do traço vertical (ou seja. Esta expressão indica a 22 expectativa (Ļ) de se observar os valores de pm (os valores do parâmetro). Ambas avaliam a 9 frequência de desvios. Nas análises 12 anteriores.8 1. 20 Podemos também perguntar qual é a expectativa ou a verossimilhança de encontrarmos determinados 21 valores de Y para cada valor hipotético de p. 8 Há uma conexão lógica entre as PDFs de curvas de "erros" para observações e parâmetros. Não colocamos qualquer subscrito em p. e 4 frequentemente algumas premissas intricadas e aproximações (Severini 2000. porque ele é uma constante. Agora os dados são constantes. calculamos a probabilidade (Pr) de se encontrar uma observação em particular ou uma série de 13 observações (Y). 26 Para realmente entender verossimilhança. Contudo. que 17 o valor do parâmetro é p).4 0. Em termos de nosso modelo para 25 a média de uma observação. dada a condição de que os valores 23 dos dados foram Y. 10 não importando se consideramos o parâmetro fixo e a distância da observação até o parâmetro como sendo o 11 desvio ou se consideramos a observação fixa e a distância do parâmetro até ela como o desvio. a razão de verossimilhança sempre irá 50 favorecer o modelo mais complexo ao invés de modelos mais simples. derivados dele. 45 (2008: Fig. os resultados começam a perder utilidade para propósitos práticos. e os 3 leitores deveriam ler Bolker et al. 4 Quando a teoria de amostragem pode indicar a distribuição de frequências esperada. (2008) antes de usar qualquer pacote estatístico. 20 Como acontece com outras técnicas frequentistas. Este é o teste mais usado para se decidir 44 quando se deve incluir uma variável no modelo. Sob certas circunstâncias. 30 31 Probabilidades de expectativas 32 33 Fisher (1921) inventou o nome "verossimilhança máxima" (Maximum Likelihood) para o processo 34 que os matemáticos vinham desenvolvendo desde Bernoulli. Então. Este é o ponto em que a verossimilhança máxima escapa de ser uma receita e se 9 transforma em uma forma de arte. as técnicas de 23 mínimos quadrados que descrevemos nos primeiros capítulos deste livro são os estimadores de 24 verossimilhança máxima. Contudo. e não probabilidades. Técnicas de verossimilhanças fornecem 37 expectativas relativas. recomendamos associarem-se a um estatístico competente. ou se usarão a pseudo-verossimilhança máxima ou a penalizada. a despeito destes omitirem muitos fatores que sabemos atuar no mundo 54 real. mas também mostrou que 36 quando ele funciona. 57 58 Critérios para seleção de modelos 114 . Ele concordou com Jeffrey (1938) que o 35 estimador de verossimilhança deveria ser considerado um "postulado primitivo". muito 51 frequentemente os pesquisadores preferem modelos mais simples sobre um sabidamente mais descritivo e 52 realístico. se as premissas forem cumpridas e se o tamanho 21 amostral for suficientemente grande. Contudo. modelos são por 26 definição errados e incompletos. Caso contrário. mas há outros. Um 16 pesquisador pode usar anos de experiência e meses de modelagem para chegar a um modelo de 17 verossimilhança máxima (veja os exemplos de Hilborn e Mangel. 28 Esta é uma propriedade que os modelos de verossimilhança máxima compartilham com os de mínimos 29 quadrados e todos os outros de que tratamos neste volume. e à medida que os modelos de verossimilhança máxima diferem mais e mais 27 dos processos que estão sendo modelados. com um mínimo de profundidade. um modelo complexo de verossimilhança máxima. 48 mas ainda precisamos ser cuidadosos com o número de testes que fazemos (Capítulo 6). algumas vezes não há um modelo óbvio. 19 no tempo curto em que se lê um artigo científico. 49 Como todos os critérios baseados em medidas de ajuste. é relativamente fácil usar a verossimilhança máxima para estimar os valores de 6 parâmetros (Hilborn and Mangel 1997:139). 1 cobrir neste volume. como os testes t e F de Wald. podemos ir omitindo uma ou mais delas e ver o quanto os modelos 41 com mais parâmetros tem mais valor preditivo do que o esperado pelo azar (hipótese nula). 1997). muitos pesquisadores acostumados a terem probabilidades 38 associadas com suas conclusões estimam parâmetros com verossimilhança máxima e simultaneamente usam 39 um método frequentista para construir modelos análogos aos obtidos por mínimos quadrados. O livro de Hilborn e Mangel (1997) talvez seja um bom começo. não há melhor estimador (Fisher 1973). Os leitores que puderem lidar com o livro de Severini (2000) sem danos cerebrais 13 permanentes. trocando sequencialmente as variáveis preditoras entre a hipótese nula e a alternativa. provavelmente estarão aptos a usar os métodos de verossimilhança rotineiramente em seu 14 trabalho. (2002) 2 fornecem muitos exemplos aplicados e apêndices para explicar a teoria. e o 7 pesquisador pode até usar a verossimilhança máxima para escolher entre funções de distribuição de 8 probabilidades alternativas. a verossimilhança máxima resultará em valores não enviesados e o 22 método pode ser justificado como ótimo para estimar os parâmetros. porque modelos complexos podem tornar-se instáveis e fornecer predições piores 53 que as de modelos mais simples. que tem uma distribuição χ2 com graus de liberdade 43 equivalentes a diferença entre os modelos no número de parâmetros. é improvável que seus 18 leitores possam avaliar. ou ainda outros 12 procedimentos. Podemos fazer 42 isto calculando -2 vezes a razão de log-verossimilhança. Para um 40 modelo com várias variáveis preditoras. O leitor terá de decidir se deseja empregar a verossimilhança máxima ou a 10 verossimilhança máxima restrita. Entrementes. ou ainda se vai estimar a verossimilhança usando métodos simples como os 11 que descrevemos aqui. Todos os critérios de seleção de modelos podem ser expressos como o grau na qual a razão de 55 verossimilhança excede uma constante que é baseada na diferença entre a complexidade dos modelos (Forster 56 & Sober 2004). Lembre-se que não basta 15 construir um modelo apropriado – é preciso que ele o ajude a comunicar-se com outras pessoas. A maioria dos pesquisadores usa estes testes como 47 indicamos previamente. e Stigler (1999) chegou a especular se Gauss teria usado alguma forma de 25 verossimilhança para chegar à sua formulação de mínimos quadrados em 1809. Entretanto. como acontece 5 em muitos casos simples. não há receitas simples. e Williams et al. Contudo.1) fornecem uma árvore de decisão para escolha da técnica apropriada entre as técnicas de 46 verossimilhança e os testes inferenciais embasados nelas. Bolker et al. Isto acontece. 56 115 . 1 2 Seguindo o influente livro de Burnham e Anderson (1998). diferentes paradigmas de análises". ou 34 são efetivos apenas. (2001) indicou que "não se deve incluir testes 29 estatísticos e valores de P quando se usa a abordagem da teoria da informação. 2002). e a escolha no nível de significância é arbitrária. e o comando dos métodos estatísticos usados para examinar 52 os dados. Pesquisadores 46 responsáveis usam o bom senso e evitam modelos que são mais complexos do que eles podem entender 47 lógica ou matematicamente. 2002). a concentração de um nutriente a 12 um nível que determine uma super colheita. 25 Os métodos derivados da teoria da informação não vão ajudar a avançar muito a ciência se eles 26 forem usados somente como substitutos para testes convencionais. ou de bloqueadores sinápticos suficiente para inibir a dor). ex. e 35 assumem que os fatores incluídos nos modelos têm efeitos independentes.e. Akaike (1973) desenvolveu um 5 aspecto da teoria de informação como uma extensão do princípio da verossimilhança máxima e. embora existam muitos outros critérios aplicáveis (Taper 2004).05 é aproximadamente 24 igual a uma diferença no AIC de aproximadamente 3 (Taper 2004). ou que os termos que representam a 36 dependência foram incluídos no modelo. Os pesquisadores frequentemente usam a diferença de 2 no 21 AIC como um critério para preferir um dado modelo. e outros pesquisadores estão se esforçando para aplicá-las com análises de mínimos quadrados 44 (Bolker et al. Lembre-se que muitos 9 pesquisadores. isto equivale ao uso do teste da 23 razão de verossimilhança ao nível de 0. Modelos complexos comportam-se de uma forma complexa. as cadeias de Markov podem ser usadas para aproximar a verossimilhança máxima (Link 43 et al. não estão interessados em 10 prever o que acontecerá no sistema em situações normais. um método de análise baseado em procedimentos de 41 Monte Carlo (Link et al. Sem dúvida. regressão stepwise. A incerteza em uma 39 variável se propaga através do sistema em formas que só podem ser estudadas por simulação. e a média dos resultados de diferentes modelos pode ser usada para se obter 28 estimativas melhores dos parâmetros. 15 Os pesquisadores justificam o uso de métodos baseados na teoria da informação baseados no fato de 16 que os métodos alternativos (p. A colaboração é geralmente a 53 forma mais efetiva de sondar a natureza através de modelos". o critério de Akaike maximiza a acurácia preditiva do modelo (Forster & 7 Sober 2004).ex. Isto é uma área atual e fervilhante da 45 investigação estatística e com certeza não somos competentes para sugerir um método correto. Raramente todas estas qualidades residem em um único cientista. muitos pesquisadores usam a versão do 3 critério de informação de Akaike (Akaike´s information criteria . não pudemos pensar em nada mais apropriado do que citar Taper e Lele 49 (2004b): "Determinar a estrutura adequada de um modelo é um componente elusivo da modelagem. e ". Anderson et al. quase sempre).. Você não precisa ser um expert em estatística. especialmente cientistas no campo da medicina e da agronomia. uma 51 definição clara das questões a serem exploradas. o AIC só pode ser 19 justificado para comparar um pequeno número de modelos concorrentes (Burnham and Anderson 1998). Sua força é que podem ser usados para 27 ordenar vários modelos. e 38 mesmo modelos determinísticos podem produzir resultados caóticos (May 1974). 2008). Isto tem levado 40 ao uso crescente das Cadeias de Markov (MCMC).09. de forma 30 não apropriada. 48 Para terminar este capítulo. antes mesmo de começar a coletar os dados. Nesta situação... Quando isto não acontece (i. não use AICc para ordenar modelos em um 31 conjunto e então teste se o melhor modelo é significantemente melhor do que o segundo (este teste não é 32 valido)". já que isto mistura. uma probabilidade P=0. seu uso vai aumentar no futuro. Isto é. um entendimento sutil do comportamento dos modelos. com 22 a diferença de um parâmetro. Entretanto. 13 eles estão buscando por efeitos "significativos" que podem ser difíceis de serem previstos em circunstâncias 14 normais. Para modelos derivados de outros mais completos. Requer 50 um profundo conhecimento do sistema natural. sob algumas 6 premissas usualmente restritivas. como poderíamos desejar determinar em um experimento manipulativo.AIC) para decidir entre modelos 4 concorrentes. 33 O problema com quase todos os critérios de seleção de modelos é que eles foram desenvolvidos. Embora baseadas em uma concepção Bayesiana (que será explicada no 42 próximo capítulo). e a 20 escolha da diferença no AIC também é arbitrária. Isto é diferente do objetivo de determinar o quanto é provável que um fator tenha um efeito 8 direto. procedimento de Bonferroni) só trabalham com um 17 pequeno número de modelos concorrentes. mas estão buscando por efeitos diretos que podem 11 ser manipulados para obter um efeito de magnitude sem precedentes (p. 54 mas certamente precisa ter suficiente conhecimento dos conceitos para que possa conversar com seus 55 colaboradores. são necessários 37 critérios mais complicados (Bozdogan 2004). para comparações entre um conjunto razoavelmente pequeno de modelos concorrentes. como é usualmente testado pelos estatísticos.. e então usam o 18 AIC para testar a significância das diferenças resultantes entre os modelos. Goodman 46 comentou que "o termo 'Bayesiana' pode abranger abordagens com diferentes teorias de probabilidade. Se os bayesianos não estão seguros de quem eles são. ex. alguém deve ter descoberto a Lei de Stigler 35 antes dele! 36 Embora posteriormente rejeitada por Fisher. também conhecida como The Royal Society of London for the Improvement of Natural Knowledge - 26 Sociedade Real de Londres para o Progresso do Conhecimento da Natureza). embora alguns amem e odeiem simultaneamente. que foi publicado postumamente 28 por Richard Price em 1764. Laplace se 43 envolveu com problemas similares ao de Bernoulli e Bayes. Thomas Bayes nunca poderia ter imaginado a miríade de teorias e procedimentos que 51 atualmente carregam seu nome. cerca de 200 anos depois (Stigler 1986). a 23 desaparecer na prática. porque as 22 profundas diferenças filosóficas tendem a diminuir em relação à teoria matemática e. 19 É muito improvável que tantos os bayesianos quanto os frequentistas abdiquem do uso do 20 termo "probabilidade". Fisher (1959) sugeriu que Bayes não publicou seu manuscrito porque estava inseguro a respeito do 39 seu arcabouço filosófico. mas os 12 adeptos adotaram uma palavra diferente para seu conceito e quando empregam o termo "probabilidade". Contudo. 6 especialmente as que envolvem o emprego de modelos complexos. antes de 1761. 1 Capítulo 14: 2 Estatística Bayesiana 3 4 A estatística bayesiana é baseada no Teorema de probabilidade de Bayes e seu uso é frequentemente 5 controverso. As diferenças envolvem a teoria matemática. significados idiossincráticos para palavras como 49 "subjetivo" e "objetivo". Lele (2004) escreveu: "Os cientistas 8 parecem ter uma relação de amor e ódio com a inferência bayesiana. 11 Houve o mesmo potencial para confusão quando a verossimilhança máxima começou a ser praticada. Muitos pesquisadores tratam as técnicas de 16 verossimilhança como bayesianas (p. diferentes sistemas para acessar a performance de um 48 procedimento de inferência. não pode resolver sua equação para 44 mais do que três observações (Stigler 1999) e dedicou a maior parte de sua vida a este problema. a probabilidade inversa desempenhou um importante 37 papel no desenvolvimento de muitas das técnicas frequentistas (Stigler 1986) que vimos nos capítulos 38 anteriores. 116 . A verossimilhança máxima é uma técnica frequentista. A maioria dos pesquisadores ama ou odeia 7 a estatística bayesiana. algumas vezes. e será melhor separá-las. o 27 que ocorreu em 1761. Só podemos oferecer uma visão geral da abordagem chamada bayesiana e 52 torcer para não estarmos ferindo a sensibilidade de ninguém! 3 Eponímia: Derivação de nomes. porque elas têm um papel central na 17 maioria dos algoritmos bayesianos e porque as probabilidades bayesianas têm mais em comum com 18 verossimilhanças do que com probabilidades frequentistas. ao que tudo indica. Um aparte interessante é que. e até. Contudo. é mais provável que ele não o tenha publicado porque não havia 40 ferramentas matemáticas suficientes para permitir sua aplicação prática em meados de 1700 (Stigler 1986). Poucos anos antes de morrer. a abordagem bayesiana começou a dominar algumas áreas da investigação estatística. sugeriu que Hartley deve ter tido a ideia de alguma outra pessoa que não o 34 próprio Bayes. mas o processo de 14 considerar um parâmetro como uma variável e selecionar os valores baseados na distribuição de frequências 15 foi descrito pelo reverendo Thomas Bayes. O princípio apresentado neste manuscrito apareceu com o nome de "probabilidade inversa". portanto é importante entender os conceitos diferentes por trás da mesma 21 palavra. 45 Um dos maiores problemas na estatística bayesiana é determinar exatamente o que ela é. A divergência básica 10 entre bayesianos e frequentistas é que eles usam a palavra "probabilidade" para designar coisas diferentes. Hilborn e Mangel 1997). baseado principalmente na "Lei da 32 Eponímia3" de sua própria autoria. não somos nós que vamos nos 50 atrever a defini-los. 41 Bayes não pode resolver a diferencial de sua curva de erro (posteriormente conhecida como a Função Beta 42 Incompleta). Bayes escreveu um manuscrito sobre probabilidades. 47 diferentes teorias derivadas da teoria da informação. segundo esta lei. também derivado 31 independentemente por Laplace em 1774 (Stigler 1986). 30 um termo que foi primeiramente usado por David Hartley (1749) e. Inicialmente. eleito em 1742 para a Sociedade Real (Royal 25 Society. filosofia e prática. Eles adoram a ideia de usar a opinião de 9 especialistas e dados secundários. Esta curva ainda daria trabalho a Pearson. é no 13 sentido da filosofia frequentista. que estabelece que nenhuma invenção ou descoberta emplaca com o nome 33 de quem primeiro a descobre. surpreendentemente. mas esbarram na subjetividade que isto introduz". 24 Thomas Bayes foi um brilhante matemático amador. Stigler (1999). mas este manuscrito só foi despertar a atenção dos matemáticos muito mais tarde 29 (Stigler 1999). 18 O reverendo Bayes derivou sua teoria lançando mão de cálculos geométricos bastante complicados 19 (Stigler 1999). então vamos apenas fornecer uma descrição rápida das técnicas 4 bayesianas e indicar como elas diferem da verossimilhança máxima e de outras técnicas frequentistas. Basicamente. a probabilidade de se observar um evento do tipo A é a área contida no círculo A dividida 43 pela área ocupada por todos os eventos possíveis (S). Não sabemos se as condições observadas no passado vão se manter no futuro e não sabemos (e 30 nem sequer esperamos) que a hipótese nula seja uma representação verdadeira do mundo. é improvável 15 que seja adotado pela maioria dos pesquisadores.1 48 117 . Esta figura é similar à dada 40 por Hilborn e Mangel (1997) para explicar a probabilidade condicional. Hilborn e Mangel 1997). geralmente eles fazem alguma coisa similar. 46 47 Figura 14. onde PA é a 44 probabilidade de se observar um evento do tipo A. 2004). mas provê a base para as questões dos tomadores de decisão a 37 respeito de qual ação deve ser feita à luz das probabilidades". como um meio de decidir se deve continuar a usar aquela hipótese nula (o senso comum) como 33 um modelo de trabalho. é 39 muito difícil fornecer uma probabilidade absoluta. ex. Entretanto. 1 A maioria das aplicações práticas do teorema de Bayes envolve uma matemática extremamente 2 complicada que tem gerado um caloroso debate dentro da comunidade matemática até os dias de hoje. O problema é que probabilidades não 24 são absolutas. Podemos escrever que PA=A/S. com a área do círculo sendo proporcional ao 42 número de eventos. mas nada se compara ao truque bayesiano de usar a teoria a respeito da 22 probabilidade de dois eventos independentes para modificar a probabilidade de uma hipótese. 17 Gelman et al. 35 Godman (2004). quando eles obviamente não são independentes. ao invés de praticantes profundamente comprometidos com sua filosofia. mais consistente com os dados. Estatísticas bayesianas só encontraram um espaço próprio 16 nas análises de fenômenos complexos. escreveu: "Isto não responde às questões teóricas dos 36 cientistas sobre qual hipótese é verdadeira. Há 5 muitas introduções simples para a estatística bayesiana (p. e a figura 14. a frequência deste tipo de evento será similar ao que foi observado no passado.1 mostra por quê. em seu 6 esforço de mostrar quão simples e lógicas são estas técnicas. defendendo as análises bayesianas. O problema é determinar o número total de eventos 45 possíveis (S). e A representa eventos com certa característica. ex. Se S representa todos os eventos 41 possíveis. ou se deve construir uma nova hipótese nula. 10 As estatísticas bayesianas incluem todas as complicações das técnicas de verossimilhança acrescidas de 11 muitas outras. e frequentemente seus usuários são bayesianos pragmáticos (p. Usamos nossa experiência para adivinhar o quão provável será observar determinado evento 25 futuro. Entretanto. usada para calcular a probabilidade. considerando-se 23 os dados já observados. isto não aconteceu. Não 3 podemos lançar luz nestes aspectos. A frase "se as 27 condições passadas se mantiverem no futuro" é análoga à hipótese nula frequentista "se este modelo fosse 28 correto". Embora 34 não seja fácil perceber isto a partir do discurso dos bayesianos. A maioria dos 31 estatísticos frequentistas usa a probabilidade de observar determinados dados se a hipótese nula fosse 32 verdadeira. Modelos só são úteis se simplificam a realidade. Entretanto. elas tendem a perder de vista os formidáveis 7 obstáculos conceituais e matemáticos envolvidos. a teoria pode ser derivada de considerações relativamente simples sobre 20 probabilidade condicional (Hilborn e mangel 1997). Por décadas se tem preconizado que as estatísticas 8 bayesianas substituirão o uso rotineiro de estatísticas frequentistas. de modo que podemos 14 lidar com ela matemática ou logicamente. estamos falando que se as condições que experienciamos no passado se mantenham no 26 futuro. Uma 9 olhada rápida em um livro de estatística bayesiana. Entretanto. como o de Gelman et al. Muitos biólogos poderão ter a sensação de que os modelos bayesianos aplicados as suas 12 questões são mais complicados e envolvem mais parâmetros desconhecidos do que os próprios 13 fenômenos que desejam descrever. Se o modelo for tão complicado quanto a realidade. Os brasileiros se orgulham da capacidade de dar um 21 "jeitinho" em quase tudo. (2004) pode explicar o porquê. 38 Enquanto é relativamente fácil calcular probabilidades em relação a um modelo nulo específico. nenhuma destas frases é uma consideração a respeito 29 da verdade. a probabilidade de 11 se observar um evento do tipo B dado que a hipótese A é correta pode ser calculada como a área onde A 12 (resultados esperados quando a hipótese A é verdadeira) e B (dados observados) coincidem ([a. Há algum conforto na filosofia Popperiana (frequentista) de 39 encarar as verdades como provisórias i." e 23 provêm probabilidades de "verdades". 30 Os frequentistas têm grande dificuldade com probabilidades de "verdades" (vamos fornecer 31 indicações de como elas podem ser calculadas bem adiante). nenhuma observação ou grupo de observações pode 19 provar que A é correta. Na verdade.". e depende muito se o pesquisador deseja 118 . sob a lógica frequentista. ou posteriores. É a primeira parte que gera mais controvérsia e que tem restringido o 27 uso da estatística bayesiana pelos pesquisadores. com ou sem as características A e B). Os métodos de verossimilhança podem facilmente incluir 28 informação de experimentos anteriores e a maioria dos pesquisadores vê pouca vantagem em usar 29 probabilidades prévias completamente subjetivas em análises simples.b]) dividido por B (número de eventos com a característica B). mas a comunicação entre bayesianos e frequentistas é 42 muitas vezes comprometida pelas diferenças na definição da probabilidade (veja o debate em Taper e Lele 43 2004). As análises frequentistas 17 perguntam "qual é a probabilidade de se observar dados do tipo B se a hipótese A for correta?" Eles não 18 perguntam se A é correta e. bayesianas são 24 basicamente probabilidades que atribuímos a priori (probabilidades prévias) para alguma coisa ser 25 considerada verdadeira (a probabilidade da hipótese A ser correta). A maioria dos pesquisadores 40 somente usa a estatística bayesiana para descrever o quanto acredita em um número limitado de hipóteses. 1 2 3 4 Se B representa os possíveis eventos com outra característica. A maioria das pessoas diz que há 36 outras interpretações alternativas. Algumas pessoas dizem que a bíblia "prova" que os palestinos não têm 35 direito a sua tradicional terra natal e devem ser mortos se não saírem de lá. 44 Estatísticas bayesianas podem ser muito complicadas. 9 Nas análises bayesianas.. A e B não precisam ter características independentes.. elas querem probabilidades absolutas. A probabilidade de se observar os dados de B quando a 16 hipótese A é correta é a probabilidade que as análises frequentistas estimam. estaríamos caminhando para o momento em que 38 toda a ciência estivesse conhecida e esgotada.e. Cientistas nazistas "provaram" que judeus eram inferiores e usaram 34 isto para justificar um genocídio. Elas começam com "Dado que. ao 41 invés de se empenhar em calcular verdades absolutas.b]) dividido 13 por A (os eventos que podem acontecer quando A é correta). Algumas pessoas que acreditam que podem calcular probabilidades de 33 "verdades" têm feito atos questionáveis.. a ciência sempre poderá avançar. probabilidades da verdade. modificada pela expectativa derivada por 26 verossimilhança dos dados observados. Se A representa os 10 eventos possíveis dado que a hipótese A é correta. O cálculo da probabilidade de se observar B 14 quando A é correta não requer que conheçamos quantos eventos poderiam ser representados por S (todos os 15 resultados possíveis sob todas as hipóteses possíveis). 22 Na sua forma mais básica. as probabilidades bayesianas dispensam a parte do "Dado que. a probabilidade de se observar um 5 evento do tipo A que também tem características do tipo B pode ser calculada como a área onde ambos A e B 6 ocorram ([a. parece sem sentido tentar calcular probabilidades de verdades 37 absolutas e se pudéssemos conhecer "verdades absolutas". As probabilidades a posteriori. Precisamos ser um pouco cautelosos com 32 probabilidades de "verdades". O cálculo da probabilidade de se 7 observar A e B no mesmo evento não requer que conheçamos quantos eventos podem ser representados por S 8 (todos os possíveis eventos. e é claro que as pessoas não querem probabilidades 21 condicionais. e B representa os eventos observados. As probabilidades frequentistas parecem sempre estar tirando o corpo fora e evitando 20 tratar da questão real.. 31 considerando-se os dados. e uma probabilidade posterior. dado uma 2 hipótese geral. 55 Se pudermos estar certos de que consideramos todas as possíveis hipóteses mutuamente exclusivas.e. mas que atende nossa premissa de duas hipóteses mutuamente 40 exclusivas em que uma tem de ser verdadeira. A figura 14. 10 Bayes não teve as modernas ferramentas de verossimilhança à sua disposição e trabalhou com probabilidades 11 calculadas de considerações geométricas sobre a área que uma bola jogada sobre uma mesa poderia ocupar. y não é uma função linear de x). Entretanto. podemos 9 atualizá-la com a informação de observações (dados). não é simples estimar as verossimilhanças dos dados sob 48 todas as outras possíveis relações. Como podemos estimar a verossimilhança de todas elas? A menos 51 que possamos estimar as verossimilhanças de todas as relações contidas na hipótese nula (ou 52 equivalentemente. 5 6 Verossimilhanças 7 8 O teorema de Bayes repousa em probabilidades. o modelo linear 49 não é perfeito). que é 4 basicamente a probabilidade inicial modificada pela informação contida na verossimilhança. Wasserman (2000) fornece o exemplo (mas curiosamente não o examina) de 43 comparar a hipótese de que uma determinada relação pode ser descrita como um modelo linear (y=a+b*x+e) 44 com a alternativa da relação ser descrita por algum outro modelo (i. Em um capítulo 37 anterior examinamos a hipótese de a altura média de homens ser maior do que a altura média das mulheres e 38 comparamos com a hipótese de a altura média dos homens ser igual ou menor do que a altura média das 39 mulheres. A segunda hipótese quase certamente é correta (quer dizer. Se a verossimilhança de uma hipótese (H1) for quatro vezes 34 maior que a segunda hipótese (H2) mutuamente exclusiva. Não 36 é fácil encontrar duas hipóteses mutuamente exclusivas não triviais que incluam a verdade. e se assumimos que uma das hipóteses tem que ser 35 correta. 20 como derivadas das observações (dados) para estimar a probabilidade posterior ou probabilidade bayesiana 21 P{H1|dados}. É por isso que os frequentistas se conformam 54 em obter apenas a probabilidade de observar os dados se uma dada hipótese for correta. não podemos somar as 53 verossimilhanças e calcular a probabilidade da H1 ser correta. 32 Vimos no capítulo anterior que os frequentistas usam a verossimilhança máxima para avaliar quanta 33 evidência (dados) suporta as diferentes hipóteses. 46 Entretanto. derivando assim uma probabilidade posterior (Pposterior). As duas "probabilidades" não são conceitual ou matematicamente equivalentes. Por exemplo.2 ilustra a 58 complexidade que se pode esperar se tivermos de definir todas as hipóteses alternativas. O 12 processo de atualizar probabilidades (P) usando o teorema de Bayes é razoavelmente direto e Hilborn e 13 Mangel fornecem uma explicação digerível de sua derivação de probabilidades condicionais. Dado uma probabilidade prévia (Pprévia). a maioria das análises bayesianas usa uma estimativa a priori de a hipótese ser 19 verdadeira (usualmente referida apenas como "a prévia") e estimativas por verossimilhança Ļ{dados|Hj}. mas há essencialmente um infinito número de relações com probabilidades maiores que zero 50 que poderiam estar gerando aqueles dados. e calcular a probabilidade de esta hipótese ser verdadeira. elas sempre têm três unidades básicas: uma probabilidade prévia ou a priori. 56 poderemos calcular a razão da verossimilhança de uma hipótese pela soma das verossimilhanças de todas as 57 possíveis hipóteses. as verossimilhanças de todas as hipóteses alternativas). Mesmo se 119 . poderíamos dizer que a probabilidade de H1 é 80% e a de H2 é 20% (Hilborn and Mangel 1997). uma 3 expectativa calculada por verossimilhança a partir dos dados observados. 41 Os frequentistas geralmente não vão concordar em atribuir probabilidades de hipóteses complexas 42 serem verdadeiras. 14 15 P de B dado que A ocorreu = P de B dado que A ocorreu * P de B / P de A 16 17 Embora os modernos bayesianos frequentemente usem exemplos simples de atualizar probabilidades 18 em seus textos introdutórios. Hilborn e Mangel (1997) e introduções elementares de métodos bayesianos mostram que isto é 22 equivalente usar uma probabilidade a priori de uma dada hipótese P prévia {H1} dividida pela soma das 23 expectativas verossimilhantes de todas as hipóteses possíveis (Hj) multiplicadas pelas suas probabilidades 24 prévias ∑ Ļ{dados|Hj} * PPrévia{Hj}. A probabilidade bayesiana é uma expectativa de que uma determinada hipótese seja verdadeira. embora seja razoavelmente fácil calcular a verossimilhança dos dados (ys) tendo em conta as 47 estimativas de verossimilhança máxima de "a" e "b". 25 26 P{H1|dados} = Ļ{dados|Hj} * PPrévia{H1}/∑ Ļ{dados|Hj} * Pprévia{Hj} 27 28 Note que a diferença entre isto e as probabilidades com que lidamos anteriormente. Uma 29 probabilidade frequentista é a probabilidade de se observar determinado dado se uma hipótese particular for 30 correta. Isto 45 parece semelhante ao processo de hipótese versus hipótese nula que investigamos nos capítulos anteriores. 1 distinguir entre diferentes hipóteses ou somente selecionar entre diferentes valores de parâmetros. Esta é uma questão bem trivial. de modo que faz sentido usar esta informação. 24 Wasserman (2000) definiu um modelo como uma distribuição de frequências. Para as discussões a seguir. Contudo. observada sob um determinado 27 sistema de amostragem. o resultado é 4 apenas uma medida da evidência em favor de uma dada hipótese em relação a outras hipóteses. sabemos alguma coisa a respeito dos valores esperados dos 49 parâmetros antes de começarmos a coletar os dados. a frequentista – a probabilidade de que PM = 0 é 0. algo análogo (ou frequentemente exatamente igual) a uma razão de verossimilhança. Isto é.2 12 13 14 15 16 Muitos textos bayesianos dão ênfase para a diferença entre a estimativa frequentista de um ponto e a 17 distribuição de probabilidades bayesianas. Geralmente. ainda teremos de conhecer tudo sobre o "espaço" S na figura 14. No 120 . Isto faz sentido para 25 um estatístico. Isto é geralmente chamado de conhecimento especializado e a intuição (uma 40 crença que temos e não sabemos explicar) desempenha um importante papel em nosso cotidiano. 45 Um modelo matemático geralmente consiste de uma coleção de parâmetros que são ligados por 46 funções matemáticas. Cada geração tende a identificar coisas diferentes como 33 sendo a verdade. mas para os biólogos a distribuição representa a frequência observada ou esperada de eventos 26 dada uma combinação particular da frequência destes eventos no mundo real. outros pesquisadores podem avaliar se querem ou não usá-las para tomada de decisões. Isto é. 6 Talvez muito da polêmica pudesse ter sido evitada se os bayesianos tivessem chamado suas "probabilidades" 7 de "verossimilhanças relativas"! 8 9 10 11 Figura 14.34) e a probabilidade de hipóteses (por exemplo.08. se formos explícitos a respeito de como derivamos nossas 37 probabilidades. e então deveriam ser consideradas como subjetivas. Pode-se argumentar que todas as probabilidades são baseadas na experiência passada 34 (mesmo se foram derivadas de modelagem teórica). ou a 23 bayesiana – a probabilidade de que 0. 30 31 Probabilidades prévias 32 É difícil avaliar objetivamente a verdade.35 = 0. Para o restante de nossas discussões será imprescindível discernir entre as probabilidades quando 21 elas são um parâmetro (por exemplo. porque usualmente estão discutindo a 18 diferença entre a estimativa frequentista de um ponto e uma distribuição frequentista de verossimilhanças. O número de parâmetros necessários e a forma de uma função matemática são 47 provavelmente a parte mais importante do processo de seleção de modelos. e não uma 5 probabilidade. Pode 38 ser razoável levar em conta opiniões pessoais mesmo quando as pessoas não conseguem enumerar as razões 39 que as levaram a aquela opinião. Quando não estamos certos de 3 conhecer todas as possíveis hipóteses (os frequentistas iriam dizer que é o que sempre ocorre).1. Entretanto. além de 2 dados). a probabilidade de mortalidade PM de uma determinada espécie A é 22 0. o modelo tem uma representação física. Neste capítulo. 44 porque as verossimilhanças derivadas dos dados rapidamente dominam as análises. 1 descontarmos as áreas de sobreposição (hipóteses mutuamente exclusivas não se sobrepõem em nada. Isto é um equívoco.33≤ PM ≥0. Os estatísticos bayesianos mais subjetivos não têm problemas em começar suas 36 análises com um palpite. 43 embora os bayesianos frequentemente argumentem que não importa se os palpites iniciais eram errados. a 41 maioria dos pesquisadores hesita em usar este tipo de conhecimento sem alguma verificação independente 42 (Lele 2004). ou 35 probabilidades pessoais. e os processos físicos e 29 os resultados que eles representam. mas vamos deixar estas 48 considerações para depois.06). não vamos nos deter em probabilidades bayesianas prévias puramente subjetivas. 28 precisamos ter em mente a distinção entre os modelos matemáticos e suas predições. 19 Veremos na próxima seção porque a técnica de verossimilhança frequentista é tão útil para o paradigma 20 bayesiano. como a reconstrução de relações filogenéticas (p. Todas as hipóteses alternativas podem ser colocadas na 20 análise. Monte Carlo Markov chains - 27 MCMC) e escolher entre diferentes modelos. 11 Não há consenso sobre qual distribuição prévia deve ser usada. Na 52 verdade. A falta de 40 alternativas e os resultados plausíveis obtidos levaram à dominância das técnicas bayesianas em algumas 41 áreas que lidam com modelos complexos. mesmo que haja uma 17 quantidade de dados disponíveis para modificar as probabilidades prévias. 2004). Concordamos com 53 as colocações de Dennis. embora estatísticos experientes usualmente possam oferecer sugestões práticas (p. a disputa a respeito dos métodos apropriados que impera 37 mesmo entre os próprios bayesianos.. o uso de MCMC 39 é incipiente na maioria das outras áreas da estatística (veja exemplos em Bolker et al. temperaturas < -150 ºC e > 100 ºC são 2 raras neste planeta). a maioria dos valores possíveis dentro de uma 5 amplitude plausível tem probabilidade semelhante de ocorrer. Cada valor potencial de um 9 parâmetro pode ser considerado uma hipótese. mas as dificuldades computacionais tornam-se enormes e apenas as questões mais simples podem ser 21 resolvidas algebricamente. Entretanto. especialmente em análises 15 hierárquicas. especialmente 8 se eles não são estimados sequencialmente na análise (bayes hierárquica).não sabemos ainda como enquadrar as análises bayesianas na 50 tarefa dos cientistas de construir argumentos convincentes. Presumivelmente. Contudo. Gelman et al. 22 Os bayesianos não se renderam quando confrontados com o enorme tamanho da tarefa. Esta métrica pode dar resultados muito diferentes do AIC (Taper 2004). 47 Dennis (2004) escreveu que "o que temos são descrições detalhadas de como as análises bayesianas 48 podem fazer um computador zunir com cálculos MCMC. A distribuição de probabilidades posteriores vai refletir a distribuição de probabilidades prévias 16 escolhida. 2004). Elas são distribuições de probabilidades baseadas em frequências esperadas 4 para cada parâmetro que são relativamente achatadas. É a dificuldade de construir distribuições de 6 probabilidades prévias que mais tem restringido o uso da estatística bayesiana. Contudo. então pode haver muitas distribuições alternativas. então a escolha a priori é uma das fases mais importantes da análise. e quase com certeza a estatística bayesiana estará entre elas. Essas técnicas envolvem milhões ou 29 dezenas de milhões de iterações. da mesma forma que 19 há muitas relações alternativas entre os parâmetros. 2008).. então teriam sido inviáveis com a tecnologia de computação disponível há 30 apenas 20 anos atrás. e vamos nos sentir menos dependentes da teoria matemática complexa que 46 confessadamente tão poucos compreendem. algumas vezes chamado de critério de 33 informação de Bayes (BIC). Gelman et al. 31 As probabilidades bayesianas posteriores levam em conta a complexidade dos modelos e são 32 estreitamente relacionadas ao critério de informação de Schwarts (SIC). atribuindo mais peso àqueles suportados por maiores 28 probabilidades posteriores (Wasserman 2000. com a probabilidade de uma hipótese emergindo de 49 milhões de números aleatórios gerados" e ". O mapa de como fazer isto para as análises 51 frequentistas existe (veja Mayo 1996. 13 ex. ex. Gelman et al. Os bayesianos geralmente usam probabilidades prévias pouco ou nada informativas em 3 suas análises (Goldman 2004). 36 Dada a complexidade da teoria matemática. a maioria dos biólogos usa os métodos bayesianos como uma caixa preta. A distribuição reflete premissas a 18 respeito de esquemas de amostragem. 2004). nem sobre as implicações 12 matemáticas das escolhas. 55 56 121 . que com 23 sorte pode ser vista como comparável com aquela que qualquer um que lida com modelos complexos se 24 defronta: incerteza a respeito da maioria dos parâmetros e relações e com uma limitada quantidade de dados 25 disponíveis. (2004) enfatizaram a necessidade de se avaliar os resultados tanto para a consistência 43 lógica quanto para a acuracidade das predições das análises bayesianas. 1 mínimo vamos ter uma ideia da amplitude de valores prováveis (p. que foi 34 discutido no capítulo anterior. Bollback 42 2002). Isto é. e ainda ao alto nível de competência em computação requerida pelas 38 análises. probabilidades 7 prévias pouco informativas para um parâmetro podem tornar outros parâmetros informativos. O fato de haver muitos valores possíveis para cada parâmetro significa que há um 14 enorme número de formas pelas quais uma decisão pode afetar o resultado. Eles desenvolveram técnicas de computação intensiva para amostrar as possíveis combinações 26 usando Cadeias de Markov em procedimentos de Monte Carlo (em inglês. a estatística bayesiana (ou qualquer outra técnica) somente leva em 35 conta parcialmente a complexidade do modelo – não há uma solução mágica (Gelman et al. e a força relativa da evidência para os diferentes valores pode 10 ser avaliada com base nos dados (verossimilhança). as técnicas 44 bayesianas vão ganhar espaço à medida que mais trabalhos forem disponíveis para mostrar empiricamente o 45 que e quando funciona. este mapa guiou o trabalho diário dos cientistas pela maior parte do século XX". mas suspeitamos que outras abordagens vão estar maduras pela segunda metade do 54 século XXI. ex. para uma abordagem filosófica rigorosa e moderna da matéria). onde cada elemento Y representa uma variável dependente de um conjunto de N = i variáveis 20 dependentes. cada elemento representa uma dimensão de um conjunto multidimensional: 21 22 Y1.cortando as 5 árvores para enxergar melhor a 6 floresta. O objetivo da análise usualmente é reduzir o 25 conjunto multidimensional a um número menor de dimensões. Ela é um campo pantanoso onde até mesmo estatísticos experientes se movem 10 cuidadosamente.Y3. que capturaram a "essência" das múltiplas 31 variáveis dependentes. algumas vezes não há variáveis independentes. A tabela 34 15. 38 39 Tabela 15. Os valores para cada espécie representam sua densidade (número 36 por 100 m2) em cada local..Yi = a + b*X(possivelmente parcial) 23 24 Entretanto. C e D são arbustos e B e F são 37 árvores. Y’ representa uma ou mais variáveis conceituais compostas. Vamos começar com técnicas de ordenação. Nas seções anteriores. A forma 33 mais simples é a ordenação direta das variáveis dependentes por uma única variável independente. Isto é. Entretanto. porque elas lidam com variáveis 32 contínuas e são úteis para introduzir os conceitos que estão por trás da maioria das outras técnicas. de modo que seja possível representar o 26 problema acima com a seguinte equação: 27 28 Y’ = a + b*X(possivelmente parcial) 29 30 Aqui.1 LOCAL spA SpB spC spD spE spF Precipitação (mm) 1 9 1 0 0 0 0 270 2 0 1 0 0 0 1 315 3 0 0 0 0 4 0 200 4 0 2 1 1 0 2 255 122 . incluindo as que discutimos até agora. Muitas das técnicas multivariadas e univariadas. vamos nos 12 concentrar em métodos que demandam menos matemática e tentaremos relacionar os padrões observáveis nos 13 gráficos com aquilo que as técnicas estão tentando revelar. 7 8 Não sem motivo. As espécies A e E são gramíneas (herbáceas).. 11 podem ser vistas como casos especiais da análise de correlação canônica (Harris 1975). lidamos com relações que 14 podiam ser tratadas matemática ou conceitualmente segundo a equação: 15 16 Y = a + b*X(possivelmente parcial) 17 18 A maioria das técnicas multivariadas usadas em ecologia pode ser representada pela seguinte equação 19 conceitual.1 mostra os dados para um estudo hipotético da distribuição de seis espécies de plantas (spi) em relação à 35 precipitação média mensal de cada local.. a estatística multivariada tem sido comparada à caixa de Pandora (James e 9 McCulloch 1990). 1 2 3 Capítulo 15: 4 Análise multivariada .Y2. mas as relações 10 de cada espécie com a chuva não são lineares.1 123 . Entretanto. Algumas têm densidades maiores em locais com pouca chuva. o padrão seria mais claro se tivéssemos apresentado 11 os gráficos em uma ordem diferente. colocando os gráficos das espécies que tiveram as maiores densidades 12 em áreas com grande precipitação acima e os gráficos das espécies com maiores densidades em locais menos 13 chuvosos abaixo (figura 15. Notem que as diferentes espécies não têm uma distribuição similar ao longo do 7 gradiente de precipitação.1a é um gráfico composto.1b). 5 4 0 0 0 6 0 190 6 0 1 0 0 0 0 290 7 8 0 0 0 7 0 150 8 6 0 0 0 3 0 125 9 2 0 2 2 3 1 230 10 0 2 1 1 0 1 290 11 0 0 4 4 1 0 240 12 10 0 0 0 1 0 100 1 2 3 Gráficos de gradientes 4 5 A figura 15. mostrando a distribuição de cada espécie contra a 6 precipitação pluviométrica. 14 15 Figura 15. outras apresentam 8 densidades maiores em locais com chuva intermediária e algumas têm densidades máximas (embora não 9 muito grandes) em locais com muita chuva. A chuva parece estar influenciando as espécies. 10 10 a b sp B sp F 5 5 0 0 10 10 sp E sp F 5 5 0 0 10 10 sp D sp C 5 5 0 0 10 10 sp C sp D 5 5 0 0 10 10 sp B sp E 5 5 0 0 10 10 sp A sp A 5 5 0 0 100 150 200 250 300 350 100 150 200 250 300 350 PRECIPITAÇÃO (mm) PRECIPITAÇÃO (mm) 1 2 3 4 Agora ficou claro que a precipitação ordena as espécies. As maiores densidades formam uma 5 diagonal (linha pontilhada na figura 15.1b) ao longo do gráfico composto. O processo de colocar as espécies 6 em ordem ao longo de um gradiente pré-determinado é chamado de "análise direta de gradiente", porque 7 arranjamos as espécies em relação a um gradiente que esperávamos que fosse importante. Baseados na figura 8 15.1b, poderíamos dizer que cada espécie e a comunidade como um todo são organizadas ao longo da 9 dimensão "precipitação". 10 Se não tivéssemos sido capazes de produzir um gráfico com as maiores densidades formando uma 11 diagonal, concluiríamos que a chuva não era um fator determinante da estrutura desta comunidade. Portanto, 12 não devemos acreditar na existência de uma estrutura (padrão), a menos que possamos visualizá-la em 13 gráficos simples como a figura 15.1b. Diferentes tipos de estrutura irão refletir-se em diferentes padrões nos 14 gráficos. Leibold e Mikkelson (2002) mostram como diferentes padrões de comunidades podem estar 15 associados a certas teorias sobre como as comunidades são organizadas. Por exemplo, a figura 15.2 é uma 16 outra forma de apresentar os mesmos dados, e mostra a distribuição de espécies que parecem formar guildas 17 em relação ao uso de locais com diferentes intensidades de chuva. As espécies A e F tem requerimentos 18 semelhantes, assim como como espécies C e D, e espécies E e B. A presença de guildas cria um padrão de 19 escada no gráfico, mas ainda forma uma diagonal. Note que neste gráfico as abundâcias das espécies foram 20 plotadas como barras, e que o eixo x do gráfico representa a ordem das parcelas ao longo gradiente de chuva, 21 e não os valores de chuva propriamente. Para saber o valor de chuva correspondente a cada parcela é preciso 22 olhar o gráfico superior. Este tipo de representação elimina os valores do gradiente que não foram 23 amostrados. 24 25 Figura 15.2 124 350 Chuva (mm) sp_E Index Abundancia Relativa das espécies sp_B sp_C sp_D sp_F sp_A Parcelas ordenadas pelo gradiente de chuva 1 1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 2 3 Parece estranho haver menos plantas nas áreas de maior precipitação, como aparece na figura 15.1b, 4 até levarmos em conta as diferentes formas de vida. Simplesmente não é possível que caibam tantas árvores 5 na pequena área de um quadrado amostral como é possível para as gramíneas. 6 Nós medimos a composição da comunidade em termos do número de indivíduos, mas isto não reflete 7 a biomassa, que provavelmente será muito maior nas árvores. Se estamos interessados na quantidade de 8 vegetação e não simplesmente no número de indivíduos (Ricotta 2003), o gráfico de número de indivíduos dá 9 uma impressão errada do padrão. Uma maneira de resolver este problema seria padronizar a densidade das 10 espécies. Se dividirmos o número de indivíduos de cada espécie encontrado em cada área amostral, pelo 11 número total de indivíduos daquela espécie, todas as espécies estarão em uma escala adimensional 12 equivalente, que varia de 0 a 1, como aparece na figura 15.3. 13 14 Figura 15.3 15 125 0.5 1.0 a b sp B sp B 0.2 0.5 -0.1 0.0 0.5 1.0 sp F sp F 0.2 0.5 -0.1 0.0 0.5 1.0 sp C sp C 0.2 0.5 -0.1 0.0 0.5 1.0 sp D sp D 0.2 0.5 -0.1 0.0 0.5 1.0 sp E sp E 0.2 0.4 -0.1 -0.2 0.5 1.0 sp A sp A 0.2 0.4 -0.1 -0.2 100 150 200 250 300 350 100 150 200 250 300 350 PRECIPITAÇÃO (mm) PRECIPITAÇÃO (mm) 1 2 3 O Padrão agora ficou mais claro, com as árvores tendo tanto efeito quanto as gramíneas em nossa 4 análise visual. A padronização que usamos deu pesos equivalentes a todas as espécies. Entretanto, nem 5 sempre este tipo de padronização é útil. Algumas espécies podem ser verdadeiramente raras ou simplesmente 6 devido aos azares da amostragem, e atribuir um peso indevido para estas espécies, através desta padronização, 7 pode obscurecer os padrões, ao invés de revelá-los. Outra alternativa seria padronizar os locais para ter as 8 mesmas densidades de indivíduos, independente de espécies. Neste último caso, a análise visual não se 9 preocupa com a densidade absoluta, mas enfatiza a densidade relativa (figura 15.3b). No entanto, sejam 10 cuidadosos ao usar proporções ou outras transformações que limitem a amplitude dos dados, já que estes 11 procedimentos podem criar padrões espúrios em algumas análises (Jackson 1997). 12 As transformações dos dados alteram as interpretações biológicas (Noy-Meir et al. 1975, Pielou, 13 1984, Johnson e Field 1993). Em nosso exemplo, o padrão geral permaneceu o mesmo, mas os detalhes de 14 cada espécie mudaram. Na verdade, os gráficos 15.1b, 15.2, 12.3a e 15.3b respondem questões diferentes. 15 Nós não podemos nunca saber qual é o padrão "real" de qualquer grupo de dados, apenas qual é o padrão 16 dado por um certo tipo de amostragem, em uma certa escala e representado segundo certas escolhas, como as 17 que discutimos acima. A natureza que enxergamos é aquela que decidimos representar. É importante 18 compreender isto, antes de passarmos para a próxima seção. Muitas das técnicas de análise multivariada mais 19 empregadas realizam internamente transformações de dados e o pesquisador deve estar certo de que estas 20 transformações são apropriadas para a questão em pauta. 21 22 Gradientes hipotéticos 23 24 Até agora, nossas análises se referiram a um gradiente ecológico que sabemos existir. Nossa questão 25 era se existe um padrão associado com o gradiente que conhecemos. Entretanto, pode haver outros padrões, 26 talvez até mais fortes, que estamos deixando de lado porque nos concentramos no gradiente de precipitação 27 pluviométrica. Uma outra maneira de abordar a questão é perguntar se há padrões nos dados, independente de 126 Uma das vantagens de NMDS é que podemos escolher para 8 quantas dimensões queremos reduzir o nosso problema.5 0.0 2. Isto teria resultado em uma matriz de similaridade dos locais. Isto é chamado de "análise indireta de gradiente". Observe 7 que aqui cada espécie representa uma dimensão.5 2. porque é intuitiva e fácil de calcular.8 1.5 2. 1 quaisquer gradientes conhecidos. que em nossa análise são os locais. perguntaremos o quanto os locais diferem considerando as espécies. Ambos tiveram um 19 indivíduo da spB.8 0.5 1.7 3. isto seria equivalente a uma transformação resultante da 31 padronização por locais. vamos fazer uma ordenação 10 unidimensional dos "objetos". Temos apenas dados sobre o relacionamento entre os locais.3 1. 12 Ordenar os locais requer um passo intermediário.5 0. A 3 esta altura do livro.8 0 #7 1.3 0.5 2.8 1.5 0 #10 2. Entretanto.7.8 1.2 2.5 0.7 3.7 1. mas começaremos com uma que não requer muita matemática para ser compreendida.8 2.7 0 #8 1. esta 15 questão nos leva a outra pergunta: qual será nossa medida de diferença? Diferenças em qual espécie? A 16 medida mais simples de diferença (ou "distância") é apenas a soma das diferenças entre os locais para cada 17 espécie.5 0.2 0.7 1.7 1. Mas. 127 .7 0 #12 0.0 2.7 0 #3 2. 23 24 Tabela 15.2 2. em relação aos "atributos".7 1.2 0.8 1. Por exemplo.3 1. Considerando nosso exemplo. Por exemplo.8 1.2 2. Não temos informação sobre os locais em relação a 13 um gradiente externo. em menos dimensões do que as seis originais. 33 Entretanto. obteremos o resultado mostrado na tabela 15. A que vamos tratar agora é chamada de "análise não-métrica de escalas 5 multidimensionais" e é representada pela sigla NMDS.7 1.2 2.8 2. somando todas as diferenças em espécies e dividindo pelo número de espécies foi 10/6 = 1. A "distância" que usamos. o objetivo da análise é 6 descrever o padrão apresentado pelas seis espécies. muitas das melhores medidas de associação para dados biológicos são variações dela e ela é útil 34 para ilustrar distâncias. Há muitos tipos de análise 2 indireta de gradiente.0 2.5 1.0 1.0 0 #9 2. no local #1 contamos nove indivíduos da spA enquanto no local #2 não houve 18 indivíduos desta espécie.2 1.2.5 0.8 2.0 0 #4 2. #1 0 #2 1.8 1. chamada de distância "Manhattan" ou "city-block" não é a 32 medida de associação mais usada e não é necessariamente a mais adequada para este tipo de dados. baseados na distribuição 14 de espécies.7 1.8 1.8 2.2 #1 #2 #3 #4 #5 #6 #7 #8 #9 #10 #11 #12.0 0 25 26 27 Matrizes de associação podem ter medidas de similaridade ou de dissimilaridade e há muitas opções 28 diferentes para medidas. que em nossa 11 análise são as espécies. notem que como o 30 coeficiente de correlação varia de -1 a +1.8 3.2 1.7 1.0 1. Então.7 2.5 0 #11 3. A diferença média entre o local #1 e o local 20 #2.7 0 #6 1.3 1. 22 que é chamada de "matriz de associação".8 1.7 3.3 2. Portanto estes locais diferiram por nove nesta variável. portanto a diferença foi zero para esta espécie.5 1.7 0 #5 2. esperamos que não se assustem mais com os nomes esdrúxulos pelos quais os estatísticos 4 chamam suas análises. poderíamos ter calculado a correlação entre as contagens de espécies 29 para cada par de locais. Como sabemos que existe um gradiente de chuva e 9 analisamos os dados em relação a esta dimensão nos gráficos anteriores. Se 21 conduzirmos o mesmo procedimento para cada par de locais.3 1. 5 sp A 0.2 -0.4 apresenta os locais ao 18 longo do novo eixo criado pela análise NMDS. Entretanto. de tal forma que os locais mais 7 parecidos (com menor distância em termos das espécies) fiquem mais próximos e os menos parecidos fiquem 8 mais distantes. Portanto.5 sp E 0. 128 . em uma 11 dimensão) os locais e verificar o quanto as distâncias entre eles ficaram proporcionais às da tabela 15. A análise fez isso usando somente as similaridades 27 (mais corretamente.4b). Na 3 tabela temos todas as informações a respeito de quão distante cada local está dos outros em relação à 4 composição de espécies.4a) gerou um padrão diagonal similar ao obtido com a análise direta de 24 precipitação (Figura 15. mas 14 certamente será mais demorado do que o computador. iremos 16 apenas comparar a ordem do computador com nossa análise direta de gradiente. mas a análise NMDS não foi capaz de reproduzir o padrão original 25 completamente. e que aqui chamamos de MDS1. procurando. e repetir este processo 13 até que não possa chegar mais perto das proporções originais. Entretanto. Vamos 6 usar a análise NMDS para ordenar os locais ao longo de um único eixo.2). Na verdade.5 a b sp B 0.4 21 0. A figura 15.2 Densidade -0.1 0. tanto quanto possível. as dissimilaridades) entre os locais em termos de contagens de plantas. 1 Os valores na diagonal da tabela 15.2 -0. Se colocarmos em 28 um gráfico o gradiente verdadeiro (precipitação) contra o gradiente predito pela análise NMDS (MDS1).2 -0.2. Borg e Groenen (1997) fornecem um texto 15 razoavelmente digerível sobre como o computador pode ser programado para fazer isto.1 0.1 0. O leitor poderia fazer isto à mão. Ainda assim. 19 20 Figura 15. o MDS1 representou a precipitação razoavelmente bem.5 sp D 0. Em 12 seguida.5 sp F 0. embora nenhuma 26 observação direta de chuva tenha sido usada na ordenação. Não preenchemos a porção superior direita da tabela porque ela seria o espelho da imagem inferior. 5 isto ainda não simplificou nosso problema.2 -0.2 -0. locais com composição mais parecida terão distâncias menores.5 sp C 0.1 0. O computador vai usar uma matemática complicada para reordenar (em nosso exemplo. O NMDS faz isso faz isto por tentativa e erro.1 0. já que estamos na situação 17 pouco usual de conhecer com antecedência o gradiente ecológico "real". esta tabela contém mais células que a original. porque a distância entre um local e ele mesmo 2 é zero. fazer com 9 que as distâncias entre os locais ao longo do eixo sejam proporcionais às distâncias da matriz de associação 10 (tabela 15.1 -2 -1 0 1 2 80 150 220 290 360 MDS1 PRECIPITAÇÃO 22 23 A ordenação (Figura 15.2 são todos zeros. ele vai rearranjar ligeiramente os locais e verificar se o resultado melhorou. 3 4 Figura 15. para exemplos). uma matriz de associação das distâncias (ou das similaridades) entre os 15 objetos é construída. 1 veremos que o eixo construído somente com informações sobre a distribuição das espécies foi capaz de 2 predizer cerca de 50% (r2=0. 26 27 Mais do que uma dimensão 28 29 Poderíamos ter pedido ao programa de NMDS para arranjar os locais em duas dimensões. Algumas vezes. embora isto nem sempre seja óbvio a partir 13 dos programas. pode não haver correspondência entre os eixos derivados e os gradientes ecológicos reais 23 (procurem Kenckel e Orloci 1986. 35 129 . O programa então arranja os objetos ao longo de um ou mais eixos 18 (usualmente dois eixos ou dimensões) que melhor refletem os padrões encontrados nos dados. há apenas um gradiente nos dados de plantas.6b). há apenas uma distância entre cada par de objetos analisados. a lógica da análise permanece a mesma. podemos ver a associação entre precipitação e locais em termos de composição 34 de espécies (figura 15. Com sorte.53) da variação da precipitação pluviométrica (figura 15. independente de quantas 17 variáveis (atributos) sejam medidos. ainda assim 31 podemos ver o padrão em duas dimensões. A matriz de associação é baseada em uma medida obtida a partir da média de todos os 16 atributos.5). o 24 pesquisador está interessado em uma ordenação dos atributos ao invés dos objetos e alguns métodos podem 25 fazer ordenações simultâneas de objetos e atributos. Entretanto. mas se 21 escolhermos uma transformação imprópria. Minchin 1987 e Hirst & Jackson2007. na verdade. porque nós os criamos.5 5 400 PRECIPITAÇÃO PLUVIOMÉTRICA (mm) 300 200 100 0 -2 -1 0 1 2 MDS1 6 7 8 9 Isto foi bem razoável. 19 estes eixos refletirão as variáveis ecológicas que causaram os padrões nos dados. A seguir. Sabemos 30 que. 12 Ordenações indiretas sempre seguem os mesmos passos. Na melhor das hipóteses. ou uma medida de associação ou técnica de ordenação 22 inadequada. considerando que nenhuma das distribuições de espécies ao longo do gradiente 10 de chuva (figura 15. Fazendo o símbolo dos locais ser proporcional à chuva (figura 32 15.4b) formava uma curva muito suave e que a associação das variáveis originais com a 11 precipitação não foi mais forte do que a esperada para dados ecológicos. Entretanto.6a) ou nomeando os locais com chuva abaixo da média como "B" (baixa precipitação) e acima da média 33 como "A" (alta precipitação). Portanto. Primeiro os dados podem ser transformados e o tipo de transformação deveria ser dependente 14 da questão formulada. 20 esperamos somente uma aproximação grosseira das dimensões reais que determinaram os padrões. Por 42 exemplo. Borg & Groenen 1997. ex. As outras técnicas são variações desta. baseada na análise de "eigen". 39 e forçar linearidade onde ela não existe pode obscurecer padrões ou criar padrões inexistentes. 1 Figura 15. ao invés do método 22 de "tentativa e erro" das técnicas de iteração. não-métricas ou um híbrido dos dois (p. é muito 7 raro que um padrão possa ser discernível em mais do que duas dimensões e permanecer com muitas 8 dimensões contraria o propósito primário da análise. p. 14 Com o NMDS. assume relações lineares entre as variáveis (atributos). que geralmente usa o coeficiente de correlação de Pearson como medida de 29 associação (Pearson 1901). ou eigen. As características. Eigen em alemão tem 2 25 sentidos. especialmente para análises de vetores de 6 características (vetores "eigen". Frequentemente. degradaríamos o padrão. Por exemplo. que é reduzir a dimensionalidade (Gauch 1982a. 17 18 Análises de vetores de características (ou análises "eigen") 19 20 Assumindo algumas premissas importantes.6 2 a b 1 A B AA AA B MDS2 0 B A B B -1 B -2 -2 -1 0 1 2 -2 -1 0 1 2 MDS1 MDS1 2 3 4 Se tivéssemos incluído muitos eixos. cujos 16 eixos resultantes podem ser matematicamente relacionados com os valores originais. Portanto. Entretanto. são os atributos da nossa 24 tabela de dados. 12 Há muitas maneiras de executarmos a análise de escalas multidimensionais (MDS). os eixos resultantes podem ser matematicamente 35 relacionados com as medidas originais e é possível projetar tanto os objetos quanto os atributos no mesmo 36 espaço de coordenadas. a análise é chamada de análise das coordenadas principais (PCoA). De qualquer forma. quando o padrão é forte. a análise de correspondência 30 (CA) pode ser derivada dos calculos usados na PCA. Økland. Hirst & Jackson 2007). como a usada pelo NMDS. podemos girar os eixos para qualquer posição no plano dos dados. os eixos não são "significantes" nos critérios internos da análise. portanto são aquilo que descreve os objetos que queremos ordenar. porque são fáceis de serem calculadas. Há uma outra classe de técnicas de ordenação. James e 9 McCulloch 1990). diferentes análises podem capturá-lo. As análises baseadas neste princípio 23 são chamadas de "análises eigen" pelos estatísticos. sem mudar as distâncias 15 relativas entre os pontos. PCA e CA 34 são populares. e a matriz de associação for transformada para 33 possuir propriedades métricas. é possível determinar a 21 posição dos eixos de ordenação no espaço multidimensional usando álgebra de matrizes. a despeito das diferenças metodológicas e bases conceituais. os eixos da PCA serão artefatos 41 (Jackson 1977). das quais trataremos logo adiante. ex. depois de se substituir a similaridade medida pelo 31 coeficiente de correlação por uma medida de similaridade Qui-quadrado e padronizando os objetos por sua 32 amplitude. Se alguma outra medida de associação é usada. "análises eigen" pode ser 26 traduzido como "análise de vetores de características" ou "análise de vetores característicos". o que pode não existir. e algumas vezes improváveis. p. 27 A primeira técnica de ordenação baseada em vetores eigen a ser amplamente usada foi a análise de 28 componentes principais (PCA). Além disso. Há uma grande discussão na literatura 5 sobre a seleção do número de eixos que devem ser incluídos. o padrão capturado em nossos dados 130 . Jackson 1993). 11 1999. exemplo. se 40 os objetos forem padronizados pela amplitude antes de se executar a análise. mas 10 ainda assim podem ser carregados de significado em termos dos gradientes externos (Gauch 1982b. que podem ser 13 métricas. 37 Algumas das vantagens de análises eigen são ilusórias e é necessário atentar para as premissas de 38 cada método. Faith. São "características" (substantivo) ou "característico" (adjetivo). PCA. Minchin & Belbin 1987). Na realidade. a 22 diferença entre os locais 1 e 11 e entre locais 1 e 3 é 1.7 3 a b 2 B A COMPONENTE 2 1 B B 0 A A B A A B -1 B A -2 -2 -1 0 1 2 -2 -1 0 1 2 COMPONENTE 1 COMPONENTE 1 4 5 6 7 As relações entre os atributos (abundância de espécies em nossos exemplos) e os gradientes 8 ecológicos normalmente só se aproximam de relações lineares se nós investigamos uma parte muito limitada 9 do gradiente. As aparentes relações geométricas só são reais se uma medida geométrica foi usada. que poderia ser traduzida como "análise de correspondência não- 28 tendenciosa" (Detrended Correspondence Analysis . é melhor corrigir as distorções diretamente no cálculo das 32 distâncias de associação. velocidade da 39 água e granulometria do sedimento foram usadas. Se uma sequência de substituições está sendo estudada. Isto é. ex. 1 pela ordenação NMDS (figura 15. espécies) em comum. 1987). Embora estas comparações não tenham nenhuma 23 espécie em comum (Local 1 tem espécies A e B. Neste caso. Isto acontece porque a maioria das medidas de associação 20 usadas nas análises atribui um único valor (normalmente 1) para representar diferenças entre objetos (p. é 24 fácil ver por sua composição de espécies que eles não são igualmente diferentes. ex. usando distâncias estendidas. Wartenberg et al. 18 Todos os métodos de ordenação tendem a distorcer as relações entre os objetos quando os gradientes 19 são longos (p. os dados mostram alta diversidade beta. onde as 12 relações parecem monotônicas. que usam informações sobre as relações com outros 33 objetos para melhor ordenar objetos que não possuem atributos em comum (De´ath 1999). No nosso exemplo de plantas. mas pode transformar em retas também as relações que são verdadeiramente curvilíneas no 30 espaço ecológico (p. Kenckel e Orlocci (1986) fornecem exemplos do que DCA 31 pode fazer com gradientes conhecidos. local 11 tem espécies C. Quando pesquisadores estudam somente uma parte restrita de um gradiente. ex.DCA) foi proposta para corrigir estes efeitos de 29 "ferradura". se as variáveis não foram transformadas. e são substituídas por outras espécies em outras 15 partes do gradiente. o pesquisador diz que está 16 estudando um gradiente "longo".6) e pelos dois primeiros eixos da PCA (figura 15. ex. ex. que é conhecida como efeito 27 de arco ou ferradura. 25 várias comparações terão valor 1 por razões diferentes e a tentativa de manter a distância de 1 na ordenação 26 acaba causando um entortamento na distribuição dos objetos no espaço reduzido. Quando o gradiente é longo. 21 parcelas) que não possuem características (p. eles dizem que estão estudando um gradiente "curto". Uma variação da CA. a relação somente poderia ser representada por um modelo linear para uma parte muito limitada do 11 gradiente de temperatura. No nosso exemplo da relação entre a atividade de uma espécie de inseto e temperatura usado no 10 capítulo 7. condutividade. para 36 quaisquer das análises. o 13 gradiente não é curto. Vamos discutir 34 isso um pouco melhor no Bestiário ao fim deste capítulo. 37 como a distância euclidiana. D e E e local 3 tem espécie E). temperatura. Amostragens ao longo de gradientes longos resultam em unidades amostrais 17 (p. Se variáveis ambientais como pH. 35 A relação aparente entre as variáveis originais e os eixos derivados raramente é simples.7) foram similares. é apenas a parte estudada que é curta. parcelas) com conjuntos de espécies diferentes. e se todas as variáveis são realmente 38 mensuráveis na mesma escala. alta substituição de espécies). Espécies normalmente ocupam somente uma 14 parte limitada do gradiente (a parte incluída no seu "nicho"). 2 3 Figura 15. não faz sentido supor que todos estes atributos possam ser 131 . Gauch 1982a. 8 Sabemos que outras medidas de associação e/ou transformações serão mais apropriados para a maioria dos 9 estudos ecológicos. 12 Minchin 1987. Se o leitor não for capaz de desenhar um 13 gráfico hipotético ou tabela que ilustre os padrões que podem estar nos dados. todos os métodos 6 comumente usados fornecerão resultados semelhantes. a associação entre objetos é melhor apreciada como distâncias ao longo de ramos de 30 uma árvore. a distância ao membro mais próximo. a distância ao último membro. ex. separando as espécies hierarquicamente em subgrupos. em 15 1982. O exemplo mais comum é o de relacionamentos filogenéticos. Os atributos são 32 ordenados lógica ou estatisticamente. Belbin 1992). Portanto. Combinar números de gramíneas. a não 2 ser entre espécies com forma de vida e tamanhos similares. arbustos e 3 árvores é tão esotérico quanto combinar pH e velocidade da água. Cada uma foi escolhida para refletir um tipo diferente de padrão. 39 Árvores podem ser construídas em forma de chaves dicotômicas e existem alguns programas de 40 computador para automatizar este processo (p. e não cabe em nosso texto 36 resumido. 132 . 26 27 Categorias que crescem em árvores 28 29 Algumas vezes. 55 Alguns pesquisadores recomendam que as técnicas de agrupamento sejam usadas junto com técnicas 56 de ordenação para uma análise preliminar dos dados (p. Embora as análises multivariadas sejam 4 muito poderosas. e só pode ser feita baseando-se na estrutura esperada dos dados. e não faz sentido procurar por 47 estes padrões a não ser que possamos imaginar como eles deveriam aparecer em uma matriz de dados 48 hipotéticos. 5 Se o padrão nos dados for muito forte e causado por poucos gradientes. Seu capítulo 18 introdutório ainda é um dos melhores apanhados das técnicas multivariadas na ecologia e deve nortear 19 qualquer curso de técnicas multivariadas para ecólogos. TWINSPAN). até que cada subgrupo se 44 constitua de apenas uma espécie ou objeto.1. apresentada acima. Entretanto.ex. Mesmo densidades de plantas não são comparáveis. Azevedo-Ramos et al.2 para determinar as distâncias entre os objetos e entre as 42 bifurcações (nós) das árvores. de forma que as distâncias entre as taxa são baseadas apenas no que se 33 acredita serem características derivadas compartilhadas (sinapomorfismos). Entretanto. os leitores podem ser forçados a fazer uso da literatura desta área. mas isto é ilusório. Os membros do grupo podem ser definidos pela distância ao 45 centro do grupo. como as usadas em análises de ordenação. Isto é apropriado se o 57 leitor pretende permitir que o computador gere hipóteses por si. As árvores 58 geradas por análises de agrupamento (cluster analysis) parecem ser em duas dimensões. Aqui vamos considerar apenas diagramas 38 (dendogramas) que são baseados em simples distâncias ecológicas. 24 Entretanto. Nós apresentamos estes métodos apenas por motivos didáticos. 20 Nenhuma técnica é adequada para todos os propósitos. é preciso cuidado para não usá-las para criar monstros que não poderiam existir na natureza. A única maneira de se escolher o método adequado para uma determinada situação 11 é considerar o provável padrão que o gradiente ecológico em estudo pode ter causado nos dados (p. 22 usaram NMDS com a medida de associação de Gower para ordenar a comunidade de predadores de girinos e 23 PCA para ordenar as variáveis ambientais. 49 A escolha da técnica de agrupamento é provavelmente mais difícil do que a escolha entre as técnicas 50 de ordenação. (1999) 21 usaram NMDS e a associação Bray-Curtis para ordenar uma comunidade de girinos. ou divisivo. Gauch publicou um livro de grande lucidez sobre técnicas multivariadas. ficar pescando entre as diferentes técnicas é usar a 54 estatística de um modo inadequado. Por exemplo. O processo pode ser aglomerativo. especialmente se 37 tiverem problemas com pseudorepetições filogenéticas (capítulo 4). Entretanto. a maioria das análises usa uma 41 matriz de associação como a da tabela 15. não podemos entrar em detalhes agora. A maioria de sua discussão sobre qual técnica de ordenação é mais apropriada está ultrapassada e suas 16 recomendações diferem de muitas que fizemos aqui. Se acharam os conceitos de 34 matrizes de associação e várias medidas potenciais de distâncias ecológicas complicadas. A maioria das hipóteses modernas 31 sobre filogenia são baseadas em análises cladistas e estas estão longe de serem simples. não deveria passar ao próximo 14 passo e procurar por padrões. adicionando-se objetos um por vez para 43 formar grupos. então se preparem 35 para o que vem com as análises cladísticas. mas isto raramente é eficiente. No mesmo trabalho. A opção de tentativa e erro 51 aqui é inaceitável. sem perder de vista os conceitos gerais que vamos precisar 25 para considerar outros métodos multivariados. é quase garantido que poderemos produzir um agrupamento que se conforme a qualquer 53 hipótese ecológica que possamos ter formulado. Este é um campo enorme e complexo. Não 7 recomendaríamos a análise de Componentes Principais. para os dados da tabela 15. Kenckel e Orloci 1986 e Hirst e Jackson 2007). as diferenças podem ser importantes. Se usarmos todas as combinações possíveis de medidas de distâncias e técnicas de 52 agrupamento. e ainda de outras 46 maneiras. ex. 1 combinados geometricamente em qualquer sentido. Novamente. como uma introdução 10 simplificada das técnicas. sua discussão dos usos das técnicas 17 multivariadas e dos padrões em tabelas de dados são tão atuais quanto eram trinta anos atrás. estamos procurando por padrões na matriz de dados. Entretanto. 13 As mulheres (F) tenderam a ser consideradas muito diferentes umas das outras (distâncias longas ao longo dos 14 "galhos" do dendograma) e ocorreram em todos os cinco principais agrupamentos diferentes (nós acima de 15 0. como em todas as outras análises multivariadas. 1 Eles representam móbiles. Eles têm um grande apelo 2 sobre nós.00 0.9). e geralmente nos sentimos mais confortáveis com categorias 3 do que com variáveis contínuas mais realistas (capítulo7). A experiência nos ensina que as categorias "macho" (M) e "fêmea" (F) diferem em forma nos 11 seres humanos. As 9 análises de agrupamento são análises indiretas. Baseado nesta análise. mas só podemos avaliá-las se usarmos dados com gradientes 10 conhecidos. quadril e comprimento da perna. As análises de ordenação podem revelar 4 agrupamentos (clusters) porque estes são formados por gradientes abruptos. provavelmente descartaríamos a hipótese de que o sexo afeta a forma das 16 pessoas. as transformações de dados 27 mudam a questão que está sendo respondida. que podem ser girados em qualquer ângulo em cada nó. A análise de agrupamento misturou as cinco mulheres com os homens (figura 15. pescoço. 17 18 Figura 15. peito. As 8 variáveis medidas foram os diâmetros da cabeça. a análise poderia ter capturado diferenças simplesmente devido ao tamanho dos objetos 26 (estudantes). 28 uma análise NMDS bidimensional produziu um padrão que claramente diferenciou homens de mulheres em 29 relação à forma. Entretanto. porque parecem categorizar o mundo.8). Percebe-se nesta figura que os grupos ("machos".10). fizemos uma transformação para padronizar os dados. portanto vamos usar análises de ordenação e agrupamento para verificar o quanto podemos 12 identificar esta diferença. as análises de 5 agrupamento são frequentemente ineficientes em revelar gradientes suaves. já que nesta. Se não tivéssemos 25 padronizado.8 19 M M F M M M M M M M F M F F F 0.15 Distâncias 20 21 22 Antes do agrupamento. dividindo o valor de 23 cada medida (atributo) pela soma de todas as medidas para cada estudante. 7 Vamos ilustrar isto com dados de medidas biométricas dos estudantes de nosso curso de estatística. 6 As análises de agrupamento só percebem agrupamentos de certos formatos no espaço multivariado.05 0. "fêmeas") são 133 . porque estávamos interessados em 24 descobrir o quanto a análise poderia detectar as diferenças na forma devido ao sexo. muito embora alguns indivíduos estejam mais perto da maioria dos indivíduos do sexo 30 oposto do que do próprio sexo (figura 15. cintura.10 0. Usando a mesma transformação e a mesma medida de distância. Se incluirmos concentração de cálcio. 10 precisará conhecer muito sobre a estrutura dos dados (Milligan e Cooper 1985. considere o uso do "agrupamento de mensagem de 15 menor comprimento" (minimum message length clustering). e portanto a dimensão mais importante (ou "eixo") 134 .5 M DIMENSÃO 2 MM M M M M F -0. ainda que o padrão que estivéssemos procurando pudesse ser descrito por categorias. uma técnica emprestada da teoria de informação 16 (alguns diriam Bayesiana) que parece ser promissora (Wallace e Dowe 2000). 9 Se o leitor desejar determinar o número de agrupamentos apropriados para um conjunto de dados. 38 pH. pode usar técnicas de "bootstrap" (sorteio de subamostras) para ajudar a identificar o número de 13 agrupamentos naturais (Pillar 1999).5 -0. 1 alongados. redundantes e daí vem o termo "análise 31 de redundância" empregado para denominar algumas técnicas multivariadas. Dale 1988). Por outro lado. os principais padrões ficarão fora de 34 nossos dados. Normalmente eles excluem as variáveis que são altamente correlacionadas com as outras. 5 Todas as distâncias comumente empregadas e as técnicas de agrupamento e de ordenação fornecem resultados 6 qualitativamente similares para este exemplo.5 DIMENSÃO 1 21 22 23 Selecionando variáveis 24 25 As análises multivariadas compartilham com as análises mais simples a dificuldade na seleção de 26 variáveis. Os estudantes frequentemente usam os mesmos critérios sugeridos para a seleção de variáveis em 27 regressão múltipla. Pode também combinar 17 análises inferenciais com análises multivariadas em árvores de regressão (De'ath 2002).5 1. em algum sentido. 3 A análise de gradiente (variáveis contínuas) pode detectar melhor o padrão do que a análise que 4 tentou criar categorias. que poderiam ser melhores preditores das diferenças entre os estudantes.5 0. condutividade elétrica e profundidade. os "aliases" podem mascarar ou realçar padrões. São essas associações que 32 formam o padrão nos dados. Considere a 37 questão a respeito dos principais padrões nas características de riachos. 8 como nível de hormônios ou idade. Se decidir que 11 pode prever a forma de seus agrupamentos a priori. e este tipo de forma geralmente não pode ser recuperada por análises de agrupamento. 18 19 Figura 15. Se quiser decidir simultaneamente o melhor número de agrupamentos e 14 estimar os parâmetros que descrevem estes agrupamentos. frequentemente algumas 35 variáveis representam a mesma coisa medida de formas diferentes. 28 o que é ilógico para análises multivariadas. 30 Variáveis que carregam a mesma informação são. e portanto selecionar um algorítmo de agrupamento 12 apropriado. e as análises só poderão captar padrões secundários. 33 Se selecionarmos as variáveis de modo a reduzir as associações.5 -1. O fato de a variável categórica "sexo" não poder explicar em 7 detalhes as diferenças entre nossos objetos (estudantes) poderia nos levar a procurar por variáveis contínuas. que 2 presumem que os grupos tem uma forma multiesferoidal. Lembrem-se que estas análises estão buscando por associações 29 que se repetem entre variáveis e que Gauch (1982a) chamou de "associações de variação coordenada". Este problema é chamado "aliasing" (Mac 36 Nally 1994) e dependendo de sua associação.5 F F F F -1.5 M M M 0.9 20 1. o maior padrão. nós perguntamos se a variável dependente está relacionada com uma ou mais das variáveis 53 preditoras. Ao longo de um eixo de ordenação.Y5 e Y10) tem algum padrão 46 associado. 33 A análise direta mais geral é a regressão múltipla multivariada (RMM). Se o resultado da análise indicar que há um efeito significativo de uma 43 variável independente sobre as variáveis dependentes. Y2) tem um padrão associado a alguma das variáveis 45 independentes ou por que uma combinação de algumas variáveis (p. Entretanto. Talvez seja por isso que é tão raro encontrar RMM sendo usada na literatura 48 ecológica. muitos dos leitores não devem estar satisfeitos com 17 esta abordagem. Se a estrutura dos dados do lado esquerdo não pode ser 41 capturada por PCA. Notem nossa ênfase em linear. mas igualmente válida.. Mesmo que encontremos algo "significativo". Agora podemos perguntar quais gradientes 14 conhecidos estão associados aos padrões captados por estes eixos. mostra análises baseadas em 31 uma outra abordagem.ex. e se baseiam em uma análise visual dos padrões em 16 gráficos como os das figuras 15. não deveríamos usar a técnica de RMM.070. e 25 podem ser muito enganosos se foram interpretados da mesma forma que os gráficos que nós examinamos nos 26 capítulos anteriores. como largura. Uma primeira abordagem. Se não. o leitor pode criar qualquer padrão que queira. área da seção transversal. A 5 seleção de variáveis dependentes deve ser feita segundo critérios que sejam independentes de qualquer 6 variável externa (independente) que será examinada.5. seria "a precipitação explica o padrão 56 mais forte nas variáveis dependentes?".Y3. 19 Todos os testes de estatística frequentista seguem o esquema mostrado no capítulo 5. bi*Xi 37 38 A análise pergunta se há uma combinação linear de variáveis do lado esquerdo da igualdade que 39 pode ser explicada por uma combinação linear das variáveis do lado direito. 27 Existem duas abordagens distintas para se determinar a significância de relações entre conjuntos de 28 variáveis dependentes e variáveis preditores. 7 8 9 A força da cultura: testes de significância 10 11 Nós agora já sabemos que os eixos de ordenação indireta representam os padrões de co-variação 12 entre os atributos (que no nosso exemplo eram as espécies). Pillai Trace e Hotelling-Lawley Trace) rejeitam a hipótese 51 nula de ausência de efeito de precipitação sobre a composição da comunidade de plantas a P=0. nas quais o padrão mais forte de variação dos dados originais é extraído por ordenação e só depois 135 . 15. Y2. Em 4 outras palavras. As 22 mesmas considerações se aplicam aos testes estatísticos multivariados. Considere a seguinte equação: 35 36 Y1. Esta é a pergunta feita pelas análises inferenciais de gradientes 57 indiretos. Já vimos que 20 nós deveríamos verificar que um resultado numérico de um teste estatístico está de acordo com o padrão 21 visível num gráfico. 49 No nosso exemplo de plantas. ainda será necessário muita exploração de dados 47 para descobrir o que aconteceu.. o 40 que significa que o gradiente precisa ser curto. Se incluirmos um grande número de variáveis que representam as 2 dimensões físicas do riacho. Em RMM. onde temos apenas uma variável explanatória (a precipitação). uma questão diferente. a maior parte da literatura publicada em ecologia de comunidades. que em geral são simples adaptações 23 dos testes que nós consideramos nos capítulos anteriores. distância do mar e área do 3 espelho livre de vegetação. que é uma extensão da 34 "análise de correlação canônica". A análise direta tem este nome porque a matriz de dados 32 original é relacionada diretamente com as variáveis independentes. ou as inferências obtidas não terão significado.ex. 30 Entretanto. 1 seria associado com a química das águas. Numa 52 regressão simples. descarga.7. poderíamos mudar o maior eixo para um que representasse variáveis físicas. chamada de análise direta. pode ser que estamos tirando conclusões sobre artefatos matemáticos. e querem saber qual a significância das associações entre os padrões da matriz de dados 18 original e os gradientes conhecidos. nós perguntamos se uma ou mais das variáveis independentes está relacionada com um 54 ou mais das variáveis preditoras.Yi = a + b1*X1+ b2*X2+. No entanto. pela escolha minuciosa das variáveis.6 e 15... é uma extensão natural do teste visual que fazemos ao examinar os gráficos mostrados acima.. amostras 13 mais próximas têm distribuições de seus atributos parecidas. os gráficos geralmente apresentados em 24 associação com alguns testes estatísticos multivariados não podem ser usados para avaliar as hipóteses. O efeito significativo 44 pode ter aparecido por que uma única variável (p. Há muitos testes estatísticos multivariados e 42 cada qual tem diferentes premissas. as três 50 estatísticas multivariadas mais comuns (Wilks' λ. 55 Entretanto. a interpretação não é tão fácil.. baseada nas análises indiretas de 29 gradientes.Y2.. Formas simples e intuitivas de responder 15 esta questão já foram apresentadas anteriormente. rejeitaríamos a hipótese nula a P=0. que perguntou 11 sobre o efeito de chuva sobre o padrão mais forte foi mais poderosa neste caso. 37 Aplicando MANOVA em nosso exemplo... A segunda questão. Johnson e Field 1993). teríamos um teste mais poderoso e rejeitaríamos a hipótese 41 nula a P=0. Lembrem-se que muito da variabilidade não captada pelos eixos pode ser 20 devida à tentativa de ajustar um modelo impróprio.6b e 15.7b. especialmente quando seus leitores não dispuserem de muito tempo. De novo.021.. que usa variáveis 30 substitutas (dummy variables) para codificar as categorias da mesma forma que ANOVA é uma extensão de 31 regressão simples. o 49 conceito por trás destas análises foi elaborado primeiramente pelo grande Ronald Fisher. 42 43 Análises canônicas. 28 usando estes níveis.b) chamou este processo 18 de "redução de ruído por ordenação de vetores de eigen". da mesma forma como mostramos antes é a 52 seguinte: 53 Variáveis dependentes (Y1.7b. Se 57 tivesse somente uma variável preditora. Isto ocorre frequentemente. mas os leitores não saberão isto com seus dados de campo. ela é apenas um caso especial da análise de RMM. A análise não foi mais forte por que NMDS é 16 mais hábil em manipular relações não-lineares do que as análises de "eigen". com a diferença apenas de que a 32 variável independente é categórica. poderíamos ter 4 assumido que dois eixos NMDS são a melhor representação do padrão mais forte nas variáveis dependentes. 24 embora em alguns casos possa ser útil para revelar rapidamente padrões em gráficos tridimensionais. ao focar no 14 padrão global dos dados. Na verdade. é a mais robusta à violações das premissas 35 (Olson 1976.027. denominada "Pillai trace". NMDS2 = a + b*precipitação 8 9 Esta nova análise rejeita a hipótese nula de ausência de efeito de chuva a P=0.002.6b e 15. Como em muitas das análises tratadas neste livro. Com certeza. mas 34 simulações indicam que uma delas. No entanto. No exemplo de plantas. 1 relacionado com as variáveis independentes. mas nossa ordenação NMDS (que não usa vetores 19 de "eigen") também foi efetiva.. ao invés de apenas resultado de "ruído" aleatório (Økland 21 1999). O processo é 51 simples (Legendre e Legendre 1998). mas a diferença é importante. em que não soubéssemos qual é a dimensionalidade real da estrutura nos dados. rejeitamos a hipótese nula de ausência de efeito dos níveis alto e 38 baixo sobre combinações lineares das variáveis dependentes a P=0. nós sabemos de antemão que há apenas 2 um gradiente direcionando estes dados. a análise remove muito do ruído associado com as peculiaridades de cada espécie 15 que não esteja associado com os padrões gerais na comunidade. 33 Há muitas estatísticas que podem ser usadas para avaliar a significância de MANOVA..Yn) = a + b1X1 + b2X2 + . Se aplicarmos a RMM sobre os 17 dois primeiros eixos da PCA. uma regressão múltipla é feita entre as variáveis preditoras e cada uma das variáveis 56 dependentes. Se você tivesse 20 variáveis dependentes (Y). Gauch (1982a. Além disso. não recomendamos que se faça isto com frequência. Numa 3 situação real. 10 Ambas as questões foram válidas. Y3. a "Análise de Redundância" (RDA). como no caso 26 de apresentações em seminários. Apenas para própositos de ilustração. vamos assumir que os níveis de 27 precipitação baixa e alta sejam realmente categóricos e aplicar uma análise multivariada análoga à ANOVA.023. nós 50 vamos começar com a análise canônica mais simples.. Todas as precauções exigidas para a ANOVA se aplicam para a "análise de variância 29 multivariada" (MANOVA). faria 20 regressões simples. 5 Usando estes dois eixos de NMDS como variáveis dependentes. se perguntássemos apenas a 39 respeito dos maiores padrões e usássemos a MANOVA para testar o efeito dos dois níveis de precipitação 40 sobre os eixos NMDS (Johnson e Field 1993). A estrutura da análise. como os 25 das figuras 15. que usa aleatorização 36 para gerar valores de probabilidade (Anderson 2001) pode ser o mais apropriado em muitas situações. Y2. bnXn (variáveis idenpendentes ou 54 preditoras) 55 Primeiro. Os valores estimados para os objetos por 136 . precisaria fazer 20 regressões múltiplas. Um teste não-paramétrico análogo a MANOVA. A estrutura da análise é igual à apresentada para a RMM. podemos fazer uma RMM que teria a 6 seguinte estrutura geral: 7 NMDS1. 22 Nós sinceramente esperamos que os leitores estejam se perguntando porque categorizamos uma 23 variável contínua nas figuras 15. ou como esconder a floresta atrás 44 das árvores 45 46 47 Existem análises inferenciais que seletivamente removem o "ruído" antes de fazer uma ordenação e 48 estas podem ser muito mais complicadas para interpretar. 12 porque o uso de uma ordenação indireta para reduzir a dimensionalidade reduz o número de comparações 13 internas da análises e efetivamente permite uma análise com mais graus de liberdade. e os eixos e linhas representaram os modelos. 54 Da mesma forma que RDA. o tri. A análise é chamada Análise de Correspondência Canônica. dependendo da versão do 53 mesmo programa. 28 Em resumo. Neste caso. Talvez você 57 nem precise de orientação neste sentido. mas são levemente "contaminados" pelos dados 50 sobre os atributos. não podem ser usados para avaliar a(s) 47 hipótese(s) nula(s). Makarenkov & Legendre (2002) 19 disponibilizaram um programa gratuito na internet para quem quer experimentar RDA. Sendo assim. Toda a variação não 31 associada com as variáveis preditoras foi descartada no primeiro passo do processo. mas isto é porque parte da variação está escondida nos outros eixos. e é uma das técnicas mais usadas para 42 análises de comunidades biológicas. os pontos 11 nos gráficos representaram os dados. a RDA é uma ordenação sobre dados que foram "restringidos" pelas variáveis 29 preditoras. da mesma forma que RDA. podemos usar permutação para perguntar se a 22 relação entre variáveis preditoras e os valores dos atributos é mais forte do que esperado ao acaso. 13 Para "ajudar" a interpretar os gráficos. os atributos e as variáveis preditoras (os Xi) podem ser 14 projetados no gráfico (triplot). precisamos plotar as densidades 26 dos atributos (em nosso caso. 43 Os resultados de CCA podem ser representados em relação a eixos LC ou WA. Podem ser até mais difícieis de interpretar que os eixos LC. portanto. Os gráficos. Se você acha que as relações entre as variáveis preditoras e os 16 atributos não são lineares. As regressões garantem uma relação linear perfeita entre os dados e as variáveis preditoras. gráficos da ordenação vão reforçar (forçar) a associação entre a comunidade e as 9 variáveis preditoras. No entanto. Quadriplots talvez 20 representam a epítome da ofuscação científica e é quase garantido que vão impressionar. Inclusive. são usados numa 6 ordenação por PCA para criar eixos que descrevem a comunidade. O método originalmente foi 40 desenvolvido para RA. Os eixos WA ("Weighted Averages") 49 também são combinações lineares das variáveis preditoras. usualmente apresentados em duas dimensões. 1 esta regressão (os Y estimados) são então usados para substituir os dados das variáveis dependentes na tabela 2 original. os 12 pontos representam o modelo e. não podem ser usados para avaliar o modelo. os 38 dados originais não são substituídos. podem ser usados para criar triplots que 48 impressionam e para consolidar sua posição na cultura científica. No entanto. Até agora.ou quadriplot da RDA 25 não pode ser usado para indicar a magnitude ou forma da relação. 18 com cada variável preditora representada por um termo em X e outro em X2. uma permutação pode ser usada para avaliar a "significância" estatística 55 das variáveis preditoras. mas os eixos resultantes de uma RA são substituídos pelos valores 39 esperados de uma regressão entre os valores do eixo e as variáveis preditoras. Não podemos indicar como interpretar os gráficos resultantes. portanto. o que está sendo fornecido pode variar. e provavelmente poucos leitores teriam 15 coragem de admitir que não entenderam nada. até agora. o resultado da ordenação quando apresentado em gráficos. mostra apenas como é a 30 relação entre objetos. 21 Mesmo que o gráfico sempre dê uma impressão falsa. Isto 4 garante que você não vai "perder" uma relação com as variáveis preditoras somente por causa dos dados! 5 Os novos dados. que excluem todas as informações que não apoiam a hipótese. Neste livro. Como os dados usados foram combinações 7 lineares das variáveis preditoras. Os eixos LC são 44 combinações lineares ("Linear Combinations") das variáveis preditoras e podem ser derivados de forma 45 totalmente independente dos dados sobre os atributos (McCunne & Grace 2002. mas os mesmos resultados podem ser obtidos usando Análise de Correspondência 41 (CA). e portanto o gráfico da 32 ordenação não pode ser usado para avaliar as relações que foram hipotetizadas. os eixos criados também são combinações lineares das variáveis preditoras. elimina todo o "ruído" não associado com a hipótese que está sendo testada. somente relações quadráticas foram usadas. uma análise análoga 37 a RDA foi desenvolvida sobre a Análise de Médias Recíprocas (RA) por ter Braak (1986). pode usar regressões múltiplas polinomiais no lugar de regressões múltiplas 17 lineares. as espécies) contra as variáveis que o teste estatístico indicou que são 27 "significantes". 33 34 Uma das mais populares do mundo 35 36 Da mesma forma que RDA é uma extensão de PCA sobre dados "restringidos". No gráfico de RDA. Para isso. dão a impressão de que ainda 10 há ruído. 8 Não inesperadamente. e estas estatísticas são as únicas informações reais sobre a relação entre preditores e 56 atributos que esta análise fornece. Oksanen 2010). Não representam somente a 51 hipótese e nem somente os dados. Podemos 23 usar os níveis de significância fornecidos pelos programas para decidir se vale a pena continuar com a 24 hipótese de que alguma das variáveis preditoras afeta a comunidade. De qualquer forma. Gráficos dos 46 eixos LC mostram exatamente a estrutura da hipótese e. porque um triplot da CCA geralmente é tão complexo que você pode 137 . é importante determinar se seu programa está 52 fornecendo escores LC ou WA. atributos e variáveis preditoras segundo a hipótese do estudo. É uma 3 redução de ruído seletiva. O gráfico resultante é imponente. mas estas permitem a criação de quadriplots. 10a). observe que o gráfico da figura 15. quando a precipitação for maior ou igual a 18 261 mm . baixa (B) quando for menor ou igual a 190 mm. 4 5 RDA com categorias 6 7 A primeira técnica canônica foi desenvolvida por Ronald Fisher (1936) e é chamada "Análise de 8 Função Discriminante" (DFA).10a e o 26 programa informa que classificou corretamente todos os locais e fornece as equações que alocam os objetos 27 às categorias. 20 21 Figura 15. especialmente se o número de observações é pequeno. mas Makarenkov & Legendre 2 (2002) disponibilizaram um programa gratuito na internet para CCA.1. 37 Entretanto. A análise sempre encontra combinações lineares das variáveis 32 para separar as categorias. exceto que as 10 variáveis dependentes são categóricas. Entretanto. com base nos valores de seus atributos. se as premissas das análises são cumpridas. como em RDA e CCA. A utilidade de DFA é criar equações que permitem 36 determinar a qual categoria uma determinada amostra deve pertencer. quando estiver compreendida ente 191 e 260 mm.10 22 4 a b A 3 B B 2 A ESCORE(2) 1 B A A 0 M B A M M M B M M -1 M B M A -2 B B A -3 -5 -4 -3 -2 -1 0 1 2 3 -5 -4 -3 -2 -1 0 1 2 3 ESCORE(1) ESCORE(1) 23 24 25 A separação em baixa. A figura 29 15. ou pelo menos por um procedimento 138 . No entanto. a menos 38 que elas tenham sido validadas por um conjunto independente de dados. média e alta precipitação parece razoável de acordo com a figura 15. 1 interpretar como quiser. média 17 (M). e este programa permite a criação de 3 quadriplots que deixarão seus leitores mais impressionados ainda com sua "cultura" científica. O gráfico da análise discriminante não deve ser usado para 34 decidir se as categorias existem. DFA produz gráficos que ilustram a hipótese e não os dados. 16 estabelecendo 3 grupos em relação à precipitação. mas estes gráficos têm uma 15 interpretação muito diferente (Manly 1997). A separação parece até melhor e o programa classificou corretamente todos os locais 31 com relação às categorias de "precipitação". Vamos ilustrar isto com nossos dados da tabela 15. Agora vamos aplicar a análise discriminante e ver se ela consegue discriminar os objetos (locais) 19 em função de seus atributos (vegetação) (figura 15.10a não é equivalente 28 às ordenações indiretas nas quais a variável independente não foi usada para posicionar os locais. o que é típico de 33 experimentos ecológicos (Williams e Titus 1988). baseado em seus atributos. O programa de ter Braak (CANOCO) é proprietário. Para isso deve-se usar as estatísticas que testam esta diferença por um 35 procedimento que é essencialmente igual à MANOVA. Como com RDA e CCA. e alta (A). Este método é derivado de MANOVA. e tenta determinar a combinação linear 9 de variáveis que melhor discriminam entre dois ou mais grupos. 11 as probabilidades associadas com os testes inferenciais podem ser usadas para guiar suas interpretações 12 biológicas (ver Williams e Titus 1988 para uma discussão dos perigos de desconsiderar as premissas das 13 análises).10b mostra a mesma análise com os dados de espécies substituídos por dados produzidos por um gerador 30 de números aleatórios. A lógica é idêntica à da RDA. não deposite confiança em equações para separar categorias que foram geradas por DFA. 14 Os gráficos de DFA se assemelham aos obtidos por ordenação indireta. Isso pode ser observado no nosso exemplo das plantas. quando a variável categórica apresenta mais de dois níveis (p. se os usarmos apenas para 48 gerar valores de probabilidade. Eles também têm a deficiência de só testar se os padrões nos dados estão 46 associados com a(s) variável(eis) independente(s). e não sobre as relações entre os valores originais destas variáveis. a comunidade de plantas do nosso exemplo acima) e variáveis externas. Manly (1977) descreve como executar este procedimento. A grande diferença entre esta forma e as anteriores é que aqui não acontece redução de 11 dimensionalidade. a variância explicada por uma regressão ou correlação entre matrizes não é a mesma que a 28 variância explicada para os dados originais.45. Como em outras técnicas 47 estatísticas. respectivamente. desenhado para avaliar o peso de observações extremas nos resultados. mas não fornecem uma indicação real do porquê elas 49 são rejeitadas ou não. Luo 21 e Fox 1996). para lidar com modelos que se assemelham à correlações. 53 54 Muitos índices ecológicos podem ser matematicamente tratados como se fossem univariados. não falamos toda a verdade.001 e 20 P=0. 27 Sendo assim. a maior 39 parte dos dados ecológicos contém uma grande quantidade de ruído. mas todos estes testes são derivados do teste de Mantel (Mantel 17 e Varland 1970). 1 Jackknife4 (Manel et al. são 42 geralmente mais úteis. 4 Um procedimento simplificado de re-amostragem.ex. que é o que caracteriza a ordenação. Isso pode 33 levar a situações em que não há nenhuma correlação entre as variáveis originais. 31 É preciso cuidado ao usar este tipo de análise. ou há mais que uma variável independente (Anderson e Legendre 1999) os testes algumas vezes 22 têm menos poder do que as análises dos padrões derivados por ordenação indireta. Se o objetivo é entender quais 41 fatores afetam a estrutura de um grupo de dados. 139 . mas há correlação entre as 34 distâncias destas variáveis (Dutilleul 2000). testes de permutação para um efeito de precipitação como uma variável contínua 19 ou como variável categórica com dois níveis (precipitação alta e baixa). já que preserva toda a informação contida na matriz de dados original. que em geral é descartada no processo de 40 ordenação. estes testes têm uso limitado para refinar nossos modelos biológicos. 50 51 52 Índices univariados multivariados.2) é relacionada diretamente com uma ou mais matrizes de associação derivadas das 13 variáveis preditoras. 15 Existem muitas variações deste teste. Entretanto.ex. Entretanto. 23 Da mesma forma como antes chamamos a atenção de que as análises inferenciais diretas e indiretas 24 respondem à perguntas diferentes. Eles testam as hipóteses. de forma similar ao nosso teste de DIF (capítulo 5). ex. mas a 14 probabilidade é avaliada com base em permutações. mas não descreverem o padrão. os testes de permutação do tipo Mantel e similares 44 perguntam se há alguma associação entre as variáveis dependentes e as independentes.18. regressões 16 simples ou múltiplas ou análises de variância. 43 Como em outras análises de gradientes diretos. o mesmo vale para as análises de matrizes de associação. 1999). análises que permitem visualizar a estrutura (= padrão). O teste de associação entre as matrizes é parecido com um teste de correlação. uma comparação da composição de árvores adultas e árvores jovens). pois nem sempre uma certa forma de relação entre as 32 variáveis originais vai produzir a mesma forma de relação entre distâncias das mesmas variáveis. A matriz de associação da comunidade (como a 12 mostrada na tabela 15. Isto 37 pode ser o caso quando o objetivo do estudo é comparar dois grupos de dados para saber se têm estrutura 38 semelhante (p.006. 2 3 4 Análises baseadas em matrizes 5 6 Quando indicamos acima que há duas formas de fazer análises inferenciais sobre dados 7 multivariados. 18 Em nosso exemplo. e que não será descartada em análises de matrizes de associação. rejeitam a hipótese nula a P<0. Há mais uma forma de determinar as relações entre um conjunto 8 de dados multivariado (p. 35 O fato de que não há redução de dimensionalidade nas análises de matrizes de associação pode ser 36 importante em algumas situações. e não se os fatores 45 contribuem para os maiores padrões. mas uma regressão das distâncias entre objetos para a spA e as 30 distâncias de chuva tem um r2=0. A pergunta que 25 está sendo feita neste tipo de análise é sobre as relações entre as distâncias (dissimilaridades) de uma variável 26 e as distâncias de outra(s) variável(s). A 9 abordagem que vamos tratar agora pode ser genericamente chamada de "análises inferenciais sobre matrizes 10 de associação". A relação 29 entre a espécie A e a chuva tem r2=0. 3 Local A Local B Local C Espécie 1 4 1 2 Espécie 2 4 1 3 Espécie 3 5 1 4 Espécie 4 6 2 6 Espécie 5 6 1 8 Espécie 6 7 2 1 Espécie 7 7 3 1 Espécie 8 8 4 1 Espécie 9 8 6 1 Espécie 10 9 8 1 Espécie 11 9 10 0 Espécie 12 0 15 0 Espécie 13 0 18 0 Espécie 14 0 1 8 Espécie 15 0 0 10 140 . qual das duas amostras. riqueza de espécies. Os índices de diversidade se baseiam na ideia de que a 6 diversidade é maior quanto mais rápida for a acumulação de espécies numa área. diversidade e produtividade. 4 Para entender a natureza multivariada destas medidas. 1 Entretanto. A ou B. Com base nesta figura. você diria 8 que é a mais diversa? 9 10 11 Figura 15. da mesma forma que qualquer estatística multivariada. Exemplos incluem 3 biomassa. o que pode ser visto numa 7 curva do coletor como a da figura 15. vamos examinar uma das mais usadas.11 15 B Número de Espécies A 10 5 0 0 20 40 60 80 Número de Indivíduos 12 13 14 15 16 Tabela 15.11. eles são essencialmente multivariados (compostos de muitas variáveis dependentes) e sua 2 interpretação é complexa. e 5 considerada "simples": a diversidade de espécies. devemos lembrar que não existe um número que represente "a riqueza" de uma 34 determinada comunidade. No nosso exemplo.ex. Elas derivam da combinação dos valores de todas as espécies 30 presentes em cada amostra. ou a abundância total. o que não acontece quando índices compostos são 27 usados. Grande parte destas limitações está associada com as 53 medidas de dissimilaridade usadas para medir as associações entre os objetos. a 7 equitabilidade na amostra A é maior (tabela 15. 28 Ainda assim. e não da comunidade. portanto. o que não faz sentido para estudos ecológicos. Diferentes 19 combinações de riqueza e equitabilidade podem também dar origem ao mesmo valor para o índice de 20 diversidade. ela precisa 13 ser pouco diversa em formas funcionais.3). 0. A equitabilidade mede a homogeneidade na distribuição das abundâncias entre as 6 espécies. 22 Para entender a variação no número de espécies por unidade amostral. mas não devem ser aplicadas indiscriminadamente. Existe uma riqueza diferente para cada tamanho e forma de unidade 37 amostral para a mesma comunidade. valores iguais podem ter 31 sido originados de combinações bem diferentes. se as espécies estão representadas em quantidades semelhantes. 16 Além de misturar duas medidas que são incompatíveis entre si. mas nossa lista não pretende ser completa e cada 46 trabalho será comentado apenas brevemente. A riqueza é medida como o número de espécies em uma unidade amostral. portanto. os índices de diversidade 17 transformam a composição de espécies em um único número. e o mesmo acontece com a equitabilidade. que normalmente têm distribuições que 52 não cumprem as premissas requeridas pelos métodos. Portanto. a riqueza é uma característica do sistema 36 de amostragem. pode-se examinar individualmente a 23 riqueza. devemos estar atentos para o fato de que mesmo a riqueza.3 e diga 10 se você já viu alguma comunidade semelhante à da amostra A? As espécies só podem estar representadas nas 11 mesmas quantidades numa comunidade se elas forem muito parecidas em tamanho e funcionamento. amostras B e C na Tabela 15. 141 . Espécie 16 0 0 15 Espécie 17 0 0 18 1 2 Se você respondeu B. errou. Um mesmo valor de diversidade. ou seja. Esta abordagem tem a vantagem de que nela é 26 possível entender qual a verdadeira origem dos padrões. mesmo que a riqueza desta amostra seja menor. que podem não refletir toda a 54 variabilidade existente nos dados. Por que o resultado contradiz a lógica? Isso acontece por que os índices de diversidade misturam 5 riqueza e equitabilidade. os índices de 14 diversidade acabam sendo uma mistura de uma medida de diversidade (a riqueza) e uma medida de anti- 15 diversidade (a equitabilidade). O problema com a ideia de que áreas com 9 maior equitabilidade sejam mais diversas é que isso contradiz a própria natureza. ou 35 número médio de espécies em várias unidades amostrais. como a maior parte das pessoas tende a responder. taxonomicamente! Assim. Examine a tabela 15. a diversidade medida pelo índice de Shanon 8 acaba sendo maior. que 32 podem até ser justificáveis em alguns estudos.943.026 e para a amostra B. 48 49 Medidas de associação e transformações 50 A partir dos estudos de Minchin (1987) e Kenkel e Orloci (1986) ficou claro que os métodos de 51 ordenação tem limitações intrínsecas para lidar com dados ecológicos. e da mesma forma que discutimos para a diversidade.3) e. É preciso bastante cuidado para usar estas medidas. portanto A é mais 4 diversa. são medidas multivariadas. Nossa intenção maior é chamar atenção para métodos 47 promissores e discutir seus potenciais problemas e vantagens. Alguns destes desenvolvimentos são revistos aqui. É muito difícil entender os valores de diversidade se eles podem ser iguais ou diferentes por 21 motivos tão diferentes. para realizar as 45 análises. e vários destes 44 desenvolvimentos foram acompanhados por disponibilização de pacotes gratuitos na internet. tamanhos e. ou a 29 biomassa total. 38 39 40 Pequeno bestiário de métodos recentes ou ainda pouco 41 explorados 42 43 Muitos desenvolvimentos recentes tem ampliado os usos de análises multivariadas. 33 Além disso. Para entender a variação nas distribuições de abundância entre as espécies por unidade amostral 24 pode-se examinar a estrutura da comunidade com as técnicas de ordenação que discutimos anteriormente ou 25 usar os gráficos de dominância/diversidade de Wittaker (1965). portanto. É mais simples tratar os diferentes aspectos da estrutura ecológica de forma individual. O índice de Shanon 3 (usando logarítimos na base 10) para a amostra A é 1. Isso 12 significa que para uma comunidade ser considerada "diversa" em espécies por um destes índices. pode 18 ter sido derivado de diferentes combinações de espécies (p. Uma possibilidade para tornar o 40 processo mais objetivo é o uso de índices de associação probabilísticos. usa vários. É possível que o uso de distâncias 56 estendidas em MDS ou PCoA tenha o mesmo efeito que o uso de Curvas Principais. Legendre 20 e Gallagher (2001) mostraram como transformações dos dados originais permitem que muitas medidas de 21 dissimilaridade sejam representadas por distâncias euclidianas. O método é chamado ISOMAP. (2000) propuseram uma forma de corrigir as distâncias que ao invés de usar um 14 único objeto intermediário. na qual é possível substituir não apenas distâncias iguais a 1 (pares de objetos sem 12 nada em comum). A ideia por trás disso é de que embora vários locais sejam favoráveis para a 30 ocorrência de uma espécie. e esta definição não é 16 muito simples. é possível fazer classificações em que a formação dos grupos 44 seja dada por níveis predeterminados de probabilidade de que o grupo seja homogêneo. mas também distâncias consideradas "altas" e que podem ser consideradas como "pouco 13 confiáveis". Quando se usa 28 esta transformação. para lidar com dados que não cumprem 50 a premissa de relações lineares entre atributos (p. avaliando as probabilidades de cada estado (ou valor) de cada atributo. mas 46 em geral ainda são pouco usados por ecólogos. e usa informação sobre espécies presentes para inferir sobre o quanto 27 aquele local é potencialmente favorável para as espécies que não foram observadas (zeros). 38 Um dos problemas da classificação é que a decisão sobre quantos grupos formar. espécies) em comum. Este requerimento 19 é consequência de que estes métodos usam como medida de dissimilaridade a distância euclidiana. o uso de MDS com distâncias estendidas seria uma opção mais segura para 58 usuários iniciantes. De’ath 1999a. Um problema especial 3 surge quando quando dois objetos não têm nenhum atributo (p. o método é complexo e o ajuste correto 54 das curvas depende de um processo cuidadoso de acompanhamento e avaliação do processo iterativo. Eles fornecem a descrição de como o teste pode ser feito. 142 . a distância entre dois objetos (p. A 7 soma da distância entre objeto 1 e objeto intermediário. 41 sugerido por Legendre e Legendre (1998) como útil em ecologia. o que aumenta consideravelmente as 22 possibilidades para análises baseadas em PCA ou Redundância. Entretanto. Tenenbaum et al.ex. 23 As matrizes de dados ecológicos costumam ter muitos zeros. mas isso não foi ainda 57 testado. Quem serão os intermediários vai 15 depender da definição de uma vizinhança ao redor do par de objetos sendo considerado. como 4 medir a distância entre estes objetos? Existem diferentes formas de se "estender" as distâncias. A transformação é baseada no 26 padrão de co-ocorrência entre espécies. o selecionado será aquele que fornecer a menor distância 10 (menor caminho). Se este for o caso. e entre objeto intermediário e objeto 2 será a nova 8 distância entre objetos 1 e 2. 47 48 Novas formas de ordenação 49 Vários autores desenvolveram formas não-lineares de PCA. o que não é muito comum nos dados ecológicos. Williamson 1978). ex. De’ath (1999) propôs uma variação deste método. Segundo estes autores. mas que é preciso testar esta premissa antes de decidir usar 35 a transformação. 1966). superando a 53 performance de MDS e CA em torno de 70% das vezes. neste método. No método de 5 "menor caminho" (Shortest Path. De Caceres 32 e Legendre (2008) discutem extensivamente o potencial e os problemas desta transformação. Além disso. Com 43 base em medidas de associação probabilísticas. quando os gradientes são longos. 17 Um outro problema de alguns métodos de ordenação (PCA e RDA) é o requerimento de que as 18 relações entre os atributos sejam lineares. chamada "dissimilaridades estendidas" 11 (extended dissimilarities). estima a probabilidade de que a semelhança 42 entre dois objetos seja ao acaso. 1 Nós discutimos brevemente acima o uso de distâncias modificadas para contornar o problema de 2 encurvamento dos pontos em gráficos de ordenação. inicialmente desenvolvido por Hastie (1984) e ampliado por 52 De’ath (1999) pode ser altamente eficiente na recuperação de gradientes não lineares. ou de onde "cortar" 39 os "galhos" de um dendrograma para formar grupos é geralmente arbitrária. não deve ser usada quando entender estas mudanças é o foco do estudo. a premissa da transformação é que todas as espécies estão 34 relacionadas com uma mesma estrutura ecológica. Neste caso. O método de Curvas Principais. todos os valores (zeros e não zeros) são substituídos por uma probabilidade de que a 29 espécie ocorra em cada local. além de 55 determinação da possível dimensionalidade do gradiente em estudo. Esta transformação pode ser útil. o que pode causar dificuldade na 24 estimativa correta das distâncias entre os objetos. Bolton et al. 45 A maior parte destes métodos está disponível em pacotes que rodam no ambiente estatístico R. 37 portanto. e dão instruções 33 práticas quanto a seu uso. 2003 e citações nestes 51 trabalhos).ex. Beals (1984) desenvolveu uma transformação de dados 25 destinada especificamente para diminuir este problema ("Beals smoothing"). ela pode não ter sido encontrada em vários deles por razões históricas ou de 31 dispersão. mas é preciso tomar cuidado para não criar artefatos. 1 e 2) sem atributos 6 em comum é calculada usando um único objeto intermediário que tenha atributos em comum com ambos. Podem haver vários objetos intermediários que tem atributos em comum com o 9 par de objetos sendo considerado e. O índice de Goodall (1964. alertam que esta 36 transformação pode distorcer ou mascarar mudanças temporais ou espaciais na estrutura de comunidades e. Uma 20 possibilidade para detectar interações complexas são as Árvores de regressão ou classificação (Breiman et al. As árvores de regressão/classificação têm sido vistas 23 principalmente como ferramentas de exploração dos dados.  Legendre  et  al. conforme o número de 18 preditores aumenta. No primeiro caso.  1992.  2008. Warton 2008). O teste pode usar diretamente as matrizes originais ou o resultado de 8 ordenações. não importa qual técnica seja usada. 1 2 Comparação de conjuntos de dados multivariados 3 Os testes para detectar relações entre matrizes de associação podem ser problemáticos. 1999). pode ser muito útil para detectar relações não-lineares e interações 25 múltiplas. o que torna estes 19 modelos complexos impossíveis de se analisar com os métodos clássicos derivados de regressões. evita-se a necessidade de redução de dimensionalidade. 143 . e ainda não há consenso na literatura. 29 que comumente não é verdadeira para dados de comunidades ecológicas. mais do que ferramentas para teste de hipóteses 24 específicas. mas relaxa a premissa de relações lineares entre os atributos. A árvore pode ser construída para uma variável dependente (por exemplo. Eles mostram também que é possível fazer a repartição de variâncias entre 34 as variáveis preditoras diretamente a partir da matriz de distâncias. ex. Hallgren et al. 36 Recentemente tem havido bastante interesse em entender as contribuições relativas da variação 37 ambiental e espacial sobre a composição das comunidades ecológicas. Quando a técnica é aplicada 11 depois de reduzir a dimensionalidade por ordenação.  Legendre  et  al. chamada "Distance-based 27 redundancy analysis – db-RDA". a quantidade de interações possíveis aumenta exponencialmente. pois 4 conjuntos de dados sem correlação podem dar origem a matrizes de associação que são correlacionadas 5 (Dutilleul et al. 33 como proposto no método original. embora seja possível incluir interações entre variáveis.  Laliberté  2008. O debate em torno das técnicas 38 apropriadas para repartir as variâncias entre estes fatores é longo e complexo (Borcard  et  al. 2000). os escores do primeiro eixo 22 de ordenação) ou sobre toda a matriz multivariada. que permite o uso de medidas de associação não euclidianas. Este 10 formato da análise não foi testado no trabalho de Peres-Neto e Jackson (2001). McCunne & Grace 2002 fornecem uma boa descrição da técnica e exemplos. Peres-Neto and Jackson (2001) desenvolveram um teste baseado em sobreposição de Procrustes 7 que compara as matrizes originais. McArdle and Anderson (2001) 32 mostraram que não é necessário corrigir os auto-valores negativos durante o processo de análise da db-RDA.  Tuomisto  e   40 Ruokolainen  2006  e  2008. 21 1984). Algumas vezes.   39 Borcard  e  Legendre  1994. o método permite a 30 análise de interações entre as variáveis preditoras. esperamos que este breve apanhado tenha mostrado que a 55 interpretação destes resultados é difícil e dependente de decisões feitas durante o exame de gráficos ou tabelas 56 dos dados originais. 13 14 Técnicas para relacionar conjuntos multivariados à variáveis externas 15 Os métodos discutidos acima para relacionar conjuntos multivariados de dados ou os escores de uma 16 ordenação à variáveis preditoras têm sempre as premissas de que as relações entre variáveis preditoras são 17 lineares e aditivas. Além disso. sem ter como premissas coisas improváveis como 31 normalidade multivariada e homogeneidade das matrizes de covariância. Se o 47 leitor tiver a sorte de dispor de muitas observações independentes. Além disso. somente os maiores padrões são investigados e a técnica 12 deve produzir resultados semelhantes aos testes aplicados sobre ordenações indiretas que descrevemos acima.  2005. 26 Legendre & Anderson (1999) desenvolveram uma extensão da RDA. sem necessidade de análises eigen 35 intermediárias.  2008). Além disso. que tem como 9 consequência eixos que podem ter captado proporções diferentes da variação original de cada matriz. partições de variância diferentes. se elas foram 57 organizadas de forma apropriada (Ehrenberg 1981. Os gráficos. diagramas e 53 valores de probabilidade associados com análises multivariadas são fáceis de ser gerados nos modernos 54 programas de computadores. lembrem-se que a variância explicada para os dados originais não é a mesma 44 que para os dados transformados em distâncias (veja o exemplo dado na seção sobre análises baseadas em 45 matrizes). Também é bom lembrar que outro conjunto de dados coletado no mesmo sistema poderá gerar 46 ordenações diferentes e portanto. Como ferramenta exploratória. 49 50 Saber o que queremos antes de começar 51 52 Isto termina nosso passeio breve e superficial nas técnicas multivariadas. Apenas chamamos a 41 atenção para o fato de que uma das abordagens sugeridas para esta questão envolve regressões entre matrizes. Entretanto. (2000) se referiram a eles 43 como "patológicos". Para evitar a necessidade de transformar os dados originais em associações 6 (distâncias). podemos responder questões apenas olhando as tabelas. 42 e estas regressões podem ter comportamentos tão estranhos que Dutilleul et al. O método 28 retém as características interessantes da RDA. pode decidir dividir seus dados em um 48 subconjunto de exploração e outro de validação (p.  Pélissier  et  al. Antes de aplicar estatísticas mais 17 complicadas. há uma versão disponível na internet dentro do programa Ginkgo) para ter 19 certeza de que compreendeu os fatores básicos que criam (ou escondem) padrões nos dados. Uma classe de questões requer 11 análise de gradientes indiretos para detectar os principais padrões antes de se testar qualquer coisa. Comece com programas 18 como COMPAS (Minchin 1987. Os pesquisadores parecem entender isto para as 3 questões univariadas. qualquer um reconhece a diferença entre as seguintes afirmativas: (1) os 4 predadores são a causa dos padrões cíclicos observados em determinadas populações de roedores. 9 Não é uma questão de gerar hipóteses em oposição a testar hipóteses. Isto pode 12 ser considerado como uma suavização multivariada dos dados (DeAth 1999). Por exemplo. Isto estabelece que os predadores causam algum padrão. 15 Muitas questões multivariadas podem ser respondidas simplesmente por uma matriz de gráficos de 16 dispersão (cada variável exibida contra as demais) (Basford e Tukey 1999). 1996). 1 Decidir se queremos saber se variáveis externas causam algum padrão ou causam os principais 2 padrões nos dados é muito importante (Økland. Se um pesquisador precisa de 10 um computador para gerar hipóteses por ele. 1996). Entretanto. não deveria estar fazendo ciência. 20 144 . Uma outra classe de questões 13 envolve análise de gradientes indiretos e não se preocupa se os padrões que emergirem são ou não os 14 principais naquele sistema biológico (Økland. 7 mas não necessariamente o mais conspícuo. certifique-se de que pode criar seus próprios gradientes hipotéticos. (2) Os predadores têm algum efeito sobre o padrão de 6 flutuação em número da população dos roedores. poucos pesquisadores parecem entender esta 8 diferença em análises multivariadas. Isto 5 estabelece que os predadores causam o maior padrão. 9 ao final do trabalho. 7 desde o começo. 51 52 145 . 41 O primeiro passo no processo é escrever quais as principais conclusões do estudo. baseado em sua 25 complexidade. ajudam gentilmente os filhotes a romperem as cascas e carregam-nos em 38 sua boca até a água. Quando Tony Pooley mostrou que as enormes e 37 ferozes mães desenterram os ovos. Pesquisadores competentes não 16 ficam repetindo o mesmo estudo. todas as pessoas acharam a questão muito interessante. mas para simplificar vamos 48 assumir que o pesquisador usou técnicas estatísticas apropriadas para isolar o efeito da atividade de 49 forrageamento dos efeitos da estação e do tamanho. temos visto que há vícios culturais poderosos que atuam dentro da cultura acadêmica. com as quais poucos leitores estarão familiarizados. mas 6 escrever o manuscrito normalmente é a parte mais difícil. eles se 17 dedicam a investigar e comunicar sobre um fenômeno ainda mais complexo. e 11 que nos induzem a coletar dados que não servem para responder a questão formulada. podemos ter concluído que "a quantidade de 43 formigas na dieta de alguns anuros é relacionada com a intensidade de forrageio". mas que são eficientes 12 para propiciar identificação cultural. sem o efeito de variáveis que possam causar confusão. É só quando tentamos comunicar resultados de pesquisa para outras 13 pessoas. há algumas regras simples que podemos usar para nos mantermos no rumo da comunicação 22 efetiva. a não ser que a resposta seja muito inesperada. questões do tipo "como ?" e "o quê ?" usualmente não interessam muitas 34 pessoas. durante séculos. já que isto facilitará 33 nossa comunicação. que a coleta de dados e os tratamentos estatísticos são parte do processo da comunicação e 8 que os erros cometidos nas fases iniciais do estudo comprometem a comunicação oral e escrita dos resultados. 29 30 Um Esquema Conceitual Simples 31 32 Começaremos nossa discussão com uma pergunta simples do tipo "como ?". As dificuldades com a 18 comunicação aumentam a cada novo estudo. Por exemplo. Tendo em mente que as 44 relações podem estar ocultas ou mesmo distorcidas por alguma(s) outra variável. 21 Entretanto. Perguntas do tipo "por quê ?" 27 são quase sempre mais complexas e há um grande debate na literatura científica a respeito de como formular 28 hipóteses nulas apropriadas para questões deste tipo (veja Connor e Simberloff 1986). 14 que descobrimos se fomos bem sucedidos ao coletarmos e analisarmos os dados de nosso estudo. e usualmente estão 26 associadas ao uso trivial da estatística descrita nas primeiras seções deste livro. É claro que será mais fácil se o pesquisador souber. Questões de "como ?" e questões de "o quê ?" são geralmente simples. para cada vez fazê-lo melhor. Magnusson (1996) chamou este processo de "como escrever de trás para frente" (how to write 23 backwards). ao final deste capítulo. A quantidade de 47 formigas na dieta dos anuros varia em função do seu tamanho e das estações. Basicamente. 1 Capítulo 16: 2 Como escrever melhor de trás para 3 frente 4 5 Muitos estudantes passam a maior parte de seu tempo preocupados com testes estatísticos. precisamos ver se podemos 45 produzir gráficos bi-dimensionais que ilustrem a maneira como a quantidade de formigas na dieta varia com a 46 intensidade de forrageamento. Por exemplo. ninguém se preocupou 35 em perguntar "como os filhotes de crocodilos conseguem alcançar a segurança das águas após eclodirem de 36 seus ovos que são enterrados em covas distantes d'água ?".1). brevemente 40 discutir as dificuldades de se enfrentar questões do tipo "por quê ?". 24 As questões científicas geralmente podem ser divididas em dois grupos. Depois de dominar um aspecto. 10 Entretanto. 15 Escrever não é fácil. Vamos ilustrar a técnica de 39 escrever de trás para frente usando uma questão do tipo "como ?" e . Entretanto. e o pior é que não melhora muito com a experiência. e foi capaz de produzir um gráfico das parciais em duas 50 dimensões que ilustra a conclusão (figura 16. 20 nossos fluxogramas vão ficando mais complicados à medida que aprendemos sobre o mundo. especialmente se o pesquisador tiver de lançar mão de 19 manipulações estatísticas complexas. Elas devem 42 ser escritas de forma simples e sem modificadores. especialmente quando tentamos comunicar com pessoas que não fazem parte da cultura científica. Se os eixos do gráfico 15 representarem qualquer coisa que não seja as dimensões de nossa conclusão. A seção de métodos deve apresentar toda a 29 informação necessária para mostrar como obtivemos os dados para nossos gráficos. Estes gráficos não devem 24 ser apresentados sem uma justificação probabilística. 1997).1 3 4 5 6 7 Somente precisamos apresentar os resultados que nos levam à conclusão. o eixo Y (variável dependente) deve representar o "número de formigas" e o eixo X 11 (variável independente) deve representar a "intensidade de forrageamento". Não há alternativas. 12 Já que os eixos devem representar estas dimensões. os gráficos realmente úteis 13 são usualmente gráficos de parciais (o efeito da variável de interesse. em muitos estudos. 25 A figura 16. depois que os efeitos de todas as outras 14 variáveis relevantes tiverem sido controlados experimental ou estatisticamente). e nada mais. Entretanto. encontramos gráficos que 27 não suportam a conclusão. e temos de modificar a conclusão antes de continuar. 1 2 Figura 16. 17 Se tivermos feito manipulações estatísticas. pode ser necessário informar sobre valores de 18 probabilidades associados com a hipótese nula que obtivemos nos testes. e somente estas dimensões. significa que não temos 16 evidência convincente de nossa conclusão. Portanto.1 é convincente. primeiro temos de estar certos de que as dimensões do gráfico refletem as 9 dimensões da conclusão. Para avaliar o quanto o 8 gráfico apoia a conclusão. Uma vez que tivermos o 28 gráfico correto. podem produzir gráficos que 23 podem nos enganar a respeito dos fatores afetando nossos organismos em estudo. Vimos que testes estatísticos 19 frequentemente podem ser substituídos por gráficos simples e muitos autores afirmam que testes estatísticos 20 nunca deveriam ser usados (veja Harlick et al. 30 Geralmente. como função discriminante e análise de correspondência canônica. Podemos ver que há uma relação forte entre a atividade de 26 forrageamento e a quantidade de formigas na dieta. não é necessário informar que as medições foram feitas em um recinto chamado laboratório. Entretanto. também vimos que manipulações de dados 21 podem fazer com que padrões fracos pareçam mais fortes do que eram nos dados originais e que algumas 22 técnicas. podemos redigir a seção de métodos. ou 146 . Nossa conclusão é que a quantidade de formigas varia com a intensidade de 10 forrageamento. 2). porque reconhecemos alguma falha fatal no protocolo de obtenção dos dados. informação de pesquisadores experientes ou a partir 15 de observações preliminares. podemos usar a questão "A quantidade de formigas na dieta de anuros varia 27 com a intensidade de forrageio ?". teremos de modificar nossa conclusão neste 4 ponto e começar tudo de novo. 25 A última coisa a se preocupar é com o título. mas o ponto crítico é que as 29 dimensões na conclusão (e na questão e no gráfico) devem estar explícitas no título. tentando filtrar o que é relevante. e isto vai maximizar a comunicação. verifique se as seções de seu texto estão 32 ligadas (figura 16. 31 Se você está tendo problemas em expressar suas ideias. Mesmo artigos científicos muito complexos 37 raramente têm mais do que duas ou três conclusões principais. A 20 discussão deve apresentar somente a informação (usualmente obtida da literatura científica) que apoia. como evitamos cair 9 em pseudorrepetição). Se tivermos mais pontos no gráfico do que observações independentes. temos que explicar também porque acreditamos que cada ponto no gráfico 8 representa uma informação independente em relação a nossa questão (em outras palavras. Revisões de literatura a respeito da taxonomia 16 da(s) espécie(s) envolvida(s). A 2 ideia é escrever com o mínimo de palavras possíveis. Não é um 22 fórum para apresentação de conclusões que não são baseadas nos dados do presente estudo. o gráfico será 10 enganoso. só será relevante se estes assuntos introduzem os nomes dos eixos de 18 nossos gráficos. um fluxograma conceitual (como o da figura 16. Não importa quão experiente você seja. 1 que pesamos os organismos em uma balança analítica. ou 17 qualquer outro discurso "científico". 7 Na seção de métodos. A questão 14 pode ter sido levantada com base na literatura científica. ou a resposta "A quantidade de formigas na dieta de anuros varia com a 28 intensidade de forrageio". os 30 leitores potenciais não saberão o que esperar e talvez não se sentirão motivados a ler o texto. teremos que refazer o gráfico e reavaliar nossas conclusões. Quando lemos 23 artigos. 19 Após termos definido nossas questões e respostas. Algumas vezes. Os melhores títulos usualmente são questões ou 26 respostas (conclusões). de forma que o leitor possa se concentrar nos aspectos 3 importantes. podemos dar início à redação da "discussão". ou porque confundiu resultados metodológicos intermediários com os 36 resultados que realmente afetam sua conclusão biológica. Se você tem muitas conclusões. Há diferentes maneiras de expressar estas ideias. é porque provavelmente não 35 descobriu nada muito excitante.2). estamos prontos para redigir a introdução. faça pelos outros o que gostaria que fizessem por você. Este esquema simples é surpreendentemente eficaz em identificar problemas de 33 comunicação.2 147 . Não precisamos de mais nada. não queremos mergulhar em páginas e páginas de especulações. Neste caso. De outra forma. 5 Bons pesquisadores usualmente não se importam em reconhecer quando cometeram erros. A introdução deve conter o mínimo de 13 informação necessária para apresentar a questão para a qual nossa conclusão é a resposta. modifica ou contraria as conclusões que se baseiam nos dados que apresentamos. será 34 sempre necessário ao redigir novos artigos. 24 Portanto. 11 Tendo definido nossa conclusão e estando confiantes de que nossos resultados realmente apoiam 12 aquela conclusão. Portanto. ou professar nossa fé na necessidade da conservação das florestas tropicais. 21 estende. se a massa dos organismos não aparece nas análises. isto mostra que 6 aprenderam alguma coisa. 38 Figura 16. dimensão. 18 Nosso gráfico tem "quantidade de formigas" no eixo Y. Por exemplo. física ou conceitual. volume". Na verdade. para medir nossos sapos usamos uma régua ou um paquímetro 13 marcado com distâncias padronizadas. e muitos outros índices podem ser encontrados na literatura. mas em todos os 9 campos da ciência. 2003). alguns usam o volume de presas. Um 17 conceito tão simples quanto "tamanho" pode significar coisas diferentes para diferentes pessoas. que é a única que define qual a dimensão que 16 "tamanho" representa. A estimativa 26 resultante tem pouca relação com o volume medido por deslocamento de fluido (Magnusson et al. 1 2 3 4 Detalhes aborrecidos. e não porque é o mais 24 apropriado para a questão formulada. especialmente quando escrevendo trabalhos do tipo "por quê". para estudar a dieta de animais insetívoros. Todas as unidades de medidas são índices de alguma quantidade 12 teórica. Estamos interessados em tamanhos de anuros. mas importantes 5 6 Há muitas outras complicações. Sob a definição "volume". Por exemplo. 148 . 10 Um erro comum é assumir que nossas medições correspondem a quantidades conceituais 11 reconhecidas por outros pesquisadores. 20 outros usam o conteúdo calorífico das presas. mas a definição de "tamanho" no dicionário é 15 "corpo. e muitos pesquisadores 14 usam o comprimento do corpo como um índice de tamanho. Alguns 19 pesquisadores usam o número de presas para representar "quantidade". mas problemas similares surgem não apenas na ecologia animal. "Intensidade de forrageio" é ainda mais complicado. mas não definimos "quantidade". o 28 potencial para problemas de comunicação é grande. o melhor índice dependerá da questão que 22 está sendo formulada. 21 Nenhum desses é necessariamente superior aos outros. 25 muitos pesquisadores usam duas medidas lineares como indicativo do volume das presas. Usamos o 7 exemplo dos anuros para introduzir algumas das complicações com as quais os autores iniciantes geralmente 8 acabam se deparando. Os problemas surgem quando o pesquisador usa um determinado índice porque é o 23 índice frequentemente usado por outros pesquisadores (uma norma cultural). como anuros. Portanto. 27 Esses pesquisadores estão usando um índice de volume que não tem equivalente no mundo físico. a massa provavelmente seria um índice melhor de tamanho do que o comprimento. Os 11 pesquisadores mais sagazes usam um esquema como o da figura 16. que precisa ter seus 36 efeitos controlados. 1992) para remover os efeitos de parentesco evolutivo entre 33 as espécies. usando indivíduos como as unidades amostrais. pode ser mais interessante levantar uma questão que outros pesquisadores ainda não tenham 9 respondido. o editor examinará o resumo. em geral. Se você não mostrar o que seu estudo tem de novidade. Ao invés de mergulhar em um estudo do tipo "eu 8 também". O 16 primeiro parágrafo deve conter algo do tipo “A maioria dos pesquisadores acredita que o mundo funciona 17 assim . e outras famílias (assinaladas como "O" na Figura 16. 37 38 Figura 16. 20 sem ao menos enviá-lo para revisão. é provável que o editor o rejeito. A escolha certa de um índice só 5 pode ser feita depois que se decida qual a questão que se quer responder. mas o processo se complica quando perguntamos "Por que há uma relação entre a atividade de 28 forrageio e a quantidade de formigas na dieta?".. A escolha de um índice (medida. porque o número de bons artigos 14 supera em muito o espaço disponível nas revistas. a proporção de tempo que os organismos permaneceram em movimento. junto com um gráfico hipotético para 12 dar início à redação de seu artigo... Talvez tenha sido apenas coincidência de os ancestrais dos bufonídeos serem ativos e comerem 31 formigas.. ou os dois 15 primeiros parágrafos da introduçaõ para determinar se vale a pena mandar o manuscrito para revisão. 1 Pesquisadores têm usado a frequência de movimento. a distância movida por unidade de tempo. os efeitos 35 filogenéticos podem ser o foco do estudo ou simplesmente uma variável incômoda.” (senso comum. aqui vamos 18 mostrar que existe evidência forte que o mundo funciona de outro jeito .2.3) geralmente são 30 menos ativas. porque. 19 hipótese alternativa). combinações 3 multivariadas destas coisas. Os bufonídeos (assinalados como "B" na Figura 16. 27 Isto foi fácil. ou talvez pudéssemos investigar o quanto a dieta e o forrageio são relacionados dentro de cada 34 espécie. Cada um 4 destes índices nos diz coisas diferentes a respeito da atividade de anuros.. 13 Está ficando cada vez mais difícil publicar em revistas de renome. os editores de revistas ecológicas de renome estão 22 interessados em questões do tipo “por quê”. 23 24 Questões do tipo "Por quê?" 25 26 Determinamos que há uma relação entre a atividade de forrageio e o número de formigas na dieta. ou ainda muitas outras medidas para indexar a intensidade de forrageio. Vale a pena refletir sbre estas coisas no começo do estudo. 6 Usar um índice padrão por que ele permite comparações entre estudos faz sentido apenas se estes 7 estudos investigaram exatamente a mesma questão. variável) inapropriado no início do estudo pode nos limitar a 10 atacar apenas questões que já foram respondidas por outros. Em geral. a área coberta 2 por unidade de tempo.3 149 . e não guardam mais um grande interesse. antes mesmo 21 de dar início à coleta de dados. O segundo parágrafo deve conter algo como “Mas. poderíamos usar contrastes 32 filogeneticamente independentes (Garland et aI.. antes mesmo de começar a coletar os dados. Se não estivermos interessados nos efeitos da inércia filogenética.” (avanço do conhecimento. Dependendo de nossa questão.. hipótese nula).3) tendem 29 a ser a família de anuros mais ativa. 1 2 3 4 5 Muitas hipóteses têm sido propostas para explicar a relação de quantidade de formigas na dieta e o 6 comportamento de forrageio nos anuros. Pode ser que anuros ativos tendem a encontrar mais formigas porque 7 eles tendem a se locomover mais. Anuros que comem formigas podem sequestrar veneno de suas presas, 8 tornando-se impalatáveis para seus próprios predadores, tornando-os menos vulneráveis enquanto passeiam 9 por aí. As formigas podem representar recursos concentrados que só podem ser explorados por predadores 10 que se locomovem muito. Talvez os anuros só possam ser continuamente ativos se usam uma fonte de 11 alimento com pouca tendência a flutuar espacial e temporalmente. Algumas destas hipóteses indicam que as 12 diferenças nas dietas são reflexos passivos do comportamento de forrageio, e outras indicam que o 13 comportamento de forrageio evoluiu para maximizar o encontro com formigas. A situação é ainda mais 14 complicada, porque o que determina a variação da quantidade de formigas dentro da dieta de cada espécie 15 pode não ser o que determina a variação na quantidade de formigas entre espécies. 16 Ainda não temos a resposta para esta pergunta do tipo "por quê?". Muitos pesquisadores estão 17 desenvolvendo experimentos sofisticados com rigorosos esquemas de amostragem para tentar se aproximar da 18 resposta. Talvez alguém vá responder a pergunta, ou algum aspecto da pergunta, ou talvez não. Mas, podemos 19 estar certos de que uma resposta inequívoca não virá de algum teste estatístico padrão tirado de um manual de 20 métodos para ecólogos. Podemos estar certos também que nossa confiança na conclusão tem pouco a haver 21 com a probabilidade de encontrar uma linha de regressão com uma inclinação igual ou maior que a esperada 22 se a relação entre a quantidade de formigas na dieta e a atividade de forrageio fosse somente devida ao acaso. 23 A ciência avança vagarosamente com a acumulação de respostas para perguntas dos tipos 24 "como?" e "o quê?" e avança rapidamente com respostas para perguntas do tipo "por quê?". Os 25 grandes cientistas e filósofos, como Fisher e Popper, estavam interessados em perguntar "por quê?". É uma 26 pena que seus nomes estejam associados com simples técnicas que são mais apropriadas para responder 27 perguntas de "como?" e "o quê?". Descobrir como responder uma pergunta do tipo "por quê?" é um ato de 28 genialidade. Deixamos vocês com esta tarefa e esperamos que nossa "receita" de como escrever de trás para 29 frente possa ajudá-los a comunicar suas conclusões para outras pessoas. 30 150 1 Uma Palavra Final 2 3 Este livro termina aqui. Esperamos que ele tenha contribuído para aumentar sua capacidade de 4 entender a literatura científica e de se fazer entender por seus colegas. Como dissemos anteriormente, a 5 habilidade de delinear bons experimentos científicos é uma arte, e não pode ser ensinada em livros. 6 Entretanto, esperamos ter apontado algumas "armadilhas" frequentes no delineamento amostral, 7 especialmente aquelas que têm origem na bagagem cultural e que facilmente passariam despercebidas se 8 alguém não nos tivesse alertado sobre elas. A "academia" passou anos a fio inculcando em vocês a mensagem 9 de que o mais importante em suas vidas profissionais é parecer um "cientista", se vestindo, falando e 10 escrevendo da forma complicada como fazem os "cientistas". Entretanto, se quiserem comunicar resultados de 11 pesquisa, vão precisar ir além de comunicar apenas identidade cultural. Se depois de lerem este livro, 12 sentirem-se tentados a apresentar seus resultados em alguns gráficos simples, e a usarem a estatística para 13 simplificar problemas de muitas dimensões, então nossos esforços não foram em vão. 14 151 1 Referências 2 3 4 Abuabara, M. A. P. & M. Petrere. 1997. Estimativas da Abundância de Populações Animais. EDUEM, 5 Maringá. 6 Albert, J. 1997. Teaching Bayes’ rule: a data oriented approach. American Statistician 51:247-253. 7 Allen, T. F. H. 1998. The landscape "level" is dead: persuading the family to take it off the respirator. Pp. 35- 8 54 In Peterson, D. L. & Parker, V. T. (eds) Ecological Scale. Colombia University Press, New York. 9 Allen, T. F. H.& T. B. Starr, 1982. Hierarchy: perspectives for ecological complexity. University of Chicago 10 Press, Chicago. 11 Anderson, D. R., K. P. Burnham, G. C. White, & D. L. Otis. 1983. Density estimation of small-mammal 12 populations using a trapping web & distance sampling methods. Ecology 64:674-680. 13 Anderson, D. R., K. P. Burnham, W. R. Gould and S. Cherry. 2001. Concerns about finding effects that are 14 actually spurious. Wildlife Society Bulletin 29(1):311-316. 15 Anderson, D. R.; Burnham, K. P.; Thompson, W. L. 2000. Null hypothesis testing: problems, prevalence, and 16 an alternative. Journal of Wildlife Management 64(4):912-923. 17 Anderson, M. & P. Legendre. 1999. An empirical comparison of permutation methods for tests of partial 18 regression coefficients in a linear model. Journal of Statistical and Computer Simulation 62:271-303. 19 Anderson, M. J. 2001. A new method for non-parametric multivariate analysis of variance. Austral Ecology 20 26:32-46. 21 Anscombe, F. J. 1973. Graphs in statistical analysis. American Statistician 27:17-21. 22 Azevedo-Ramos, C., W. E. Magnusson & P. Bayliss. 1999. Predation as a key factor structuring tadpole 23 assemblages in a savanna area in central Amazonia. Copeia 1999:22-33. 24 Bard, Y. Nonlinear Parameter Estimation. Academic Press, New York. 25 Basford, K. E. & J. W. Tukey. 1999. Graphical analysis of multiresponse data illustrated with a plant breeding 26 trial: interdisciplinary statistics. Chapman & Hall, Boca Raton. 27 Belbin, L. 1992. PATN Pattern Analysis Package – Technical Reference. CSIRO, Canberra. 28 Benjamini, Y. & Y. Hochberg. 1995. Controlling the false discovery rate: a practical and powerful approach 29 to multiple testing. Journal of the Royal Statistical Society 57 (Series B): 289-300. 30 Bennington, C. C. & W. V. Thayne. 1994. Use and misuse of mixed model analysis of variance in ecological 31 studies. Ecology 75:717-722. 32 Berk, K. N. 1978. Comparing subset selection procedures. Technometrics 20:1-6. 33 Beyer, W. H. 1966. Handbook of tables for probability and statistics. CRC Press, Boca Raton, USA. 34 Bolker, B. M. 2008. Ecological Models and Data in R. Princeton University Press, Princeton, NJ, USA. 35 Bolker, B. M., M. E. Brooks, C. J. Clark, S. W. Geange, J. R. Poulsen, M. H. H. Stevens & J.-S. S. White. 36 2008. Generalized linear mixed models: a practical guide for ecology and evolution. Trends in 37 Ecology and Evolution 24:127-135. 38 Bollback J. P. 2002. Bayesian model adequacy and choice in phylogenetics. Molecular Biology and Evolution 39 19:1171-1180. 40 Bradshaw, G. A. 1998. Defining ecologically relevant change in the process of scaling up: implications for 41 monitoring at the landscape level. Pp. 227-249 In Peterson, D. L. & Parker, V. T. (eds) Ecological 42 Scale. Colombia University Press, New York. 43 Braun-Blanquet, J. 1932. Plant Sociology: The Study of Plant Communities. Hafner, London. 44 Breiman, L., J.H. Friedman, R.A. Olshen & C.J. Stone. 1984. Classification and regression trees. Chapman & 45 Hall, New York. 46 Burnham, K. P.; Anderson, D. R. 1998. Model selection and inference: a practical information-theoretic 47 approach. Springer-Verlag, New York. 48 Cade, B. S., J. W. Terrell & R. L. Schroeder. 1999. Estimating regression effects of limiting factors with 49 regression quantiles. Ecology 80(1):311-323. 50 Callaghan, A. & G. J. Holloway. 1999. The relationship between environmental stress and variance. 51 Ecological Applications 9(2):456-462. 52 Carlson, J. M. & J. Doyle. 1999. Highly optimized tolerance: a mechanism for power laws in designed 53 systems. Physical Review E 60:1412-1427. 54 Carpenter, S. R. 1999. Microcosm experiments have limited relevance for community and ecosystem ecology: 55 a reply. Ecology 80:1085-1088. 56 Caughley, G. & A. R. E. Sinclair. 1994. Wildlife Ecology and Management. Blackwell Scientific 57 Publications, Oxford. 58 Cherry, S. 1999. Statistical tests in publications of The Wildlife Society. Wildlife Society Bulletin 26: 947- 152 E. C. D. Exploratory data analysis and graphic display. 1975. The God Delusion.. Vegetatio 69:57-68. 13 Ecology 83(4):1105-1117. Hafner Publishing. R. J. 1989. Statistics and the Scientific Method. Stern & D. American Statistician 29:146-152. T. R. P. Knowing when to stop: cluster concept – concept cluster. Blackwell Science. Systematic Biology 41:18-32. & J. R. Harvey & A. R. 1999. Geographical Analysis 41:392-397. J.. B. Ecological Monographs 80:67-87. Ives. Anderson. Analysis of biological data when there are ordered expectations. 1990. Interspecific competition in plants: how well do current 3 methods answer fundamental questions. M. Carlin. A. 2 Connolly. 50 Goodman. Power analysis and statistical strategies for environmental monitoring. H. S. M. Comparisons of treatments after an analysis of variance in ecology. Stockwell. J. T. Legendre. American Statistician 49:153-160. 1981. American Naturalist 157:107-125. & W. 2005. Applied stochastic models and 153 . 2006. 6 Day. 26 Gurevitch (eds) Design and Analysis of Ecological Experiments. M. Bantam Press. New York. 49 Goleman. 34 Fortin. & J. 1959. Lele (eds) The Nature of 16 Scientific Evidence. W. 47 Gelman. R. Conceptual and visual models for categorical data. R. (2004). Chapman & Hall / CRC. 2001. & J. M. P. D. Emotional Intelligence. 24 Ehrenberg. Chicago. R. J. R. R. 1982a. 41 Gaines. Scheiner. R. J. American Statistician 37:152-155. Extended dissimilarity: a method of robust estimation of ecological distances from high 9 beta diversity data. Pp 379- 51 409 In Taper. Chapman & Hall. P. Pp 327-378 In Taper. UK. 39 Freedman. 5 Dawkins. USA. Mantel tests: spatial structure in field experiments. 56 Green. D. M. Cambridge University Press. A. 15 Dennis. 33 Cambridge. Lele (eds) The Nature of Scientific Evidence. G. H. Environmental 57 Research 50:195-205. Quinn. M. 10 De’ath. 1988. 36 Fortin. G. Cambridge. G. 1999a. A. H. 2nd edition. University of Chicago 52 Press. Spatial autocorrelation in ecological studies: a legacy of solutions and 35 myths. 2009. 46 Gauch. Global Ecology and Biogeography 10:337-343. D. B. 14 Deming. J Agric Biol Environ Stud 22 5:131–150. M. Belbin 1987. New 38 york. & S. 7 Ecological Monographs 59:433-463. Rice. American Statistician 35:67-71. University of Chicago Press. 30 England. A. 20 Dutilleul P. Legendre P (2000) The Mantel test versus Pearson’s correlation analysis: 21 assessment of the differences for biological and environmental studies. 1992. Bazzaz. P. London. G. M. 1982b. Rubin. 48 Boca Raton. M. 25 Ellison. 40 Friendly. 1985. R. Statistical Methods and Scientific Inference. The illogic of statistical inference for cumulative science. Plant Ecology 144:191-199. USA. A. Frigon D. 1995. Olff & S. 43 Garland. L. Multiple regression trees: a new technique for modeling species-environment relationships. N. P. Chapman & Hall. W. M. J Agric Biol 19 Environ Stud 5:131–150. Dale. The Mantel test versus Pearson’s correlation 18 analysis: assessment of the differences for biological and environmental studies. Bloomsbury Publishing. Edinburgh. 1999b. A. 2004. M. Frigon & P. D. 45 Gauch. M.. Compositional dissimilarity as a robust measure of ecological 28 distance: a theoretical model and computer simulations. Coenoses 3:11-32. Multivariate analysis in community ecology. 2010. T. R.D. Oxford. 4 Dale. 2002. The problem of numeracy. Taking the prior seriously: Bayesian analysis without subjective probability. American 42 Naturalist 135:310-317. 1995. L. B. Bayesian data analysis. 32 Fortin. & G. C. 31 Fisher. 2001. Gurevitch (eds) Design and Analysis of Ecological Experiments. & M. Pp 342-352 In Scheiner. Ecology 63:1643-1649. S. 58 Guttman. L. Dale.-J. Oliver & Boyd. Gurevitch 1993. On the specification of structural equation 55 models for ecological systems. 1993. Principal curves: a new technique for indirect and direct gradient analysis. Ecology 11 80:2237-2253. On probability as a basis for action. Procedures for the analysis of comparative data using 44 phylogenetically independent contrasts. 12 De'Ath. NY. 2000. G.. 1971. 23 Dytham. Cambridge University Press. 1989. S. 54 Grace. H. Choosing and using statisitics: a biologist’s guide. London. A. Noise reduction by eigenvector ordinations. Stockwell JD. New York. 37 S. T. J. 1 953. H. H. & S. R. D.. Research frontiers in null model analysis.-J. Pp 14-45 In Scheiner. Spatial Analysis: a Guide for Ecologists. S. The design of experiments. 29 Fisher. 8 De’ath. 1983.. 17 Dutilleul P. & M. Minchin & L. Wayne & F. 27 Faith. A note on screening regression equations. UK. B. 53 Gotelli. Chicago. 2001. Spatial autocorrelation: trouble or a new paradigm? Ecology 74:1659-1673. Manage. P. 35 James. Ecological Monographs 69:1-28. (2008) ANALYZING OR EXPLAINING BETA DIVERSITY? 9 REPLY. C. & M. A. H. Richardson. 17 Higashi. Journal of the American Statistical Association 84:502– 14 516. 47 Lawton. How to manage data badly (part 1). 10 Harris. R. Cambridge 18 University Press. G. Size matters. P. Pseudoreplication and the design of ecological field experiments. Princeton. D. Applying metric and nonmetric multidimensional scaling to ecological 41 studies: some new results. Understanding robust and exploratory data analysis. 1998. 2nd ed.. C. Doubleday & Company. University of Chicago Press. & L. 6 Hallgren. Peterson & V. T. Managing ecological systems and processes. 1999. Anderson. P. J. J. New York. 2007. 1997. A. Ecology 89:11. Amsterdam. Ecological 27 Monographs 54: 187-211.. 40 Kenckel. Harper & Row. Miracles and statistics: the casual assumption of independence. & C. T. 33 Jackson. Mosteller & J. Peres-Neto. not prior: on using expert opinion in ecological studies. C. Red-shifts and red herrings in geographical ecology. Robust scale estimators and confidence intervals for location. 2004. Princeton University Press. 5 Hall. 1999. Ecological Methodology. Psychological Bulletin 92:513-516. E. (2008) Analyzing or explaining beta diversity? Comment. 55 Ecology 89:11. Princeton. F. J. 1990. Principal curves. Ecology 67:919-928. Field. 1982. The Ecological Detective. 1988. Stuetzle.. P. C. R. 29 Hoaglin. B. R. 459-484 In D. J. Chicago. Pp 404-431 In D. 48 Legendre. 44 Kruskal. and gradient length. 23 Hobbs. Diversity and Distributions 13:361-371. Princeton University Press. 58 Lennon. John 30 Wiley & Sons. S. 21 Hirst. 1959. Using fixed-effects model multivariate analysis of variance in marine 38 biology and ecology. Oceanography and Marine Biology Annual Review 31:177-221. J. & D. 1998. 25 Huberty. E. 12 England. Distance-based redundancy analysis: testing multispecies responses in 51 multifactorial ecological experiments. R. London. The insignificance of statistical significance testing. 54 Legendre. J. R. 1999. Herpetologica 45:119-122. A. T. Compositional data in community ecology: the paradigm or peril of proportions. Bulletin of the Ecological Society of America 80:265- 4 268. 1983. 1970. 28 Iglewicz. Elsevier. 31 Jackson. 3238-3244. Jackson. L. N. T. & T. L. W.. 42 Koele. 1997. 3244-3256. 1998. D. The Ecological Detective. Journal of Ecology 87:1037-1051.. W. N. Reconstructing community relationships: the impact of sampling error. 11 Hartley. His Duty. New York. Oecologia 129:271-280. Hard choices in ecological experimentation. S. Pp 410-323 In Taper. D. D. 1993. Palmer & P. His Frame. Parker 24 (eds) Ecological Scale. J. Elicit data. 8 Hanna Tuomisto. 1991. Educational Researcher 16:4-9. Mangel. 2 Hairston. Tukey (eds). & S. S. Milberg. Principal curves. Lele (eds) The Nature of Scientific Evidence. and E. Academic Press. P. R. Journal of the American Statistical Association 84:502– 16 516.. J. 1999a. Colombia University Press. The silent Language. P. 50 Legendre. & M. and W. 49 Legendre. 52 Legendre. 22 ordination approach. 56 Lele. 1 data analysis 1:3-10. Ecography 23:101-113. M. 1993. 1993. Mangel. J. 57 L. F.. Kalle Ruokolainen. N. 46 Kuhn. USA. M. Observations on Man. 1987. 154 . C. Oikos 85: 19-21. D. 1989. 1989. Borcard & P. A. S. Ecology 74:2204-2214. Burns. Wildl. C. and His Expectations. New York. Pp. Stuetzle. Multivariate analysis in ecology and systematics: Panacea or 36 Pandora’s box? Annual Review of Ecology and systematics 21:129-166. 63: 763-772. 26 Hurlbert. A primer for multivariate statistics. 1749. Orloci. University of Chicago Press. 15 Hastie. H. D. 2000. 39 Johnson. 1997. Numerical Ecology: Second English Edition. & W. Gallagher. 34 Ecology 78(3):929-940. 1986. New York. Journal of the American 45 Statistical Association 83:929-940. M. Calculating power in analysis of variance. 1984. J. Ecologically meaningful transformations for ordination of species 53 data. R. McCulloch. S. 3 Hale. & L. 13 Hastie. On statistical testing. 19 Hilborn. P. 1989. W. T. 20 Hilborn. Data diving with cross-validation: an investigation of broad- 7 scale gradients in Swedish weed communities. C. Stopping rules in principal components analysis: a comparison of heuristical and 32 statistical approaches. Theoretical Studies of Ecosystems: The Network Perspective. New York. & M. R. The structure of scientific revolutions. Chicago. E. C. Cambridge. 43 Krebs. Legendre. 1975. 1999. 37 Johnson. 46 Møller. S. P. . R. 2002. Analysis of Ecological Communities. An error-statistical philosophy of evidence. 54 Nelson. S. J. 1997. 29 Mayo. S. 2004. D’Agostino. S. 1970. including statistics. 1976. A review of the Mantel test in dietary studies: effect of sample size and inequality 4 of sample sizes. Error and the growth of experimental knowledge. R. C. 1999. Journal of Applied Ecology 36:734-747. A note on the use of confidence limits following rejection of a null 38 hypothesis. 17 Magnusson. Anderson. B. 19 Magnusson. W. Data sharing: empty archives. Nonlinear redundancy analysis and canonical correspondence analysis 22 based on polynomial regression. Psychometrika 50:159-179. 42 Milligan. 35 McCune. 2002. Pp 80-203 In Lindzey. Error bars: are they the king’s clothes? Bulletin of the Ecological Society of 18 America 81:147-150. MjM Software Design. Legendre & D. 52 Mundry. Fox. Nature 455:28-29. C. Fontana. G.. 33 McArdle.B. 2001. 36 McCune. University of Chicago Press. & J. & R. J. F. Dias. Chicago. or how to do statistics without a bikini. 55 Newman. 1996. J. 27 Mantel. Stepwise model fitting and statistical inference: turning noise into signal 53 pollution. 1997. 3 Luo. London. 50 Aronson (eds). Addison-Wesley. L. USA. 1997. 9 Mac Nally. Outline of a theory of statistical estimation based on the classical theory of probability. R. 45 Vegetatio 71:145-156. American Statistician 51: 254-261. 31 Mayo. E. B & J. Modeling patterns in collections of parameters. 15 Magnusson. A. USA. 44 Minchin. Bulletin of 14 the Ecological Society of America 78:205-209. How do your data grow. P. D. & M. 30 USA. 13 Magnusson. P. W. American Naturalist 173(1):119-123. M. L. W. J. Nature 461:160-163. American Statistician 37:134-136. On characterizing foraging versatility. Bayes for beginners? Some reasons to hesitate. Teaching experimental design. 1994. Blocking factors and hypothesis tests in ecology: is your 56 statistics text wrong? Ecology 78:1312-1320. illustrated by using birds. W. Simulation of multidimensional community patterns: toward a comprehensive model. R. Chicago. Spatial independence: the importance of the question. & R. 2009. A. P. Oikos 69:95-106. 1 Link. Bergelson & A. Wildlife Society Bulletin 16 27:1112-1113. Analysis of Ecological Communities. Influence of noisy environmental data on canonical correspondence analysis. J. D. 37 Meeks. 12 Magee. Data analysis. A. Taper & S. Volume 2. Cooper. and E. B. J. 1999. 2008. Buxton & S. & C. B. 2009. Fitting multivariate models to community data: a comment on 34 distance-based redundancy analysis. B & Grace. J. 1998. G. W. Pp 79-118 In M. 2000a. W. Journal of Wildlife Management 63: 1017- 2 1027. E. 5 Lynch. MjM Software Design. Popper. 2002. E. Ecology 11 78:2617-2623. Lele (eds) 32 The Nature of Scientific Evidence. Biodiversity and Conservation 11:1397- 8 1401. 2000b. Multiple regression and inference in ecology and conservation biology: further 7 comments on identifying important predictor variables. Randomization. Wildlife Research 23:267-288. !937. Tukey. Bootstrap and Monte Carlo Methods in Biology. Oregon. 2002. B. Ecology 82:290-297. 25 Manly. 6 Mac Nally. J. Statistical iatrogenesis: cure it or prevent it? Bulletin of the Ecological Society of 20 America 81:198-201. How much variance can be explained by ecologists and evolutionary 47 biologists. J. D. 57 Neyman. H. Jennions. Oecologia 132:492-500. 1985. 26 London. Partialling out the spatial component of ecological variation: 40 questions and propositions in the linear modelling framework. A technique for nonparametric multivariate analysis. Legendre. An examination of procedures for determining the number of clusters 43 in a data set. N. Handbook of Social Psychology (2nd edition). & M. Mann. S. F. 2002. B. Alternative methods for predicting species 24 distribution: an illustration with Himalayan river birds. C. D. L. Chapman & Hall. Ecology 83(4):1146-1161. USA. Valand. 1999. & B. Reading 51 Massachusetts.B. 1996. W. 21 Makarenkov.. 1968. 1987. University of Chicago Press. & M. A. 1997. 1983. 155 . 48 Moore. 1997. Borcard. G. E. Grafen.. B. Ormerod. J. 23 Manel. Oregon. G. Biometrics 28 26:547-558. 39 Meot. 10 MacCune.. V. Environmental and Ecological 41 Statistics 5:1-27. 49 Mosteller. A. Grace. T. R. S. (eds) 1998. Montreal. O. A. R. 1973. Detecting publication bias in meta-analyses: a case study of fluctuating asymmetry and 21 sexual selection. J. 49 Ricotta. and D. 33 Petersen. R. S. A.. W. 1976. 10 Oksanen.. Minchin. R. D. Homage to St Michael. Evolution 43:223-225. A. E. Journal 17 of applied Ecology 36:847-855. 1999. R. 1989. New York. Academic Press. 44 Popper. 22 Pascual. 13 http://cc. 1982.. Jackson. 42 Pillar. I. S. 2001. 2001. C. & Kemp. H1V 1W5.. D. 18 Osenberg. 1996. 1999. 35 Peterson. 1966. K. 54 Rosenthal. Colombia University Press. W. & A. D. V. Holt. D. 52 Rosenthal. 56 Salsburg. 154:220-233. A. American Statistician 39:220- 156 . V. metrics. 39 Pielou. W. Fontana. Kolasa & C. V. 3- 5 15 In Peterson. Colombia University Press. D. Cosimo. Consistency between ordination techniques and 30 diversity measurements: two strategies for species occurrence data. K. T. G. Linear regressions in fishery research. H. R. A. 31 Peres-Neto. W. Couteron. B. H. Communicating the value of ecology. QC. C. T. 43 Platt. 1901. J. & Parker. On the 3 meaning of data standardization. W. Ecology 89:11. C. J. 36 Petraitis. 1994. M. D. Rubin. D. V. 57 W. Functional Ecology 10:421-431. Parametric scaling from species relative abundances to absolute abundances in the 50 computation of biological diversity: a first proposal using Shannon’s entropy. Watkinson. M. Williams. Analyzing tables of statistical tests. L. Journal of the Fish Research Board of Canada. P. 1999. King. The Grammar of Science. 1999. & D. 38 Pickett. M.. The counternull value of an effect size: a new statistic. Unended Quest: An Intellectual Autobiography. Walker & W. 1994. Pp. R. T. 1985. Journal of Ecology 63:779-800. Implicit scaling in the design of experimental aquatic 34 ecosystems. Journal of 9 Vegetation Science 10:131-136. S. 8 Økland. 40 Pierre Legendre. 2007 (originalmente publicado em 1911).. Cornwell. A simple general purpose display of magnitude of experimental effect. Wiley. B. Inferring multiple causality: the limitations of path 37 analysis. (2003). Resolving ecological questions through meta- 19 analysis: goals. R. E. Sabatier. Pienkowsky & A. Psychological 55 Science 5:329-334. 12 Oksanen. 1998. 231:333-380. Journal of Vegetation Science 8:447-454.. R. 6 Økland. Levin. 14 Olson. The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. 28 Peladeau. 1997. L. 1975. New York. & S. N. 1999. K. Science 146:347-353. Chapman & Hall. 26 Pearson. 46 Rice. 53 Journal of Educational Psychology 74:166-169. 2003. Steele. New York. and P. M. C. and models. R. Sarnelle.html. Jones. Cooper & R. London. 1 Philosophical Transactions of the Royal Society of London Ser. P. S. 58 Salsburg. On the variation explained by ordination and constrained ordination axes. A. 29 Pélissier. R. J. (2008) ANALYZING OR EXPLAINING BETA 41 DIVERSITY? COMMENT.oulu. E. R. How sharp are classifications? Ecology 80(8):2508-2516. Strong inference. 1984. Psychological Bulletin 15 83:579-586. II. & D. NY. 1995. E.fi/~jarioksa/softhelp/vegan. 1999. Ecological Time Series. 1964. 45 Powell. Peres-Neto. The interpretation of ecological data. H. 2010. 1996. J. Acta Biotheoretica 51: 51 181-188. On choosing a test statistic in multivariate analysis of variance. J. (eds) Ecological Scale. New York. D. Multivariate Analysis of Ecological Communities in R: vegan tutorial. H. Data transformations in ecological ordination. T. Are ordination and constrained ordination alternative or complementary strategies in 7 general ecological studies? Journal of Vegetation Science 7:289-292. Instability of ordination results under changes in input data order: 11 explanations and remedies. 1976. P. Oikos 85:3-18. Ecology. Oecologia 129:169-178. J. C. How well do multivariate data sets match? The advantages of a 32 Procrustean superimposition approach over the Mantel test. 1999.. 5000 Adam Street. 3238-3244. The religion of statistics as practiced in medical journals. 48 30:409-434. Ecological Scale. R. Canada. 47 Ricker. Simstat for Windows. 2 Noy-Meir. W. S. Freeman. Ecology 84:242-251. New York. On lines and planes of closest fit to systems of points in space. Dunham & P. or why are there so many books on scale? . L. 24 Pearson. 16 Ormerod. T. From individuals to population densities: searching for the intermediate 23 scale of nontrivial determinism. Daniel Borcard. 20 Palmer. March 11. 27 USA. Philosophical Magazine 25 6:559-572. San Diego. Niewiarski. Ecology 80:2225-2236. Ecological Understanding. H. & Parker. & J. R. 4 O’Neill. 80(4):1105-1117. Rubin. Pedro R. Dray & D. New York. 2002. W. Ferson & F. G. D. 1999. Repeated measures analysis: growth and other time-dependent measures. Statistics and Computing 10:73-83. Freckleton. S. W. UNESCO & Parthenon Publishing. 1993. W. 24 ter Braak. 41 Wartenberg. 2010. The biological significance of fluctuating asymmetry 27 and sexual selection: a reply to Palmer. Minnesota. J. M. Biometry. American Naturalist 154:234-241. 47 Whitlock. L. D. 14 Bellwether Press. Sokal 1986. G. F. A.H. 48 American Naturalist 175:145-146. San Diego. 11 Spitz. Statistical Science 6:100-116. M. 1986. Bradbury & R. R. Assessment of sampling stability in ecological applications of discriminant 56 analysis. K. 19 Stigler. 32 Tukey. 43 Warton. J. 2000.. 1972. Freeman & Company. 36: 317-326. 1991. M. M. M. 20 Taleb. Conroy. 18 Stigler. Dallmeier and J. Long & R. & S.. M. Moller & S. England. C. 54 Academic Press. R. S. Analysis and Management of Animal Populations. J. McPeek. J. C. & K. Pp 488-524 In Taper. R. Titus 1988. 1987. 1983. University of Chicago Press. The history of Statistics. Reading. P. 1999. American Naturalist 129:434-448. USA. H. B. 1983. 2008. M. Edina. & K. Chapman & 37 Hall. L. M. 40 Wardle. M. L. 2006. M. Journal of Applied Ecology. Brown. 2000. Model identification from many candidates. Gurevitch (eds) Design and Analysis of Ecological Experiments. 157 . 10 Sokal. B. 2007. A. Ecology 89:11. Belknap Press. 6 Short. Penguin Books. & D. 35 von Ende. D. 4 Shipley. Paris. 1 223. L. Pp 113-137 36 In Scheiner. Ecology 69:1275-1291. Embracing the Wide Sky. Field comparisons of two rapid vegetation assessment techniques with permanent plot 16 inventory data in Amazonian Peru. UK. M. An example in 12 wildlife damage. Rookcase: an excel 97/2000 visual basic (VB) add-in for exploring global and local spatial 3 autocorrelation. Ames. J. Pp 293-316 In T. J. 31 Tukey. 28 Tukey. & A. 15 Stern. Iowa State University. Forest 17 Biodiversity Research. (eds). 1999. 26 Thornhill. 33 Tuomisto. Why do we still use stepwise 50 modeling in ecology and behaviour? Journal of Animal Ecology 75:1182-1189. Pp.. 30 Tukey. 8 Smouse. B. D. USA. B. L. N. American Statistician 34:23-25. Rohlf 1995. D. Harvard University Press.. A graph theory approach to demographic loop analysis. California. 22 Taper. 38 Wallace. Statistics on the Table. Bulletin of the Ecological Society of America 80:231-234. J. Dowe. Bancroft (ed) Statistical 29 Papers in Honour of George W. 13 Starfield. Nichols & M. A. Lele 23 (eds) The Nature of Scientific Evidence. UK. The Black Swan. Some observations on the use of discriminant analysis in ecology. Ecology 79:2539-2549. Moore. J. Building Models for Conservation and Wildlife Management. L. 1977. Leks. Stephens. Rohlf. B. 1999.. 3rd Edition. W. K. P. A. 51 Wilkinson. A. S. MML clustering of multistate. M. 53 Williams. Environmental impact prediction using neural network modelling. Putting things in order: a critique of detrended correspondence 42 analysis. 1999. Oikos 86:374-382. Canonical correspondence analysis: a new eigenvector technique for multivariate 25 direct gradient analysis.. 2004. J. Monitoring and Modeling. M. American 52 Psychologist 54:594-604.. Gangestad. Some graphic and semigraphic displays. Testing causal explanations in organismal biology: causation. 2009. Data arquiving. R. correlation and structural 5 equation modelling. New York. 45 Wasserman. N. New York. Multiple regression and correlation extensions of the Mantel 9 test of matrix correspondence. Riesenberg & A. I. S. P. London. New York. Bayesian model selection and model averaging. J. W. A. 57 Williams. 2 Sawada. Austral Ecology 33:290-300. N. W. 1986. 21 Tammet. 1980. We need both exploratory and confirmatory. Cambridge. P. C. R. 1999. Bleloch. Ruokolainen. 49 Whittingham. C. 55 Williams. 1998. England. Journal of Mathematical Psychology 46 44:92-107. L. J. but under-utilized tool for the analysis of multivariate 44 abundances. Snedecor. Analyzing or explaining beta diversity? Reply. J. D. K. Raw data graphing: an informative. Statistical methods in psychology journals: guidelines and explanations. E. & S. J. 2008. Grice & B. 1998. S. Chicago. J. & J. Addison-Wesley Publishing Company. F. The distribution and abundance of kangaroos in relation 7 to environment in Western Australia. Caughley. Cambridge. 269-283 In F. Ecology 64:1283- 58 1291. Poisson. Hodder & Stoughton. C. Australian Wildlife Research 10:435-451. von Mises circular and Gaussian 39 distributions. Ecology 86:1167-1179. Comiskey. Iowa. Exploratory Data Anazlysis. R. 3244- 34 3256. 1991. Systematic Zoology 35:627-632. The philosophy of multiple comparisons. & F. Rausher. H. N. Mixed effects models and 10 extensions in Ecology with R. M. Brown & K. New York. Inverse problems & structured-population dynamics. N. 1991. overuse. R. Prentice-Hall . N. McGraw- 2 Hill. New York. N. E. G.& H. Terrestrial. B. New York. 158 . Walker. and misuse of significance tests in evolutionary biology and ecology. Statistical Principles in Experimental Design. London. F. 3 Wood. J. J.. 1997. A. Pp 555-586 In Tuljapurkar. NY. 5 Chapman & Hall. Ieno. D. and Freshwater Systems. 6 Yoccoz. Smith. Springer. M. 4 Caswell (eds) Structured-Population Models in Marine.. Use. 4th ed. 1 Winer. 2009. Michaels. S. USA. 8 Zar. 9 Zuur. 1996. Saveliev & G. A. A. S. J. Biostatistical Analysis. 7 Bulletin of the Ecological Society of America 72:106-111. 1991.
Copyright © 2024 DOKUMEN.SITE Inc.