[Música] Boa tarde pessoal! Hoje nós vamos falar sobre os princípios básicos da experimentação e sobre delineamentos experimentais. Pra gente falar sobre princípios básicos de experimentações, delineamentos experimentais, a gente precisa voltar lá atrás e falar do seu idealizador, nós temos que falar então do Fischer.
O Fischer foi a pessoa que pensou nesses princípios básicos e nos principais delineamentos que nós utilizamos hoje. A gente volta em 1883 falando de uma empresa lá na Inglaterra que tinha o objetivo de estudar fertilizantes minerais, então eles testavam vários fertilizantes para saber qual fertilizante era melhor, e eles foram então fazendo várias pesquisas e aí é que foi acumulando um grande conjunto de dados, mas tinha uma dificuldade muito grande para chegar a conclusões válidas sobre esses experimentos. Então pensando nisso, eles decidiram contratar uma pessoa para analisar aquele grande conjunto de dados para tirar conclusões então que fossem conclusões válidas.
Então o Fischer se candidatou a esse cargo e ele foi contratado em 1920, e desde então ele começou a verificar aquele grande conjunto de dados experimentais que essa empresa vinha acumulando há muito tempo. Então, o que que aconteceu? O Fischer viu algumas situações mais ou menos assim: o experimento que tinha sido montado com o fertilizante 1 em um determinado ano, tipo 1845, e depois o experimento feito com fertilizantes 2 em um outro ano, como por exemplo em 1846.
E aí desejava então saber qual desses dois fertilizantes era muito importante, obviamente, a gente consegue ver aqui que não tem como a gente conseguir chegar a essa conclusão de uma forma muito válida, são anos diferentes, pode ter uma diferença em relação à precipitação, temperatura e tudo mais, que pode ter então contribuído para que um determinado tratamento tenha um desempenho diferente do outro, então muitas vezes os adubos poderiam ser iguais, idênticos, o seu desempenho, mas só por estar sendo cultivado em anos diferentes poderia ter uma diferença entre eles, essas variações climáticas. Outra hora, a situação é diferente, era visto um experimento conduzido no mesmo ano, em 1845, por exemplo, mas aqui na fazenda 1 eles colocaram o fertilizante 1, e na fazenda 2 colocaram o fertilizante 2, então mesmo com essa mudança climatológica, não considerando isso, já que está sendo cultivado no mesmo ano, então assim a gente não teria um problema. É fácil a gente imaginar como uma determinada fazenda poderia então ter um solo com uma melhor fertilidade que o outro, uma melhor a umidade, então muitas vezes a diferença no desempenho que a gente teria entre esses dois fertilizantes poderia ser dada então pelas características desses ambientes, não necessariamente ao fertilizante.
Então, olhando esse tipo de experimento cheguei a um outro tipo de situação também, ele viu casos onde o experimento era conduzido na mesma fazenda, mas aí dentro dessa fazenda separava a fazenda, de um lado utilizava fertilizante 1 e do outro lado utilizava fertilizante 2. Fica muito claro que, embora eles estejam dentro da mesma propriedade, ainda pode ter um gradiente de umidade, um gradiente de fertilidade, uma mancha de sol, alguma coisa dentro dessa área que pode fazer com que determinado tratamento tenha uma tendência a ter um desempenho melhor do que o outro. Então Fischer começou a ficar pensando como que conseguiria delinear um experimento para que isso não acontecesse.
Primeira ideia dele foi a seguinte: Fischer pensou em pegar uma área experimental, dividir ela em conjuntos menores que nós podemos chamar de parcelas, então aqui gente tem 20 quadradinhos, 20 parcelas. E aí o Fischer pensou na possibilidade então de casualizar os tratamentos dentro dessa área. Vamos colocar aqui por exemplo, totalmente ao acaso, então olha só, aqui eu peguei os tratamentos e pus ele de uma forma inteiramente ao acaso dentro da área, então fica óbvio que se a gente tiver uma variabilidade aqui dentro dessa área, uma variabilidade não aparente, nós conseguiríamos controlar, ou melhor, atenuar, minimizar a influência dessa variação que nós teríamos dentro dessa área pelo simples fato de a gente ter casualizado os nossos tratamentos.
Como nós vamos avaliar um fertilizante 1 e o fertilizante 2 em nível de média, para fazer a média dos nossos tratamentos, as variações ambientais vão influencia mesmo nosso experimento, isso é uma coisa fácil de enxergar. Então só nesse exemplo aqui o Fischer já pensou em dois princípios básicos da experimentação, que seria a repetição e casualização. Então todos os experimentos devem conter esses dois princípios básicos da experimentação, repetição então seria o ato de nós repetirmos o tratamento dentro da nossa área experimental, e casualização é a disposição aleatória dos tratamentos nas nossas unidades experimentais, então cada quadradinho desse nós podemos conceituar como sendo a parcela, que é a mesma coisa que unidade experimental, nós discutimos alguns conceitos importantes estatísticos em aulas anteriores.
Então, veja só, esse experimento aqui então como a casualização foi feito de uma forma inteiramente casual, sem nenhuma restrição, esse desenho experimental foi denominado então por Fischer sendo delineamento inteiramente casualizado, que a gente pode abreviar por DIC, mas aí o Fischer pensou em uma outra situação. O Fischer pensou em uma situação onde a gente conseguiria ver uma variabilidade aparente dentro da nossa área. Vamos imaginar a seguinte situação: que a gente tem uma área de uma ribanceira, uma área como a determinada declinidade.
Todo mundo sabe que quanto mais embaixo nós estamos, a gente tem uma tendência a ter mais umidade e mais fertilidade, então a gente tem um gradiente nesse sentido de umidade e fertilidade. Vamos imaginar que nós temos, por exemplo, quatro tratamentos e vamos casualizar esses tratamentos aqui de uma forma inteiramente ao caso para a gente ver o que poderia acontecer. Então vamos imaginar que casualizamos nossos tratamentos dessa forma, só de nós olharmos ali, fica muito fácil nós enxergarmos que talvez, se nós compararmos o nosso tratamento A, que apareceu mais frequentemente na parte de cima, com o tratamento C, que apareceu mais frequentemente nesta parte de baixo, é intuitivo a gente afirmar que o tratamento C terá uma tendência a ter melhor desempenho do que esse tratamento alocado aqui nessa parte de cima dessa área experimental, por que?
Porque nessa área a gente tem uma melhor fertilidade. Então mesmo se esses tratamentos, vamos imaginar que fossem adubos, mesmo se esse adubo C e esse adubo A fosse idêntico, a gente teria uma tendência de ter uma média melhor, uma média maior para o tratamento C. Então Fischer pensou o seguinte: quando a gente tem uma variabilidade entre as nossas unidades experimentais, ou seja, dentro da nossa área experimental, nós podemos utilizar um determinado artifício, que seria separar essas nossas unidades experimentais em conjuntos ambientais homogêneos, então vamos imaginar que a gente pegou 193 00:09:34,830 --> 00:09:39,810 nossa área e dividiu ele em três conjuntos ambientais homogêneos, esses conjuntos ambientais nós podemos definir por blocos, então nós não teríamos nenhuma variabilidade dentro do bloco, e obviamente teria heterogeneidade dentro dos blocos, e pelo fato da heterogeneidade dentro da nossa área não afetar de forma prejudicial a qualidade dos nossos tratamentos na hora da gente casualizar os tratamentos aqui, nós então utilizaríamos uma restrição, eu vou fazer uma casualização dentro de cada um dos blocos.
Então se eu tenho quatro tratamentos, vou casualizar dentro do primeiro bloco, depois que eu casualizei no primeiro, vou casualizar no segundo, tratamento A, B, C e D, depois de casualizar dentro do segundo bloco, vamos casualizar dentro do terceiro, tratamento A, B, C, D. Fica muito fácil a gente ver que todos os nossos tratamentos eles estiveram presentes em uma situação onde nós temos uma qualidade pior do solo, uma qualidade intermediária e uma qualidade melhor. Como nós vamos avaliar os nossos tratamentos em nível de média, então isso não vai prejudicar o nosso experimento.
Então a gente utilizou uma restrição, a gente tem uma casualização dentro de cada um dos blocos, e o nome desse delineamento em blocos casualizados, e nós podemos abreviar por DBC. Então aqui nós utilizamos o princípio básico da experimentação que é repetição, cada tratamento está se repetindo nesse experimento, casualização, ou seja, os tratamentos foram alocados de forma aleatória no nosso experimento, e estamos utilizando o controle local, ou seja, nós utilizamos o controle local dividindo a nossa área em conjuntos ambientais homogêneos, que nós chamamos de blocos e dentro de cada um desses blocos é que nós vamos colocar os nossos tratamentos. Então o pessoal, Fischer pensou em uma outra possibilidade, uma situação onde houvesse heterogeneidade em dois sentidos, aqui por ser uma área com declividade, a gente pode ter um gradiente de fertilidade de cima para baixo, onde a parte mais baixa é mais fértil que a parte cima.
Vamos imaginar que nós temos aqui um sistema de irrigação, e sistemas de irrigação foi o mal dimensionado de forma que mais próximo aqui no início de linha a gente tem mais umidade e longe da linha a gente tenha menos umidade. Num caso como esse, controle local teria que utilizar duas vezes, assim pensou o Fischer, então ele pensou em montar o experimento dessa forma, ele pensou em dividir a área se nós temos quatro tratamentos, em quatro 267 00:12:44,270 --> 00:12:52,340 linhas e quatro colunas, isso aqui é um exemplo onde vamos ter quatro tratamento. E aí ele teve a brilhante ideia de que para que essas duas heterogeneidades, nesses dois sentidos de heterogeneidade, não prejudique o experimento, a casualização teria que ser feita de forma que o mesmo tratamento não se repita na mesma linha, nem na mesma coluna.
Então, por exemplo, se o tratamento A está aqui, tratamento A, tratamento A, então o mesmo tratamento A não se repetiu na mesma linha nem na mesma coluna, da mesma forma o tratamento B, tratamento B, tratamento B, não se repetiu na mesma linha e nem na mesma coluna, tratamento C, tratamento C, tratamento C, tratamento C, não se repetiu nem na mesma linha nem na mesma coluna, tratamento D, tratamento D, tratamento D, tratamento D. Então, quando nós formos comparar os nossos tratamentos, em nível de média essa variação não vai afetar de forma tão prejudicial a nossa pesquisa, já que todos os tratamentos estão representados em todas as condições de umidade, e que todos os tratamentos estão representados em todas as nossas condições aqui de fertilidade. Então, a gente utilizou o controle local duas vezes, e este delineamento foi denominado de delineamento em quadrado latino, e a gente pode então abreviar o delineamento em quadrado latino como DQL.
Então nós vamos falar agora especificamente de cada um desses princípios básicos da experimentação e depois vamos falar também das peculiaridades teóricas de cada um desses delineamentos. Nós temos aqui os nossos três princípios básicos da experimentação: repetição, casualização e controle loca. Repetição então nada mais é do que todas aquelas parcelas que receberam o mesmo tratamento, podemos definir também repetição como sendo o ato de repetir um determinado tratamento entre as nossas unidades experimentais.
É óbvio que a gente pensar que quanto mais repetições nós tivermos uma pesquisa mais preciso vai ser o nosso experimento, porém, não necessariamente o experimento vai ser mais eficiente, quando a gente aumenta muito o número de repetições o nosso número de parcelas aumenta, ou seja, o nosso número, o nosso tamanho experimento, aumenta bastante. Se nós tivermos quatro tratamentos e cinco repetições, nós vamos ter então 20 parcelas. Se eu tenho quatro tratamentos e seis repetições, então vai passar para 24 parcelas.
Então o que eu quero dizer? Quando a gente tem um número muito grande de repetições, muitas vezes nosso experimento ele vai se tornar muito difícil de ser conduzido, a gente vai gastar muitos recursos financeiros, muito material, muita mão de obra, e isso pode fazer com que o nosso experimento então ele seja inexequível, então é muito importante nós definirmos um número ótimo de repetições na nossa pesquisa. Existem alguns critérios que definem o número ótimo de repetições, nós podemos levar em consideração os recursos financeiros que nós temos à disposição, a quantidade de material vegetal, animal que a gente tem, nós podemos levar em consideração uma quantidade de mão de obra a gente tem, então esses aí são pontos práticos que influencia o nosso número ótimo de repetições muitas vezes a gente tem que utilizar isso aí como uma limitação.
O Pimentel Gomes apresenta pra gente algumas regrinhas que também são muito utilizadas, ele disse que para montar um experimento, o número de repetições deve garantir que nós tenhamos então no mínimo 20 parcelas, ou seja, se a gente coisa tivesse quatro tratamentos nós número de repetições poderia ser 5, 5 vezes 4, 20 parcelas, então um número mínimo de parcelas é igual a 20. Outro critério que ele coloca é que nosso número de graus de liberdade do resíduo deve ser superior à 10, então isso aí são algumas regrinhas que muitas pessoas utilizam como indicativo no número ótimo de repetições. Existem algumas outras estratégias também, nós podemos considerar a experiência do pesquisador naquela determinada área, nós podemos fazer uma revisão de literatura e dar uma olhada no que os outros trabalhos fazem, ou então, nós podemos utilizar algumas metodologias estatísticas, onde baseamos no coeficiente de variação daquela característica, na diferença mínima significativa que a gente deseja ou para os nossos tratamentos nós encontrarmos o número ótimo de repetições.
Essa forma científica da gente definir o tamanho ótimo de repetição, é uma forma um pouco mais ideal, principalmente em situações quando a gente trabalha com animais e precisa então se submeter o projeto ao comitê de ética, então se eu vou utilizar quatro repetições, eu tenho que falar porquê quatro repetições e não três, então por quê? Porque a gente está trabalhando com vidas, experimentações com animais, então a gente tem que trabalhar com menor tamanho possível populacional, ou seja, com menor número possível de animais. Outro princípio básico da experimentação é a casualização, a casualização ela nada mais é do que aquela disposição aleatória dos nossos tratamentos nas nossas unidades experimentais, então aquela distribuição dos nossos tratamentos têm que ser feita de forma aleatória, e isso vai nos garantir uma das pré-suposições na análise de variância, que é independência dos resíduos, então a gente sempre tem que ter na pesquisa repetição e casualização.
Algo importante para a gente falar da repetição é que ela nos possibilita a estimação do quadrado médio do resíduo, ou seja, da variância residual, da variância que se deve ao acaso, e, é por meio dessa variância que a gente faz vários testes de hipóteses, então se a gente não tiver repetição, dependendo da situação, a gente nem sequer consegue fazer uma análise estatística. Falando aqui sobre controle local, então o controle local deve ser utilizado em situações onde a gente tem uma heterogeneidade ambiental. Então a gente agrupa as nossas unidades experimentais em conjuntos homogêneos, que nós podemos denominar de blocos, e dentro destes conjuntos ambientais que nós vamos aleatorizar os nossos tratamentos.
Então o controle local deve ser utilizado apenas quando a gente heterogeneidade entre as nossas unidades experimentais. Delineamento inteiramente casualizado, utiliza dois princípios básicos da experimentação, que é a repetição e a casualização, não existe nenhuma restrição então na forma como qual nós vamos fazer a nossa casualização, ou seja, a casualização é feita inteiramente ao acaso. A gente utiliza esse delineamento quando todas as condições ambientais, ou todos os indivíduos que receberão os nossos tratamentos são homogêneos.
Então, esse alinhamento nos traz algumas vantagens, e é um delineamento bastante flexível, nós podemos utilizar qualquer número de tratamentos, qualquer número de repetições, o nosso número de repetições pode ser desigual, ou seja, pode haver desbalanceamento, análise estatística é um pouquinho mais simples, o nosso número de grau de liberdade do resíduo será o maior possível. Daqui a pouco nós vamos fazer alguns exemplos para a gente entender o que é esse grau de liberdade resíduo. Mas ele tem uma desvantagem, ele exige que haja homogeneidade da nossa área experimental, se não houver essa homogeneidade, nosso erro experimental será muito grande.
Quanto ao delineamento em blocos casualizados, a gente pode imaginar aqui um outro exemplo com animais, onde nós poderíamos ter, por exemplo, quatro rações, rações A, B, C e D, e, temos 12 animais. Vamos imaginar que esses animais variam de acordo com o tamanho, a idade, o peso, então a gente poderia separar esses animais em conjuntos homogêneos, esses conjuntos homogêneos que nós chamamos de blocos. Então dentro de cada um dos blocos nós então iremos casualizar os nossos tratamentos, de forma que o mesmo tratamento não vai se repetir dentro do bloco e todos os tratamentos serão representados em todos os blocos, então isso aqui é uma possibilidade também pra gente trabalhar com animais.
Então a gente tem algumas vantagens, o delineamento em blocos casualizados é um dos delineamentos estatísticos mais utilizados, principalmente nas ciências agrárias, ele atende três princípios base da experimentação: repetição, casualização e o controle local, sendo então que o controle local ele é atendido pelo uso de blocos. A gente deve utilizar esse delineamento apenas quando a gente não tem homogeneidade das nossas condições ambientais, ou então quando a gente não tem uma homogeneidade entre as nossas unidades experimentais, pensando em um caso com animais, caso contrário a gente não precisa utilizar este delineamento. Então, quando a gente utiliza o DBC a gente tem uma restrição na casualização, pois os tratamentos então eles devem ser casualizados dentro de cada um dos blocos individualmente.
Nesse caso então, todos os blocos terão todos os tratamentos, e em cada bloco, o tratamento ele não será repetido. Vantagens: vantagem do DBC é que ele controla muito bem a heterogeneidade que a gente tem na nossa área, e a gente vai ter nessas situações, de heterogeneidade, uma melhor estimativa da variância residual. A gente tem algumas desvantagens também, nós vamos ter uma redução do nosso grau de liberdade do resíduo, dentro do bloco a gente tem que ter homogeneidade, se a gente tiver heterogeneidade dentro do nosso bloco, o delineamento ele não vai ser eficiente, este delineamento é bastante susceptível ao desbalanceamento, ou seja, ao número desigual de repetições, então se nós tivermos nosso experimento e a gente perder uma parcela, nós vamos ter então um número desigual de repetições por tratamento, e esse desbalanceamento é bastante danoso no caso do DBC, ao contrário do DIC, como nós já falamos.
Esse delineamento ele não permite um número muito grande de tratamentos, porque se a gente tiver muitos tratamentos, vai ser muito difícil a gente conseguir um bloco que seja grande o suficiente para alocar todos esses tratamentos, e ainda assim ser homogêneos, então isso aqui são desvantagens do DBC. O outro delineamento que nós falamos, foi o delineamento quadrado latino, com animais nós podemos imaginar uma situação onde nós temos variações aqui na linha, em relação à idade do animal, e aqui na coluna, em relação à raça do animal. Então se nós fomos testar três rações, nós deveríamos distribuir esses animais em três linhas e três colunas, obviamente nós teríamos três repetições, e a casualização é feita de forma que o mesmo tratamento não se repita nem na mesma linha, nem na mesma coluna.
Então, este delineamento ele é utilizado apenas quando a gente tem grande heterogeneidade dentro da nossa área experimental, ou então, os indivíduos que receberão esses tratamentos. Ele utiliza os três princípios básicos da experimentação, sendo que nesse caso, o controle local é feito em dois sentidos uma vez no sentido da linha e outra vez no sentido da coluna. Vantagens: ele é ideal para situações onde a gente tem uma grande heterogeneidade na nossa área experimental, e, muitas vezes é mais informativo também.
Com animais, se a gente está estudando o ganho de peso nós conseguimos ver então se existe diferença entre as rações quanto ao ganho de peso, se existe diferença entre as idades em relação ao ganho de peso, e se existe diferença entre as raças quanto ao ganho de peso, então algumas situações ele é mais informativo. Mas é um delineamento que tem muitas desvantagens, como nós vimos no nosso exemplo, ele tem uma baixa flexibilidade, o número de tratamentos é igual ao número de linhas, que é igual ao nosso número de colunas, que é igual ao nosso número de repetições, então ele tem uma baixa flexibilidade. Não tem como a gente trabalhar com um número muito grande de tratamentos, porque o nosso número de parcelas será então igual ao nosso número de tratamentos ao quadrado.
Se nós tivermos quatro tratamentos, nós vamos ter 16 parcelas, se nós tivermos seis tratamentos, ou seja, se a gente aumentar só dois tratamentos, nós vamos ter 36 parcelas, então olha só, eu aumento dois tratamentos e, consequentemente, número de parcelas aumenta em 20. Então isso vai fazer com que o nosso número parcelas, ou seja, o nosso tamanho do experimento aumente muito, na medida que a gente aumenta também um número de tratamento, então a gente não consegue trabalhar com um número muito alto de tratamentos, a gente tem uma perda severa de graus de liberdade do resíduo. E esse delineamento também é bastante influenciado pelo desbalanceamento, então se a gente tiver perdas de parcelas isso vai ser bastante danoso aí no caso do DQL.
Então pessoal, para nós conseguirmos então entender como que a gente tem uma redução muito grande grande de grau de liberdade do resíduo quando a gente utiliza DBC ou DQL, vamos imaginar uma situação onde nós temos cinco tratamento e cinco repetições, vamos ver como vai ficar a nossa análise de variância pro DIC, DBC e DQL. Vamos imaginar primeiro uma situação onde nós estamos utilizando DIC, quando a gente está no delineamento inteiramente casualizado, então a gente está controlando apenas o efeito de tratamentos, nós vamos ter então, além disso, a fonte de variação que é o resíduo, a gente sempre tem o erro experimental em uma pesquisa, e temos aqui o total. Esse GL aqui nos representa os graus de liberdade, e para a gente saber o que é grau de liberdade é só a gente voltar então na estatística básica e lembrar a fórmula da variância, então na fórmula da nossa variância amostral, nós temos somatório de Xi menos a nossa média geral ao quadrado e dividir por N menos 1.
Essa parte de cima seria nossa soma de quadrado dos desvios (SQ), essa parte de baixo é o nosso grau liberdade (GL) e essa parte aqui é o que nós chamamos de quadrado médio, que é a nossa variância. Então na análise de variância a gente quer obter uma variância associada a cada uma das suas fontes de variação. E a primeira informação que a gente precisa obter é do nosso grau de liberdade, que é o nosso tamanho amostral menos um.
Então se nós temos aqui cinco tratamentos, nosso grau de tratamento cinco menos um, nós vamos ter grau de liberdade quatro. Se nós temos cinco tratamentos, cinco repetições, 5x5=25 nós vamos ter 25 parcelas, grau de liberdade 25-1=24, por diferença nós conseguimos achar o do resíduo, 24-4 =20, então esse seria o nosso número de graus de liberdade considerando o DIC. Vamos ver como vai ficar no DBC?
No caso do DBC, nós vamos conseguir então controlar os efeitos dos tratamentos no experimento, a gente vai conseguir controlar o efeito do bloco, e por diferença fazendo variação total que a gente tem menos os tratamentos e blocos, a gente consegue achar o resíduo diferente. Então se nós temos cinco tratamentos, 5 - 1 graus de liberdade 4, nós temos cinco blocos cinco repetições, a gente vai ter 5 blocos, grau de liberdade 4. Se a gente tem cinco tratamentos e cinco repetições, nós vamos ter 25 parcelas, ou seja, 25 observações, então nosso total então, grau de liberdade total de 25 - 1 = 24 24-8, vai sobrar aqui 16 graus de liberdade para o resíduo, então a gente consegue ver com um experimento de mesma dimensão que a gente já teve uma perda de grau de liberdade do DBC em relação ao DIC, vamos ver agora para o DQL.
Então, vamos ver o que acontece no DQL, no DQL nós temos então a fonte de variação tratamentos, que a gente está controlando, nós controlar a heterogeneidade existente através nossas linhas, então a gente vai ter a fonte de variação linha, coluna, a gente também está dividindo em colunas, o resíduo que a gente sempre tem aqui na análise de variância, somando todo mundo a variação total. Nós falamos no DQL, se a gente tem cinco tratamentos, a gente vai ter cinco linhas, cinco colunas e cinco repetições. Então cinco tratamentos, 5-1 = 4 graus de liberdade.
Se a gente tem cinco linhas, grau de liberdade 4, se a gente tem cinco colunas, grau de liberdade 4, se a gente tem cinco tratamentos, 5 linhas, cinco colunas, 5x5 = 25 então a gente vai ter 25 parcelas 25-1 = 24 parcelas. 24 – 12 = 12, nós vamos ter 12 graus de liberdade, então é possível ver que se nós utilizarmos o DQL, o quadrado latino, a gente vai ter uma perda muito severa de graus de liberdade, então sempre quando a gente conseguir utilizar o DBC, a gente tem que evitar de utilizar o DQL, e sempre também que a gente conseguir evita de utilizar o DBC utilizar o DIC, é preferível utilizar o DIC, porque a gente vai ter um número maior de graus de liberdade do resíduo, com maior precisão nós vamos conseguir encontrar diferença significativa entre médias, encontrar efeitos significativos dos nossos coeficientes dos nossos tratamentos ideal que a gente tenha o maior número de graus de liberdade possível no resíduo.