Estatística Aplicada e Biometria
URI permanente para esta coleçãohttps://locus.ufv.br/handle/123456789/195
Navegar
16 resultados
Resultados da Pesquisa
Item Estimação da Sensibilidade e Especificidade de Testes Diagnósticos da Brucelose Bovina via lnferência Bayesiana(Universidade Federal de Viçosa, 2014-10-22) Souza, Márcio Rodrigues dos Santos; Silva, Fabyano Fonseca e; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4766260Z2; Santos, Gérson Rodrigues dos; http://lattes.cnpq.br/0674757734832405; Silva, Carlos Henrique Osório; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4785396A6; http://lattes.cnpq.br/4362780621340321; Nascimento, Moysés; http://lattes.cnpq.br/6544887498494945; Silva, Antônio Fernando Pêgo e; http://lattes.cnpq.br/4978699023776025A brucelose é uma doença infectocontagiosa provocada por bactérias do gênero Brucella que produz infecção característica nos animais, podendo contaminar o homem. Os testes para diagnóstico da brucelose utiIizados no Brasil são reaIizados a partir de amostras obti- das em animais com suspeita da enfermidade abatidos ou mortos na propriedade. No país são poucos os estudos de vaIidação de testes diagnósticos para brucelose que apresentam metodologias estatísticas para a estimação da sensibilidade e da especificidade satisfatori- amente. Neste trabalho, empregou a metodologia proposta por Joseph, Gyorkos e Coupal (1995) para obter estimativas da sensibilidade e da especificidade do teste de triagem Antígeno Acidificado Tamponado (AAT) e dos testes confirmatórios Mercaptoetanol (2- ME) e Diagnóstico Bacteriológico (DBac), testes estes, em conformidade ao Programa Nacional de Controle e Erradicação da Brucelose e da Tuberculose Animal (PNCEBT) inserido no Brasil em 2001. De forma complementar, comparou-se as estimativas em três cenário distintos: quando dispõe do resultado de somente um teste; (ii) quando dispõe dos resultados de dois testes; e (iii) quando dispõe dos resultados de três testes. A amostra conteve 175 animais, obtida por conveniência a partir de material encaminhado, de todas as regiões do BrasiI, ao Laboratório de Diagnóstico de Doenças Bacterianas do LANAGRO-MG, entre os anos de 2008 a 2011. Os códigos para obter as estimativas foram impIementados no OpenBUGS, por meio do algoritmo Gibbs Sampler. Os resuIta- dos apontaram que a prevalência estimada para brucelose bovina em animais suspeitos é de 79%, ou seja, de cada 100 animais com suspeita da doença, 79 são diagnósticos como doentes. Em relação às medidas de desempenho, AAT se mostrou mais sensível para diagnosticar a Brucelose Bovina, o 2-ME mais Especifico para não diagnosticar a Brucelose Bovina e o DBac mostrou-se 100% específico para não diagnosticar a doença e menos sensível para diagnosticar a doença.Item Estatística Espacial aplicada na caracterização de áreas de risco para hipertensão e diabetes no estado de Minas Gerais(Universidade Federal de Viçosa, 2013-12-05) Pinto, Eliangela Saraiva Oliveira; Oliveira, Fernando Luiz Pereira de; http://lattes.cnpq.br/1284343084296509; Santos, Nerilson Terra; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4782537A2; Santos, Gérson Rodrigues dos; http://lattes.cnpq.br/0674757734832405; Amaro, Marilane de Oliveira Fani; http://lattes.cnpq.br/8475779445932134O objetivo deste estudo foi avaliar a distribuição espacial da taxa de prevalência de hipertensão arterial e diabetes mellitus do estado de Minas Gerais, entre 2002 a 2012. Para o cálculo das taxas de prevalência, foram considerados os dados obtidos por meio dos registros do cadastro familiar do SIAB-MG do DATASUS, considerando homens e mulheres hipertensos ou diabéticos, acima de 15 anos, bem como a população total por município, maior de 15 anos, conforme censo 2010 do IBGE. Foram considerados os 853 municípios de Minas Geais como unidades de análise espacial e utilizou-se as técnicas de análise espacial de dados de área, destacando-se a média móvel local, os coeficientes de autocorrelação global de Moran e o índice local de Moran (LISA). Além disso, foram construídos mapas temáticos de distribuição espacial, de autocorrelação local (Box Map) e de identificação de cluster, utilizando a estatística Scan espaço- temporal. Verificou-se que há autocorrelação espacial para a taxa de prevalência de hipertensão e de diabetes, entre os municípios, em que apresentou coeficientes de Moran (global) positivos e significativos para todos os anos estudados, indicando similaridade entre os municípios. Foi possível identificar, por meio da análise local, agrupamento de municípios situados na parte sul do estado com maiores taxas de prevalência de hipertensão e também de diabetes em todos os anos estudados. Também constatou-se cluster que persistiram no espaço e no tempo para ambas as variáveis e que se localizaram no sul do estado. Conclui-se que a análise espacial permitiu mapear e compreender a distribuição das taxas de hipertensão e diabetes no estado de Minas Gerais. Estudos como este fornecem informações para que os serviços de saúde local possam selecionar os principais locais com taxas altas, na tentativa de propor ações de controle, bem como monitorar as regiões que apresentam taxas baixas.Item Seleção genômica ampla em suínos usando o modelo de sobrevivência de Cox(Universidade Federal de Viçosa, 2013-02-26) Santos, Vinicius Silva dos; Silva, Fabyano Fonseca e; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4766260Z2; Resende, Marcos Deon Vilela de; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4709374E4; Martins Filho, Sebastião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282T5; http://lattes.cnpq.br/5809878805245760; Nascimento, Carlos Souza do; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4734058H3A seleção genômica ampla (GWS) surgiu em 2001 com o objetivo de aumentar a eficiência e acelerar o ganho de seleção no melhoramento genético baseando-se exclusivamente em marcadores após terem seus efeitos genéticos estimados a partir de dados fenotípicos. No contexto de análise de sobrevivência, o modelo de riscos proporcionais de Cox com efeito aleatório foi comparado ao modelo linear misto, ambos usando a matriz de parentesco baseada em marcadores em substituição à baseada em pedigree, método esse denominado GBLUP. A aplicação foi feita aos dados reais de uma população F2 de suínos em que a variável resposta foi o tempo em dias, do nascimento até o abate do animal e as covariáveis: marcadores SNPs (238), sexo e lote de manejo. Os dados foram previamente corrigidos para seus efeitos fixos e a acurácia do método foi calculada com base na correlação dos postos dos valores genéticos genômicos preditos em ambos os modelos com os valores fenotípicos corrigidos. A análise foi repetida considerando menor número de marcadores SNPs que apresentassem maiores efeitos em módulo. Os resultados demonstraram concordância na predição dos valores genéticos genômicos e na estimação dos efeitos de marcadores para ambos os modelos na situação de dados não censurados e normalidade. No entanto, ao considerar a censura, o modelo de Cox com efeito aleatório normal foi o mais apropriado, uma vez que não houve concordância na predição dos valores genéticos genômicos e na estimação dos efeitos de marcadores com o modelo linear misto com dados imputados. A seleção de marcas permitiu um aumento nas correlações entre os postos dos valores genéticos genômicos preditos pelo modelo linear e pelo modelo de fragilidade de Cox com os valores fenotípicos corrigidos, sendo que para a característica analisada, 120 marcadores foram suficientes para maximizar a capacidade preditiva.Item Regressão logística politômica ordinal: Avaliação do potencial de Clonostachys rosea no biocontrole de Botrytis cinerea(Universidade Federal de Viçosa, 2012-07-23) Lara, Evandro de Avila e; Maffia, Luiz Antônio; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4783229P9; Silva, Carlos Henrique Osório; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4785396A6; Martins Filho, Sebastião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282T5; http://lattes.cnpq.br/5652280779186064; Bhering, Leonardo Lopes; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4764363E6; Santos, Gérson Rodrigues dos; http://lattes.cnpq.br/0674757734832405O uso da regressão logística como uma ferramenta estatística para modelar a probabilidade de um evento em função de uma ou mais variáveis explicativas, tem crescido entre pesquisadores em várias áreas, inclusive na Fitopatologia. À respeito da regressão logística dicotômica, na qual a variável resposta é do tipo binária ou dummy, é extenso o número de trabalhos na literatura que abordam a modelagem, as pressuposições e a interpretação das análises, bem como alternativas de implementação em pacotes estatísticos. No entanto, quando a variável resposta requer que se utilize três ou mais categorias, o número de publicações é escasso. Isso devido não somente à escassez de publicações relevantes sobre o assunto, mas também à inerente dificuldade de abrangência sobre o tema. No presente trabalho aborda-se a aplicabilidade do modelo de regressão logística politômica ordinal, bem como as diferenças entre os modelos de chances proporcionais, chances proporcionais parciais e chances não proporcionais. Para isso, foram analisados dados de um experimento em que se avaliou o potencial do fungo antagonista Clonostachys rosea no biocontrole da doença denominada mofo cinzento , causada por Botrytis cinerea em morangueiro e tomateiro. Os modelos de chances proporcionais parciais e não proporcionais foram ajustados e comparados, uma vez que o teste score de proporcionalidade acusou rejeição da pressuposição de chances proporcionais. As estimativas dos coeficientes dos modelos bem como das razões de chances foram interpretadas em termos práticos para a Fitopatologia. A regressão logística politômica ordinal se apresentou como uma importante ferramenta estatística para predição de valores, mostrando o potencial do C. rosea em se tornar um produto comercial a ser desenvolvido e usado no controle biológico da doença, pois a aplicação de C. rosea foi tão ou mais eficiente do que a utilização de fungicidas no controle do mofo cinzento.Item Simulação de fatores que afetam as predições obtidas por krigagem ordinária(Universidade Federal de Viçosa, 2013-03-18) Reis, Cássio Pinho dos; Santos, Gérson Rodrigues dos; http://lattes.cnpq.br/0674757734832405; Ribeiro Junior, José Ivo; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282Y6; Santos, Nerilson Terra; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4782537A2; http://lattes.cnpq.br/7910862177613813; Carneiro, Antônio Policarpo Souza; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4799449E8; Valente, Domingos Sárvio Magalhães; http://lattes.cnpq.br/8080945803303151O objetivo deste estudo é poder identificar, como diversos fatores podem afetar a variância das predições obtidas por Krigagem Ordinária. Para tanto, foram simulados diferentes cenários para poder obter as predições de Krigagem Ordinária, usando os três modelos de semivariograma usuais, quantidades diferentes de vizinhos para realizar a predição, diferentes níveis de dependência espacial e tamanhos de amostra. Observou-se que embora todos os modelos tenderam produzir predições não viesadas, o modelo esférico tendeu a apresentar a maior variabilidade dos erros de predições na maioria dos cenários simulados, enquanto que o gaussiano obteve a menor. Verificou-se também que quando se aumentou o valor do índice de dependência espacial (IDE), o tamanho do grid e a quantidade de vizinhos mais próximos, os modelos tenderam a apresentar menores variabilidades para todos IDE estudados, sendo que o mesmo tende a se estabilizar quando se chega a uma determinada quantidade de vizinhos. Quanto à avaliação das estimativas, o modelo exponencial tendeu a ser o modelo com a pior avaliação sobre a variabilidade das predições e o esférico com a melhor avaliação na maioria dos cenários simulados, porém quando se aumenta a quantidade de vizinhos, o comportamento dos modelos se alteram de acordo com o índice de dependência espacial.Item Comparação das funções de ligação logit e probit em regressão binária considerando diferentes tamanhos amostrais(Universidade Federal de Viçosa, 2013-02-20) Freitas, Leillimar dos Reis; Silva, Fabyano Fonseca e; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4766260Z2; Ribeiro Junior, José Ivo; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282Y6; Martins Filho, Sebastião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282T5; http://lattes.cnpq.br/4304104026481353; Almeida, Fernanda Maria de; http://lattes.cnpq.br/4829259372237308Considerou-se um estudo de regressão binária por meio as funções de ligação logit e probit visando verificar a robustez das funções de ligação diante da variação do tamanho da amostra. Estas funções de ligação utilizam, respectivamente, as distribuições acumuladas logística e normal, sendo a principal diferença entre elas os valores de probabilidades nos extremos da variável independente. Dentro desse contexto, foram realizadas simulações com 500 repetições utilizando amostras de 10 diferentes tamanhos, desde 10 a 91, com uma diferença entre as sucessivas amostras de 9 unidades. As medidas de desempenho percentual de convergência, erro quadrático médio da probabilidade geral, erro quadrático médio da probabilidade específica, teste Wald para os coeficientes, foram utilizadas para estabelecer uma recomendação para o uso das duas diferentes funções de ligação quando os dados foram gerados com o uso do logit e probit e analisados por ambas as funções de ligação em cada tamanho de amostra. Concluiu-se que o objetivo desse trabalho foi atingido ao estabelecer uma recomendação para o uso da função de ligação logit para tamanhos inferiores a 20 devido a maior taxa de convergência, ou seja, foi verificado com a utilização da função de ligação logit que há um maior número de amostras em que foi possível estimar os parâmetros da regressão binaria. Para maiores tamanhos de amostras, utilizando as demais medidas de desempenho, tanto o logit como o probit mostraram-se semelhantes, pois não foram encontradas diferenças significativas entre esses dois tipos de funções.Item Desempenho do delineamento composto central em experimentos com alto coeficiente de variação(Universidade Federal de Viçosa, 2012-02-17) Mendonça, Layanne Andrade; Santos, Nerilson Terra; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4782537A2; Ribeiro Junior, José Ivo; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282Y6; http://lattes.cnpq.br/3786503204684273; Peternelli, Luiz Alexandre; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723301Z7; Takahashi, Lucy Tiemi; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4791507J2Esse trabalho teve como objetivo avaliar o desempenho do delineamento composto central rotacional (DCCR) em relação às estimativas dos parâmetros da superfície de resposta estimada, sob condições de erros experimentais simulados que proporcionam altos coeficientes de variação. O grande impulso da metodologia de resposta foi dado por Box e Wilson (1951), que desenvolveram métodos de otimização de processos em pesquisas industriais. Dentre esses métodos, pode-se citar o DCCR como um delineamento econômico para a superfície de resposta, devido ao número reduzido de combinações entre os níveis dos fatores estudados, quando comparado ao fatorial completo. No entanto, sabe-se que estes delineamentos são eficientes onde normalmente os erros experimentais são pequenos e as condições do experimento são mais facilmente controláveis. Portanto, dada a economia do número de ensaios pelo DCCR, tornou-se importante verificar o seu potencial em delinear tratamentos visando o ajuste de superfícies de respostas para experimentos ligados às ciências agrárias, que apresentam, naturalmente, maiores erros aleatórios. Para tanto, os delineamentos de tratamentos, fatorial completo e composto central rotacional foram utilizados para planejar as combinações entre os níveis codificados de dois fatores (A e B). Foi estabelecido um modelo de segunda ordem para dois fatores A e B sem interação entre eles, denominada de superfície de resposta verdadeira. Foi estabelecido um fatorial completo 5x5, com as combinações entre os níveis codificados dos fatores A e B e com 40 repetições por tratamento. No total, foram constituídas 1000 unidades experimentais. Posteriormente, foram feitas 100 simulações para os erros experimentais presentes no experimento sob distribuição normal com média zero e variância σε2. O parâmetro σε foi especificado em 32, 48, 64 e 80, para fornecer os coeficientes de variação residuais (CV) iguais a 25, 37, 50 e 62 %. A escolha de tais coeficientes de variação foi feita de modo a abranger as classificações criadas por Ferreira (1991), citado por Silva et al. (2011), e Pimentel Gomes (1985) para as áreas agrárias. Os valores observados de Y foram obtidos a partir da soma dos valores verdadeiros de Y ( ) obtidos a partir da superfície de resposta verdadeira, com os resíduos , gerados pela simulação. Em cada tipo de delineamento (DCCR e fatorial completo), foram estabelecidas três, seis, nove e doze repetições por tratamento. De acordo com as combinações entre os tipos de delineamentos, coeficientes de variação e número de repetições por tratamento, foram realizados 100 ajustes da superfície de resposta dos quais foram obtidas as médias do coeficiente de determinação, EQM, a distância média entre o ponto crítico verdadeiro e o estimado (DPC) e a diferença média entre os coeficientes de variação estimados e simulados (DCV), além da porcentagem de acerto e intervalo de confiança de cada parâmetro e a porcentagem de acerto da superfície de resposta. Posteriormente foi feita uma regressão dessas medidas avaliadas em função do delineamento, coeficiente de variação e número de repetições por tratamento. A superioridade do desempenho do fatorial completo em relação DCCR aumentou em função do aumento do CV e da diminuição do número de repetições por tratamento. Recomendou-se o DCCR sob condições experimentais mais bem controladas, por ser um delineamento de tratamento mais econômico. No entanto, sabendo do difícil controle do erro aleatório em experimentos das áreas agrárias, em experimentos dessa natureza recomendou-se o fatorial completo ou o DCCR com um número maior de repetições por tratamento. Conclui-se também que o aumento do CV prejudica a qualidade de ajuste do fatorial completo e principalmente a do DCCR e esse prejuízo pode ser compensado com o aumento do número de repetições por tratamento. Percebeu-se que a qualidade de ajuste proporcionada pelo delineamento de tratamento não depende só da quantidade dos mesmos, mas principalmente da quantidade de unidades experimentais suficientes para proporcionar estimativas adequadas dos efeitos dos fatores conhecidos e desconhecidos.Item Métodos de estimação em regressão logística com efeito aleatório: aplicação em germinação de sementes(Universidade Federal de Viçosa, 2012-02-01) Araujo, Gemma Lucia Duboc de; Colosimo, Enrico Antônio; http://lattes.cnpq.br/8074052644801438; Silva, Fabyano Fonseca e; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4766260Z2; Martins Filho, Sebastião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282T5; http://lattes.cnpq.br/2051017001548415; Lopes, Jaques Silveira; http://lattes.cnpq.br/1605698945852448; Resende, Marcos Deon Vilela de; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4709374E4Em modelos de regressão logística a inclusão do efeito aleatório no intercepto permite capturar os efeitos de fontes de variação provenientes das características particulares de um grupo (heterogeneidade), desinflacionando o erro puro e provocando uma flutuação no intercepto do modelo. Esta inclusão traz complexidade nos métodos de estimação e também muda a interpretação dos parâmetros que, dada originalmente pela razão de chances, passa a ser vista sob o enfoque da razão de chances mediana. A estimação dos parâmetros de um modelo misto pode ser feita por muitos métodos diferentes com desempenho variado, como o método da aproximação de Laplace, da máxima verossimilhança (ML) e da máxima verossimilhança restrita (REML). Assim, o objetivo deste trabalho foi verificar em modelos de regressão logística com efeito aleatório no intercepto as consequências na interpretação dos parâmetros, na qualidade de um experimento e na classificação de tratamentos via razão de chances mediana, e verificar o desempenho dos métodos de estimação acima citados. As análises foram feitas sob simulação e posteriormente num conjunto de dados reais de um experimento com germinação de sementes de pinhão-manso (Jatropha curcas L.). Considerando o modelo de regressão logística com efeito aleatório no intercepto, verificou-se que o método de estimação REML apresentou melhor desempenho e que a variância do efeito aleatório afeta o desempenho de qualquer um dos métodos avaliados sendo estes inversamente proporcionais. Sugerem-se novos estudos para determinar com mais propriedade a influência dos pontos de estabilização e do nível mediano de efetividade na eficiência dos métodos. No experimento de avaliação de germinação de sementes de pinhão-manso envolvendo os substratos rolo de papel, sobre papel, sobre areia e entre areia, a inclusão do efeito aleatório no modelo logístico apontou considerável heterogeneidade na germinação de sementes em unidades diferentes de um mesmo substrato. A razão de chances mediana apontou a superioridade do substrato entre areia em relação a sobre papel na germinação de sementes de pinhão-manso, resultado semelhante ao obtido pelo teste de Tukey.Item Comparação de métodos para definição do número ótimo de grupos em análise de agrupamento(Universidade Federal de Viçosa, 2012-02-02) Alves, Suelem Cristina; Martins Filho, Sebastião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282T5; Cruz, Cosme Damião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4788274A6; Peternelli, Luiz Alexandre; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723301Z7; http://lattes.cnpq.br/4007546105759852; Nascimento, Moysés; http://lattes.cnpq.br/6544887498494945; Espeschit, Claudio José BorelaEstudos envolvendo análise de agrupamento hierárquico encontram um problema na hora de determinar o número ótimo de grupos, devido à falta de critérios objetivos. Pesquisas que envolvem o ajuste de modelos não-lineares a dados de crescimento ou de sobrevivência, cujo interesse principal é saber quantas curvas são necessárias para descrever o comportamento dos indivíduos analisados, utilizam dessa técnica. Como forma de auxiliar essa decisão, alguns pesquisadores recorrem aos índices BSS (Between-group Sum of Squares), SPRSQ (Semi-partial R-Squared), RMSSTD (Root Mean Square Standard Deviation), RS (R-Squared) e ao método de Mojena. Entretanto, não se sabe qual deles é a melhor escolha para determinação desse valor. A comparação dessas estatísticas foi o objetivo desse trabalho. Toda a metodologia utilizou o método de Ward para fazer o agrupamento das observações, o modelo de von Bertalanffy para o ajuste das curvas, e uma função própria, baseada na lei dos cossenos e na ideia do Método da Máxima Curvatura Modificado, para calcular o número de grupos indicado pelos índices. No capítulo 1 foi feito o estudo de caso real. O conjunto de dados possuía sete curvas de crescimento animal, que formavam três grupos. Após o agrupamento das estimativas dos parâmetros e o cálculo das estatísticas, foi constatado que apenas o índice SPRSQ apontou o número de grupos correto. Usando uma função que re-escalona o eixo dos índices de acordo com o eixo do número de grupos, para melhorar os resultados obtidos, apenas o RMSSTD não indicou o valor esperado. O capítulo 2 descreve o uso da simulação para descobrir qual das estatísticas citadas possuía maior porcentagem de acerto quanto à determinação do número ótimo de grupos em dois cenários. No primeiro, as observações provinham de uma única curva geradora e no outro, os indivíduos pertenciam a três populações diferentes. Para o caso de uma única curva, o índice RS foi o que apontou o número ótimo de grupos na maioria dos casos. Para o cenário onde se possuía três populações diferentes, o método de Mojena foi o que acertou o número de grupos mais vezes. Nesses cenários, o uso da função que re-escalona os eixos não mostrou eficiência para melhorar a porcentagem de acertos dos índices. De modo geral, os índices RS e SPRSQ mostraram-se os mais indicados para auxiliar na determinação do número ótimo de grupos.Item Técnicas não-paramétricas e paramétricas usadas na análise de sobrevivência de Chrysoperla externa (Neuroptera: Chrysopidae)(Universidade Federal de Viçosa, 2012-03-13) Miranda, Marconi Silva; Silva, Fabyano Fonseca e; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4766260Z2; Venzon, Madelaine; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4795615T1; Martins Filho, Sebastião; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282T5; http://lattes.cnpq.br/2270502181985004; Siqueira, Maria Augusta Lima; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4777253E4; Ribeiro Junior, José Ivo; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723282Y6Em análise de sobrevivência, a variável resposta é o tempo de ocorrência de um evento de interesse, denominado tempo de falha. Outra característica da análise de sobrevivência é incorporar ao estudo dados amostrais incompletos, que por algum motivo a ocorrência do evento não foi verificada, dados estes definidos como censurados. O objetivo deste trabalho foi comparar o uso das técnicas paramétricas e não-paramétricas para estimar o tempo de sobrevivência de C. externa (Neuroptera: Chrysopidae), inseto predador que se alimenta de outros insetos e ácaros, sob efeito de três produtos comerciais à base de nim: Neempro (10 g de azadirachtina L-1), Organic neem (3,3 g de Azadirachtina L-1) e Natuneem (1,5 g de azadiractina L-1). Com esse objetivo foram estimadas as funções de sobrevivência para as diferentes concentrações de cada produto, por meio do método não-paramétrico de Kaplan-Meier, e comparadas pelo teste logrank e por meio das técnicas paramétricas, utilizando os modelos exponencial, de Weibull e log-normal. Foi realizado ainda, um estudo com a finalidade de selecionar o modelo mais parcimonioso, utilizando para isto o teste da razão de verossimilhança (TRV) e o critério de informação de Akaike (AIC). As estimativas do modelo paramétrico selecionado foram usadas para determinar as funções de sobrevivência nas concentrações dos três produtos, com o objetivo de comparar com o estimador não-paramétrico de Kaplan-Meier. Definido o melhor modelo foi calculado o tempo mediano de sobrevivência do C. externa nas concentrações testadas dos produtos. Levando em consideração as condições descritas neste experimento, pode-se concluir que as concentrações dos produtos a base de nim possuem influencia na sobrevivência de C. externa. Quanto maior foi a concentração dos produtos utilizados, menor foi o tempo de sobrevivência e entre os produtos avaliados o Neempro foi o que apresentou ser o menos letal ao predador natural.