Estatística Aplicada e Biometria

URI permanente para esta coleçãohttps://locus.ufv.br/handle/123456789/195

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 14
  • Imagem de Miniatura
    Item
    Modelo de regressão aleatória utilizando o software R
    (Universidade Federal de Viçosa, 2022-12-13) Carlos, Giuvaney Martins; Silva, Carlos Henrique Osório; http://lattes.cnpq.br/3885773652788162
    Neste presente trabalho buscou-se implementar a análise do modelo de regressão aleatória (MRA) no software R, utilizando o pacote sommer (COVARRUBIAS-PAZARAN, 2016). Os modelos de regressão aleatória MRA são implementados em dados longitudinais, ou seja, medidas repetidas ao longo do tempo. Henderson Junior (1982) propôs essa metodologia para estimar parâmetros e predizer valores genéticos utilizando-se um modelo misto adicionando coeficientes de regressão aleatório na análise, de onde vem o termo modelo de regressão aleatória. Para encontrar esses coeficientes de regressão é necessário uma função contínua, a qual tem-se destacado o polinômio de Legendre. Então o que se faz é estimar um polinômio que explique a variação da característica em função do tempo. Diante do exposto, foi gerado um conjunto de dados para cinco indivíduos contendo nesse conjunto, o indivíduo, o sexo, os pais e o peso. O objetivo foi estimar os parâmetros para os efeitos fixos (sexo) e predizer os valores genéticos. Inicialmente a análise desse conjunto foi realizada utilizando-se um modelo misto utilizando as funções básicas do R. Em seguida foi acrescentado a esse conjunto de dados mais variações de pesos ao longo do tempo para cada indivíduo, obtendo os dados longitudinais e, consequentemente, tornando possível a análise do MRA. Realizou-se a análise do MRA utilizando-se o pacote sommer do R e suas respectivas funções, mmer e leg. O polinômio de Legendre escolhido para a análise foi o de ordem um devido ao conjunto de valores de peso variar linearmente. O MRA pode ser implementado por meio do pacote sommer do R. Palavras-chave: Modelo misto. Dados longitudinais. Sommer. Polinômios de Legendre.
  • Imagem de Miniatura
    Item
    Análise de fatores para redução de dimensionalidade em estudos de predição genômica
    (Universidade Federal de Viçosa, 2022-12-12) Oliveira, Cristiano Ferreira; Cruz, Cosme Damião
    O conceito de seleção genômica tem como base o desequilíbrio de ligação (LD) entre locos de características quantitativas (QTLs) e marcadores. Uma variação genética que se relaciona com a forma que o fenótipo é expresso conduz a múltiplas associações estatísticas em marcadores próximos em termos de ligação fatorial ou de desequilíbrio, podendo estas associações ser ou não de causa e efeito. Assim ao construir modelos preditivos, em geral não é conhecido quais SNPs possuem de fato associação de causa e efeito com o fenótipo de interesse, consequentemente o modelo é construído utilizando todas as informações genotípicas. Com o intuito de aumentar a acurácia dos modelos de predição, diferentes abordagens de seleção de marcadores foram propostas. São estratégias utilizadas para isto selecionar SNPs relatados anteriormente em estudos de associação para a característica de interesse, estimar a significância dos SNPs no conjunto de dados para cada característica utilizando um modelo preditivo e o efeito dos marcadores estimados pelo modelo, ou a seleção subconjuntos dos marcadores uniformemente espaçados ao longo do genoma. Dentre as abordagens citadas anteriormente, a seleção uniformemente espaçada ao longo do genoma é a mais versátil, uma vez que um painel de baixa densidade formado por meio dela pode ser utilizado em estudos de predição de valores genéticos de qualquer característica, diferentemente das outras abordagens citadas. Porém esta seleção está sujeita a possibilidade de excluir por completo blocos de haplótipos em LD relacionados com o fenótipo de interesse. Este trabalho foi desenvolvido com o objetivo de propor uma abordagem de seleção de marcadores espaçados dentro de blocos de haplótipos construídos utilizando Análise de Fatores (AF). Mostramos, utilizando dados simulados que a Análise de Fatores pode ser utilizada para construir os blocos de haplótipos, sendo ela capaz de sintetizar a relação linear entre marcadores e criar fatores comuns que podem ser interpretados como blocos de LD. Em seguida utilizamos em um conjunto de dados de soja, contendo 41985 marcadores do tipo SNPs com informação de 20087 acessos de soja, esta abordagem para construir os blocos e então foi feito a seleção espaçada dentro dos blocos formados a partir da AF. Três painéis de SNPs foram considerados, contendo 1%, 5% e 100% dos marcadores. Para avaliar o êxito desta abordagem, foi considerado a acurácia em uma tarefa de predição do valor fenotípico dos indivíduos utilizando os painéis reduzidos e o painel completo. Os resultados mostram que ao utilizar os painéis reduzidos não há diferença significativa de acurácia seletiva comparado a acurácia obtida utilizando o painel completo e para uma das características avaliadas também não foi encontrada diferença significativa para acurácia preditiva. Palavras-chave: SNP. GWS. Seleção de Marcadores. Análise Fatorial. Soja. Aprendizado de Máquina. Blocos de Haplótipos.
  • Imagem de Miniatura
    Item
    Estudo de divergência genética em acessos de Capsicum annuum L., utilizando métodos de agrupamento
    (Universidade Federal de Viçosa, 2022-02-21) Souza Neto, Thaynara Aparecida de; Cecon, Paulo Roberto; http://lattes.cnpq.br/9038682869781380
    A Capsicum annuum L. é a espécie mais cultivada e economicamente importante do gênero e, por tal motivo, estudos em divergência genética são importantes, pois permitem conhecer o grau de seleção da variabilidade genética das populações vegetais e identificar combinações híbridas. Sendo assim, o objetivo foi avaliar a diversidade genética de genótipos de C. annuum L., por meio de técnicas multivariadas de agrupamentos, utilizando os métodos hierárquicos, Vizinho mais próximo e Ward e não-hierárquicos, 𝑘-médias e Tocher. Os dados foram provenientes de um experimento conduzido na área experimental na casa de vegetação do Departamento de Agronomia da Universidade Federal de Viçosa, sob delineamento inteiramente casualizado, com quatro repetições e uma planta como unidade experimental. Vinte e nove genótipos de C. annuum registrados no Banco de Germoplasma de Hortaliças da Universidade Federal de Viçosa (BGH/UFV) foram avaliados com base em 6 características, dentre elas, Comprimento e largura do fruto maduro, Peso total dos frutos por planta, Espessura da polpa, Teor de vitamina C e Número de sementes por fruto. Os nove genótipos foram divididos em 2, 5 e 2 grupos pelos métodos hierárquicos, de Tocher e 𝑘 −médias, respectivamente. Para os cruzamentos, o método do Vizinho mais próximo reuniu 95% dos genótipos no grupo 𝐼𝐼 e para o método de Ward, os grupos possuíram uma porcentagem bem próxima, no qual o grupo 𝐼𝑉 reuniu o maior número de genótipos (45%). Os métodos de Tocher e 𝑘 −médias foram divididos em 5 e 3 grupos, respectivamente. Para todos os dados, o método do Vizinho mais próximo reuniu 86,20% dos genótipos no grupo 𝑉 e o de Ward, 44,83% no grupo 𝑉, contendo este o maior número de genótipos. No método de Tocher, o grupo 𝐼 reuniu 68,96% dos genótipos e no de 𝑘 −médias, 44,83% no grupo 𝐼𝐼𝐼. Todos os métodos hierárquicos foram validados pelo coeficiente de correlação cofenética, no qual o de maior coeficiente ocorreu no método do Vizinho mais próximo para todos os dados, indicando uma melhor adequação deste método. Além disso, os genótipos 5 e 27 mostraram- se de extrema importância para o estudo da divergência genética. Assim, independentemente do procedimento, foi possível identificar os genótipos mais dissimilares, podendo contribuir para outras pesquisas.Palavras-chave: Critério de agrupamento. Diversidade genética. Melhoramento de Capsicum. Método das 𝑘 −médias. Método de Tocher.
  • Imagem de Miniatura
    Item
    Random Forest Quantílico aplicado em estudos de seleção genômica
    (Universidade Federal de Viçosa, 2022-11-04) Valadares, Cristiane Botelho; Nascimento, Moysés; http://lattes.cnpq.br/1899074948442515
    A seleção genômica ampla (GWS) utiliza marcadores distribuídos por todo o genoma para predizer o valor genético genômico de indivíduos. Esta abordagem possibilita acelerar o processo de melhoramento a partir de seleção precoce e aumentar a precisão de predição dos valores genéticos genômicos. Diversas técnicas estatísticas usadas para predição genômica, tais como RR-BLUP, G-BLUP, Bayes A e Bayes B são baseados em erros e, consequentemente, valores fenotípicos com pressupostos de normalidade. Técnicas de aprendizado de máquina tais como Bagging (BA), Random Forest (RF) e Random Forest Quantílico (QRF) aparecem como modelos alternativos já que não requerem suposições a priori sobre a relação funcional entre marcadores e os valores fenotípicos, sem a necessidade de atender pressuposições sobre as distribuições dos dados e dos resíduos. O QRF, metodologia ainda não explorada no contexto de seleção genômica, é um algoritmo não paramétrico que combina as vantagens do Random Forest (RF) e da Regressão Quantílica (QR). O método determina a distribuição de probabilidade de uma variável resposta e extrai informações de diferentes quantis e não apenas prevê a média. Neste trabalho propõe-se a avaliação do uso do QRF na predição genômica e a comparação de seus resultados com outras técnicas que já vem sendo exploradas em GWS. Neste trabalho dois artigos foram desenvolvidos com essa proposta. No primeiro deles, o objetivo foi avaliar o desempenho do QRF (nos quantis 0,1; 0,3; 0,5; 0,7 e 0,9) na predição dos valores genéticos genômicos para características com arquitetura genética não aditiva (epistasia e dominância). Adicionalmente, as acurácias obtidas foram comparadas com aquelas advindas do G-BLUP (G-BLUP aditivo, G-BLUP aditivo dominante e G-BLUP aditivo epistático). Foi simulada uma população F2 com 1.000 indivíduos genotipados para 4.010 marcadores SNP. Além disso, doze características foram simuladas a partir de um modelo considerando efeitos aditivos e não aditivos, com número de QTL (Quantitative trait loci) variando de oito a 120 e três níveis de herdabilidade (0,3, 0,5 ou 0,8). Em todos os cenários, os resultados da capacidade preditiva do QRF foram iguais ou superiores ao G-BLUP e mostrou ser uma ferramenta alternativa para predizer valores genéticos em características complexas. No segundo trabalho o objetivo foi avaliar o uso do QRF na predição genômica para três características de Coffea arábica e comparar as suas capacidades preditivas com metodologias de machine learning (Bagging e Random Forest), métodos bayesianos (Bayes C𝜋 e Bayes D𝜋) e o G-BLUP. Foram utilizadas as características bicho mineiro, cercosporiose e produção de grãos referentes à 195 indivíduos genotipados com 20.477 marcadores moleculares SNP, resultantes do cruzamento entre Catuaí e Híbrido de Timor, contrastantes em relação à ferrugem do cafeeiro. Os métodos bayesianos apresentaram melhor desempenho para a produção, já o QRF foi igual ou superior aos outros métodos para as características bicho mineiro e cercosporiose, com tempo de processamento muito inferior comparado ao Bayes C𝜋 e Bayes D𝜋. O QRF surge, então, como um algoritmo promissor para predição possibilitando, em alguns cenários, predições mais acuradas de GWS. Palavras-chave: Predição Genômica. Simulação de Dados. Melhoramento Genético do Cafeeiro. Métodos Bayesianos. G-BLUP. Aprendizado de Máquinas.
  • Imagem de Miniatura
    Item
    Selection indices and support vector machines in the selection of sugarcane families
    (Universidade Federal de Viçosa, 2022-10-27) Muetanene, Belo Afonso; Peternelli, Luiz Alexandre; http://lattes.cnpq.br/3498315508048631
    The present study aimed to compare selection indices, namely: Smith and Hazel multiplicative, Mulamba and Mock's, and the support vector machines algorithm for sugarcane families selection. We used two datasets, from Moreira et al. (2021) and from Ferreira et al. (2022), both related to the sugarcane breeding program conducted at the Center for Sugar cane Research and Breeding at the Federal University of Viçosa, Oratórios, Minas Gerais. Both experiments were conducted in a randomized complete block design. We constructed the selection indices via mixed models approach. We adopted a selection percentage of 18% of the top families for the selection process. In both studies, we considered as explanatory traits: the number of stalks, stalks diameter and stalk height, and as the response trait the tons of stalks per hectare per family. In the dataset from Ferreira et al. (2022), the support vector machine was a better approach to select sugarcane families by learning from the data after multivariate simulation. Whereas in the dataset from Moreira et al. (2021), using similar methodology, lower performance for support vector machines was obtained. Keywords: Synthetic data. Indirect selection. Yield prediction. Machine learning. BLUP
  • Imagem de Miniatura
    Item
    Modelos Lineares Generalizados Hierárquicos Mistos (HGLMM) ajustados via Maxima Verossimilhança Hierárquica (HIML) e HG-BLUP: otimização da análise estatística de variáveis contínuas e categóricas
    (Universidade Federal de Viçosa, 2022-06-30) Silveira, Lucas Souza da; Resende, Marcos Deon Vilela de; http://lattes.cnpq.br/8781027361635034
    Este trabalho teve como objetivo principal estudar e comparar os diferentes ajustes de Modelos Lineares Generalizados Hierárquicos Mistos (HGLMM), em função das diferentes classes de variáveis aleatórias (contínuas e categóricas) e de estrutura de modelos. Estudar a flexibilização proporcionada pelos HGLMM frente aos comumente utilizados Modelos Lineares Mistos (LMM) e Modelos Lineares Generalizados Mistos (GLMM). Por vez, o HGLMM é uma classe de modelos mais ampla (a qual abarca todas as demais, via convergência, e, portanto, é a melhor modelagem que pode ser feita para qualquer classe de variáveis aleatórias) que engloba a inferência bayesiana e a inferência fisheriana (verossimilhancista) por meio da utilização da Verossimilhança Hierárquica. Nessa classe é possível ter como casos particulares de ajustes tanto o Modelo Linear Misto como o Modelo Linear Misto Generalizado. A maior vantagem do HGLMM é a possibilidade de atribuir outras distribuições (além daquela atribuída aos efeitos dos erros) da família exponencial aos fatores de componentes aleatórios do modelo e, assim, flexibilizar o ajuste em diferentes variáveis, modelos e bancos de dados. Para esse estudo foram utilizados três bancos de dados reais que possuíam características de diferentes naturezas como a contínua e categórica. Os ajustes foram comparados pelos valores do Conditional Akaike Information Criterion – cAIC (seleção de modelos) e da herdabilidade (via a maximização da acurácia). A herdabilidade foi utilizada para comparar as capacidades das estimativas dos componentes de variância capturarem adequadamente a variação genética e, portanto, propiciarem elevadas acurácias seletivas. Pode-se observar que o HGLMM alternativo teve o melhor ajuste em vários cenários. Para características contínuas foi competitivo com o Modelo Linear Misto na estimativa de componentes de variância e em ajuste de acordo com os valores cAIC. Para características categóricas se sobressaiu ao GLMM em diversos cenários. Conclui-se que os HGLMM podem ser usados corriqueiramente na análise estatística, em geral, propiciando uma triagem eficiente de quais modelos usar na modelagem de cada uma das várias classes de variáveis aleatórias, quais sejam contínuas ou categóricas. Palavras-chave: Modelos Lineares Generalizados. Modelos Hierárquicos. Seleção de Modelos. Inferência Estatística. Verossimilhança Hierárquica. Quadrados mínimos iterativos ponderados.
  • Imagem de Miniatura
    Item
    Redes neurais artificiais com componentes principais para a construção de modelos de predição em dados de espectroscopia NIR
    (Universidade Federal de Viçosa, 2022-07-06) Ferreira, Roberta de Amorim; Peternelli, Luiz Alexandre; http://lattes.cnpq.br/6364173429092431
    A espectroscopia no infravermelho próximo (NIR), associada a métodos estatísticos multivariados, vem sendo utilizada para a predição de indivíduos com maior produtividade. O método Partial Least Squares (PLS) é comumente empregado para ajuste de modelos de dados NIR. Entretanto, este método considera que a relação espectro/propriedade seja linear, o que não é sempre garantido em dados dessa natureza e o que pode, consequentemente, influenciar na acurácia do modelo. Alternativamente, a rede neural artificial (ANN) associada à análise de componentes principais (PCA), denominada PCA-ANN, possui a vantagem de ser eficiente em lidar com dados não lineares, incompletos e com ruídos, captando assim algumas complexidades presentes nos mesmos. Além disso, tal abordagem permite o não uso de pré- tratamentos, o que pode aumentar a capacidade preditiva dos modelos, além de diminuir o custo e o tempo das análises, quando comparada ao PLS associado aos pré-tratamentos usuais. O objetivo deste estudo foi construir e validar modelos de predição e processos de classificação, além de verificar se existe diferença significativa entre o método PLS, associado à matriz de espectros pré-tratados, e o método PCA-ANN, aplicado aos dados brutos. Para tanto, tais métodos foram aplicados a oito conjuntos de dados NIR, na forma bruta (sem pré- tratamentos) e com pré-tratamentos. A avaliação da capacidade preditiva dos modelos obtidos ocorreu por meio da correlação entre os valores preditos e os valores originais, e da raiz quadrada do erro quadrático médio de predição. Já a avaliação dos processos de classificação ocorreu através da taxa de erro aparente (TEA) e da taxa de verdadeiros positivos (TVP). Os resultados alcançados indicam que, na maioria dos conjuntos de dados analisados, o método PCA-ANN não difere estatisticamente do PLS para a predição dos modelos e para os processos de classificação, por meio da aplicação dos testes t e de Wilcoxon (valor-p > 0,01). O PCA- ANN deve ser escolhido para a realização de futuras análises, pois apresenta tempo computacional inferior àquele referente ao PLS. Palavras-chave: PLS. PCA-ANN. Pré-tratamentos. Quimiometria. Predição.
  • Imagem de Miniatura
    Item
    Ensaios sobre cópulas: aplicação ao agronegócio e seleção de modelos via AIC e BIC
    (Universidade Federal de Viçosa, 2022-06-03) Lacerda, Mauricio Silva; Emiliano, Paulo César; http://lattes.cnpq.br/7403859031624608
    A compreensão acerca da dependência entre duas ou mais séries históricas é de grande importância para pesquisadores, produtores rurais, investidores e demais en- volvidos nas séries de forma direta e indireta. Os modelos que vem ganhando desta- que na mensuração da forma e da estrutura dessa dependência tem sido os diversos modelos de cópulas presentes na literatura, em especial as cópulas: gaussiana, t de Student, Clayton, Frank, Gumbel e Joe. Esta tese é composta por dois trabalhos, um envolvendo aplicações de modelos de cópulas em conjunto de dados reais e o ou- tro metodológico. No primeiro analisou-se os impactos causados pela expansão da cana-de-açúcar no preço da soja e boi gordo para os estados de São Paulo, Goiás e Mato Grosso do Sul. O objetivo deste artigo foi analisar a associação dos movi- mentos conjuntos dos retornos dos preços regionais da cana-de-açúcar e das culturas concorrentes no uso da terra, verificando se a implantação da cana-de-açúcar vem gerando impacto nos preços dos alimentos cultivados nessa região. No segundo ar- tigo analisou-se a precisão dos métodos de seleção de cópulas (AIC e BIC) por meio de simulações. O objetivo deste segundo trabalho foi verificar os possíveis erros que se incorre ao escolher um modelo de cópulas para um conjunto de dados reais, so- bretudo para amostras pequenas, com menos de 200 observações, por exemplo. Os resultados encontrados no primeiro trabalho detectou-se dependência fraca entre as séries históricas das commodities analisadas, com destaque para a maior dependência encontrada, sendo 0,13 para o par Cana x Boi para o Estado de Goiás, indicando que a expansão da cana-de-açúcar para esses estados gerou baixo impacto nos preços das demais culturas tradicionais na região. Para o segundo artigo verificou-se taxas de acerto elevadas, acima de 90%, ainda para amostras pequenas (n < 150), quando as séries possuem medidas de dependência maiores (T = 0,5 e 0,75). Ao passo que, para a medida de dependência menor (7 = 0,25) foram necessários tamanhos amos- trais maiores (n > 200), em alguns casos (n > 400), para se obter altas taxas de acertos, acima de 90%, por exemplo. Palavras-chave: Setor sucroalcooleiro. Seleção de modelos. Tamanho amostral.
  • Imagem de Miniatura
    Item
    Autoencoder, análise via componentes principais e independentes aplicados no reconhecimento de padrões de populações
    (Universidade Federal de Viçosa, 2022-06-10) Costa, Jaquicele Aparecida da; Azevedo, Camila Ferreira; http://lattes.cnpq.br/6939298449989672
    Nos últimos tempos, diante do grande volume de informações, é essencial o desenvolvimento de metodologias que visam reduzir o tempo e esforço computacional da análise de dados com alta dimensionalidade. Nos estudos que buscam associações ou o reconhecimento de padrões, há um grande número de variáveis que apresentam informações sobrepostas ou correlacionadas, o que impossibilita a identificação de grupos divergentes, além de exigir um grande esforço computacional. A genética utiliza milhares de marcadores moleculares do tipo SNPs (Single nucleotide polymorphisms) para estimar os valores genéticos genômicos dos indivíduos, classificar genótipos dentro de determinados grupos e reconhecer padrões na população para direcionar os estudos de diversidade genética. Os principais métodos usados para redução de dimensionalidade são baseados em Análise via Componentes Principais (PCA), a versão esparsa da Análise via componentes Principais (SPCA) e Análise via Componentes Independentes (ICA). Outra técnica em destaque é a metodologia que combina os métodos PCA e ICA que é denominada Análise via Componentes Principais Independentes (IPCA), mas ainda pouco utilizada em banco de dados genômicos. Mais recentemente, têm se destacado os métodos fundamentados em inteligência artificial, como as redes neurais, sendo o Autoencoder um tipo de rede neural que também busca reduzir o espaço dimensional e reconstruir os dados com perda mínima de informação. Assim, o primeiro capítulo desta tese é uma revisão bibliográfica sobre os métodos estatísticos e baseados em inteligência computacional, destacando as vantagens e desvantagens ao utilizar cada uma das metodologias, além de apresentar as técnicas para agrupar e determinar o número ótimo de grupos nos estudos que visam reconhecer padrões. O segundo capítulo propõe a aplicação da PCA, SPCA e IPCA no reconhecimento de padrões de subpopulações do arroz asiático (Oryza Sativa) utilizando 36.901 marcadores moleculares e 413 genótipos, a fim de buscar uma técnica que seja eficiente e possa reduzir o tempo computacional na discriminação dos mesmos. As técnicas, PCA, SPCA e IPCA, apresentaram resultados similares, tais como a matriz confusão, porcentagem de acerto e correlação cofenética. O método Autoencoder foi menos eficiente, mas foi capaz de formar grupos mais compactos, menor variância dentro dos grupos, e mais dissimilares entre eles, maior variância entre os grupos, quando comparado com os métodos estatísticos tradicionais. Diante disso, foi proposto utilizar os componentes obtidos via PCA, SPCA e IPCA, como variáveis de entrada no Autoencoder. A proposta provocou melhorias no Autoencoder, sendo que o PCA-AUT (componentes principais como variáveis de entrada no Autoencoder) foi mais eficiente que os métodos estatísticos e o próprio Autoencoder, além de reduzir ainda mais o espaço dimensional para discriminar os genótipos de arroz. Além disso, a técnica conseguiu capturar parte da variabilidade mensurada antes de aplicar qualquer método de redução dimensional. Palavras-chave: Inteligência computacional. Redes Neurais. Redução de dimensionalidade. Oryza sativa. Marcadores Moleculares.
  • Imagem de Miniatura
    Item
    Metodologia Gage R&R: uma abordagem de estimação intervalar via método delta multivariado
    (Universidade Federal de Viçosa, 2022-05-25) Teixeira, Camila Cristina; Barbosa, Eduardo Campana; http://lattes.cnpq.br/2578067704033833
    A qualidade dos mais variados processos de produção está diretamente associada à análise estatística de dados coletados dos mesmos. Portanto, para tentar minimizar a probabilidade de fracassos ou de falhas, métodos estatísticos são utilizados. Um dos estudos mais tradicionais para avaliar um sistema de medição é denominado como Gage R&R (MSA, 2010; MONTGOMERY; RUNGER, 1993), em que a variação total do sistema é decomposta em, principalmente, duas partes: Repetibilidade e Reprodutibilidade. Logo, o objetivo deste trabalho é realizar o estudo de Gage R&R, via método da Análise de Variância (ANOVA), para estimar os quadrados médios associados aos fatores aleatórios operador e peça, e, em seguida, através do Método dos Momentos, obter os estimadores para as componentes de variância associadas a Repetibilidade e a Reprodutibilidade. Posteriormente, estima-se o índice R&R (%) e obtêm-se um intervalo de confiança assintótico, que permite classificar o sistema de medição quanto a sua adequação, de acordo com um quadro de referência utilizado por acadêmicos e profissionais atuantes nas indústrias. Palavras-chave: Intervalo de Confiança. Operador. Peça. Qualidade. Repetibilidade. Reprodutibilidade