O que é um termo de erro?

Em estatística, um termo de erro é a soma dos desvios de cada observação real de uma linha de regressão do modelo. A análise de regressão é utilizada para estabelecer o grau de correlação entre duas variáveis, uma independente e outra dependente, cujo resultado é uma linha que melhor se “ajusta” aos valores realmente observados do valor dependente em relação à variável ou variáveis ​​independentes. Dito de outra forma, um termo de erro é o termo em uma equação de regressão do modelo que registra e explica a diferença inexplicada entre os valores realmente observados da variável independente e os resultados previstos pelo modelo. Portanto, o termo de erro é uma medida de quão precisamente o modelo de regressão reflete a relação real entre a variável ou variáveis ​​independentes e dependentes. O termo de erro pode indicar que o modelo pode ser melhorado, como adicionando outra variável independente que explica algumas ou todas as diferenças, ou por aleatoriedade, significando que a variável ou variáveis ​​dependente e independente não estão correlacionadas em um grau maior .

Também conhecido como termo residual ou termo de perturbação, de acordo com a convenção matemática, o termo de erro é o último termo em uma equação de regressão do modelo e é representado pela letra grega épsilon (e). Economistas e profissionais da indústria financeira regularmente usam modelos de regressão, ou pelo menos seus resultados, para melhor entender e prever uma ampla gama de relações, por exemplo, como as mudanças na oferta de moeda estão relacionadas à inflação, como os preços do mercado de ações estão relacionados ao desemprego taxas ou como as mudanças nos preços das commodities afetam empresas específicas em um setor econômico. Conseqüentemente, o termo de erro é uma variável importante para se ter em mente e acompanhar, pois mede o grau em que qualquer modelo dado não reflete, ou explica, a relação real entre as variáveis ​​dependentes e independentes.

Na verdade, existem dois tipos de termos de erro comumente usados ​​na análise de regressão: erro absoluto e erro relativo. Erro absoluto é o termo de erro conforme definido anteriormente, a diferença entre os valores realmente observados da variável independente e os resultados previstos pelo modelo. Derivado disso, o erro relativo é definido como o erro absoluto dividido pelo valor exato previsto pelo modelo. Expresso em termos percentuais, o erro relativo é conhecido como erro percentual, o que é útil porque coloca o termo de erro em uma perspectiva mais ampla. Por exemplo, um termo de erro de 1 quando o valor predito é 10 é muito pior do que um termo de erro de 1 quando o valor predito é 1 milhão ao tentar chegar a um modelo de regressão que mostra quão bem duas ou mais variáveis ​​estão correlacionadas.

SmartAsset.