En estadística, un término de error es la suma de las desviaciones de cada observación real de una línea de regresión modelo. El análisis de regresión se utiliza para establecer el grado de correlación entre dos variables, una independiente y una dependiente, cuyo resultado es una línea que mejor «se ajusta» a los valores realmente observados del valor dependiente en relación con la variable o variables independientes. Dicho de otra manera, un término de error es el término en una ecuación de regresión del modelo que cuenta y explica la diferencia inexplicada entre los valores realmente observados de la variable independiente y los resultados pronosticados por el modelo. Por lo tanto, el término de error es una medida de la precisión con que el modelo de regresión refleja la relación real entre la variable o variables independientes y dependientes. El término de error puede indicar que el modelo puede mejorarse, como al agregar otra variable independiente que explica parte o la totalidad de la diferencia, o por aleatoriedad, lo que significa que la variable o variables dependientes e independientes no están correlacionadas en mayor grado .
También conocido como término residual o término de perturbación, según la convención matemática, el término de error es el último término en una ecuación de regresión modelo y está representado por la letra griega épsilon (e). Los economistas y los profesionales de la industria financiera utilizan regularmente modelos de regresión, o al menos sus resultados, para comprender y pronosticar mejor una amplia gama de relaciones, como la forma en que los cambios en la oferta monetaria están relacionados con la inflación, cómo los precios del mercado de valores están relacionados con el desempleo. tasas o cómo los cambios en los precios de los productos básicos afectan a compañías específicas en un sector económico. Por lo tanto, el término de error es una variable importante a tener en cuenta y realizar un seguimiento, ya que mide el grado en que un modelo dado no refleja o no tiene en cuenta la relación real entre las variables dependientes e independientes.
En realidad, hay dos tipos de términos de error comúnmente utilizados en el análisis de regresión: error absoluto y error relativo. El error absoluto es el término de error como se definió previamente, la diferencia entre los valores realmente observados de la variable independiente y los resultados predichos por el modelo. Derivado de esto, el error relativo se define como el error absoluto dividido por el valor exacto predicho por el modelo. Expresado en términos porcentuales, el error relativo se conoce como error porcentual, lo cual es útil porque pone el término de error en una perspectiva mayor. Por ejemplo, un término de error de 1 cuando el valor predicho es 10 es mucho peor que un término de error de 1 cuando el valor pronosticado es 1 millón cuando se intenta obtener un modelo de regresión que muestre qué tan bien están correlacionadas dos o más variables.
Inteligente de activos.