Was ist Autoregressiv?

„Autoregressiv“ ist ein statistischer Begriff, der bei der Arbeit mit Zeitreihendaten verwendet wird, die sich auf eine variable Größe oder einen interessierenden Wert beziehen, der mit früheren Werten derselben Variablen korreliert oder von diesen abhängt. Der verwandte Begriff „Autoregression“ ist eine Form der Regressionsanalyse, die Zeitreihendaten als Eingabe verwendet, um herauszufinden, ob eine interessierende Variable tatsächlich autoregressiv ist, d. h. von früheren Werten ihrer selbst abhängt. Eine interessierende Variable, die sich als autoregressiv herausstellt, legt nahe, beweist aber nicht, dass es eine Ursache-Wirkungs-Beziehung zwischen den aktuellen und vergangenen Werten gibt. Daher werden Zeitreihen bekannter oder vermuteter autoregressiver Größen oder Werte häufig unter Verwendung prädiktiver analytischer Verfahren analysiert, um zukünftige Werte solcher Variablen vorherzusagen.

Interessante Variablen, die einen signifikanten Grad an Autoregression aufweisen, tauchen als Ergebnis menschlicher und natürlicher Prozesse an einer Vielzahl von Orten auf. Börsenkurse, Wechselkurse, digitale Signale und die Anzahl der Individuen in einer Population zum Beispiel gelten zumindest in gewissem Maße als autoregressiv. Darüber hinaus gibt es eine Vielzahl von Formen der Autoregressionsanalyse, von denen jede als besser oder schlechter geeignet angesehen und daher auf bestimmte Arten von autoregressiven Datensätzen angewendet wird. Unter diesen Anwendungen wird die Autoregression im Gesundheitswesen verwendet, um die Auflösung und Interpretation von Ultraschalldiagnostiktests zu verbessern; in der Telekommunikation zur Verbesserung der Übertragung, des Empfangs und der Verarbeitung digitaler Signale; in den Wirtschaftswissenschaften zur Prognose der makroökonomischen und geschäftlichen Leistung; und bei Finanzdienstleistungen, um persönliche Kreditwürdigkeit zu berechnen, Betrug aufzudecken und Versicherungsrisikoprofile und Prämien zu berechnen.

Autoregressive Moving Average (ARMA)-Modelle kombinieren Autoregressions- und Moving-Average-Modelle – Durchschnitte, deren Bestandteile sich im Laufe der Zeit verschieben. Auch als Box-Jenkins-Modelle bekannt – benannt nach George Box und Gwilym Jenkins, den Statistikern, die ihre ursprünglichen Formulierungen verbessert und ihre Verwendung populär gemacht haben – werden sie typischerweise verwendet, um Zeitreihen zu modellieren und zu testen, die eine Funktion exogener oder externer Schocks sind und ihre eigene bisherige Leistung. ARMA-Modelle werden an die tatsächlichen Beobachtungen im Laufe der Zeit einiger bekannter oder vermuteter autoregressiver Variablen oder Variablen von Interesse „angepasst“, um die Prozesse, die sie erzeugen, besser zu verstehen. Im Gegensatz zu streng autoregressiven Modellen gelten sie als Mittel zur Feststellung von Kausalität – der Existenz einer Ursache-Wirkungs-Beziehung zwischen der unabhängigen und der abhängigen Variable oder Variablen. Daher werden sie häufig in der Zeitreihenprognose und anderen Formen der prädiktiven Analyse verwendet.