ARMA-Modell

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Linearer stochastischer Prozess)
Zur Navigation springen Zur Suche springen

ARMA-Modelle (ARMA, Akronym für: AutoRegressive-Moving Average, deutsch autoregressiver gleitender Durchschnitt, oder autoregressiver gleitender Mittelwert) bzw. autoregressive Modelle der gleitenden Mittel und deren Erweiterungen (ARMAX-Modelle und ARIMA-Modelle) sind lineare, zeitdiskrete Modelle für stochastische Prozesse. Sie werden zur statistischen Analyse von Zeitreihen besonders in den Wirtschafts-, Sozial- und Ingenieurwissenschaften eingesetzt. Die Spezifikation, Schätzung, Validierung und praktische Anwendung von ARMA-Modellen werden im Box-Jenkins-Ansatz behandelt. Als wichtigste Anwendung gilt die kurzfristige Vorhersage. Diese Modelle haben die Form von linearen Differenzengleichungen und dienen dazu, lineare stochastische Prozesse abzubilden bzw. komplexere Prozesse zu approximieren.

Mathematische Darstellung

[Bearbeiten | Quelltext bearbeiten]

Fließen in ein ARMA-Modell sowohl vergangene Rauschterme als auch vergangene Werte der Zeitreihe selbst ein, spricht man auch von einem gemischten ARMA-Modell. Sind es nur aktuelle und vergangene Rauschterme, handelt es sich um ein (reines) Moving-Average- oder MA-Modell. Wenn neben dem aktuellen Rauschterm nur vergangene Werte der Zeitreihe selbst einfließen, handelt es sich um ein (reines) autoregressives oder AR-Modell.

Moving-Average- oder MA-Modell

[Bearbeiten | Quelltext bearbeiten]

Das zu modellierende Signal ist durch ein gewichtetes, gleitendes Mittel (Moving Average) von Rauschtermen in der aktuellen und den Vorperioden sowie einer Konstanten gegeben. Die sogenannten MA-Koeffizienten geben an, mit welchem Gewicht der Rauschterm in das Signal einfließt.

Bezüglich der Rauschterme wird angenommen, dass sie zeitlich voneinander unabhängig und identisch (meist Gauß-)verteilt sind, mit Erwartungswert 0 und der Varianz .

Autoregressives oder AR-Modell

[Bearbeiten | Quelltext bearbeiten]

Das Signal setzt sich aus einer Konstanten, einem Rauschterm und einem gewichteten, gleitenden Mittel der vorhergehenden Signalwerte zusammen, wobei die AR-Koeffizienten die Gewichte sind.

Dieses Modell wird auch als ARMA(p, q)-Modell bezeichnet, wobei p und q, jeweils die autoregressive und die Moving-Average-Ordnung des Prozesses angeben. Reine AR(p)- bzw. MA(q)-Modelle sind also spezielle ARMA-Modelle mit q=0 bzw. p=0.

Mit Hilfe des sogenannten Verschiebungs- oder Lag-Operators (von lag, „Zeitverschiebung“)

schreibt man kürzer auch

wobei und jeweils Polynome (der Grade p und q) sind

,
.

Alternative Darstellungen

[Bearbeiten | Quelltext bearbeiten]

Reine MA-Darstellung

[Bearbeiten | Quelltext bearbeiten]

Haben und keine gemeinsamen Nullstellen, so kann man einen ARMA-Prozess genau dann als einen MA()-Prozesses auszudrücken, wenn für alle Nullstellen von . Das heißt, unter diesen Voraussetzungen hat der Prozess eine Darstellung der Form

wobei der Erwartungswert von durch und die Koeffizienten der reinen MA-Darstellung durch das Polynom gegeben sind.

Reine AR-Darstellung

[Bearbeiten | Quelltext bearbeiten]

Analog zur reinen MA-Darstellung ist die reine AR-Darstellung. Sie erfordert, dass der Prozess invertierbar ist, also die Nullstellen des MA-Polynoms größer eins sind. Dann gilt

bzw.

Weißes Rauschen

[Bearbeiten | Quelltext bearbeiten]

Einen ARMA(0,0)-Prozess , wobei es sich bei um den Rauschterm (möglicherweise plus einer Konstanten) handelt, nennt man Weißes Rauschen.

Ein Random Walk ist ein AR-Prozess erster Ordnung (p=1), bei dem der AR-Koeffizient den Wert 1 hat, also

Gilt für die Konstante , dann spricht man auch von einem Random Walk mit Drift, andernfalls von einem Random Walk ohne Drift. Ein Random Walk ist stets integriert von der Ordnung 1.

Die ARMA-Modellierung folgt in der Praxis meist der Box-Jenkins-Methode, die aus den Schritten Modellidentifikation, -schätzung, -validierung und -anwendung besteht.

Ziel der Identifikation ist es, die ARMA-Spezifikationsparameter d, p und q zu bestimmen. Zur Bestimmung von d, der notwendigen Differenzenordnung, können Einheitswurzeltests verwendet werden. Für die ARMA-Ordnungen p und q werden häufig die Autokorrelationsfunktion (AKF) und die partielle Autokorrelationsfunktion herangezogen sowie Kriterien zur Modellselektion, wie das Akaike-Informationskriterium oder das bayessche Informationskriterium.

Die Schätzung der Modellparameter erfolgt meist durch Maximum-Likelihood-Schätzung oder Kleinste-Quadrate-Schätzung. Im Fall von reinen AR-Modellen ist der Kleinste-Quadrate-Schätzer ein linearer Schätzer; ansonsten ist eine nichtlineare Kleinste-Quadrate-Schätzung erforderlich.

Um die Geeignetheit eines geschätzten Modells zu beurteilen, können verschiedene Kriterien herangezogen werden. In der Regel wird geprüft, ob die Residuen, also die geschätzten unkorreliert sind und sich wie weißes Rauschen verhalten. Darüber hinaus kann auch die Prognosegüte evaluiert werden. Erscheint ein Modell nicht adäquat, kann ein erneutes Durchlaufen des Identifikations- und Schätzschrittes ggf. Abhilfe schaffen.

Nach erfolgreicher Validierung kann die Modellanwendung betrieben werden. Häufig ist das die Kurzfristprognose. Eine Einschritt-Prognose erhält man zum Beispiel, indem man die Differenzengleichung des geschätzten ARMA-Modells eine Periode in die Zukunft schiebt und den bedingten Erwartungswert berechnet. Für Mehrschritt-Prognosen kann dies rekursiv wiederholt werden.

ARMA-Modelle werden in Anwendungen typischerweise als Modelle für stationäre stochastische Prozesse und von diesen erzeugten Zeitreihen verwendet. Verschiedene Erweiterungen dienen der Modellierung nicht-stationärer stochastischer Prozesse oder multivariater stochastischer Prozesse. Stationarität bedeutet in diesem Zusammenhang, dass Erwartungswert und Varianz zeitunabhängig sind.

Bei nicht-stationären Zeitreihen kann unter Umständen durch Differenzenbildung Stationarität induziert werden. Die erste Differenz von ist durch definiert, wobei der sogenannte Differenzen-Operator ist. Modelliert man nicht , sondern die d-te Differenz als ARMA(p, q)-Modell, dann spricht man von einem integrierten ARMA-Modell der Ordnungen p, d, und q, oder kurz: einem ARIMA(p,d,q)-Modell. Werte für die ursprüngliche, undifferenzierte Zeitreihe erhält man durch d-faches Integrieren („Anti-Differenzenbildung“) von .

Werden eine oder mehrere exogene Variablen benötigt, um die Zeitreihe zu modellieren, dann spricht man von einem ARMAX-Modell. Im Falle einer exogenen Variable gilt dann:

wobei das Polynom die Lag-Struktur beschreibt, mit der die exogene Variable die zu erklärende Variable beeinflusst.

Saisonale ARMA- und ARIMA-Modelle

[Bearbeiten | Quelltext bearbeiten]

In Wirtschafts- aber auch anderen Zeitreihen treten häufig saisonale Effekte auf. Beispiele sind monatliche Arbeitslosenzahlen, quartalsweise Einzelhandelsumsätze etc. Um diese zu berücksichtigen, können zusätzlich saisonale AR- bzw. MA-Komponenten spezifiziert werden. Liegen Daten mit einer saisonalen Spanne (z. B. für Monatsdaten und für Quartalsdaten) vor, dann hat das saisonale ARMA-Modell die Form

wobei

das saisonale AR-Polynom der Ordnung ist und

das saisonale MA-Polynom der Ordnung .

In Kurzform: . Die Kombination von ARIMA-Modellen mit saisonalen Modellen führt zu SARIMA-Modellen.

VARMA-Modelle sind eine mehrdimensionale Verallgemeinerung der ARMA-Modelle. VAR-Modelle sind lineare, zeitdiskrete Modelle für stochastische Prozesse mit endogenen Variablen: Jede Variable hängt von vorhergehenden Signalwerte zusammen ab. VMA-Modelle sind die Verallgemeinerung von MA-Modellen und sie sind nützlich für Impuls-Antwort-Funktion-Analyse. Ein VAR-Modell (Ordnung ) ist

mit als einem konstanten Vektor, als einem Vektor aus weißem Rauschen und als -Matrizen.

Die Erweiterung eines ARMA-Modells durch beobachtbare exogene Variablen führt zu VARMAX-Modellen.

  • G. E. P. Box, G. M. Jenkins: Time series analysis: Forecasting and control. Holden-Day, San Francisco 1970.
  • R. McCleary, R. A. Hay: Applied Time Series Analysis for the Social Sciences. Sage Publications, Beverly Hills 1986.
  • James D. Hamilton: Time Series Analysis. Princeton University Press, Princeton 1994.
  • W. Enders: Applied Econometic Time Series. John Wiley & Sons, 1995.
  • Terence C. Mills: The Econometric Modelling of Financial Time Series. 2nd Edition, Cambridge University Press, 1999.
  • Ruey S. Tsay: Analysis of Financial Time Series. 2. Auflage. Wiley Series in Prob. and Statistics, 2005.
  • W. Stier: Methoden der Zeitreihenanalyse. Springer, 2001.
  • M. Guidolin, M. Pedio: Essentials of Time Series for Financial Applications. Academic Press, 2018.