Autoregressive Bewegung Durchschnittliche Modellvarianz


Ein RIMA steht für Autoregressive Integrated Moving Average Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukünftigen Werte einer Serie, die vollständig auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausreißern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprünglichen Autoren), ARIMA ist in der Regel überlegen exponentielle Glättung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark flüchtig sind, kann eine gewisse Glättungsmethode besser ablaufen. Wenn Sie nicht über mindestens 38 Datenpunkte verfügen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarität impliziert, dass die Reihe auf einem ziemlich konstanten Niveau über Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen der Saisonalität im Laufe der Zeit dramatischer. Ohne dass diese Stationaritätsbedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wächst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wächst, können Sie das gleiche Verfahren anwenden und die Daten erneut differenzieren. Ihre Daten würden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander über die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzögerung bezeichnet. Zum Beispiel misst eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander in der Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten, die zwei Perioden voneinander getrennt sind, über die gesamte Reihe miteinander korrelieren. Autokorrelationen können im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Maßnahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte für eine gegebene Reihe bei unterschiedlichen Verzögerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion der so genannten autoregressiven und gleitenden Durchschnittsparameter zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, daß jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der geschätzte Wert von A (1) 0,30 betrug, dann wäre der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknüpft. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzüglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept dahinter ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufälligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie in den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur für Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhängt. Wie im Fall von autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf übergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Längen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenführen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für eine kompliziertere Prognose-Tool macht, kann die Struktur tatsächlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der höchsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer gleitenden mittleren Komponente erster Ordnung haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter eingeschlossen werden sollen. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsprozeß gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, für Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexität, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausreißer, Messfehler etc.) den theoretischen Identifikationsprozess verzerren können. Deshalb ist die traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft. Dokumentation ist das unbedingte Mittel des Prozesses, und x03C8 (L) ist ein rationales, unendlich langsames Verzögerungsoperatorpolynom (1 x03C8 1 L x03C8 2 L 2 x 2026) . Anmerkung: Die Constant-Eigenschaft eines arima-Modellobjekts entspricht c. Und nicht das unbedingte Mittel 956. Durch Wolds-Zerlegung 1. Gleichung 5-12 entspricht einem stationären stochastischen Prozeß, vorausgesetzt, daß die Koeffizienten x03C8i absolut summierbar sind. Dies ist der Fall, wenn das AR-Polynom, x03D5 (L). Stabil ist. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Zusätzlich ist das Verfahren kausal, vorausgesetzt das MA-Polynom ist invertierbar. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Econometrics Toolbox forciert Stabilität und Invertierbarkeit von ARMA Prozessen. Wenn Sie ein ARMA-Modell mit Arima angeben. Erhalten Sie einen Fehler, wenn Sie Koeffizienten eingeben, die nicht einem stabilen AR-Polynom oder einem invertierbaren MA-Polynom entsprechen. Ähnlich erfordert die Schätzung während der Schätzung Stationaritäts - und Invertibilitätsbeschränkungen. Literatur 1 Wold, H. Eine Studie in der Analyse stationärer Zeitreihen. Uppsala, Schweden: Almqvist amp Wiksell, 1938. Wählen Sie Ihr LandAutoregressive Moving-Average Simulation (erste Ordnung) DETAILS Die Demonstration ist so eingestellt, dass die gleiche zufällige Reihe von Punkten verwendet wird, egal wie die Konstanten und variiert werden. Allerdings, wenn die quotrandomizequot Taste gedrückt wird, wird eine neue zufällige Serie generiert und verwendet werden. Halten Sie die zufällige Serie identisch ermöglicht es dem Benutzer, genau zu sehen, die Auswirkungen auf die ARMA-Reihe von Änderungen in den beiden Konstanten. Die Konstante ist auf (-1,1) begrenzt, da sich die Divergenz der ARMA-Reihe ergibt. Die Demonstration ist nur für einen Prozess erster Ordnung. Zusätzliche AR-Begriffe würden komplexere Reihen erzeugen, während zusätzliche MA-Begriffe die Glättung erhöhen würden. Für eine detaillierte Beschreibung von ARMA-Prozessen siehe beispielsweise G. Box, G. M. Jenkins und G. Reinsel, Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. Englewood Cliffs, NJ: Prentice-Halle, 1994. RELATED LINKSARMA Unplugged Dies ist der erste Eintrag in unserer Reihe von Unplugged Tutorials, in denen wir in die Details der einzelnen Zeitreihen Modelle, mit denen Sie bereits vertraut sind, die Hervorhebung des Basiswerts Annahmen und nach Hause fahren die Intuitionen dahinter. In dieser Ausgabe beschäftigen wir uns mit dem ARMA-Modell als Eckpfeiler der Zeitreihenmodellierung. Im Gegensatz zu früheren Analysen Fragen, werden wir hier mit der ARMA Prozessdefinition beginnen, geben die Eingänge, Ausgänge, Parameter, Stabilität Einschränkungen, Annahmen und schließlich ein paar Richtlinien für den Modellierungsprozess ziehen. Hintergrund Durch Definition der autoregressiven gleitenden Durchschnitt (ARMA) ist ein stationärer stochastischer Prozess besteht aus Summen von autoregressiven Excel und gleitenden Durchschnitt Komponenten. Alternativ, in einer einfachen Formulierung: Annahmen Lassen Sie uns näher auf die Formulierung. Die ARMA Prozess ist einfach eine gewichtete Summe der letzten Ausgabe Beobachtungen und Schocks, mit wenigen Grundannahmen: Was diese Annahmen nicht bedeuten Ein stochastischer Prozess ein Gegenstück eines deterministischen Prozess ist es, die Entwicklung einer Zufallsvariablen im Laufe der Zeit beschreibt. In unserem Fall ist die Zufallsvariable Das ARMA-Verfahren erfasst nur die serielle Korrelation (d. h. Autokorrelation) zwischen den Beobachtungen. In einfachen Worten, fasst der ARMA-Prozess die Werte der Vergangenheit Beobachtungen auf, nicht ihre quadrierten Werte oder ihre Logarithmen usw. höherer Ordnung Abhängigkeit Mandate ein anderer Prozess (z ARCH / GARCH, nicht-lineare Modelle, etc.). Es gibt zahlreiche Beispiele für einen stochastischen Prozess, bei dem vergangene Werte aktuelle beeinflussen. Zum Beispiel in einem Verkaufsbüro, die Anfragen auf einer laufenden Basis empfängt, werden einige realisiert als Sales-won, einige als vertriebs verloren, und ein paar ergossen sich in den nächsten Monat über. Als Ergebnis, in einem bestimmten Monat, einige der verkauften Fälle stammen als Anfragen oder sind Wiederholungen Verkäufe aus den vorherigen Monaten. Was sind die Schocks, Innovationen oder Fehlerbegriffe Das ist schwierige Frage, und die Antwort ist nicht weniger verwirrend. Dennoch können wir es versuchen: In einfachen Worten, ist der Fehler Begriff in einem gegebenen Modell ein catch-all Eimer für alle Variationen, die das Modell nicht erklärt. Noch verloren Nehmen wir ein Beispiel. Für einen Aktienkursprozess gibt es möglicherweise Hunderte von Faktoren, die das Preisniveau aufwärts / abwärts treiben, einschließlich: Dividenden und Split-Ankündigungen Vierteljährliche Ergebnisberichte Fusion und Akquisition (MampA) Aktivitäten Gesetzliche Ereignisse, z. B. Die Drohung von Sammelklagen. Andere Ein Modell, durch Design, ist eine Vereinfachung einer komplexen Realität, so dass, was auch immer verlassen wir außerhalb des Modells automatisch in den Fehler Begriff gebündelt wird. Der ARMA-Prozess geht davon aus, dass der kollektive Effekt all dieser Faktoren mehr oder weniger wie das Gaußsche Rauschen wirkt. Warum kümmern wir uns um vergangene Schocks Anders als ein Regressionsmodell kann das Auftreten eines Stimulus (z. B. Schock) einen Einfluss auf das aktuelle Niveau und eventuell zukünftige Ebenen haben. Zum Beispiel wirkt sich ein Unternehmensereignis (z. B. MampA-Aktivität) auf den Aktienkurs der Underling-Gesellschaften aus, die Änderung dauert jedoch einige Zeit, bis die Marktteilnehmer die verfügbaren Informationen absorbieren / analysieren und entsprechend reagieren. Dies wirft die Frage auf: Dont die Vergangenheit Werte der Ausgabe haben bereits die Schocks Vergangenheit Informationen JA, die Schocks Geschichte ist bereits in den letzten Ausgangspegeln berücksichtigt. Ein ARMA-Modell kann nur als reines autoregressives (AR) Modell dargestellt werden, aber der Speicherbedarf eines solchen Systems in unendlich. Dies ist der einzige Grund, die MA-Komponente einzuschließen: Speicherung zu speichern und die Formulierung zu vereinfachen. Auch hier muss das ARMA-Verfahren stationär sein, damit die marginale (unbedingte) Varianz existiert. Anmerkung: In meiner Diskussion unterscheide ich nicht zwischen der bloßen Abwesenheit einer Einheitswurzel in der charakteristischen Gleichung und der Stationarität des Prozesses. Sie sind verwandt, aber das Fehlen einer Einheitswurzel ist keine Garantie der Stationarität. Dennoch muss die Einheitswurzel innerhalb des Einheitskreises liegen, um genau zu sein. Fazit Lasst uns rekapitulieren, was wir bisher getan haben. Zuerst untersuchten wir einen stationären ARMA Prozess, zusammen mit seiner Formulierung, Eingaben, Annahmen und Speicheranforderungen. Als nächstes haben wir gezeigt, dass ein ARMA-Prozess seine Ausgangswerte (Autokorrelation) und Schocks enthält, die es früher in der aktuellen Ausgabe erfahren hat. Schließlich haben wir gezeigt, dass das stationäre ARMA-Verfahren eine Zeitreihe mit einem stabilen langfristigen Mittelwert und Varianz erzeugt. In unserer Datenanalyse sollten wir, bevor wir ein ARMA-Modell vorschlagen, die Stationaritätsannahme und den endlichen Speicherbedarf verifizieren. Für den Fall, dass die Datenreihe einen deterministischen Trend aufweist, müssen wir sie zuerst entfernen (de-Trend) und dann die Residuen für ARMA verwenden. Für den Fall, dass der Datensatz einen stochastischen Trend (z. B. zufällige Wanderung) oder Saisonalität aufweist, müssen wir ARIMA / SARIMA unterhalten. Schließlich kann das Korrelogramm (d. h. ACF / PACF) verwendet werden, um den Speicherbedarf des Modells zu messen, von dem erwartet wird, daß entweder ACF oder PACF schnell nach einigen Verzögerungen abklingen. Wenn nicht, kann dies ein Zeichen für Nichtstationarität oder ein Langzeitmuster sein (z. B. ARFIMA).Autoregressives gleitendes Durchschnittsmodell In der Statistik. Autoregressive gleitende Durchschnitt (ARMA) Modelle. Manchmal auch Box-Jenkins-Modelle nach George Box und G. M. Jenkins. Werden typischerweise auf Zeitreihendaten angewendet. Bei einer Zeitreihe von Daten Xt. Ist das ARMA-Modell ein Werkzeug, um die zukünftigen Werte in dieser Serie zu verstehen und zu prognostizieren. Das Modell besteht aus zwei Teilen, einem autoregressiven (AR) Teil und einem gleitenden Durchschnitt (MA) Teil. Das Modell wird gewöhnlich als das ARMA (p, q) - Modell bezeichnet, wobei p die Ordnung des autoregressiven Teils und q die Ordnung des gleitenden Mittelteils (wie nachstehend definiert) ist. Inhalt Autoregressives Modell Edit Die Notation AR (p) bezieht sich auf das autoregressive Modell der Ordnung p. Das AR (p) - Modell wird geschrieben Ein autoregressives Modell ist im wesentlichen ein unendlicher Impulsantwortfilter mit einer zusätzlichen Interpretation, die auf ihn gelegt wird. Einige Einschränkungen sind auf den Werten der Parameter dieses Modells notwendig, damit das Modell stationär bleibt. Beispielsweise sind Prozesse im AR (1) - Modell mit 1 gt 1 nicht stationär. Beispiel: Ein AR (1) - Prozess-Edit Ein AR (1) - Prozess liefert ein Lorentz-Profil für die spektrale Dichte: Berechnung der AR-Parameter Das AR (p) - Modell ist durch die Gleichung gegeben Ein Teil der Gleichung ist nur ungleich Null, wenn m 0, wird die Gleichung in der Regel gelöst, indem sie es als eine Matrix für m gt 0, so erhalten Gleichung Ableitung Bearbeiten Die Gleichung Definition der AR-Prozess ist Multiplizieren beide Seiten von X tm und Erwartung Die die Yule-Walker-Gleichungen liefert: Moving average model Edit Die Notation MA (q) bezieht sich auf das gleitende mittlere Modell der Ordnung q. Wo die 1. Q sind die Parameter des Modells und der t. T-1. Sind wieder die Fehlerterme. Das gleitende Durchschnittsmodell ist im Wesentlichen ein endlicher Impulsantwortfilter mit einer zusätzlichen Interpretation. Autoregressives gleitendes Durchschnittsmodell Bearbeiten Die Notation ARMA (p. Q) bezieht sich auf das Modell mit p autoregressiven Terme und q gleitenden Durchschnittstermen. Dieses Modell enthält die Modelle AR (p) und MA (q), Anmerkung zu den Fehlertermen Bearbeiten N (0, 2) wobei 2 die Varianz ist. Diese Annahmen können geschwächt werden, aber dies wird die Eigenschaften des Modells ändern. Insbesondere eine Änderung der i. i.d. Annahme würde einen ziemlich grundlegenden Unterschied machen. Spezifikation in Bezug auf den Lag-Operator In einigen Texten werden die Modelle in Bezug auf den Lag-Operator L spezifiziert. In diesem Fall ist das AR (p) - Modell gegeben durch wobei das Polynom repräsentiert ist. Das MA (q) - Modell ist gegeben durch wobei das Polynom repräsentiert Schließlich wird das kombinierte ARMA-Modell (p. q) ARMA-Modelle im Allgemeinen können nach Auswahl von p und q durch kleinste Fehlerquadrate angepasst werden, um die Werte der Parameter zu finden, die den Fehlertermin minimieren. Es wird allgemein als gute Praxis angesehen, die kleinsten Werte von p und q zu finden, die eine annehmbare Anpassung an die Daten liefern. Für ein reines AR-Modell können die Yule-Walker-Gleichungen verwendet werden, um eine Anpassung bereitzustellen. Verallgemeinerungen Bearbeiten Die Abhängigkeit von X t von vergangenen Werten und den Fehlertermen t wird als linear angenommen, sofern nicht anders angegeben. Wenn die Abhängigkeit nichtlinear ist, wird das Modell spezifisch als nichtlineares gleitendes Mittel (NMA), nichtlineares autoregressives (NAR) oder nichtlineares autoregressives gleitendes Durchschnittsmodell (NARMA) bezeichnet. Autoregressive gleitende Durchschnittsmodelle können auf andere Weise verallgemeinert werden. Siehe auch autoregressive Conditional Heteroskedasticity (ARCH) Modelle und autoregressive integrierte Moving Average (ARIMA) Modelle. Wenn mehrere Zeitreihen montiert werden sollen, kann ein vektorisiertes ARIMA (oder VARIMA) Modell eingebaut werden. Wenn die fraglichen Zeitreihen langes Gedächtnis aufweisen, dann ist fraktioniertes ARIMA (FARIMA, manchmal auch als ARFIMA bezeichnet) Modellierung geeignet. Wenn die Daten saisonale Effekte enthalten, kann sie durch ein SARIMA-Modell (saisonales ARIMA) modelliert werden. Eine weitere Verallgemeinerung ist das multiskalige autoregressive (MAR) Modell. Ein MAR-Modell wird durch die Knoten eines Baums indexiert, während ein autoregressives Standardmodell (diskrete Zeit) durch Ganzzahlen indiziert wird. Siehe multiscale autoregressive Modell für eine Liste von Referenzen. Siehe auch Edit References Edit George Box und F. M. Jenkins. Zeitreihenanalyse: Prognose und Kontrolle. zweite Ausgabe. Oakland, CA: Holden-Day, 1976. Mühlen, Terence C. Zeitreihen-Techniken für Ökonomen. Cambridge University Press, 1990. Percival, Donald B. und Andrew T. Walden. Spektralanalyse für physikalische Anwendungen. Universität von Cambridge, 1993.

Comments

Popular Posts