Was ist ein ARIMA-Modell?
ARIMA-Modelle sind eine statistische Methode zur Vorhersage von Zeitreihendaten. ARIMA-Modelle basieren im Grunde auf zwei Konzepten: dem Autoregressiven (AR) und dem Moving Average (MA) Modell. Im AR-Modell werden künftige Werte anhand historischer Werte derselben Variable vorhergesagt, während im MA-Modell Stör- und Fehlerterme betrachtet werden, um Abweichungen von erwarteten Werten zu erklären. Durch die Modellierung der Störterme können präzise Vorhersagen für künftige Werte gemacht werden. AR- und MA-Modelle werden oft kombiniert, um genaue Prognosen zu erzielen. Das Ergebnis sind sog. Autoregressive Moving Average (ARMA)-Modelle bezeichnet werden.
ARIMA-Modelle gehen noch einen Schritt weiter, indem sie differenzierte Daten verwenden. Durch mathematische Transformationen der erhobenen Werte werden Veränderungen aufeinander folgender Werte in einer Zeitreihe so modifiziert, dass sie in stationärer Form vorliegen.
Es gibt drei Parameter, die in einem ARIMA-Modell von Bedeutung sind:
(1) Die Anzahl der Differenzierungen
Durch die Differenzierung werden die Effekte von Trends in der Zeitreihe eliminiert. Dabei bedeutet eine Differenzierung erster Ordnung, dass lineare Trends in der Zeitreihe berücksichtigt werden, während eine Differenzierung zweiter Ordnung quadratische Trends berücksichtigt, und so weiter.
(2) Die Ordnung der Autoregressiven Komponente
Autoregressive Ordnungen geben an, wie viele vergangene Werte einer Zeitreihe für die Vorhersage der aktuellen Werte berücksichtigt werden sollen. Eine autoregressive Ordnung von 2 bedeutet beispielsweise, dass die Werte der Zeitreihe, die zwei Zeitperioden zurückliegen, für die Vorhersage der aktuellen Werte verwendet werden sollen.
(3) Die Ordnung der Moving Average-Komponente
Die Ordnung des Moving Average beschreibt, wie die Abweichungen der zurückliegenden Werte von ihrem Mittelwert zur Vorhersage der aktuellen Werte genutzt werden. Zum Beispiel bedeutet die erste Ordnung des Moving Average, dass die Abweichungen vom Mittelwert des letzten Messpunktes berücksichtigt wird, während die zweite Ordnung die beiden vorherigen Messzeitpunkte umfasst, um den aktuellen Werte vorherzusagen.
Das ARIMA-Modell geht davon aus, dass die aktuelle Beobachtung der Zeitreihe eine Linearkombination der vorherigen p Differenzbeobachtungen und der vorherigen q Fehlertermen der MA-Komponente ist. ARIMA Modelle werden als wirkungsvolle Modellierung für die Vorhersage von Zeitreihendaten angesehen und in vielen Bereichen wie der Kapitalmarktanalyse, der Wettervorhersage oder im Gesundheitswesen eingesetzt.
Spezifizierung eines ARIMA-Modells
ARIMA-Modelle werden typischerweise in drei Schritten erstellt: Identifikation, Schätzung und Validierung.
Identifikation
Bei der Identifikation eines ARIMA-Modells geht es darum, die richtige Parameter-Kalibrierung zu finden, um das betreffende Modell bestmöglich an die erhobenen Daten anzupassen, damit die vorhandenen Daten optimal erklärt und Vorhersagen bestmöglich getätigt werden können. Es gibt drei Parameter, die dabei bestimmt werden müssen: die Anzahl der Differenzierungen D, die Ordnung der autoregressiven Komponente P und die Ordnung der Moving-Average-Komponente Q. Die Autokorrelationsfunktion der Zeitreihe wird dabei analysiert, um die passenden Einstellungen zu finden. Das Ziel ist es, ein Modell zu erstellen, das optimal auf die Daten passt und damit die optimale Vorhersagekraft liefern kann.
Schätzung
Bei der Schätzung von ARIMA-Modellen werden die Parameterwerte des Modells basierend auf den gewählten Ordnungen der autoregressiven und gleitenden Durchschnittskomponenten sowie der Anzahl der Differenzierungen geschätzt. Es gibt verschiedene Schätzverfahren, wie die Methode der kleinsten Quadrate oder die Maximum-Likelihood-Methode, die versuchen, die Parameter so anzupassen, dass die Vorhersageleistung des Modells auf den zugrundeliegenden Daten maximiert wird. Das Ziel besteht darin, das Modell an die Daten anzupassen, um möglichst genaue Vorhersagen zu ermöglichen.
Validierung
Die Validierung eines ARIMA-Modells ist ein Prozess, bei dem die Vorhersagegenauigkeit des Modells auf einem Datensatz getestet wird, der nicht zum Trainieren des Modells verwendet wurde. Im Rahmen der Validierung wird ein Teil des Datensatzes Trainingsdatensatz verwendet, während ein anderer Teil als Testdatensatz dient. Das Modell wird auf dem Trainingsdatensatz trainiert. Das Ziel der Validierung besteht darin sicherzustellen, dass das Modell hinreichend genaue Vorhersagen mit Blick auf "neue" Daten des Testdatensatzes treffen kann und nicht überangepasst (overfitted) ist, was eintritt, wenn das Modell zu sehr an den Trainingsdatensatz angepasst wurde und bezüglich neuer Daten nicht flexibel genug reagieren kann. Wenn das Modell überangepasst ist, müssen möglicherweise die Modellparameter neu konfiguriert oder das Modell erweitert werden, um bessere Vorhersagen auf neuen Daten zu erzielen. Der Prozess vollzieht sich demnach in einem feedback-orienterten Loop.
Zusammenfassung
ARIMA-Modelle sind statistische Modelle, die es ermöglichen, Muster und Trends in Zeitreihendaten zu analysieren und Vorhersagen für zukünftige Werte der Zeitreihe zu treffen. ARIMA-Modelle können in verschiedenen Bereichen zum Einsatz kommen, wie beispielsweise Kapitalmarktanalysen, Wettervorhersagen oder biologischen Prozessen. Die Analyse der historischen Daten kann helfen, Muster und Trends zu identifizieren und Erkenntnisse über zugrundeliegende Prozesse zu gewinnen. Die fundierte Anwendung von ARIMA-Modellen kann dann dazu beitragen, fundierte Entscheidungen zu treffen.
=======What is an ARIMA-Model?
ARIMA models are a statistical method for forecasting time series data. ARIMA models are essentially based on two concepts: Autoregressive (AR) and Moving Average (MA) models. In the AR model, future values are predicted based on historical values of the same variable, while the MA model considers error terms to explain deviations from expected values. By modeling the error terms, precise predictions for future values can be made. AR and MA models are often combined to achieve accurate forecasts. The result is known as Autoregressive Moving Average (ARMA) models.
ARIMA models go a step further by using differenced data. By applying mathematical transformations to the collected values, changes between consecutive values in a time series are modified to be in a stationary form.
There are three parameters that are important in an ARIMA model:
(1) The number of differentiations
Differentiation eliminates the effects of trends in the time series. A first-order differentiation takes into account linear trends in the time series, while a second-order differentiation considers quadratic trends, and so on.
(2) The order of the autoregressive component
Autoregressive orders indicate how many past values of a time series should be considered for predicting the current values. For example, an autoregressive order of 2 means that the values of the time series from two time periods ago should be used for predicting the current values.
(3) The order of the Moving Average component
The order of the Moving Average describes how the deviations of past values from their mean are used to predict the current values. For example, the first order of the Moving Average means that the deviation from the mean of the last data point is considered, while the second order includes the two previous data points to predict the current value.
The ARIMA model assumes that the current observation of the time series is a linear combination of the previous p differenced observations and the previous q error terms of the MA component. ARIMA models are considered effective for modeling and forecasting time series data, and they are used in various fields such as capital market analysis, weather forecasting, and healthcare.
Specification of an ARIMA model
ARIMA models are typically created in three steps: identification, estimation, and validation.
Identification
When identifying an ARIMA model, the goal is to find the appropriate parameter calibration to best fit the model to the collected data, in order to effectively explain the existing data and make optimal predictions. There are three parameters that need to be determined: the number of differentiations (D), the order of the autoregressive component (P), and the order of the Moving Average component (Q). The autocorrelation function of the time series is analyzed to determine the suitable settings. The aim is to create a model that fits the data optimally and provides the best predictive power.
Estimation
When estimating ARIMA models, the parameter values of the model are estimated based on the selected orders of the autoregressive and moving average components, as well as the number of differentiations. There are various estimation methods, such as the method of least squares or the maximum likelihood method, which attempt to adjust the parameters in a way that maximizes the predictive performance of the model on the underlying data. The goal is to fit the model to the data in order to enable accurate predictions as much as possible.
Validation
The validation of an ARIMA model is a process where the predictive accuracy of the model is tested on a dataset that was not used to train the model. During validation, a portion of the dataset is used as a training set, while another portion serves as a test set. The model is trained on the training set. The goal of validation is to ensure that the model can make sufficiently accurate predictions on "new" data from the test set and is not overfitted, which occurs when the model is overly adjusted to the training set and cannot respond flexibly enough to new data. If the model is overfitted, it may be necessary to reconfigure the model parameters or expand the model to achieve better predictions on new data. The process thus operates in a feedback-oriented loop.
Conclusion
ARIMA models are statistical models that allow for the analysis of patterns and trends in time series data and make predictions for future values of the time series. ARIMA models can be applied in various fields such as capital market analysis, weather forecasting, or biological processes. Analyzing historical data can help identify patterns and trends and gain insights into underlying processes. The informed application of ARIMA models can then contribute to making informed decisions.
>>>>>>> 3922032ee4314f1507fb53a941d9a77c7ccdf5a2Quellen:
Mills, T. C. (2019). Applied time series analysis: A practical guide to modeling and forecasting. Academic press.
Palma, W. (2016). Time series analysis. John Wiley & Sons.
Paolella, M. S. (2018). Linear models and time-series analysis: regression, ANOVA, ARMA and GARCH. John Wiley & Sons.
Shumway, R. H. & Stoffer, D. S. (2017). Time series analysis and its applications (Vol. 4). Springer.