Was sind ARIMA-Modelle?

24. Mai 2024

Autoren

Joshua Noble

Data Scientist

Wir stellen vor: ARIMA-Modelle

ARIMA steht für „Autoregressive Integrated Moving Average“ und ist eine Technik zur Zeitreihenanalyse und zum Forecasting möglicher zukünftiger Werte einer Zeitreihe.

Die autoregressive Modellierung und die Modellierung des gleitenden Durchschnitts sind zwei verschiedene Ansätze für das Prognostizieren von Zeitreihendaten. ARIMA integriert diese beiden Ansätze und ist die Abkürzung der englischen Bezeichnung „Auto-Regressive Integrated Moving Average“. Forecasting (Prognose) ist ein Zweig des maschinellen Lernens, der das frühere Verhalten einer Zeitreihe verwendet, um den einen oder mehrere zukünftige Werte dieser Zeitreihe vorherzusagen. Stellen Sie sich vor, Sie kaufen Eiscreme, um einen kleinen Laden zu füllen. Wenn Sie wissen, dass die Verkäufe von Eiscreme stetig gestiegen sind, wenn das Wetter wärmer wird, sollten Sie wahrscheinlich vorhersagen, dass die Bestellung in der nächsten Woche etwas größer sein wird als in dieser Woche. Wie viel größer, sollte davon abhängen, wie stark sich die Verkäufe dieser Woche von den Verkäufen der letzten Woche unterscheiden. Wir können die Zukunft nicht vorhersagen, ohne eine Vergangenheit, mit der wir sie vergleichen können. Daher sind Daten aus der Vergangenheit für ARIMA und für alle Forecasting- und Zeitreihenanalysemethoden sehr wichtig.

ARIMA ist einer der am weitesten verbreiteten Ansätze für das Forecasting von Zeitreihen und kann je nach Art der Zeitreihendaten, mit denen Sie arbeiten, auf zwei verschiedene Arten verwendet werden. Im ersten Fall haben wir ein nicht saisonales ARIMA-Modell erstellt, bei dem die Saisonalität in Ihren Zeitreihendaten nicht berücksichtigt werden muss. Wir sagen die Zukunft einfach auf der Grundlage von Mustern in früheren Daten voraus. Im zweiten Fall berücksichtigen wir die Saisonalität, d. h. regelmäßige Zyklen, die Zeitreihe beeinflussen. Diese Zyklen können täglich, wöchentlich oder monatlich sein und helfen dabei, Muster in den vergangenen Daten der Zeitreihe zu definieren, die zur Prognose zukünftiger Werte verwendet werden können. Wie ein Großteil der Datenwissenschaft besteht auch beim Forecasting die Grundlage für das Training Ihrer Modelle aus guten Zeitreihendaten. Eine Zeitreihe ist eine geordnete Abfolge von Messungen einer Variablen in gleichmäßig verteilten Zeitintervallen. Es ist wichtig, sich daran zu erinnern, dass nicht alle Datensätze, die ein Zeitelement enthalten, tatsächlich Zeitreihendaten sind, da diese Zeitintervallanforderung gleichmäßig verteilt ist.

Die Box-Jenkins-Methode

Im Jahr 1970 schlugen die Statistiker George Box und Gwilym Jenkins die die heute als „The Box-Jenkins“ bekannte Methode vor, die für jede Art von Zeitreihenmodell geeignet ist.1 Der Ansatz geht von der Annahme aus, dass der Prozess, der die Zeitreihe erzeugt hat, durch ein Modell angenähert werden kann, wenn er stationär ist. Er besteht aus vier Schritten:

Identifizierung: Beurteilen Sie, ob die Zeitreihe stationär ist, und wenn nicht, wie viele Unterschiede erforderlich sind, um sie stationär zu machen. Erzeugen Sie dann differenzierte Daten zur Verwendung in Diagnosediagrammen. Identifizieren Sie die Parameter eines ARMA-Modells für die Daten aus der Autokorrelation und der partiellen Autokorrelation.

Schätzung: Verwenden Sie die Daten, um die Parameter des Modells (d. h. die Koeffizienten) zu trainieren.

Diagnoseüberprüfung: Bewerten Sie das angepasste Modell im Kontext der verfügbaren Daten und prüfen Sie, in welchen Bereichen das Modell verbessert werden kann. Dazu gehören insbesondere die Prüfung auf Überanpassung und die Berechnung der Restfehler.

Forecasting: Jetzt, da Sie ein Modell haben, können Sie mit Ihrem Modell Werte prognostizieren.

Sobald Sie sich überzeugt haben, dass Ihr Modell korrekt zu Ihren Daten passt, können Sie mit dem ARIMA-Forecasting beginnen. Wir werden jeden dieser Schritte im Detail untersuchen.

Eigenschaften von Zeitreihendaten

Eine Zeitreihe kann stationär oder nichtstationär sein. Eine stationäre Zeitreihe hat statistische Eigenschaften, die im Laufe der Zeit konstant sind. Das bedeutet, dass sich Statistiken wie der Mittelwert, die Varianz und die Autokorrelation nicht über die Daten hinweg verändern. Die meisten statistischen Prognosemethoden, einschließlich ARIMA, beruhen auf der Annahme, dass die Zeitreihe durch eine oder mehrere Transformationen annähernd stationär gemacht werden kann. Eine stationäre Serie ist vergleichsweise einfach vorherzusagen, da Sie einfach voraussagen können, dass die statistischen Eigenschaften in der Zukunft in etwa gleich sein werden wie in der Vergangenheit. Die Arbeit mit instationären Daten ist möglich, aber mit einem Ansatz wie ARIMA schwierig.

Eine weitere wichtige Eigenschaft von Zeitreihendaten ist, ob sie einen Trend in den Daten aufweisen. Zum Beispiel würden die Preise für Grundnahrungsmittel in einem Lebensmittelgeschäft der letzten 50 Jahre einen Trend aufweisen, da die Inflation diese Preise nach oben treibt. Die Vorhersage von Daten, die Trends enthalten, kann schwierig sein, weil der Trend die anderen Muster in den Daten verdeckt. Wenn die Daten eine stabile Trendlinie aufweisen, zu der sie immer wieder zurückkehren, kann es sich um einen stationären Trend handeln. In diesem Fall kann der Trend entfernt werden, indem einfach eine Trendlinie angepasst und der Trend von den Daten subtrahiert wird, bevor ein Modell daran angepasst wird. Wenn die Daten nicht trend-stationär sind, dann sind sie möglicherweise differenz-stationär. In diesem Fall kann der Trend durch Differenzierung entfernt werden. Die einfachste Art der Differenzierung ist, den vorherigen Wert von jedem Wert zu subtrahieren, um ein Maß dafür zu erhalten, wie viel Veränderung in den Zeitreihendaten vorhanden ist. Wenn also zum Beispiel Yt der Wert der Zeitreihe Y in der Periode t ist, dann ist die erste Differenz von Y in Periode t gleich Yt-Yt-1.

Hier sehen wir ein Diagramm einer Zeitreihe, die nicht stationär ist. Es hat einen offensichtlichen Aufwärtstrend und zeigt Saisonalität.

Die Saisonalität ist hier ein regelmäßiger 12-Monats-Zyklus. Dies könnte durch eine Differenzierung der Zeitreihen um 12 Einheiten behoben werden, sodass wir April 1990 mit April 1989 vergleichen. Nachdem wir eine Differenzbildung mit einer Verzögerung von 12 Einheiten auf die Zeitreihe angewendet haben, können wir eine stationärere Zeitreihe sehen. Die Varianz dieser Zeitreihe ändert sich weiterhin, aber ein ARIMA-Modell könnte an diese Zeitreihe angepasst und eine Prognose daraus erstellt werden.

Stationarität kann verwirrend sein, z. B. eine Zeitreihe, die zyklisches Verhalten aufweist, aber kein Trend oder keine Saisonalität noch stationär ist. Solange die Zyklen bei der Betrachtung der Reihe nicht eine feste Länge haben, können wir nicht wissen, wo die Spitzen- und Tiefpunkte der Zyklen auftreten werden. Im Allgemeinen wird eine stationäre Zeitreihe langfristig keine vorhersehbaren Muster aufweisen. Wenn Sie die Zeitreihendaten in einem Liniendiagramm darstellen würden, würden sie grob horizontal mit einer konstanten Varianz und ohne signifikante Spitzen oder Rückgänge aussehen.

Autokorrelation

Durch die Berechnung der Autokorrelation können wir sehen, inwieweit eine Zeitreihe mit ihren früheren Werten korreliert ist. Die Berechnung der Autokorrelation kann Fragen beantworten, ob die Daten Zufälligkeit aufweisen und wie verwandt eine Beobachtung mit einer unmittelbar benachbarten Beobachtung ist. Dies kann uns ein Gefühl dafür geben, welche Art von Modell die Daten am besten darstellen könnte. Die Autokorrelationen werden oft aufgezeichnet, um die Korrelation zwischen den Punkten bis einschließlich der Verzögerungseinheit zu sehen.

Jede Verzögerung in der Autokorrelation ist wie folgt definiert:

 rK=t=K+1T(yt-y¯)-(yt-K-y¯)t=1T(yt-y¯)2

r ist eine eventuelle Verzögerung in der Autokorrelation, T ist die Länge der Zeitreihe und y ist der Wert der Zeitreihe. Die Autokorrelationskoeffizienten bilden die Autokorrelationsfunktion (ACF).

In ACF befindet sich der Korrelationskoeffizient auf der x-Achse, während die Anzahl der Verzögerungen (die so genannte Lag-Reihenfolge) auf der y-Achse angezeigt wird. Ein Autokorrelationsdiagramm kann in Python mitplot_acf aus der StatsModels-Bibliothek erstellt werden und kann in R mit der Funktion acf erstellt werden.

In diesem ACF-Diagramm einer Zeitreihe, die mit einer Verzögerung von 12 Zeiteinheiten differenziert ist, korreliert die Nullverzögerung perfekt mit sich selbst. Die erste Verzögerung ist negativ, die zweite Verzögerung ist leicht positiv, die dritte Verzögerung ist negativ und so weiter. Sie werden feststellen, dass die 12. Verzögerung stark mit sich selbst korreliert. Da wir uns monatliche Daten angesehen haben, macht das Sinn. Wir können sehen, dass die Autokorrelation über die gesamte Zeitreihe hinweg ungefähr den gleichen Zyklus beibehält, ein Hinweis darauf, dass unsere Zeitreihe immer noch eine erhebliche Saisonalität enthält. ACF-Diagramme sind auch hilfreich, um die Parameter des ARIMA-Modells abzuleiten, die am besten zu diesen Daten passen.

Partielle Autokorrelationsfunktion (PACF)

Ein weiteres wichtiges Diagramm bei der Vorbereitung der Verwendung eines ARIMA-Modells auf Zeitreihendaten ist die partielle Autokorrelationsfunktion. Eine ACF-Darstellung zeigt die Beziehung zwischen yt und yt-k für verschiedene Werte von k. Wenn yt und yt−1 korreliert sind, dann werden auch yt−1 und yt−2 korreliert. Es ist aber auch möglich, dass yt und yt–2 korreliert sind, weil sie beide mit yt–1 verbunden sind, und nicht, weil in yt–2 neue Informationen enthalten sind, die für die Vorhersage von yt verwendet werden könnten. Um dieses Problem zu überwinden, können wir partielle Autokorrelationen verwenden, um eine Reihe von Verzögerungsbeobachtungen zu entfernen. Diese Messgrößen erfassen die Beziehung zwischen yt und yt−k  nach Entfernen der Auswirkungen von Verzögerungen 1 bis k. Die erste partielle Autokorrelation ist also mit der ersten Autokorrelation identisch, weil dazwischen nichts entfernt werden kann. Jede partielle Autokorrelation kann als letzter Koeffizient in einem autoregressiven Modell geschätzt werden.

Egal, ob Sie in R oder Python oder einer anderen Programmiersprache oder Bibliothek arbeiten, Sie werden eine Möglichkeit haben, den PACF zu berechnen und ein PACF-Plot zur einfachen Überprüfung zu erstellen. Ein Autokorrelationsdiagramm kann in Python mit plot_pacf aus der statsmodels-Bibliothek erstellt werden und kann in R mit der pacf-Funktion erstellt werden.

Diese PACF verwendet die gleichen Daten wie das obige ACF-Diagramm. Das PACF-Diagramm beginnt bei 1 und nicht bei 0 wie im ACF-Diagramm und zeigt starke Korrelationen bis zur Verzögerung von 1,0, die mit dem gleichen Monat des Vorjahres korreliert. Nach diesem ersten Jahr sehen wir eine abnehmende Menge an Autokorrelation, da die Anzahl der Verzögerungen zunimmt. Da wir die monatlichen Daten mit einer von Jahr zu Jahr schwankenden Varianz betrachtet haben, ergibt dies Sinn.

Autoregression und gleitender Durchschnitt

Wie der Name schon sagt, integriert das Akronym ARIMA die Modelle Autoregression und Moving Average in ein einziges Modell, abhängig von den übergebenen Parametern. Diese beiden Arten, Veränderungen in den Zeitreihen zu modellieren, hängen zusammen, weisen aber einige wichtige Unterschiede auf. In einem Autoregressionsmodell prognostizieren wir die interessierende Variable mithilfe einer linearen Kombination vergangener Werte der Variablen. Der Begriff Autoregression weist darauf hin, dass es sich um eine Regression der Variablen gegen sich selbst handelt. Diese Technik ähnelt einem linearen Regressionmodell darin, dass sie vergangene Werte als Eingaben für die Regression verwendet. Autoregression ist definiert als:

 yt=C+ϕ1yt-1+ϕ2yt-2+...ϕFyt-F+ϵt

wobei εt weißes Rauschen ist. Dies ist wie eine multiple Regression, aber mit verzögerten Werten von yt als Prädiktoren. Wir bezeichnen dies als AR(p)-Modell, ein autoregressives Modell der Ordnung p.

Ein Modell mit gleitendem Durchschnitt hingegen verwendet die Prognosefehler der Vergangenheit, anstatt die vergangenen Werte der Prognosevariablen in einer Regression zu verwenden. Ein gleitender Durchschnitt bildet einfach den Durchschnitt von k-Werten in einem Fenster, wobei k die Größe des Fensters für den gleitenden Durchschnitt ist, und schiebt das Fenster dann weiter. Die Prognosewerte werden anhand der tatsächlichen Werte bewertet, um den Fehler bei jedem Schritt in der Zeitreihe zu bestimmen. Ein gleitender Durchschnitt ist definiert als:

 yt=C+ϵt+θ1ϵt-1+θ2ϵt-2+...θFϵt-F

εt ist weißes Rauschen. Wir bezeichnen dies als MA(q)-Modell, ein gleitendes Durchschnittsmodell der Ordnung q. Natürlich beobachten wir die Werte von εt nicht, sodass es sich nicht wirklich um eine Regression im üblichen Sinne handelt. Beachten Sie, dass jeder Wert von yt als gewichteter gleitender Durchschnitt der letzten Prognosefehler betrachtet werden kann.

In der Regel verwenden Sie in einem ARIMA-Modell entweder den Begriff Auto-Regressive (AR) oder den Begriff Moving Average (MAS). Das ACF-Diagramm und das PACF-Diagramm werden häufig verwendet, um zu bestimmen, welcher dieser Begriffe am besten geeignet ist.

Spezifizieren eines ARIMA-Modells

Sobald die Zeitreihe stationär gemacht und die Art der Autokorrelationen bestimmt wurde, ist es möglich, ein ARIMA-Modell anzupassen. Es gibt 3 Schlüsselparameter für ein ARIMA-Modell, die normalerweise als p, d und q bezeichnet werden.

p: Die Reihenfolge des autoregressiven Teils von ARIMA

d: der Grad der Differenzierung

q: die Reihenfolge des Teils mit dem gleitenden Durchschnitt

Diese werden normalerweise in der folgenden Reihenfolge geschrieben: ARIMA(p, d, q). Viele Programmiersprachen und Pakete stellen eine ARIMA-Funktion bereit, die mit der zu analysierenden Zeitreihe und diesen drei Parametern aufgerufen werden kann. Meistens werden die Daten in einen Trainingssatz und einen Testsatz aufgeteilt, sodass die Genauigkeit des Modells nach dem Training getestet werden kann. Normalerweise lässt sich allein anhand der Betrachtung eines Zeitdiagramms nicht feststellen, welche p- und q-Werte für die Daten am geeignetsten sind. Es ist jedoch oft möglich, die ACF- und PACF-Diagramme zu verwenden, um geeignete Werte für p und q zu bestimmen, und daher sind diese Diagramme wichtige Begriffe für die Arbeit mit ARIMA

Eine grobe Rubrik für die Verwendung von AR-Begriffen im Modell lautet:

  • ACF-Diagramme zeigen, dass die Autokorrelation in Richtung Null abfällt
  • Das PACF-Diagramm schneidet schnell in Richtung Null ab
  • ACF einer stationären Serie zeigt sich positiv bei Lag - 1

Eine grobe Rubrik für die Verwendung von MA-Begriffen im Modell lautet:

  • Negative Autokorrelation bei Lag - 1
  • ACF, der nach einigen Verzögerungen stark abfällt
  • PACF nimmt eher allmählich als plötzlich ab.

Es gibt einige klassische ARIMA-Modelltypen, denen Sie begegnen können.

ARIMA (1,0,0) = autoregressives Modell erster Ordnung: Wenn die Reihe stationär und autokorreliert ist, kann sie vielleicht als Vielfaches ihres eigenen vorherigen Werts plus einer Konstanten vorhergesagt werden. Wenn die Verkäufe von Eiscreme für morgen direkt vorhergesagt werden können, indem nur die Eiscremeverkäufe von heute verwendet werden, dann ist das ein autoregressives Modell erster Ordnung.

ARIMA(0,1,0) = Random Walk: Wenn die Zeitreihe nicht stationär ist, ist das einfachste Modell dafür ein Random-Walk-Modell. Ein Random Walk unterscheidet sich von einer Liste von Zufallszahlen, da der nächste Wert in der Sequenz eine Änderung des vorherigen Werts in der Sequenz ist. Auf diese Weise modellieren wir häufig unterschiedliche Werte für Aktienkurse.

ARIMA(1,1,0) = differenziertes autoregressives Modell erster Ordnung: Wenn die Fehler eines Random-Walk-Modells autokorreliert sind, kann das Problem vielleicht behoben werden, indem man eine Verzögerung der abhängigen Variable zur Vorhersagegleichung hinzufügt, d. h. indem man die erste Differenz von Y auf sich selbst mit einer Verzögerung von einer Periode regressiert.

ARIMA(0,1,1) ohne Konstante = einfache Modelle mit exponentieller Glättung: Dies wird für Zeitreihendaten ohne Saisonalität oder Trend verwendet. Es ist ein einzelner Glättungsparameter erforderlich, der die Einflussrate historischer Beobachtungen steuert (angegeben durch einen Koeffizientenwert zwischen 0 und 1). Bei dieser Technik bedeuten Werte näher an 1, dass das Modell vergangenen Beobachtungen wenig Beachtung schenkt, während kleinere Werte bedeuten, dass bei Vorhersagen ein größerer Teil der Historie berücksichtigt wird.

ARIMA(0,1,1) mit Konstante = einfache exponentielle Glättungsmodelle mit Wachstum. Dies entspricht der einfachen exponentiellen Glättung, mit dem Unterschied, dass es einen additiven konstanten Term gibt, der den Y-Wert der Zeitreihe im Laufe der Zeit wachsen lässt.

Es gibt natürlich noch viele andere Möglichkeiten, ARIMA-Modelle anzupassen. Deshalb berechnen wir oft mehrere Modelle und vergleichen sie, um zu sehen, welches Modell am besten zu unseren Daten passt. Alle diese Modelle sind Modelle erster Ordnung, was bedeutet, dass sie lineare Prozesse abbilden. Es gibt Modelle zweiter Ordnung, die quadratische Prozesse abbilden, und höhere Modelle, die komplexere Prozesse abbilden.

Vergleich von ARIMA-Modellen

In der Regel werden mehrere ARIMA-Modelle an die Daten angepasst und miteinander verglichen, um herauszufinden, welches Modell die in den Zeitreihendaten beobachteten Muster vorhersagt. Es gibt drei Schlüsselmetriken zur Bewertung der Genauigkeit eines ARIMA-Modells:

Akaike-Informationskriterium oder AIC. Dies wird häufig verwendet, um Prädiktoren für Regressionsmodelle auszuwählen, und es ist auch nützlich, um die Ordnung eines ARIMA-Modells zu bestimmen. AIC quantifiziert sowohl die Anpassungsgüte des Modells als auch die Einfachheit/Sparheit des Modells in einer einzigen Statistik. Eine niedrigere AIC-Bewertung ist besser als eine höhere, daher bevorzugen wir das Modell mit einer niedrigeren Punktzahl. AIC bevorzugt einfachere Modelle, komplexere Modelle erhalten höhere Bewertungen, solange ihre Genauigkeit mit der eines einfacheren Modells übereinstimmt. Es gibt auch das korrigierte AIC oder AICC, bei der einfach eine kleine Korrektur für die Stichprobengröße vorgenommen wird.

Bayesianisches Informationskriterium oder BIC. Dies ist ein weiteres Kriterium für die Modellauswahl, das die Komplexität noch stärker benachteiligt als das AIC. Wie beim AIC werden Modelle mit niedrigerem BIC generell denen mit höheren Scores vorgezogen. Wenn Ihr Modell für längerfristiges Forecasting verwendet werden soll, kann das BIC die bessere Wahl sein, während ein kurzfristigeres Forecasting bedeuten kann, dass das AIC bevorzugt wird.

Der Sigma-Quadrat- oder Sigma2-Wert ist die Varianz der Modellresiduen. Der Sigma-Begriff beschreibt die Volatilität des hypothetischen Prozesses. Wenn Sie sehr flüchtige Daten haben, aber einen sehr niedrigen Sigma-Quadrat-Score, oder umgekehrt nicht flüchtige Daten, aber einen hohen Sigma-Quadrat-Score, ist das ein Zeichen dafür, dass das Modell den tatsächlichen Datengenerierungsprozess nicht gut erfasst.

Wenn wir einen Testdatensatz zurückgehalten haben, können wir auch Genauigkeitsmetriken wie RMSE für verschiedene Vorhersageintervalle vergleichen. Das ARIMA-Modell kann Werte für einen einzelnen Zeitschritt in der Zukunft oder für mehrere Schritte gleichzeitig prognostizieren.

Variationen von ARIMA

Ein anderer Ansatz zum Konfigurieren und Vergleichen von ARIMA-Modellen ist die Verwendung von Auto-ARIMA, das automatisierte Konfigurationsaufgaben auf die Erstellung und den Vergleich von ARIMA-Modellen anwendet. Es gibt mehrere Möglichkeiten, zu einem optimalen Modell zu gelangen. Der Algorithmus generiert mehrere Modelle und versucht, die AICc und den Fehler der Maximum-Likelihood-Schätzung zu minimieren, um ein ARIMA-Modell zu erhalten.

Saisonale Autoregressive Integrated Moving Average (SARIMA) oder kurz Seasonal ARIMA ist eine Erweiterung von ARIMA und eignet sich zur Analyse von Zeitreihendaten mit saisonalen Mustern. Dazu werden drei neue Hyperparameter hinzugefügt, um die Autoregression, die Differenzierung und den gleitenden Durchschnitt für die saisonale Komponente der Reihe festzulegen, sowie einen zusätzlichen Parameter für den Zeitraum der Saisonalität. Ein SARIMA-Modell wird typischerweise als SARIMA((p,d,q),(P,D,Q)) ausgedrückt, wobei die Kleinbuchstaben die nicht saisonale Komponente der Zeitreihe und die Großbuchstaben die saisonale Komponente angeben

Vektorautoregressive Modelle (oder VAR-Modelle) werden für multivariate Zeitreihen verwendet. Sie sind so strukturiert, dass jede Variable eine lineare Funktion vergangener Verzögerungen ihrer selbst und vergangener Verzögerungen der anderen Variablen ist.

ARIMA-Modelle sind ein leistungsfähiges Werkzeug für die Analyse von Zeitreihendaten, um vergangene Prozesse zu verstehen und zukünftige Werte einer Zeitreihe zu prognostizieren. ARIMA-Modelle kombinieren autoregressive Modelle und Modelle mit gleitendem Durchschnitt, um dem Forecaster ein hochgradig parametrisiertes Tool an die Hand zu geben, das mit einer Vielzahl von Zeitreihendaten verwendet werden kann.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Mixture of Experts | Podcast

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Weiterführende Lösungen
Analysetools und -lösungen

Um erfolgreich zu sein, müssen Unternehmen Daten nutzen, um die Kundenbindung zu stärken, Geschäftsprozesse zu automatisieren und mit KI-gestützten Lösungen Innovationen zu schaffen.

Analyselösungen entdecken
Beratungsservices für Daten und Analysen

Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting und bauen Sie ein erkenntnisorientiertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.

Analyse-Services entdecken
IBM Cognos Analytics

Wir stellen vor: Cognos Analytics 12.0, KI-gestützte Erkenntnisse für eine bessere Entscheidungsfindung.

Cognos Analytics erkunden
Machen Sie den nächsten Schritt

Um erfolgreich zu sein, müssen Unternehmen Daten nutzen, um die Kundenbindung zu stärken, Geschäftsprozesse zu automatisieren und mit KI-gestützten Lösungen Innovationen zu schaffen.

Analyselösungen entdecken Analyse-Services entdecken
Fußnoten

1 Time Series Analysis: Forecasting and Control, Holden Day, 1970.