Mit IBM® SPSS® Regression können Sie kategoriale Ergebnisse vorhersagen und verschiedene nicht lineare Regressionsverfahren anwenden. Sie können diese Verfahren für Geschäfts- und Analyseprojekte verwenden, bei denen herkömmliche Regressionsverfahren nur begrenzt einsetzbar oder ungeeignet sind. Dazu gehören die Untersuchung des Kaufverhaltens von Verbrauchern, Reaktionen auf Behandlungen oder die Analyse von Kreditrisiken. Die Lösung hilft Ihnen, die Möglichkeiten von SPSS Statistics für die Phase der Datenanalyse im Analyseprozess zu erweitern.
Dieses Modul ist in den SPSS Standard-, Professional- und Premium-Paketen enthalten.
Sparen Sie 10 % auf ein Abonnement und Add-ons, wenn Sie sich für eine Laufzeit von 12 Monaten mit automatischer Verlängerung entscheiden
Lösungsübersicht lesen
Sagen Sie das Vorhandensein oder Nichtvorhandensein eines Merkmals oder eines binären Ergebnisses auf der Grundlage der Werte einer Reihe von Prädiktorvariablen voraus. Das Verfahren ähnelt einem linearen Regressionsmodell, eignet sich aber für Modelle, bei denen die abhängige Variable dichotom ist und eine Binomialverteilung angenommen wird. Die geschätzten Koeffizienten können verwendet werden, um Berechnungen für Chancenverhältnisse für jede der unabhängigen Variablen im Modell vorzunehmen.
Verwenden Sie die Logit-Verknüpfungsfunktion, um die Abhängigkeit einer polytomen ordinalen Antwort von einer Reihe von Prädiktoren zu modellieren. Im Logit-Modell werden die Log-Odds des Ergebnisses als lineare Kombination der Prädiktorvariablen modelliert.
Klassifizieren Sie Probanden auf der Grundlage der Werte einer Reihe von Prädiktorvariablen. Diese Art der Regression ähnelt der logistischen Regression, ist aber allgemeiner, da die abhängige Variable nicht auf zwei Kategorien beschränkt ist.
Finden Sie ein nicht lineares Modell der Beziehung zwischen der abhängigen Variable und einer Reihe von unabhängigen Variablen. Im Gegensatz zur traditionellen linearen Regression, die auf die Schätzung linearer Modelle beschränkt ist, kann die nicht lineare Regression eine Schätzung von Modellen mit willkürlichen Beziehungen zwischen unabhängigen und abhängigen Variablen vornehmen. Dies wird durch iterative Schätzalgorithmen erreicht.
Verwenden Sie Probit- und Logit-Antwortmodelle, um die Stärke von Reaktionen auf Stimuli wie Medikamentendosen, Preise oder Anreize zu analysieren. Dieses Verfahren misst den Zusammenhang zwischen der Stärke eines Stimulus und dem Anteil der Fälle, die eine bestimmte Reaktion auf den Stimulus zeigen. Es ist für Situationen nützlich, in denen ein dichotomes Ergebnis vorliegt, von dem angenommen wird, dass es durch die Höhe einer oder mehrerer unabhängiger Variablen beeinflusst oder verursacht wird, und eignet sich besonders gut für experimentelle Daten.
Verwenden Sie in der ersten Stufe Instrumentalvariablen, die nicht mit den Fehlertermen korrelieren, um geschätzte Werte für den/die problematischen Prädiktor(en) zu berechnen. In der zweiten Phase verwenden Sie diese berechneten Werte, um eine Schätzung eines linearen Regressionsmodells für die abhängige Variable durchzuführen. Da die berechneten Werte auf Variablen beruhen, die nicht mit den Fehlern korreliert sind, sind die Ergebnisse des zweistufigen Modells optimal.
Kontrollieren Sie die Korrelationen zwischen den Prädiktorvariablen und den Fehlertermen, die bei zeitbasierten Daten auftreten können. Das Verfahren zur Schätzung der Gewichtung testet eine Reihe von Gewichtungstransformationen und zeigt die beste Lösung für die Daten an.
Modellieren Sie die Beziehung zwischen einer Reihe von Prädiktorvariablen (unabhängigen Variablen) und bestimmten Perzentilen (oder „Quantilen“) einer Zielvariablen (abhängigen Variable), meistens dem Median. Die quantile Regression hat zwei wesentliche Vorteile gegenüber der gewöhnlichen Regression nach der kleinsten Quadrate: Sie stellt keine Annahmen über die Verteilung der Zielvariablen an und ist tendenziell unempfindlich gegenüber dem Einfluss von abweichenden Beobachtungen.