Startseite
Analysen
SPSS
SPSS Statistics
Categories
Mit IBM SPSS Categories können Sie Beziehungen in Ihren Daten visualisieren und untersuchen. Außerdem lassen sich damit anhand Ihrer ermittelten Ergebnisse Vorhersagen treffen. Hierbei werden kategoriale Regressionsverfahren angewendet, um die Werte einer nominalen, ordinalen oder numerischen Ergebnisvariable aus einer Kombination von numerischen und geordneten oder nicht geordneten kategorialen Prädiktorvariablen vorherzusagen. Die Software verfügt über fortschrittliche Techniken wie prädiktive Analyse, statistisches Lernen, Wahrnehmungszuordnung und Präferenzskalierung.
Dieses Modul ist in der SPSS Statistics Professional-Edition für On-Premise-Versionen und im Add-on „Complex Sampling and Testing“ für Abonnementpläne enthalten.
Verwenden Sie die Korrespondenzanalyse, um Unterschiede zwischen Kategorien einfacher darzustellen und zu analysieren.
Integrieren Sie ergänzende Informationen über zusätzliche Variablen.
Verwenden Sie die symmetrische Normalisierung, um ein Biplot zu erstellen, damit Sie Zusammenhänge besser erkennen können.
Verwenden Sie Tools, die Ihnen helfen, Ihre multivariaten Daten und deren Beziehungen vollständig zu analysieren und zu interpretieren. So können Sie beispielsweise herausfinden, welche Eigenschaften die Verbraucher am ehesten mit Ihrem Produkt oder Ihrer Marke in Verbindung bringen. Oder Sie können untersuchen, wie Kunden Ihre Produkte im Vergleich zu anderen Produkten, die Sie oder Ihre Wettbewerber anbieten, wahrnehmen.
Sagen Sie die Werte einer nominalen, ordinalen oder numerischen Ergebnisvariable aus einer Kombination von numerischen und geordneten oder nicht geordneten kategorialen Prädiktorvariablen voraus. Verwenden Sie die Regression mit optimaler Skalierung, um beispielsweise zu beschreiben, wie die Zufriedenheit am Arbeitsplatz anhand der Jobkategorie, der geografischen Region und der Anzahl der Dienstreisen vorhergesagt werden kann.
Quantifizieren Sie die Variablen so, dass das Vielfache R maximiert wird. Eine optimale Skalierung kann auf numerische Variablen angewendet werden, wenn die Residuen nicht normal sind oder wenn die Prädiktorvariablen nicht linear mit der Ergebnisvariablen verknüpft sind. Regularisierungsmethoden wie Ridge-Regression, Lasso und elastisches Netz können die Vorhersagegenauigkeit durch Stabilisierung der Parameterschätzungen verbessern.
Verwenden Sie Techniken zur Dimensionsreduktion, um Beziehungen in Ihren Daten darzustellen. Zusammenfassungsdiagramme zeigen ähnliche Variablen oder Kategorien an, um Ihnen einen Einblick in die Beziehungen zwischen mehr als zwei Variablen zu geben.
Zu den Verfahren gehören die Korrespondenzanalyse (CORRESPONDENCE), die kategoriale Regression (CATREG), die multiple Korrespondenzanalyse (MULTIPLE CORRESPONDENCE), CATPCA, die nicht lineare kanonische Korrelation (OVERALS), die Ähnlichkeitsskalierung (PROXSCAL) und die Präferenzskalierung (PREFSCAL).