Korrelation und Regression im Vergleich
Вставка
- Опубліковано 6 січ 2015
- Anhand eines einfachen Praxisbeispiels ohne Formeln werden Korrelationsanalyse (Pearson's r) und lineare Regression verglichen. Die Ergebnisse der Korrelation finden sich auch in der Regression wieder. Solange die lineare Regression nur eine unabhängige Variable enthält, stimmen die p-Werte überein. Die lineare Regression bietet zusätzlich eine Interpretation in Einheiten der abhängigen Variable.
Blog: statistik-dresden.de/statistik...
R Schulungen: statistik-dresden.de/r-schulungen
Diagramme: statistik-dresden.de/leistunge...
SPSS-Schulungen: statistik-dresden.de/leistunge...
Twitter: / statistikindd
Facebook: / statistikdresden - Наука та технологія
Danke für die Mühe, sehr verständlich erklärt :-)
Wirklich gut erklärt. Danke vielmals!
Danke. Super verständlich erklärt. :-)
Danke! Habe es endlich verstanden!:-)
besten dank chef!
Tolles Programm
Danke für die gute Erklärung!
Kurze Frage noch: Macht es Sinn, für dieselbe Hypothese sowohl Korrelationen als auch einfache lineare Regression zu rechnen?
Ja, das geht. Gibt noch ein wenig mehr Futter für die Interpretation.
Welche Software hast du denn bei den Analysen verwendet?
SPSS
Hallo, lieben Dankf für diese einfache Erklärung!
Ich hätte auch noch eine Frage. Ich habe die Korrelation und Regression durchgeführt und erhalte für zwei Variablen eine moderate signifikante Korrelation, aber bei der muliplen Regressionsanalyse ist das Ergebnis nicht signifikant. Ich habe gelesen, dass das auf Multikollinearität hindeuten kann, aber das habe ich mittels der VIF-Statistik getestet und die lag nicht vor. Was bedeutet das?
Bei der multiplen Regression bedeutet der Effekt einer Variable: Effekt, wenn alle anderen Variablen konstant gehalten werden. (Andere Formulierung: "unter Kontrolle der weiteren Modellvariablen".) Bei der bivariaten Korrelation bzw. Regression mit nur einer unabhängigen Variable liegt diese Kontrolle nicht vor. Die bekanntesten Formen dieses Phänomens sind Scheinkorrelation und verdeckte Korrelation.
Hier wird es also interessant! :-)
Anmerkung zu VIF: Die Multikollinearität mag nicht über einem definierten Schwellwert liegen, nichtsdestotrotz gibt es gewisse Korrelationen zwischen den unabhängigen Variablen. Wären die unabhängigen Variablen vollkommen unkorreliert, dürften sich Effekte zwischen dem bivariaten und multiplen Modell nicht verändern.
Genial !!!!
Danke!
Danke! :)
Hi, lässt sich der Regeressionskoeffizient auch bei einer 7 Punkt Skala sinnvoll interpretieren? (Ich würde gerne zwei 7 Punkt Skalen in Zusammenhang setzen & nicht das Alter) Dankeschön.
Das wird in Sozialwissenschaften häufig gemacht. Eine Einheit = eine Stufe auf der 7er-Skala. Methodisch kann man diskutieren, ob eine solche Skala tatsächlich intervallskaliert ist oder "nur" ordinal. Ein pragmatischer Umgang damit ist, bei der Interpretation nicht so sehr auf exakte Werte (Dezimalstellen) zu schauen, sondern eher Wirkungsrichtungen zu interpretieren und Hypothesen zu testen.
Danke für die schnelle Antwort! Macht dann vllt eine einfache Korrelation mehr Sinn, oder lässt sich dabei absolut keine Wirkungsrichtung erkennen? Zur Info meine Daten und Residuen sind nicht normalverteilt und Hypothesen habe ich definiert als "XX wirkt sich positiv auf yy aus". Nochmals danke für deine Hilfe. @@StatistikinDD
@@themo1719 Auch eine Regression kann die Wirkungsrichtung nicht "beweisen" - es ist eine Annahme des Forschers. Wenn Voraussetzungen verletzt sind, kann man alternativ oder zusätzlich nichtparametrische Verfahren einsetzen (z. B. Spearman-Korrelation). V. a. bei sozialwissenschaftlichen Fragestellungen kommen Verletzungen der Voraussetzungen häufig vor und es ist gute Praxis, diese Punkte in der Arbeit zu diskutieren. Daten, die alle Annahmen und Voraussetzungen der gewünschten Verfahren streng erfüllen, sind eher selten.
StatistikinDD Verstehe...Aber lässt sich dann meine Hypothese mit einer signifikanten Spearman Korrelation "beweisen" bzw annehmen? Da ich ja sage "xx hat einen Einfluss auf yy". Und nicht "es existiert ein zusammenhanf zwischen xx und yy" ;)
@@themo1719 Endgültig beweisen kann man leider gar nichts in der Statistik :-) Die Ergebnisse gelten nur, bis jemand eine bessere Erklärung findet. Es kann ja eine Scheinkorrelation sein, die durch eine gemeinsame Drittvariable verursacht wird. Die Menge der möglichen Drittvariablen ist theoretisch unendlich groß. Man kann schon sagen: Hypothese bestätigt. Genau genommen heißt das: Die Hypothese ist mit den Daten vereinbar.
Hi, ich führe eine Querschnittsanalyse durch. Ist es richtig dass die Durchführung einer Regressionanalyse nicht mehr sinnvoll ist, wenn keine Korrelation zwischen den Variablen besteht?
Würde ich nicht ganz pauschal sagen. Bei einer Regression kann man weitere (Kontroll-)Variablen aufnehmen. Es kann verdeckte Korrelationen geben, d. h. einzeln kein Zusammenhang, aber mit Kontrollvariable(n) zeigt sich doch ein Zusammenhang.
Wenn es nur um den Zusammenhang zwischen zwei Merkmalen geht, ohne weitere Variablen, dann kann bei der Regression nichts wesentlich Anderes herauskommen als bei der (Pearson-)Korrelation.
Kann bei Regression auch was anderes rauskommen als bei der Korrelation? Kann ja sein, dass die Erklärung in die eine Richtung funktioniert und die andere Richtung nicht oder?
Die Koeffizienten werden etwas anders berechnet - daher sind Korrelation und Regression nicht identisch. Etwas grundsätzlich anderes kommt aber nicht heraus - natürlich unter der Voraussetzung, dass die Regression nur die eine UV enthält. Die Wirkungsrichtung wird nur vom Forscher festgelegt, nicht vom Verfahren "bewiesen". Wenn UV -> AV signifikant ist, muss AV -> UV auch signifikant sein.
Welche Vorteile hat die Regressions- im Vergleich zur Korrelationsanalyse?
Man kann Kontrollvariablen aufnehmen; Interpretation in Einheiten der abhängigen Variable
@@StatistikinDD Danke für die schnelle Antwort:)
danke
Dass R-Quadrat mit einer prozentualen Aufklärungsrate der AV-Varianz gleichzusetzen ist, halte ich jedoch für den prominentesten Trugschluss rund um das Thema Regression.
Können Sie es mit einem Satz treffender beschreiben?
Wenn man R^2 mit einer Prozentangabe gleichsetzt, setzt man ja voraus, dass es sich dabei um eine lineare bzw. metrische Maßzahl handelt. Und eben dies bezweifle ich. Bei der Korrelation mag das ja wahrscheinlich noch passen (Wobei ich auch dafür nicht meine Hand ins Feuer legen würde). Also sprich: eine Korrelation von 0,8 ist doppelt so hoch wie eine Korrelation von 0,4. Nimmt man die Korrelation nun jedoch ins Quadrat, wird aus der Korrelations-Gerade im Schaubild eine nach unten aussackende Kurve, welche mit der Geraden lediglich die Werte 0 und 1/-1 gemein hat. Daher dürfte sich ja vor allem bei mittelgroßen Werten für R^2 eine wertvermindernde Verzerrung im Vergleich zu einer linearen prozentualen Angabe einschleichen oder sehe ich das falsch?