Korrelation und Regression im Vergleich

Поділитися
Вставка
  • Опубліковано 6 січ 2015
  • Anhand eines einfachen Praxisbeispiels ohne Formeln werden Korrelationsanalyse (Pearson's r) und lineare Regression verglichen. Die Ergebnisse der Korrelation finden sich auch in der Regression wieder. Solange die lineare Regression nur eine unabhängige Variable enthält, stimmen die p-Werte überein. Die lineare Regression bietet zusätzlich eine Interpretation in Einheiten der abhängigen Variable.
    Blog: statistik-dresden.de/statistik...
    R Schulungen: statistik-dresden.de/r-schulungen
    Diagramme: statistik-dresden.de/leistunge...
    SPSS-Schulungen: statistik-dresden.de/leistunge...
    Twitter: / statistikindd
    Facebook: / statistikdresden
  • Наука та технологія

КОМЕНТАРІ • 32

  • @elifant3439
    @elifant3439 7 років тому +1

    Danke für die Mühe, sehr verständlich erklärt :-)

  • @Garrettthethief
    @Garrettthethief 8 років тому +2

    Wirklich gut erklärt. Danke vielmals!

  • @ErichKasten
    @ErichKasten 8 років тому

    Danke. Super verständlich erklärt. :-)

  • @handyhoneysweet
    @handyhoneysweet 4 роки тому

    Danke! Habe es endlich verstanden!:-)

  • @grephi
    @grephi 4 роки тому +2

    besten dank chef!

  • @drbest87
    @drbest87 8 років тому

    Tolles Programm

  • @392Rosemary
    @392Rosemary 2 роки тому +1

    Danke für die gute Erklärung!
    Kurze Frage noch: Macht es Sinn, für dieselbe Hypothese sowohl Korrelationen als auch einfache lineare Regression zu rechnen?

    • @StatistikinDD
      @StatistikinDD  2 роки тому +1

      Ja, das geht. Gibt noch ein wenig mehr Futter für die Interpretation.

  • @superschnubby
    @superschnubby 6 років тому +1

    Welche Software hast du denn bei den Analysen verwendet?

  • @jowes1264
    @jowes1264 2 роки тому

    Hallo, lieben Dankf für diese einfache Erklärung!
    Ich hätte auch noch eine Frage. Ich habe die Korrelation und Regression durchgeführt und erhalte für zwei Variablen eine moderate signifikante Korrelation, aber bei der muliplen Regressionsanalyse ist das Ergebnis nicht signifikant. Ich habe gelesen, dass das auf Multikollinearität hindeuten kann, aber das habe ich mittels der VIF-Statistik getestet und die lag nicht vor. Was bedeutet das?

    • @StatistikinDD
      @StatistikinDD  2 роки тому

      Bei der multiplen Regression bedeutet der Effekt einer Variable: Effekt, wenn alle anderen Variablen konstant gehalten werden. (Andere Formulierung: "unter Kontrolle der weiteren Modellvariablen".) Bei der bivariaten Korrelation bzw. Regression mit nur einer unabhängigen Variable liegt diese Kontrolle nicht vor. Die bekanntesten Formen dieses Phänomens sind Scheinkorrelation und verdeckte Korrelation.
      Hier wird es also interessant! :-)
      Anmerkung zu VIF: Die Multikollinearität mag nicht über einem definierten Schwellwert liegen, nichtsdestotrotz gibt es gewisse Korrelationen zwischen den unabhängigen Variablen. Wären die unabhängigen Variablen vollkommen unkorreliert, dürften sich Effekte zwischen dem bivariaten und multiplen Modell nicht verändern.

  • @danielf.4811
    @danielf.4811 7 років тому

    Genial !!!!

  • @Laura-lh7xg
    @Laura-lh7xg 11 місяців тому

    Danke!

  • @DillinjahXx
    @DillinjahXx 8 років тому

    Danke! :)

  • @themo1719
    @themo1719 5 років тому

    Hi, lässt sich der Regeressionskoeffizient auch bei einer 7 Punkt Skala sinnvoll interpretieren? (Ich würde gerne zwei 7 Punkt Skalen in Zusammenhang setzen & nicht das Alter) Dankeschön.

    • @StatistikinDD
      @StatistikinDD  5 років тому

      Das wird in Sozialwissenschaften häufig gemacht. Eine Einheit = eine Stufe auf der 7er-Skala. Methodisch kann man diskutieren, ob eine solche Skala tatsächlich intervallskaliert ist oder "nur" ordinal. Ein pragmatischer Umgang damit ist, bei der Interpretation nicht so sehr auf exakte Werte (Dezimalstellen) zu schauen, sondern eher Wirkungsrichtungen zu interpretieren und Hypothesen zu testen.

    • @themo1719
      @themo1719 5 років тому

      Danke für die schnelle Antwort! Macht dann vllt eine einfache Korrelation mehr Sinn, oder lässt sich dabei absolut keine Wirkungsrichtung erkennen? Zur Info meine Daten und Residuen sind nicht normalverteilt und Hypothesen habe ich definiert als "XX wirkt sich positiv auf yy aus". Nochmals danke für deine Hilfe. @@StatistikinDD

    • @StatistikinDD
      @StatistikinDD  5 років тому

      @@themo1719 Auch eine Regression kann die Wirkungsrichtung nicht "beweisen" - es ist eine Annahme des Forschers. Wenn Voraussetzungen verletzt sind, kann man alternativ oder zusätzlich nichtparametrische Verfahren einsetzen (z. B. Spearman-Korrelation). V. a. bei sozialwissenschaftlichen Fragestellungen kommen Verletzungen der Voraussetzungen häufig vor und es ist gute Praxis, diese Punkte in der Arbeit zu diskutieren. Daten, die alle Annahmen und Voraussetzungen der gewünschten Verfahren streng erfüllen, sind eher selten.

    • @themo1719
      @themo1719 5 років тому

      StatistikinDD Verstehe...Aber lässt sich dann meine Hypothese mit einer signifikanten Spearman Korrelation "beweisen" bzw annehmen? Da ich ja sage "xx hat einen Einfluss auf yy". Und nicht "es existiert ein zusammenhanf zwischen xx und yy" ;)

    • @StatistikinDD
      @StatistikinDD  5 років тому

      @@themo1719 Endgültig beweisen kann man leider gar nichts in der Statistik :-) Die Ergebnisse gelten nur, bis jemand eine bessere Erklärung findet. Es kann ja eine Scheinkorrelation sein, die durch eine gemeinsame Drittvariable verursacht wird. Die Menge der möglichen Drittvariablen ist theoretisch unendlich groß. Man kann schon sagen: Hypothese bestätigt. Genau genommen heißt das: Die Hypothese ist mit den Daten vereinbar.

  • @moritzro7464
    @moritzro7464 2 роки тому

    Hi, ich führe eine Querschnittsanalyse durch. Ist es richtig dass die Durchführung einer Regressionanalyse nicht mehr sinnvoll ist, wenn keine Korrelation zwischen den Variablen besteht?

    • @StatistikinDD
      @StatistikinDD  2 роки тому

      Würde ich nicht ganz pauschal sagen. Bei einer Regression kann man weitere (Kontroll-)Variablen aufnehmen. Es kann verdeckte Korrelationen geben, d. h. einzeln kein Zusammenhang, aber mit Kontrollvariable(n) zeigt sich doch ein Zusammenhang.
      Wenn es nur um den Zusammenhang zwischen zwei Merkmalen geht, ohne weitere Variablen, dann kann bei der Regression nichts wesentlich Anderes herauskommen als bei der (Pearson-)Korrelation.

  • @danielkowatschew3158
    @danielkowatschew3158 Рік тому

    Kann bei Regression auch was anderes rauskommen als bei der Korrelation? Kann ja sein, dass die Erklärung in die eine Richtung funktioniert und die andere Richtung nicht oder?

    • @StatistikinDD
      @StatistikinDD  Рік тому

      Die Koeffizienten werden etwas anders berechnet - daher sind Korrelation und Regression nicht identisch. Etwas grundsätzlich anderes kommt aber nicht heraus - natürlich unter der Voraussetzung, dass die Regression nur die eine UV enthält. Die Wirkungsrichtung wird nur vom Forscher festgelegt, nicht vom Verfahren "bewiesen". Wenn UV -> AV signifikant ist, muss AV -> UV auch signifikant sein.

  • @Iceberk_
    @Iceberk_ 3 роки тому

    Welche Vorteile hat die Regressions- im Vergleich zur Korrelationsanalyse?

    • @StatistikinDD
      @StatistikinDD  3 роки тому +1

      Man kann Kontrollvariablen aufnehmen; Interpretation in Einheiten der abhängigen Variable

    • @Iceberk_
      @Iceberk_ 3 роки тому

      @@StatistikinDD Danke für die schnelle Antwort:)

  • @sunriseandnightfall
    @sunriseandnightfall 6 років тому

    danke

  • @TheStenius
    @TheStenius 5 років тому

    Dass R-Quadrat mit einer prozentualen Aufklärungsrate der AV-Varianz gleichzusetzen ist, halte ich jedoch für den prominentesten Trugschluss rund um das Thema Regression.

    • @StatistikinDD
      @StatistikinDD  5 років тому

      Können Sie es mit einem Satz treffender beschreiben?

    • @TheStenius
      @TheStenius 5 років тому

      Wenn man R^2 mit einer Prozentangabe gleichsetzt, setzt man ja voraus, dass es sich dabei um eine lineare bzw. metrische Maßzahl handelt. Und eben dies bezweifle ich. Bei der Korrelation mag das ja wahrscheinlich noch passen (Wobei ich auch dafür nicht meine Hand ins Feuer legen würde). Also sprich: eine Korrelation von 0,8 ist doppelt so hoch wie eine Korrelation von 0,4. Nimmt man die Korrelation nun jedoch ins Quadrat, wird aus der Korrelations-Gerade im Schaubild eine nach unten aussackende Kurve, welche mit der Geraden lediglich die Werte 0 und 1/-1 gemein hat. Daher dürfte sich ja vor allem bei mittelgroßen Werten für R^2 eine wertvermindernde Verzerrung im Vergleich zu einer linearen prozentualen Angabe einschleichen oder sehe ich das falsch?