Einfache vs. multiple Regression - warum Variablen nicht signifikant bleiben

Поділитися
Вставка
  • Опубліковано 23 лип 2019
  • // Einfache vs. multiple Regression - warum Variablen nicht signifikant bleiben //
    Häufig bekomme ich die Frage, warum einfache lineare Regressionen signifikante Koeffizienten produzieren, wenn aber alle unabhängigen Variablen in einer multiplen linearen Regression gleichzeitig aufgenommen werden, viele ihre bisherige Signifikanz verlieren. Dies ist nicht verwunderlich, bekommt man mit der Erweiterung um zusätzliche Variablen ein realistischeres Modell. Gleichzeitig kann das Modell die verschiedenen Effekte auf die abhängige Variable gleichzeitig simultan schätzen. Hierbei erkennt es, welche der unabhängigen Variablen tatsächlich einen Einfluss auf die abhängige Variable hat. Häufig verlieren unabhängige Variablen ihren Einfluss auf die abhängige Variable, wenn man weitere unabhängige Variablen aufnimmt und für sie entsprechend kontrolliert.
    Dieses "Phänomen" zeige ich in diesem Video an einem Beispiel, wo ich das Einkommen mit dem Intelligenzquotient, dem Abiturschnitt als auch der Motivation von Befragten erkläre. Alle drei Variablen haben jeweils in einfachen linearen Regressionen einen statistisch signifikanten Effekt auf die abhängige Variable. Zwei von drei verlieren ihn aber bei der multiplen linearen Regression wieder, was ich entsprechend zeige.
    Bei Fragen und Anregungen zu Einfache vs. multiple Regression - warum Variablen nicht signifikant bleiben, nutzt bitte die Kommentarfunktion. Ob ihr das Video hilfreich fandet, entscheidet ihr mit einem Daumen nach oben oder unten. #statistikampc
    Noch mal zum Nachlesen auf meiner Homepage:
    ========================================
    💡 Multiplen linearen Regression in SPSS:
    www.bjoernwalther.com/multipl...
    💡 Einfache lineare Regression in SPSS:
    www.bjoernwalther.com/einfach...
    ⭐Kanalmitglied⭐ werden:
    =======================
    / @statistikampc_bjoernw...
    Kanal unterstützen? 🙌🏼
    ===================
    Paypal-Spende: www.paypal.com/paypalme/Bjoer...
    Amazon Affiliate-Link: amzn.to/2iBFeG9
    Danke für eure Unterstützung! ♥

КОМЕНТАРІ • 92

  • @StatistikamPC_BjoernWalther
    @StatistikamPC_BjoernWalther  4 роки тому +3

    Bei Fragen und Anregungen zu Einfache vs. multiple Regression - warum Variablen nicht signifikant bleiben, nutzt bitte die Kommentarfunktion.

  • @lilozla
    @lilozla День тому +1

    Das ist großartig, genau das habe ich jetzt gebraucht!

  • @davidno23ify
    @davidno23ify 3 роки тому +6

    Du bist mein neuer Daniel Jung - DANKE! ♡

  • @iliabercov447
    @iliabercov447 4 роки тому +5

    Ein überragendes und sehr aufschlussreiches Video Björn, chapaeu! Danke! :)

  • @sapphirebluebird
    @sapphirebluebird 2 роки тому

    Hallo, danke für die tollen Videos, die helfen mir immer sehr weiter! :)
    Vielleicht ist das eine ganz blöde Frage, aber was ist denn der Unterschied zwischen einer multiplen linearen Regression und mehreren partiellen Korrelationen, wo ich immer die jeweils anderen Variablen als Kontrollvariablen drin habe? Müssten da dann nicht die signifikanten part. Korrelationen den signifikanten Prädiktoren des Regressionsmodells entsprechen?

  • @Gizos0196
    @Gizos0196 3 роки тому +2

    Danke, sehr gut erklärt. Kann man auch drei abhängige Variablen mit mehreren unabhängigen Variablen analysieren oder muss man für jede abhängige Variable eine neue Regressionsanalyse durchführen? (Müssen alle Variablen, abhängige und unabhängige, gleich skaliert sein??)

  • @calidreaming.
    @calidreaming. 4 роки тому +1

    Danke für deine hilfreichen Videos! Könntest du auch ein Erklärvideo zur logistische Regression machen? Danke :)

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому +1

      Hallo Simone, danke! :-)
      Logistische Regression wird nicht mehr allzu lange auf sich warten lassen.
      Viele Grüße, Björn.

  • @ulrikekopke7942
    @ulrikekopke7942 Рік тому +1

    Hi, deine Videos sind einfach super hilfreich. Trotzdem habe ich noch eine Frage. Diese wurde hier in den Kommentaren schon gestellt, aber es gab dazu bisher keine Antwort ;-) Ich berechne ein logistisches hierarchisches Modell, dass anfangs nur das Geschlecht (sig) beinhaltet, die Aufnahme weiterer Prädiktoren nivelliert die Signifikanz. Nach Aufnahme einer weiteren bedeutenden UV ist das Geschlecht dann im Modell 6 plötzlich wieder signifikant. Wie wäre sowas zu interpretieren? Lieben Dank

  • @user-bp5nv6vy6j
    @user-bp5nv6vy6j Рік тому +3

    Hallo Björn! Einmal mehr ein sehr gutes Video. Warum signifikante Variablen in der mult. lin. Regression in der Zusammenschau nicht mehr signifikant sind kann ich nachvollziehen. Jedoch kommt es immer wieder auch dazu, dass Variablen, die für sich alleine betrachtet nicht signifikant sind in der mult. lin. Regression signifikant werden. Wie ist das zu erklären? Vielen Dank!!

  • @georgia3953
    @georgia3953 Рік тому +1

    Super Video, vielen lieben Dank! Spannend wäre auch zu erfahren, wie man den gegenteiligen Fall erklären kann. Also wie man erklären kann, dass in z. B. einen hierarchischen Regressionsmodell im ersten Schritt (= einfache Regression) keine Signifikanzen festgestellt werden konnten, aber bei der Hinzunahme einer weiteren unabhängigen Variable (= multiple Regression) beide eingefügten unabhängigen Variablen signifikant werden. Ich vermute, dass dies damit zu tun hat, dass mit der Hinzunahme einer weiteren Variable die Gesamtheit der unerklärten Varianz von der abhängigen Variable geringer wird, bin mir aber nicht sicher. Über ein kurzes Feedback oder vllt. auch ein Video dazu (falls das für mehrere interessant sein könnte), würde ich mich sehr freuen! DANKE!

  • @christophalfredsonjr.4536
    @christophalfredsonjr.4536 10 місяців тому +1

    Möchte an dieser Stelle ein großes Danke an @StatistikamPC_BjoernWalther loswerden. Tolle und wichtige Arbeit, die vielen vielen Leuten weiterhilft!

  • @isabellrichter8861
    @isabellrichter8861 4 роки тому +2

    Danke für die ausführliche Erklärung. Kannst du mal ein Video zu Überlebenszeitanalyse machen (Kaplan Meier) und Cox - Regression? Das wäre super.

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому

      Hallo Isabell und danke für dein Lob.
      Ich habe es mir mal notiert, kann aber nicht sagen, wann ich dazu komme, weil ich zumeist 3-4 Wochen vorproduzieren muss.
      Viele Grüße, Björn.

  • @Yaleglo
    @Yaleglo Рік тому +1

    Super Video! Was ist eine Erklärung dafür, wenn das gesamte Modell zwar signifikant ist, aber die einzelnen Prädiktoren nicht? (Multikollinearität ausgeschlossen)

  • @almutallie5298
    @almutallie5298 3 роки тому

    Vielen lieben Dank für das Video!! Ich sitze gerade an meiner Diss und habe genau den Effekt. Dazu hätte ich noch eine Frage: Kann ich aus meiner Analyse irgendwas an Aussage rauslesen, wenn das Ergebnis zwar signifikant ist, aber mein R sehr klein?

    • @TheMrsjuulia
      @TheMrsjuulia 3 роки тому

      Das ist oft bei Alter der Fall, wenn die Spannweite sehr hoch ist. z. B. 16 Jahre bis 90 Jahre. Würde die Spannweite von 20 bis 40 Jahre begrenzt werden, dass wäre Koeffizient höher. Hilft das eventuell?

  • @davinanickel5832
    @davinanickel5832 3 роки тому

    Hallo,
    ich habe jeweils den Moderatoreinfluss von zwei Variablen untersucht. Der Haupteffekt ist im einen Fall signifikant, im anderen nicht. Wie interpretiere ich dieses Ergebnis richtig?
    Vielen Dank und liebe Grüße

  • @Jvnnick
    @Jvnnick 2 роки тому

    Kann man die Erklärung einfach auf die logistische Regression übertragen oder gibt es hier etwas besonders zu beachten? Vielen, vielen Dank für deine Videos, die sind gerade nach der Online-Lehre durch Corona ein Segen!

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  2 роки тому +1

      Hallo Jannick, die Korrelation der UV untereinander ist analog auf logistische Regressionen übertragbar. Genauso die höhere Power bei mehr Beobachtungen.
      Viele Grüße, Björn.

  • @antoniakrahforst9890
    @antoniakrahforst9890 3 роки тому

    Hallo Björn, ich habe 3 Zusammenhangshypothesen, die jeweils aus 3 unabhängigen und aus der gleichen AV bestehen. Ich sollte dann also neben den einfacheren Regressionen auch eine multiple Regression durchführen oder?
    Vielen Dank für deine Hilfe!

    • @TheMrsjuulia
      @TheMrsjuulia 3 роки тому

      Also eigentlich schon. Es müssen zudem Kontrollvariablen hinzugefügt werden, damit die Ergebnisse auch tatsächlich auch interpretiert werden dürfen.

  • @ocicaciocicaci8717
    @ocicaciocicaci8717 4 роки тому

    Super, danke! Kann man denn auch random effects einstellen? Wie geht man vor, wenn die abhängige Variable ordinalskaliert ist?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому

      Hallo, über das mixed model kann man random effects beachten. Bei einer ordinal-skalierten AV ist eine odrinale Regression angebracht.
      Viele Grüße, Björn.

  • @nielsfelmy1895
    @nielsfelmy1895 10 місяців тому

    Danke für das Video! Ist das der gleiche Grund, warum die Signifikanzen bei der einfachen und multiplen logistischen Regression sich verändern? Grüße :)

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  10 місяців тому +1

      Hallo Niels, exakt. Die Korrelation zwischen den UV ist der entscheidende Unterschied - unabhängig von der Art der Regression.
      Viele Grüße, Björn.

  • @philippwallerstein6864
    @philippwallerstein6864 3 роки тому +8

    Bitte ein Video für den umgekehrten Fall. Also eine Variable ist bivariat NICHT signifikant, wird aber bei der Regression signifikant. Danke!

    • @XxTaraneaxX
      @XxTaraneaxX 3 роки тому +2

      Genau das würde ich auch gerne wissen...hast du zufällig inzwischen eine Antwort gefunden?

    • @yangterbaik89
      @yangterbaik89 3 роки тому +1

      @@XxTaraneaxX same hahhaa

    • @MrIntrOo
      @MrIntrOo 3 роки тому +1

      Habt ihr eine Antwort auf die Frage gefunden?

    • @Ikarus2985
      @Ikarus2985 3 роки тому +1

      Da reihe ich mich mal als Nr 5 ein.

  • @ytnickname
    @ytnickname Рік тому

    Hi Björn, zuerst einmal cooles Video - wie immer sehr aufschlussreich. Mir fehlt jedoch noch die Information, was mit der Konstante anzustellen ist. Diese ist in deinem Beispiel nicht signifikant. Bedeutet dies, dass man die Konstante, wie die anderen Koeffizienten behandeln kann, und somit aus dem Modell heraus nimmt?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      Hallo und danke für dein Feedback!
      Die Konstante ist nur für Prognosen von y-Werten auf Basis angenommener x-Werte relevant - da spielt die Signifikanz der Konstante aber keinerlei Rolle.
      Kurz gesagt: Signifikanz der Konstante ist immer egal, deren Koeffizient nur für Progosen relevant.
      Viele Grüße, Björn.

  • @anja_reg
    @anja_reg 2 роки тому +2

    Danke für das tolle Video. Mir stellt sich allerdings die Frage, wie ich jetzt meine Ergebnisse analysieren soll. Bei der einfachen linearen Regressionsanalyse wären meine unabhängigen Variablen signifikant, aber der multiplen jedoch nicht. Was stell ich jetzt in meiner Bachelorarbeit vor. Beide Varianten?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  2 роки тому +1

      Hallo, ich würde immer für die multiple Variante plädieren, da die Korrelation der UV untereinander beachtet wird. Bei der einfachen Regression tut man immer so, als ob es nur eine UV gibt - kaum der Realität entsprechend.
      Viele Grüße, Björn.

  • @cHeZzUz2
    @cHeZzUz2 3 роки тому

    Hallo Björn,
    woran kann es liegen, dass eine meiner UVs, die in Modell 2 (Kontrollvariablen + UVs) nicht signifikant war, plötzlich signifikant wird, sobald ich in Modell 3 Interaktionsterme, die übrigens selbst nicht signifikant sind, hinzufüge?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  3 роки тому

      Hallo, fast immer ist die Korrelation der UV untereinander für ein solches Verhalten verantwortlich. Da muss man inhaltlich schauen, ob das sinnvoll ist.
      Viele Grüße, Björn.

  • @annekramer4920
    @annekramer4920 Рік тому

    Lieber Björn, ich habe mal eine Frage bzgl. Regressionen. Ich habe eigentlich eine einfache lineare Regression und möchte hierbei allerdings 2 Kontrollvariablen mit einbeziehen (Alter und Geschlecht). Wird in dem Fall aus einer einfachen linearen Regression eine Multiple Regression? Demnach würde ich beim Vorgehen meiner Datenanalyse in meiner Abschlussarbeit berichten, dass ich eine Multiple Regression gerechnet habe?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      Hallo Anne, genau, mehr als 1 UV, egal ob die UV Kovariate sind oder nicht, ist immer eine multiple lineare Regression.
      Viele Grüße, Björn.

  • @rinserofwinds
    @rinserofwinds 4 роки тому +2

    Liegt es also an der Interkorrelation der Einflussfaktoren bzw dass sie im Modell auf die gleichen Faktoren laden?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому +2

      Hallo, meist ist tatsächlich eine hohe Korrelation der x-Variablen dafür verantwortlich, die letztlich alle das selbe Konstrukt messen. Aber auch wenn dem nicht so ist, ist das kontrollieren für weitere Einflussfaktoren immer ein wichtiger Aspekt.
      Viele Grüße, Björn.

  • @koljarempel7503
    @koljarempel7503 4 роки тому

    Ich habe auch eine Frage. Zunächst vielen Dank, dass deine Videos immer auf Probleme, die bei Auswertungen auftreten, antworten. Allerdings ist die Frage, wie dann weiter verfahren werden soll? Ich habe einen Screening-Test mit 6 UV zur Beschreibung einer binären AV. Ich habe für jeden Prädiktor eine univariate log. Regression gemacht mit Absicherung der statistischen Signifikanz. Bei der multiplen log. Regression ist von den 6 Variablen nur noch eine Signifikant, die Omnibus-Tests waren signifikant, Hosmer-Lemeshow natürlicherweise nicht.
    Reicht für meine Dissertation nun eine Darstellung des Nachweises eines Einflusses des Gesamtkonstrukts durch die Omnibus-Tests und Hosmer-Lemeshow, um zu zeigen, dass diese Screening-Methode funktioniert? Oder aber muss ich davon ausgehen, dass die Screening-Methode mit diesen 6 Variablen (bei der 5 in einer multiplen Regression nicht signifikant sind) nicht in Frage kommt um einen Einfluss auf die AV zu zeigen?
    Danke im Voraus!

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому

      Hallo Kolja, danke für dein Lob!
      Normalerweise würde man statt einer univariaten Regression immer eine multiple (logistische) Regression rechnen, aus den im Video genannten Gründen. Mir wäre es daher lieber, du hast ein vollständiges Modell mit 6 UV statt 6 Modell mit je 1 UV. Was du auf jeden Fall noch prüfen solltest, ist, ob du möglicherweise gerichtet prüfen kannst und so die Signifikanz halbieren darfst. Ansonsten gibt es natürlich noch diverse Gründe, die für wenige signifikante UV sprechen (neben der Natur der Sache, das es häufig nur wenige sind). Meist sind Stichprobengröße bzw. auch -wahl, Operationalisierung usw. noch zu diskutieren. Mir wäre als Gutachter aber auch lieber ein transparentes und nachvollziehbares Vorgehen als hingebogene Signifikanzen und möglicherweise hieraus falsche Schlüsse.
      Viele Grüße, Björn.

  • @goldenpeoplesmile
    @goldenpeoplesmile 4 роки тому

    Danke für dieses Video!! Dieses Problem hatte ich im Kopf wusste aber nicht was die Ursache ist. Ich bin jedoch immer noch unsicher, was gerade auf meine Hypothesen die richtige Lösung ist. Ich prüfe den Zusammenhang zwischen Achtsamkeit mit 4 Subskalen und Kreativität und habe für jede Subskala eine Hypothese aufgestellt und eine einfache lineare Regression durchgeführt, wo jede Skala signifikant war. Wenn ich jedoch alle vier Subskalen in eine multiple Regression aufnehme sind nur noch 2 signifikant. Leider werde ich sehr schlecht von meinem Professor betreut, ich habe ihm alle Hypothese mit Tests, die ich durchführen möchte geschickt und seine Antwort war nur "grundsätzlich ok" und jetzt antwortet er seit 2 Wochen nicht mehr. Ist es in diesem Fall ok, 4 einfache lineare Regressionen zu rechnen, oder sollte ich besser eine multiple machen? Und was sagt es aus, wenn die Korrelation vorher positiv signifikant ist in der multiplen Regression die Variablen jedoch keinen signifikanten Einfluss hat? Wird die Hypothese auf die Variable bezogen dann verworfen, oder bestätigt? Danke vielmals!!

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому +1

      Hallo, prinzipiell vernachlässigst du mit einer einfachen linearen Regression, dass mehrere UV (gleichzeitig) auf deine AV wirken .Du hast ja auch ein Modell aufgestellt, das 4 UV und 1 AV hat und das dann in 4 Hypothersen heruntergebrochen. Demzufolge wäre es in jedem Fall sinnvoll das Modell dann auch mit einer multiplen linearen Regression zu rechnen. Korrelation ist zudem ein gutes Stichwort. Isolierte Korrelationen zwischen UV und AV ignoriert man. Bestenfalls partielle Korrelation ist da angebracht (ua-cam.com/video/WJfWXDQpL0U/v-deo.html). Korrelation zwischen den UV sorgt mitunter auch dafür, dass sie in der Regression (einzeln genommen) signifikant auf die AV wirken, zusammen genommen aber nicht. Gerade, weil es sich um Subskalen handelt, die in etwa alle das gleiche Konstrukt abbilden, kann deren Korrelation untereinander zu einer "verschwindenen" Signifikanz führen. An der Stelle würde ich auf jeden Fall auf Multikollinearität prüfen: ua-cam.com/video/L1rhtDgBNk4/v-deo.html Die Hypothese eines Einflusses verwirfst du bei Nichtsignifikanz.
      Viele Grüße, Björn.

  • @robinkirch1566
    @robinkirch1566 Рік тому

    Vielen Dank für deine super Videos. Wenn ich ein Modell mittels multipler Regression herleiten möchte, müssen dann alle Terme die in der multiplen Regression signifikant sind, auch alleine einen signifikanten Einfluss auf die AV haben? Ich habe nämlich 2 Variablen im Modell die alleine keinen Einfluss auf die AV haben und bin mir nicht sicher ob das okay ist diese im Modell zu behalten oder nicht.

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      Hallo Robin, nein. Was in einem einfachen Modell als signifikant ist, muss im multiplen Kontext nicht signifikant sein und umgekehrt. Das Stichwort ist hier Korrelation der UV untereinander. Ein "vollständiges" Modell, also mehr UV sind dabei fast immer besser, weil realitätsnäher und weil v.a. für jene Korrelation der UV kontrolliert wird - ein einfaches Modell kann das nicht.
      Viele Grüße, Björn.

  • @ivanwyttenbach3549
    @ivanwyttenbach3549 4 роки тому +3

    Danke für das Video. Spannend wäre es in diesem Video aufzuzeigen, weshalb die einzelnen UV die Signifikanz verlieren, also anhand der Korrelationen zu anderen UV (Nullter Ordnung (r) und Teil (sr = semipartialkorrelation). Wäre allenfalls für die einten oder anderen hilfreich. Ich hoffe ich habe keinen Mist geschrieben. Bin in der Thematik noch nicht sattelfest.

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому +2

      Hallo Iwan, ja, das wäre noch ein guter Aspekt gewesen. Im Kern hast du genau den Punkt getroffen. Wenn die UV untereinander korrelieren, verschwinden mitunter deren Signifikanzen, wenn man für deren Einfluss kontrolliert/jenen konstant hält.
      Viele Grüße, Björn.

    • @livh.8387
      @livh.8387 2 роки тому

      super hilfreicher Kommentar ! Kommt direkt in meine Bachelorarbeit

  • @KB97NBA
    @KB97NBA Рік тому

    Hey Björn, ich möchte für meine Bachelorarbeit das Stresserleben erklären und habe als unabhängige variablen in diesem zusammenhang, Lebenszufriedenheit und Arbeitszufriedenheit, bei beiden UV's ist der koeffizient negativ, das modell signifikant. Bedeutet das, dass je niedriger die Lebenszufriedenheit und Arbeitszufriedenheit desto höher das Stresserleben? das wäre ja sinnhaft, aber ich befürchte irgendwie, dass es bedeutet, je höher die Arbeits- und Lebenszufriedenheit desto höher das Stresserleben, das ergibt aber keinen sinn :D Ich hoffe du weißt was ich meine, danke im voraus!!!!

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      Hallo, "je niedriger die Lebenszufriedenheit und Arbeitszufriedenheit desto höher das Stresserleben" stimmt, bzw. man formuliert es meist so, dass die UV um eine Einheit erhöht wird und das, was der Koeffizient anzeigt, dann mit der AV passiert.
      Viele Grüße, Björn.

  • @lukaskretzschmar7001
    @lukaskretzschmar7001 10 місяців тому

    Hi Björn, danke für das super Video!!
    Eine Frage. Wie würde man denn diesen Effekt, dass Variablen die in einfachen Regressionen signifikant werden, in multiplen es nicht mehr sind, wissenschaftlich bezeichnen? Insbesondere in folgendem Fall.
    Sagen wir ich habe zwei Prädiktoren X und Y und ein Kriterium A.
    X sagt A in einfachen Regression signifikant vorher.
    X und Y in multipler Regression, hier sagt nur Y das Kriterium A signifikant vorher.
    X und Y korrelieren recht stark untereinander.
    Wäre das ein Suppressor-Effekt?
    Würde mich über eine Rückmeldung sehr freuen.
    Lieben Gruß
    Lukas

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  10 місяців тому

      Hallo Lukas, die Korrelation der UV untereinander kann, muss aber kein Suppressor-Effekt zurfolge haben. Wichtig ist in jedem Fall die Korrelation der UV untereinander zu berücksichtigen, was im multiplen Kontext - verglichen mit dem einfachn Regressionskontext - zu einer besseren Modellschätzung führt.
      Viele Grüße, Björn.

  • @aikipaiki399
    @aikipaiki399 Рік тому

    Hallo lieber Björn,
    ich habe noch eine Frage, und zwar habe ich bei der logistischen Regression meiner Daten das Problem, dass das Modell nicht passend ist (Omnibus - Test ist nicht signifikant, Nagelkaerke ist sehr niedrig etc). Kannst du mir sagen, woran das liegt, bzw ob ich daran etwas ändern kann? Oder sagt das quasi einfach aus, dass die Daten zu der logistischen Regression nichts taugen?
    Liebe Grüße
    Maike

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому +1

      Hallo Maike, schau mal hier für eine Auswahl von Gründen: ua-cam.com/video/tmRUTeW-hTc/v-deo.html
      Viele Grüße, Björn.

    • @aikipaiki399
      @aikipaiki399 Рік тому +1

      @@StatistikamPC_BjoernWalther vielen Dank für die schnelle Antwort!

  • @moritzro7464
    @moritzro7464 2 роки тому

    Hi, ich führe eine Querschnittsanalyse durch. Ist es richtig dass die Durchführung einer Regressionanalyse nicht mehr sinnvoll ist, wenn keine Korrelation zwischen den Variablen besteht?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  2 роки тому

      Hallo Moritz,
      das findest du im Zweifel in der multiplen Regression heraus. Bivariate Korrelationen führen genau zu dem Fehlschluss, wie im Video gezeigt - auch in die Gegenrichtung. Also, immer multiple Regression rechnen, da auch die UV untereinander korrelieren und dies mathematisch in der multiplen Regression Beachtung findet, also dafür kontrolliert wird.
      Viele Grüße, Björn.

  • @LoveNeleFreak
    @LoveNeleFreak Рік тому

    Hallo, tolles Video. Ich hätte jedoch mal eine Frage. Und zwar habe ich zwei lineare Regressionen gerechnet (linear und multiple). Bei einer unabhängigen Variable (Schulnote) ist dabei eine Wirkungsumkehr aufgetreten. In der einfachen lin. Reg. hatte sie einen negativen Einfluss auf die metrisch skalierte abhängige Variable. In der multiplen lin. Reg. einen positiven Einfluss, wobei der Einfluss hier auch nicht mehr signifikant war. Würde mich trotzdem mal interessieren, wie das zustande kommt :)

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      Hallo, das liegt an der Korrelation die die UV untereinander haben und für die im multiplen Fall kontrolliert/diese beachtet wird.
      Viele Grüße, Björn.

    • @LoveNeleFreak
      @LoveNeleFreak Рік тому

      Lieber Björn,
      Vielen Dank für die Antwort. Und dass kann dann tatsächlich dazu führen, dass aus einem ehemals negativen ein nicht mehr signifikanter positiver Einfluss wird? Also hätte ich vorab die Multikolliniarität der UV überprüfen müssen?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      @@LoveNeleFreak dass sich Vorzeichen umdrehen und auch die Signifikanz "wechselt" ist nicht ungewöhnlich. Das hat aber nicht zwingend mit Multikollinearität zu tun - bei Multikollinearität liegt idR eine starke Korrelation (>0,8) zwischen zwei Prädiktoren vor. Teilweise reicht schon eine niedrige (nicht signifikante) Korrelation von zwei Prädiktoren für einen von dir beschriebenen Fall. Der Zusammenhang verschiedener Prädiktoren ist die "technische" Antwort. Inhaltlich ist es natürlich die Formulierung eines vollständigeren und realitätsnäheren Modells.
      Viele Grüße, Björn.

    • @LoveNeleFreak
      @LoveNeleFreak Рік тому

      Lieber Björn,
      Vielen vielen Dank für die ausführliche Antwort. In meinem Studium wird Statistik leider nur sehr oberflächlich behandelt. Genauer gesagt, hatte ich lediglich eine Statistik-Vorlesung. Dementsprechend mangelhaft ist mein Wissen in diesem Bereich. Deine Videos helfen mir sehr!

  • @sanjadra2217
    @sanjadra2217 4 роки тому +1

    Hi! Ich habe ein ganz konkretes Problem und frage mich, was es bedeutet: Wenn ich meine beiden unabhängigen Variablen (Lebenszufriedenheit und Selbstwert) gesondert in zwei linearen Regressionen auf meine AV teste, sind sie jeweils signifikant. Wenn ich aber beide UV's gemeinsam in einer multiplen Regression auf die AV teste, ist zwar die ANOVA signifikant, die einzelnen UV's aber BEIDE (!!) nicht mehr! Also sowohl Lebenszufriedenheit als auch Selbstwert haben dann jeweils keinen signifikanten Einfluss... die Gesamt-Anova ist aber trotzdem signifikant.... wie kann das sein bzw. was bedeutet das? Vielen Dank im Voraus!!!

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому

      Hallo Sanja, du bist schon im richtigen Video angekommen und ich erkläre hier auch die Gründe dafür. Du hast ein komplexeres Modell und der Einfluss der Variablen, kontrolliert um den Einfluss der anderen Variablen, kann zu diesem "Problem" führen. Es wäre auch denkbar, dass du mit der Aufnahme von Kontrollvariablen wiederum eine Signifikanz "herstellen" kannst.
      Viele Grüße, Björn.

    • @sanjadra2217
      @sanjadra2217 4 роки тому

      @@StatistikamPC_BjoernWalther Hallo Björn, leider ist meine Frage damit irgendwie immer noch nicht beantwortet... Zumindest verstehe ich immer noch nicht, wieso KEINE meiner Koeffizienten signifikant ist, wenn das Gesamtmodell aber doch signifikant ist. Leider habe ich auch keine möglichen Kontrollvariablen in meinem Datensatz, die ich hinzufügen könnte.. Konkret sieht es bei mir so aus, dass dort, wo (Konstante) steht ein signifikanter Wert angezeigt wird, bei den beiden UV's aber eben nicht. Wie kann das sein? Ich verstehe den Grund dafür immer noch nicht.. :(

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому

      @@sanjadra2217 Hallo Sanja, die genauen Gründe, warum die Variablen nicht signifikant sind, können sehr vielfältig sein. Am häufigsten tritt so ein Fall wie bei dir auf, wenn die Variablen untereinander hoch korrelieren. Das ist ein Anzeichen für Multikollinearität (ua-cam.com/video/L1rhtDgBNk4/v-deo.html). Eventuell solltest du darauf testen (siehe Video-Link), entsprechende Variablen ausschließen und dann erneut die Regression rechnen.
      Viele Grüße, Björn.

    • @spooner5554
      @spooner5554 4 роки тому

      Hab hierzu die selbe Frage. Wieso ist dann das Anova Modell signifikant bzw. was hat dieser Wert zu bedeuten ?

  • @tobiasbiermann2204
    @tobiasbiermann2204 4 роки тому

    Hallo Björn, vielen Dank für das Video!
    Ich habe noch eine Nachfrage.
    In meinem multiplen Regressionsmodell habe ich fünf unabhängige Variablen und eine abhängige Variable. Wenn ich einfache (binäre) Regressionsrechnungen durchführe, haben alle unabhängigen Variablen einen signifikanten und positiven Einfluss auf die abhängige Variable.
    Beim multiplen Regressionsmodell allerdings ändert sich das Vorzeichen von einer der abhängigen Variablen (von positiv auf negativ), diese bleibt aber weiterhin signifikant. Dies macht allerdings aus theoretischer Sicht keinen Sinn und ist auch sehr schwer zu interpretieren.
    Hast du eine Idee, warum dies oder Fall ist und wie genau ich damit umgehen sollte?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  3 роки тому

      Hallo Tobias, gern geschehen.
      Die Korrelation der UV untereinander sorgt bsiweilen für veränderte Signifikanzen und/oder wechselnde Vorzeichen. Man prüft das vollständige Modell, wie es theoretisch-konzeptionell so hergeleitet wurde und man nicht einfach so tun kann, als ob andere UV nicht existieren. Der paralle Einfluss aller unterstellter UV ist daher zwingend notwendig. Ein "zurückgehen" auf einfache Modelle ist in diesem Falle nicht statthaft.
      Viele Grüße, Björn.

  • @Mastermoussa
    @Mastermoussa Рік тому

    Ich würde gerne wissen, ob man nicht signifikante Variablen in der Multiplen Regression lässt, oder dieser dann besser nochmal ohne diese Variablen macht, um genauere Ergebnisse bei den anderen zu bekommen?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому +1

      Hallo, die Variablen sollten im Modell bleiben, da du sie ja a) vorher begründet hergeleitet hast und b) die Korrelation der UV untereinander nur so berücksichtigt werden kann. Genauer werden weder Koeffizienten noch p-Werte, wenn man das Modell einkürzt - eher im Gegenteil, sie werden, wenn überhaupt, ungenauer, weil die Zwischenbeziehungen zwischen den UV ignoriert werden.
      Viele Grüße, Björn.

  • @danstatistik9867
    @danstatistik9867 Рік тому

    Vielen Dank Björn. Du erklärst aber nicht WARUM die Signifikanz der einzelnen Variablen verlorengeht. Ich weiß es leider auch nicht. Kann es sein, dass die Partialkorrelation dafür schuld ist? Also quasi die Anteile der Motivation und der Abiturnote, die auf den Intelligenzquotienten zurückzuführen sind, im Multiregressionsmodell nicht doppelt erscheinen und somit von IQ "geschluckt " werden?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  Рік тому

      Hallo Dan, ja, darauf läuft es im Endeffekt hinaus. Das kommt leider nicht so deutlich rüber, wie ich es inzwischen gerne hätte. ;-)
      Viele Grüße, Björn.

  • @MTalac
    @MTalac 2 роки тому

    Warum ist die Abiturnote metrisch skaliert? Sind Schulnoten nicht ordinal skaliert?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  2 роки тому

      Hallo, da gibt es mehr Diskussionen zu (Stichwort: quasimetrisch), als ich hier aufführen könnte. Kurz gefasst: Schulnoten sind an sich ordinal, man kann aber den Durchschnitt als quasimetrisch interpretieren. Bortz/Schuster (2010), Statistik für Human- und Sozialwissenschaftler, S. 23 : "Weniger eindeutig fällt die Antwort jedoch aus, wenn es darum geht, zu entscheiden, ob z.B. Schulnoten, Testwerte, Einstellungsmessun­gaa, Ratingskalen ordinale oder metrische Varia­blen sind. Hier eine richtige Antwort zu finden, ist insoweit von Bedeutung, als die Berechnung von Mittelwerten und anderen wichtigen statistiscben Maßen nur bei metrischen Merkmalen zu rechtfertigen t­ist, d. h. für ordinal skaliert Daten sind andere statistische Verfahren einzusetzen als für metrische Daten. Die übliche Forschungspraxis verzichtet auf empirische Überprüfung der jeweiligen Skalenaxiomatik. Die meisten Messungen sind Per-fiat-Messungen, wie z. B. Messungen mit Fragebögen, Tests, Ra­tingskalen etc. Man nimmt an, diese Instrumente würden das jeweilige Merkmal metrisch messen, sodass der gesamte statistische „Apparat" für me­trische Daten eingesetzt werden kann ( vgl. hierzu auch Lantermann, 1976 oder Davison & Sharma, 1988). "

    • @MTalac
      @MTalac 2 роки тому

      @@StatistikamPC_BjoernWalther danke :)))
      Du bist super!

  • @bettinaklein4404
    @bettinaklein4404 4 роки тому

    Hallo, wäre es möglich, dass du mal ein Video über Zahlenreihananalyse mit SP'SS machst? DAnke

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому +1

      Hallo Bettina, du meist Zeitreihenanalyse, also Panelregressionen?
      Viele Grüße, Björn.

    • @bettinaklein4404
      @bettinaklein4404 4 роки тому

      Hallo Björn, ich meine multivariate Zeitreihenanalysen, es geht um "lag-Zeitreihen" und die Frage , wie die Zeitreihen sich gegenseitig beeinflusen. Vielen Dank Bettina

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  4 роки тому

      Hallo Bettina, da müsste ich mich mal in Ruhe einarbeiten, da ich da nur immer mal reinschnuppern musste und auch keine konkreten Anwendungsfälle hatte - zumindest nicht in SPSS.
      Viele Grüße, Björn.

    • @bettinaklein4404
      @bettinaklein4404 4 роки тому

      @@StatistikamPC_BjoernWalther OK, trotzdem danke

  • @MTalac
    @MTalac 2 роки тому

    Was bedeutet das Ergebnis am Ende inhaltlich, wenn IQ signifikant ist, aber die anderen Variabeln eben nicht?
    Bzw. wie interpretiert man nun das Ergebnis?
    Hat also die Abiturnote und Motivation dann keinen Einfluss auf das Gehalt?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  2 роки тому

      Hallo, kurz gesagt: ja. Die jeweilige Hypothese eines Einflusses von Motivation und Abiturschnitt kann nicht bekräftigt werden. Interpretation der Koeffiziententabelle gehört thematisch nicht zu diesem Video und habe ich hier ausführlich gezeigt: ua-cam.com/video/voWXyw6xX9o/v-deo.html
      Viele Grüße, Björn.

    • @MTalac
      @MTalac 2 роки тому

      @@StatistikamPC_BjoernWalther danke schön :)

  • @MsJyGs
    @MsJyGs 3 роки тому

    was muss man tun, wenn ANOVA nicht signifikant ist?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  3 роки тому +1

      Hallo, dann bricht man das Verfahren ab. Das Modell leistet keinen signifikanten Erklärungsbeitrag. Das kann daran liegen, dass die vorhandenen UV nur sehr wenig oder keinen linearen Einfluss auf die AV ausüben.
      Viele Grüße, Björn.

    • @MsJyGs
      @MsJyGs 3 роки тому

      Statistik am PC danke für die Antwort, kann man dann ein anderes Modell benutzen?

    • @StatistikamPC_BjoernWalther
      @StatistikamPC_BjoernWalther  3 роки тому +1

      Hallo, wenn du es konzeptionell begründen kannst ja, sonst natürlich nicht. Zumindest dann nicht, wenn es ein wissenschaftliches Vorgehen sein soll.
      Viele Grüße, Björn.