Die logistische Regression wird genutzt, um die Umsatzentwicklung eines Unternehmens der vergangenen Jahre zu untersuchen. #3. "Die Signifikanz der logistischen Regression kann mit einem F-Test überprüft werden. " - Diese Aussage ist:
richtig
falsch
#4. "Die logistische Regression kann nicht nur bei metrisch skalierten Variablen angewendet werden. " - Diese Aussage ist:
#5. "Die logistische Regression dient ausschließlich der Analyse der Umsatzzahlen von Unternehmen. " - diese Aussage ist:
falsch
Logistische Regression R Beispiel 7
Somit können auch Aussagen über die Wahrscheinlichkeit der Ausprägung der abhängigen Variablen bei einer bestimmten Ausprägung der unabhängigen Variablen getroffen werden. Mithilfe der logistischen Regression können beispielsweise folgende Fragestellungen beantwortet werden:
Besteht ein Zusammenhang zwischen der persönlichen sportlichen Aktivität von Personen und den Ernährungsgewohnheiten? Gibt es einen Zusammenhang zwischen der Wahrscheinlichkeit für Schneefall im Dezember und dem Absatzvolumen von Weihnachtsdekorationsartikeln? Was versteht man unter der logistischen Regression? Wenn ein Zusammenhang zwischen einer abhängigen Variablen, die nicht metrisch ausgeprägt ist, und einer oder mehreren unabhängigen Variablen untersucht werden soll, kommt die logistische Regression zum Einsatz. Die Vorgehensweise zeigt sich in folgendem Beispiel. Beispiel zur logistischen Regression Die "Coffee&Tea AG" möchte einen neuen Energydrink auf dem Markt einführen, welcher die Konzentrationsfähigkeit erhöhen soll.
Logistische Regression R Beispiel 2017
Du bist hier:
Startseite » Alle Lektionen » Statistik » Logistische Regression
Enthält: Beispiele · Definition · Grafiken · Übungsfragen
Bei der logistischen Regression handelt es sich um ein statistisches Analyseverfahren, mit dem Zusammenhänge zwischen einer abhängigen und einer unabhängigen Variablen untersucht werden können, auch wenn diese nicht metrisch skaliert sind. Wir zeigen dir in diesem Kapitel, welche Bedeutung die logistische Regression hat und was man darunter genau versteht. Unsere Übungsaufgaben kannst du anschließend nutzen, um dein Wissen in diesem Bereich zu überprüfen. Welche Bedeutung hat die logistische Regression? Die lineare Regression kann nur angewendet werden, wenn mindestens die abhängige Variable metrisch skaliert ist, ihre Werte sich also mit Zahlen darstellen lassen. Ist die abhängige Variable dagegen diskreter Natur, beispielsweise durch die Werte "Ja", "Nein" und "Vielleicht" gekennzeichnet, so kann die logistische Regression genutzt werden, um den Zusammenhang der einzelnen Variablen zu untersuchen.
Logistische Regression R Beispiel 2019
Die Logits beheben dieses Problem, da sie symmetrisch um die Null sind (\(\ln\left(\frac{0. 7}\right)=-0. 85\) und \(\ln\left(\frac{0. 3}\right)=0. 85\)). Die Odds-Ratio setzt nun die Odds in Relation: $$\text{OR}=\frac{\text{odds}(x_{i, p}+1)}{\text{odds}(x_{i, p})}=\frac{\frac{G(x_{i, p}+1)}{1-G(x_{i, p}+1)}}{\frac{G(x_{( i)})}{1-G(x_{( i)})}}=\frac{exp(\beta_0+\beta_1x_{i, 1}+... +\beta_j(x_{i, p}+1)+... +\beta_Px_{i, P})}{exp(\beta_0+\beta_1x_{i, 1}+... +\beta_px_{i, p}+... +\beta_Px_{i, P})}=exp(\beta_p), $$ wobei \(G(x_{( i)})=\frac{exp(\beta_0+\beta_1x_{i, 1}+... +\beta_Px_{i, P})}{1+exp(\beta_0+\beta_1x_{i, 1}+... +\beta_Px_{i, P})}\). Ist die Odds-Ratio größer als Eins, bedeutet dies, dass die Variable \(X_p\) einen positiven Effekt auf die abhängige Variable hat, denn die Odds (die "Chance"/das "Risiko") sind größer, wenn man die Variable um eins erhöht (ceteris paribus). Bei einer Odds-Ratio von kleiner Eins hat diese Variable einen negativen Einfluss. Bei \(\text{OR}=1\) hat \(X_p\) keinen Einfluss, da die Odds gleich sind.
Logistische Regression R Beispiel 2016
6466 0. 0010 0. 0173 0. 0553 6. 1056
(Intercept) 1645. 421879 121. 145643 13. 582 < 0. 0000000000000002 ***
idity -7. 102440 1. 029847 -6. 897 0. 00000000000533 ***
2. 831430 1. 089867 2. 598 0. 00938 **
0. 871605 0. 086265 10. 104 < 0. 0000000000000002 ***
chlorides -24. 384586 3. 772300 -6. 464 0. 00000000010189 ***
-0. 058600 0. 014598 -4. 014 0. 00005965241437 ***
0. 052241 0. 004991 10. 467 < 0. 0000000000000002 ***
density -1635. 753541 120. 408807 -13. 585 < 0. 0000000000000002 ***
sulphates -3. 056311 1. 193103 -2. 562 0. 01042 *
alcohol -1. 560248 0. 229300 -6. 804 0. 00000000001015 ***
quality -0. 410699 0. 199857 -2. 055 0. 03988 *
Residual deviance: 427. 23 on 6486 degrees of freedom
AIC: 449. 23
Beurteilung der Klassifikationsgüte im Logit
Zuerst wird eine Klassifikationstabelle erstellt, um zu erkennen wie viele Weine das Modell mit einem Schwellenwert von 0. 5 (Standard) der richtigen Farbe zuordnet:
Weißwein (1)
Rotwein (0)
Summe
4887
19
4906
11
1580
1591
4898
1599
6497
Es ist zu erkennen, dass 1580 der 1599 Rotweine und 4887 der 4898 Weißweine korrekt klassifiziert werden.
Die marginalen Effekte der Logitregression entsprechen dem Produkt aus geschätztem Parameter und Wahrscheinlichkeitsdichte des Modells: $$\frac{\partial P(y_i=1|X=x_{( i)})}{\partial x_p}=g(x_{( i)}\prime\beta)\beta_p, $$ wobei \(g(z)=\frac{\partial G(z)}{\partial z}\). Die marginalen Effekte sind also immer von den Ausprägungen aller unabhängigen Variablen abhängig. Da Wahrscheinlichkeitsdichten immer positiv sind, gibt das Vorzeichen des geschätzten Parameters die Richtung des Effekts auf die bedingte Wahrscheinlichkeit an. In unserem Beispiel lauten die geschätzten Koeffizienten: Untersuchung des Zusammenhangs zwischen Einkommen und Rauchverhalten: Zu schätzendes Modell: \(p_i=\frac{exp(\beta_0+\beta_1 \times logincome_i)}{1+exp(\beta_0+\beta_1 \times logincome_i)}\) Geschätzte Parameter: \(\hat{\beta}_0 = -2. 117, \quad \hat{\beta}_1=0. 174\) Die geschätzten Parameter lassen darauf schließen, dass ein höheres Einkommen einen positiven Effekt auf das Rauchverhalten hat (\(\hat{\beta}_1>0\)).