8 Punktmodelle 2
Statistik, Prognose, Modellierung, R, Datenanalyse, Regression
8.1 Einstieg
In diesem Kapitel benötigen Sie üblichen R-Pakete (tidyverse
, easystats
) und Daten (mariokart
), s. Kapitel 3.7.3.
8.1.1 Lernziele
- Sie können die Begriffe Kovarianz und Korrelation definieren und ihren Zusammenhänge erläutern.
- Sie können die Stärke einer Korrelation einschätzen.
mariokart <- read.csv("https://vincentarelbundock.github.io/Rdatasets/csv/openintro/mariokart.csv")
8.1.2 Zum Einstieg
Übungsaufgabe 8.1
- Suchen Sie sich eine vertrauenwürdige Partnerin oder einen vertrauenswürdigen Partner. Im Zweifel reicht die Person, die neben Ihnen sitzt. 😁
- Nennen Sie je zwei Variablen, die wie folgt zusammenhängen:
- gleichsinnig (Viel von dem einen, viel von dem anderen)
- gegensinnig (viel von dem einen, wenig von dem anderen)
- Scheinzusammenhang (hängt zusammen, ist aber nicht “echt” bzw. kausal)
8.2 Zusammenfassen zum Zusammenhang
In Kapitel 6 haben wir gelernt, dass das Wesen eines Punktmodells als Zusammenfassung einer Spalte (eines Vektors) zu einer einzelnen Zahl, zu einem “Punkt” sozusagen, zusammengefasst werden kann. In diesem Kapitel fassen wir zwei Spalten zusammen, wieder zu einer Zahl, s. Abbildung 8.1. Wo wir in Kapitel 6 eine Variable mit Hilfe eines Lagemaßes beschrieben (bzw. dargestellt, zusammengefasst, modelliert) haben, tun wir hier das Gleiche für zwei Variablen. Beschreibt man aber zwei Variablen, so geht es um die Frage, was die beiden Variablen miteinander zu tun haben: Wie die beiden Variablen voneinander (statistisch) abhängen bzw. miteinander (in welcher Form auch immer) zusammenhängen. Wir begrenzen uns auf metrische Variablen.
Beispiel 8.1 (Beispiele für Zusammenhänge)
- Lernzeit und Klausurerfolg
- Körpergröße und Schuhgröße
- Verbrauchtes Benzin und zurückgelegte Strecke
- Produktionsmenge und Produktionskosten
- Bildschirmzeit und Schlafqualität
- Umweltschutz und Biodiversifität
Die Verbildlichung (Visualisierung) zweier metrischer Variablen haben wir bereits in Kapitel 5.5.2 kennengelernt. Zur Verdeutlichung wie ein Zusammenhang zweier metrischer Variablen aussehen kann, helfe noch einmal Abbildung 8.2.
8.3 Abweichungsrechtecke
Die Stärke des linearen Zusammenhangs zweier metrischer Variablen kann man gut mithilfe von Abweichungsrechtecken veranschaulichen. Los geht’s!
8.3.1 Noten und Abweichungsrechtecke
Beispiel 8.2 (Wieder Statistiknoten) Anton, Bert, Carl und Daniel haben ihre Statistikklausur zurückbekommen. Die Lernzeit
Zeichnen wir uns die Daten als Streudiagramm, s. Abbildung 8.3. Dabei zeichnen wir noch Abweichungsrechtecke ein.
Definition 8.1 (Abweichungsrechteck) Im zweidimensionalen Fall spannt sich ein Abweichungsrechteck vom Mittelwert
Stellen Sie sich vor, wir legen alle Rechtecke zusammen aus Abbildung 8.3. Nennen wir das resultierende Rechteck das “Summenrechteck”. Ja, ich weiß, ich strapaziere mal wieder Ihre Phantasie. Jetzt kommt’s: Je größer die Fläche des Summenrechtecks, desto stärker der (lineare) Zusammenhang. Beachten Sie, dass die Flächen Vorzeichen haben, positiv oder negativ (Plus oder Minus), je nach dem, in welchem der vier Quadranten sie stehen. Die Füllfarben der Rechtecke verdeutlichen dies, s. Abbildung 8.3. Das Vorzeichen der Summe zeigt an, ob der Zusammenhang positiv (gleichsinnig, ansteigende Trendlinie) oder negativ (gegensinnig, absinkende Trendl≥inie) ist. So zeigt Abbildung 8.4 links eine positive Summe der Abweichungsrechtecke und rechts eine negative Summe. Man sieht im linken Diagramme, dass die Summe der Rechtecke mit positivem Vorzeigen (rot) überwiegt; im rechten Diagramm ist es umgekehrt (blau, negativ überwiegt).
Wir können das Summenrechteck noch durch die Anzahl der Datenpunkte teilen, das ändert nichts an der Aussage, aber der Mittelwert hat gegenüber der Summe den Vorteil, dass er unabhängig ist in seiner Aussage von der Anzahl der eingegangenen Datenpunkte. Das resultierende Rechteck nennen wir das mittlere Abweichungsrechteck. Ein Maß für den Zusammenhang von Lernzeit und Klausurpunkte ist also die Fläche des mittleren Abweichungsrechtecks, s. Abbildung 8.5.
8.3.2 Kovarianz
Definition 8.2 (Kovarianz) Die Kovarianz ist definiert als die Fläche des mittleren Abweichungsrechtecks. Sie ist ein Maß für die Stärke und Richtung des linearen Zusammenhangs zweier metrischer Variablen, s. Abbildung 8.5.
🧑🎓 Zu viele Bilder! Ich brauch Zahlen.
🧑🏫 Kommen gleich!
Tabelle 8.2 zeigt beispielhaft, wie sich die Kovarianz berechnet. Berechnen wir als Nächstes das mittlere Abweichungsrechteck, die Kovarianz, für die Noten und Lernzeit der vier Studierenden aus Tabelle 8.1. Sie beträgt 162.
Wenn Sie die Werte selber nachrechnen wollen, finden Sie den Noten-Datensatz in der Datei noten.csv.
id | y | x | x_avg | y_avg | x_delta | y_delta | cov_sign | xy_area |
---|---|---|---|---|---|---|---|---|
1 | 72 | 70 | 53 | 51 | 17 | 20.8 | 1 | 353 |
2 | 44 | 40 | 53 | 51 | -13 | -7.2 | 1 | 94 |
3 | 39 | 35 | 53 | 51 | -18 | -12.2 | 1 | 220 |
4 | 50 | 67 | 53 | 51 | 14 | -1.2 | -1 | -18 |
Die Formel der Kovarianz lautet, s. Gleichung 8.1:
Gleichung 8.1 in Worten ausgedrückt:
- Rechne für jedes
die Abweichung vom Mittelwert, , aus, . - Rechne für jedes
die Abweichung vom Mittelwert, , aus, . - Multipliziere für alle
mit , um die Abweichungsrechtecke zu erhalten. - Addiere die Flächen der Abweichungsrechtecke.
- Teile durch die Anzahl der Beobachtungen
.
Beispiel 8.3 (Variablen mit positiver Kovarianz)
- Größe und Gewicht
- Lernzeit und Klausurerfolg
- Distanz zum Ziel und Reisezeit
- Temperatur und Eisverkauf
Beispiel 8.4 (Variablen mit negativer Kovarianz)
- Lernzeit und Freizeit
- Alter und Restlebenszeit
- Temperatur und Schneemenge
- Lebenszufriedenheit und Depressivität
Zwi Extrembeispiele für Kovarianz-Werte sind in Abbildung 8.6 dargestellt.
Bei einer Kovarianz von (ungefähr) Null ist die Gesamt-Fläche der Abweichungsrechtecke, wenn man sie pro Quadrant aufsummiert, ungefähr gleich groß, s. Abbildung 8.7. Zur Erinnerung: Bei der Varianz waren es Quadrate; bei der Kovarianz sind es jetzt Rechtecke. Addiert man die Abweichungsrechtecke (unter Beachtung der Vorzeichen: rot = positiv; blau = negativ), so beträgt die Summe in etwa (oder genau) Null.
Damit ist die Kovarianz in diesem Fall etwa (bzw. genau) Null, s. Gleichung 8.2: Wenn die Summe der Aweichungsrechtecke Null ist, dann ist auch ihr Mittelwert (MW) Null. Damit ist die Kovarianz Null.
8.3.3 Die Kovarianz ist schwer zu interpretieren
Die Kovarianz hat den Nachteil, dass sie abhängig ist von der Skalierung. So steigt die Kovarianz z.B. um den Faktor 100, wenn man eine Variable (z.B. Einkommen) anstelle von Euro in Cent bemisst. Das ist nicht wünschenswert, denn der Zusammenhang zwischen z.B. Einkommen und Lebenszufriedenheit ist unabhängig davon, ob man Einkommen in Euro, Cent oder Dollar misst. Außerdem hat die Kovarianz keinen Maximalwert, der einen perfekten Zusammenhang anzeigt. Insgesamt ist die Kovarianz schwer zu interpretieren und wird in der praktischen Anwendung nur wenig verwendet.
8.4 Korrelation
8.4.1 Korrelation als mittleres z-Produkt
Der Korrelationskoeffizient
Die Korrelation berechnet sich wie folgt:
- Teile alle
durch ihre Standardabweichung, - Teile alle
durch ihre Standardabweichung, - Berechne mit diesen Werten die Kovarianz
Teilt man nämlich alle
Definition 8.3 (Korrelationskoeffizient
Man beachte, dass eine Korrelation (genauso wie eine Kovarianz) nur für metrische Variablen definiert ist. Aus dem Korrelationskoeffizienten können Sie zwei Informationen ableiten:
- Vorzeichen: Ein positives Vorzeichen bedeutet positiver (gleichsinniger) linearer Zusammenhang (und umgekehrt: negatives Vorzeichen, negativer, also gegensinniger linearer Zusammenhang).
- Absolutwert der Korrelation: Der Absolutwert (Betrag) des Korrelationskoeffizienten gibt die Stärke des linearen Zusammenhangs an. Je näher der Wert bei 1 liegt, desto stärker ist der (lineare) Zusammenhang.
-
: kein linearer Zusammenhang -
: perfekter linearer Zusammenhang
Eine Zuordnung des Korrelationskoeffizienten zum Profil des Streudiagramms zeigt Abbildung 8.8.
Die untere Zeile von Abbildung 8.8 zeigt Beispiele für nicht-lineare Zusammenhänge. Wie man sieht, liegt in diesen Beispielen kein linearer Zusammenhang vor (
Übungsaufgabe 8.2 (Korrelationsspiel) Spielen Sie das Korrelationsspiel2: Sie Sehen ein Streudiagramm und müssen den richtigen Korrelationskoeffizienten eingeben.
Übungsaufgabe 8.3 (Interaktive Visualisierung der Korrelation) Auf der Seite von RPsychologist3 findet sich eine ansprechende dynamische Visualisierung der Korrelation. Nutzen Sie sie, um Ihr Gefühl für die Stärke des Korrelationskoeffizienten zu entwickeln.
8.4.2 Korrelation mit R berechnen
Ob der Verkaufspreis (total_pr
) wohl mit der Dauer der Auktion (duration
) oder mit der Anzahl der Gebote (n_bids)
(linear) zusammenhängt? Schauen wir nach! Die Funktion correlation
(aus dem Paket easystats
) erledigt das Rechnen für uns, s. Tabelle 8.3.
Sie können auch auf die letzte Zeile, also dem Befehl summary
verzichten. Dann ist die Ausgabe ausführlicher.
8.4.3 Korrelation ≠ Kausation
Eine Studie fand eine starke Korrelation, zwischen der (Höhe des) Schokoladenkonsums eines Landes und (Anzahl der) Nobelpreise eines Landes (Messerli, 2012), s. Abbildung 8.9.

Korrelation (bzw. Zusammenhang) ist ungleich Kausation! Korrelation kann bedeuten, dass eine Kausation vorliegt, aber es muss auch nicht sein, dass Kausation vorliegt. Liegt Korrelation ohne Kausation vor, so spricht man von einer Scheinkorrelation.
8.4.4 Korrelation misst nur linearen Zusammenhang
Beispiel 8.5 (Scheinkorrelation: Störche und Babies) Eine Mythos besagt: Die Anzahl der Störche pro Landkreis korreliert mit der Anzahl der Babies in diesem Landkreis (vgl. Matthews, 2000).
Eine mögliche Erklärung für dieses (nur scheinbare) Paradoxon ist, dass die “Naturbelassenheit” des Landkreises die gemeinsame Ursache für Störche ist (Störche lieben Natur) und für Babies ist (die Gegebenheiten bei hoher Naturbelassenheit eine höhere Zahl von Kindern pro Frau begünstigt). Wir müssen die Erklärung keinesfalls glauben; sie soll das Beispiel nur konkreter machen. Uns geht es hier nur um die Erkennung von Scheinkorrelation.
Beispiel 8.6 (Glatze macht Corona?) Kahle Männer aufgepasst! Macht eine Glatze krank? Männer mit Glatze bekommen häufiger Corona (Goren et al., 2020): “Bald men at higher risk of severe case of Covid-19, research finds”. Eine alternative Erklärung lautet, dass Alter einen Effekt hat auf Glatze (je älter ein Mann, desto wahrscheinlicher ist es, dass er eine Glatz hat) und auf die Schwere des Corona-Verlaufs (ältere Menschen haben deutlich schwerere Corona-Verläufe).
8.5 Wie man mit Statistik lügt
8.5.1 Range-Restriktion
Durch (nicht-randomisierte) Einschränkung (Restriktion) des Ranges einer (oder beider) Variablen sinkt die Stärke (der Absolutwert) einer Korrelation, vgl. Cohen et al. (2003) und Abbildung 8.10.
Erstellen wir uns dazu zwei Datensätze mit je zwei Variablen, d
in Listing 8.1. Man kann sich mit dem Befehl rnorm(n, m, sd)
d_filtered
), s. Listing 8.1.
Übungsaufgabe 8.4 (Berechnen Sie die Korrelation) Glauben Sie nicht, prüfen Sie nach! Berechnen Sie die Korrelation von d
und d_filtered
!
8.6 Fallbeispiel
In Ihrer Arbeit beim Online-Auktionshaus analysieren Sie, welche Variablen mit dem Verkaufspreis von Computerspielen zusammenhängen. Falls der Datensatz auf Ihrem Computer (am besten in Ihrem Projektverzeichnis in RStudio) abgelegt ist, können Sie die Daten so (in mittlerweile gewohnter Manier) importieren, s. Listing 8.2.
mariokart <- read.csv("mariokart.csv")
Falls der Datensatz im Unterordner mit Namen “Mein_Unterordner” liegt, so würden Sie folgenden Pfad eingeben, s. Listing 8.3.
Mein_Unterordner
liegt.
mariokart <- read.csv("Mein_Unterordner/mariokart.csv")
Man beachte, dass solche sog. relativen Pfade, wie Mein_Unterordner/
, die relativ zu Ihrem Arbeitsverzeichnis, d.h. Ihr Projektverzeichnis in R-Studio, liegen, nicht mit einem Schrägstrich (Slash) beginnen.
Falls Sie die Daten nicht auf Ihrem Computer haben, können Sie sie komfortable von z.B. der Webseite von Vincent Arel-Bundock herunterladen:
mariokart <- read.csv("https://vincentarelbundock.github.io/Rdatasets/csv/openintro/mariokart.csv")
Sie wählen die Variablen von mariokart
, die Sie in diesem Fall interessieren – natürlich nur die metrischen – und lassen sich mit cor
die Korrelation aller Variablen untereinander ausgeben:
mariokart %>%
dplyr::select(duration, n_bids, start_pr, ship_pr, total_pr, seller_rate, wheels) %>%
cor() %>%
round(2) # Runden auf zwei Dezimalen
## duration n_bids start_pr ship_pr total_pr seller_rate wheels
## duration 1.00 -0.12 0.13 0.27 -0.04 -0.15 -0.30
## n_bids -0.12 1.00 -0.63 0.03 0.13 -0.11 -0.08
## start_pr 0.13 -0.63 1.00 0.03 0.07 0.28 0.16
## ship_pr 0.27 0.03 0.03 1.00 0.54 -0.02 0.05
## total_pr -0.04 0.13 0.07 0.54 1.00 0.01 0.33
## seller_rate -0.15 -0.11 0.28 -0.02 0.01 1.00 -0.15
## wheels -0.30 -0.08 0.16 0.05 0.33 -0.15 1.00
Achtung, Namensverwechslung! Es kann vorkommen, dass Sie zwei R-Pakete geladen haben, in denen es jeweils z.B. eine Funktion mit Namen select
gibt. R wird in dem Fall diejenige Funktion verwenden, deren Paket Sie als letztes gestartet haben. Das kann dann das falsche select
sein, wie es mir oben in der Syntax passiert ist. In dem Fall resultiert eine verwirrende Fehlermeldung, die sinngemäß sagt: “Hey Mensch, du hast Argumente in der Funktion verwendet, die du gar nicht verwenden darfst, da es sie nicht gibt.” Auf Errisch: Error in select(., duration, n_bids, start_pr, ship_pr, total_pr, seller_rate, : unused arguments (duration, n_bids, start_pr, ship_pr, total_pr, seller_rate, wheels)
. Eine einfache Abhilfe ist es, R zu sagen: “Hey R, nimm gefälligst select
aus dem Paket dplyr
, dort”wohnt” nämlich select
. Auf Errisch spricht sich das so: dplyr::select(...)
. :::
Etwas schöner sieht die Ausgabe mit dem Befehl correlation
aus easystats
aus, s. Tabelle 8.4.
Parameter | wheels | seller_rate | total_pr | ship_pr | start_pr | n_bids |
---|---|---|---|---|---|---|
duration | -0.30** | -0.15 | -0.04 | 0.27* | 0.13 | -0.12 |
n_bids | -0.08 | -0.11 | 0.13 | 0.03 | -0.63*** | |
start_pr | 0.16 | 0.28* | 0.07 | 0.03 | ||
ship_pr | 0.05 | -0.02 | 0.54*** | |||
total_pr | 0.33** | 9.43e-03 | ||||
seller_rate | -0.15 |
Die Sternchen in ?tbl-mario-corr-pdf geben die sog. statistische Signifikanz der Korrelation an; ein Thema, das wir einfach gekonnt ignorieren. Möchte man nur einzelne Korrelationskoeffizienten ausrechnen, können wir die Idee des Zusammenfassens, s. Abbildung 8.1, nutzen:
Im Falle von fehlenden Werte müssen Sie den Befehl cor
aus seiner schüchternen Vorsicht befreien und ermutigen, trotz fehlender Werte einen Korrelationskoeffizienten auszugeben. Das geht mit dem Argument use = "complete.obs"
in cor
.
cor_super_wichtig <dbl> | ||||
---|---|---|---|---|
0.33 |
🧑🎓 Immer so viele Zahlen! Ich brauch Bilder.
Mit dem Befehl plot_correlation
aus dem R-Paket dataExplorer
bekommt man eine ansehnliche Heatmap zur Verdeutlichung der Korrelationswerte, s. Abbildung 8.11.
library(DataExplorer)
mariokart %>%
dplyr::select(duration, n_bids, start_pr, ship_pr, total_pr, seller_rate, wheels) %>%
plot_correlation()
8.7 Aufgaben
Schauen Sie sich auch mal auf der Webseite Datenwerk4 die Aufgaben zu dem Tag association an.
8.8 Quiz zur deskriptiven Statistik
Testen Sie Ihr Wissen mit einem Quiz zur deskriptiven Statistik (Maße der zentralen Tendenz, Variabilität, Verteilungsformen, Normalverteilung, Korrelation).
8.9 Fallstudien
-
YACSDA: EDA zu Flugverspätungen5 im Datenwerk unter dem Tag
flights-yacsda-eda
zu finden.
Einige der Fallstudien oder Übungsaufgaben können theoretische Inhalte (Konzepte der Statistik) oder praktische Inhalte (R-Befehle) enthalten, die Sie (noch) nicht kennen. In dem Fall: Einfach ignorieren. Oder Sie suchen nach einer Lösung anhand von Konzepten bzw. R-Befehlen, die Sie kennen.
- YACSDA: Topgear6
- Datensatz flights: Finde den Tag mit den meisten Abflügen7
- Tidyverse Case Study: Exploring the Billboard Charts8
Bitte verstehen Sie die folgende Auswahl an Fallstudien als Auswahl. Es ist nicht nötig, dass Sie alle Fallstudien bearbeiten. Sehen Sie die Fallstudien eher als Angebot zur selektiven Vertiefung und Übung, dort, wo Sie es nötig haben.
8.10 Literaturhinweise
Auch die Korrelation ist ein Allzeit-Favorit in der Statistik; entsprechend wird Ihnen jedes typische Statistik-Buch die Grundlagen erläutern. Schauen Sie doch mal, was Ihre Bibliothek Ihnen zu bieten hat. Wer eine unorthodoxe (geometrische!) Herangehensweise an die Korrelation (und Regression) sucht, darf sich auf eine Menge Aha-Momente bei Kaplan (2009) freuen. Ein schönes, modernes Statistikbuch bietet der Psychologie-Prof Russell Poldrack (2023); auch dieses Buch ist frei online verfügbar. Tipp: Nutzen Sie die Übersetzungfunktion Ihres Browsers, wenn Sie das Buch nicht in Englisch lesen wollen. Ein Klassiker, wenn auch nicht mehr ganz frisch, ist Cohen et al. (2003); immer noch sehr empfehlenswert, aber etwas höheren Anspruchs. Was ist Scheinkorrelation und was ist “echte” Korrelation? Dieser Unterschied – der für die Wissenschaft zentral ist – wird von Pearl & Mackenzie (2018) auf entspannte Art erläutert; nebenbei lernt man einiges zur Geschichte der Wissenshaft.
Hier finden Sie weitere Beispiele für Scheinkorrelationen. Dieser TED-Vortrag informiert zum Thema Scheinkorrelation.