Erwartungswert

In diesem Kapitel schauen wir uns den Erwartungswert eine Verteilung an.

Problemstellung

Wir wissen bereits, dass sich die Wahrscheinlichkeitsverteilung einer Zufallsvariablen entweder

vollständig beschreiben lässt.

Häufig ist eine vollständige Beschreibung der Verteilung gar nicht notwendig. Um sich einen groben Überblick über eine Verteilung zu verschaffen, betrachtet man einige charakteristische Maßzahlen. Eine dieser Maßzahlen lernen wir im Folgenden etwas besser kennen.

Der Erwartungswert ist eine Maßzahl*
zur Charakterisierung einer Wahrscheinlichkeitsverteilung.

* statt Maßzahl sagt man auch Kennzahl oder Kennwert

Welche Aussage trifft der Erwartungswert?

Der Erwartungswert ist ein „Lageparameter“. Unter diesem Begriff werden alle Maßzahlen zusammengefasst, die eine Aussage über die Lage einer Verteilung machen.

Der Erwartungswert beschreibt die zentrale Lage einer Verteilung.

Der Erwartungswert ist ein Mittelwert (umgangssprachlich: Durchschnittswert).

Erwartungswert einer diskreten Verteilung

Ist \(X\) eine diskrete Zufallsvariable, so heißt

\[\mu_{X} = \mathrm{E}(X) = \sum_i x_i \cdot P(X = x_i)\]

der Erwartungswert von \(X\).

Beispiel 1

Die Zufallsvariable \(X\) sei die Augenzahl beim Wurf eines symmetrischen Würfels.

Es gibt sechs mögliche Realisationen:
\(x_1 = 1\), \(x_2 = 2\), \(x_3 = 3\), \(x_4 = 4\), \(x_5 = 5\), \(x_6 = 6\)

Alle sechs Realisationen haben die gleiche Wahrscheinlichkeit:
\(p_1 = p_2 = p_3 = p_4 = p_5 = p_6 = \frac{1}{6}\)

\(\begin{array}{r|r|r|r|r|r|r}
\text{Augenzahl } x_i & 1 & 2 & 3 & 4 & 5 & 6\\
\hline P(X = x_i) & \frac{1}{6} & \frac{1}{6} & \frac{1}{6} & \frac{1}{6} & \frac{1}{6} & \frac{1}{6}
\end{array}\)

> Erwartungswert berechnen

\(\begin{align*}
\mathrm{E}(X) &= \sum_i x_i \cdot P(X = x_i)\\
&=1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6} + 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6}\\
&= 3,5
\end{align*}\)

Interpretation des Erwartungswerts
Wenn man beispielsweise 1000 Mal würfelt,
die geworfenen Augenzahlen zusammenzählt und durch 1000 dividiert,
ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von 3,5.

Das Beispiel zeigt, dass die Bezeichnung „Erwartungswert“ irreführend sein kann:
\(\mathrm{E}(X) = 3,5\) ist keineswegs der Wert, den man bei einem Wurf „erwartet“,
denn 3,5 selbst kann nie als Augenzahl eintreten.

Beispiel 2

Die Zufallsvariable \(X\) sei der Gewinn beim Roulette.

Wir setzen 1 Euro auf unsere Glückszahl. Falls wir gewinnen, erhalten wir 18 Euro.
Zur Erinnerung: Beim Roulette kann man auf die Zahlen 0 bis 36 setzen.

Es gibt zwei Realisationen:
\(x_1 = -1\) (falls wir verlieren)
\(x_2 = 18\) (falls wir gewinnen)

Für die Wahrscheinlichkeiten gilt:
\(p_1 = \frac{36}{37}\) (in 36 von 37 Fällen verlieren wir)
\(p_2 = \frac{1}{37}\) (in 1 von 37 Fällen gewinnen wir)

\(\begin{array}{r|r|r}
\text{Gewinn } x_i & -1 & 18 \\
\hline P(X = x_i) & \frac{36}{37} & \frac{1}{37}
\end{array}\)

> Erwartungswert berechnen

\(\begin{align*}
\mathrm{E}(X) &= \sum_i x_i \cdot P(X = x_i)\\
&= -1 \cdot \frac{36}{37} + 18 \cdot \frac{1}{37}\\
&= - \frac{18}{37} \approx -0,49
\end{align*}\)

Interpretation des Erwartungswerts
Wenn man beispielsweise 1000 Mal auf seine Glückszahl setzt,
die Gewinne und Verluste zusammenzählt und durch 1000 dividiert,
ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von -49 Cent.

Bei einem fairen Spiel wäre der Erwartungswert gleich Null.
Hier ist das Spiel unfair, da pro Runde im Schnitt ein Verlust von 49 Cent zu erwarten ist.

Erwartungswert einer stetigen Verteilung

Ist \(X\) eine stetige Zufallsvariable, so heißt

\[\mu_{X} = \mathrm{E}(X) = \int_{-\infty}^{\infty} \! x \cdot f(x) \, \mathrm{d}x\]

der Erwartungswert von \(X\).

Dabei steht \(f(x)\) für die Dichtefunktion.

Beispiel 1

Ein Zufallsgenerator erzeugt zufällig eine Zahl zwischen -1 und 1.

Die Dichtefunktion des Zufallsgenerators ist

\(\begin{equation*}
f(x) =
\begin{cases}
0 & \text{für } x < -1\\
0,5 & \text{für } -1 \le x \le 1 \\
0 & \text{für } x > 1
\end{cases}
\end{equation*}\)

> Erwartungswert berechnen

\[\begin{align*}
\mathrm{E}(X) &= \int_{-\infty}^{\infty} \! x \cdot f(x) \, \mathrm{d}x\\
&= \underbrace{\cancel{\int_{-\infty}^{-1} \! x \cdot 0 \, \mathrm{d}x}}_{\text{1. Abschnitt}}
+ \underbrace{\vphantom{\cancel{\int_{-\infty}^{-1} \! x \cdot 0 \, \mathrm{d}x}}\int_{-1}^{1} \! x \cdot 0,5 \, \mathrm{d}x}_{\text{2. Abschnitt}}
+ \underbrace{\cancel{\int_{1}^{\infty} \! x \cdot 0 \, \mathrm{d}x}}_{\text{3. Abschnitt}}\\
&= \int_{-1}^{1} \! x \cdot 0,5 \, \mathrm{d}x\\
&= \int_{-1}^{1} \! \frac{1}{2}x \, \mathrm{d}x\\
&= \left[\frac{1}{4}x^2\right]_{{\color{maroon}-1}}^{{\color{red}1}}\\
&= \frac{1}{4}\cdot {\color{red}1}^2 - \frac{1}{4}\cdot ({\color{maroon}-1})^2\\
&= \frac{1}{4} - \frac{1}{4}\\
&= 0
\end{align*}\]

Interpretation des Erwartungswerts
Wenn man bespielsweise 1000 Mal den Zufallsgenerator startet,
die Zufallszahlen zusammenzählt und durch 1000 dividiert,
ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von 0.

Da der Zufallsgenerator seine Werte symmetrisch im negativen und positiven Bereich streut, erwarten wir bei einer großen Anzahl an Zufallsexperimenten im Mittel den Wert 0.

Beispiel 2

Gegeben ist eine Zufallsvariable \(X\) mit der Dichtefunktion

\(\begin{equation*}
f(x) =
\begin{cases}
0 & \text{für } x < 0 \\
\frac{1}{4}x & \text{für } 0 \le x < 2 \\
1 - \frac{1}{4}x & \text{für } 2 \le x \le 4 \\
0 & \text{für } x > 4
\end{cases}
\end{equation*}\)

> Erwartungswert berechnen

\[\begin{align*}
\mathrm{E}(X) &= \int_{-\infty}^{\infty} \! x \cdot f(x) \, \mathrm{d}x\\
&= \underbrace{\cancel{\int_{-\infty}^{0} \! x \cdot 0 \, \mathrm{d}x}}_{\text{1. Abschnitt}}
+ \underbrace{\vphantom{\cancel{\int_{-\infty}^{0} \! x \cdot 0 \, \mathrm{d}x}}\int_{0}^{2} \! x \cdot \frac{1}{4}x \, \mathrm{d}x}_{\text{2. Abschnitt}}
+ \underbrace{\vphantom{\cancel{\int_{-\infty}^{0} \! x \cdot 0 \, \mathrm{d}x}}\int_{2}^{4} \! x \cdot \left(1 - \frac{1}{4}x\right) \, \mathrm{d}x}_{\text{3. Abschnitt}}
+ \underbrace{\cancel{\int_{4}^{\infty} \! x \cdot 0 \, \mathrm{d}x}}_{\text{4. Abschnitt}}\\
&= \int_{0}^{2} \! x \cdot \frac{1}{4}x \, \mathrm{d}x + \int_{2}^{4} \! x \cdot \left(1 - \frac{1}{4}x\right) \, \mathrm{d}x\\
&= \int_{0}^{2} \! \frac{1}{4}x^2 \, \mathrm{d}x + \int_{2}^{4} \! x - \frac{1}{4}x^2 \, \mathrm{d}x\\
&= \left[\frac{1}{12}x^3\right]_{{\color{maroon}0}}^{{\color{red}2}} + \left[\frac{1}{2}x^2 - \frac{1}{12}x^3\right]_{{\color{maroon}2}}^{{\color{red}4}}\\
&= \left(\frac{1}{12} \cdot {\color{red}2}^3 - \frac{1}{12}\cdot {\color{maroon}0}^3\right) + \left(\frac{1}{2} \cdot {\color{red}4}^2 - \frac{1}{12} \cdot {\color{red}4}^3 -\left(\frac{1}{2} \cdot {\color{maroon}2}^2 - \frac{1}{12} \cdot {\color{maroon}2}^3\right)\right)\\
&= \left(\frac{2}{3} - 0\right) + \left(8 - \frac{16}{3} -\left(2 - \frac{2}{3}\right)\right)\\
&= \frac{2}{3} - 0 + 8 - \frac{16}{3} -2 + \frac{2}{3}\\
&= 2
\end{align*}\]

Wir merken uns:

Eine Wahrscheinlichkeitsverteilung lässt sich entweder

vollständig beschreiben.

Häufig ist eine vollständige Beschreibung der Verteilung gar nicht notwendig. Um sich einen groben Überblick über eine Verteilung zu verschaffen, betrachtet man einige charakteristische Maßzahlen. Dazu zählen u.a. der Erwartungswert, die Varianz und die Standardabweichung.

Autor: Andreas Schneider
Seit 2010 beschäftigt er sich mit dem Thema "Mathematik online lernen". Die Lernvideos auf seinem YouTube-Kanal NachhilfeTV wurden bereits über 2 Millionen Mal aufgerufen.
Über das Kontaktformular kannst du mit dem Autor direkt in Verbindung treten.