Einführung des Begriffs der Faltung von Wahrscheinlichkeitsmaßen
Die Faltung von Wahrscheinlichkeitsmaßen ist eine der wichtigsten Begriffsbildungen, um Summen von unabhängigen Zufallsvariablen zu beschreiben, da sich mit ihr viele Eigenschaften von Zufallsvariablen und Wahrscheinlichkeitsverteilungen prägnant formulieren lassen und zahlreiche Bezüge zu anderen (scheinbar entfernten) Begriffen und Aussagen herstellen lassen. In diesem einführenden Kapitel wird auf exakte mathematische Definitionen und Beweise verzichtet, stattdessen soll der Begriff der Faltung an typischen Beispielen motiviert werden.
- Einordnung des Artikels
- Einführung
- Aufgabe: Werfen zweier Münzen
- Die Problemstellung
- Modellierung des Zufallsexperimentes
- Erstes Beispiel: Augensumme beim zweimaligen Würfeln
- Zweites Beispiel: Augensumme beim n-maligen Würfeln
- Dreimaliges Würfeln
- Viermaliges Würfeln
- Achtmaliges Würfeln
- Was ist eine Faltung?
- Welche Objekte werden bei einer Faltung verknüpft?
- Wie wird eine Faltung berechnet?
- Drittes Beispiel: Anzahl der Gewinne beim Glücksspiel
- Die Invarianz-Eigenschaft der Faltung
- Anzahl der Treffer beim Glücksspiel
- Faltung von stetigen Wahrscheinlichkeitsverteilungen
- Der Übergang von diskreten zu stetigen Zufallsvariablen
- Viertes Beispiel: Faltung von Standard-Normalverteilungen
- Fünftes Beispiel: Faltung von stetigen Gleichverteilungen
Einordnung des Artikels
- Ausgewählte Kapitel der Mathematik (für Programmierer, Informatiker, Ingenieure und Naturwissenschaftler)
- Wahrscheinlichkeitsrechnung
- Eigenschaften von Zufallsvariablen
- Einführung des Begriffs der Faltung von Wahrscheinlichkeitsmaßen
- Eigenschaften von Zufallsvariablen
- Wahrscheinlichkeitsrechnung
Vorausgesetzt werden Kenntnisse über Zufallsvariablen, vor allem Erwartungswert, Varianz und Standardabweichung.
Einführung
Zahlreiche Probleme aus der Wahrscheinlichkeitsrechnung können so modelliert werden, dass mehrere unabhängige Zufallsvariablen X1, X2, ..., Xn und anschließend deren Summe
Sn = X1 + X2 + ... + Xn
diskutiert werden muss.
Als Beispiel denke man an ein Glücksspiel, das mehrfach ausgeführt wird und bei dem Xi den Nettogewinn eines Spieles beschreibt, für den Spieler aber die Summe aller Nettogewinne relevant ist.
Um die Summe von n Zufallsvariablen besser zu verstehen, wird man zuerst die Summe von zwei unabhängigen Zufallsvariablen Z = X1 + X2 untersuchen: Kann man für die Zufallsvariable Z berechnen, welche Werte sie mit welchen Wahrscheinlichkeiten annimmt, so wird man daraus einen Formalismus ableiten können, wie man die Wahrscheinlichkeitsverteilung der Summe der unabhängigen Zufallsvariablen X1 + X2 + ... + Xn berechnet.
Etwas abstrakter formuliert: Man sucht zu den Wahrscheinlichkeitsmaßen, die die Zufallsvariablen X1 beziehungsweise X2 induzieren, das Wahrscheinlichkeitsmaß, das die Zufallsvariable
Z = X1 + X2
induziert. Dieses neue Wahrscheinlichkeitsmaß wird als die Faltung der gegebenen Wahrscheinlichkeitsmaße bezeichnet. Und kennt man die Faltung von zwei Wahrscheinlichkeitsmaßen, kann man für beliebige Summen X1 + X2 + ... + Xn von unabhängigen Zufallsvariablen die Wahrscheinlichkeitsverteilung berechnen.
Die folgenden (einfachen) Beispiele sollen einen Eindruck vermitteln,
- wie man eine Faltung berechnet,
- welche Eigenschaften sie hat und speziell
- welche Invarianz-Eigenschaft manche Wahrscheinlichkeitsmaße haben.
Das erste Beispiel ist als Aufgabe formuliert und soll in die Problematik einführen. Je nachdem mit welchen Mitteln man sie zu lösen versucht, erscheint ihre Lösung sehr kompliziert bis trivial. Die anderen Beispiele werden ausführlich besprochen und sollen zum Begriff der Faltung hinführen.
Aufgabe: Werfen zweier Münzen
Die Problemstellung
Gegeben sind zwei Münzen, die wie üblich mit Kopf und Zahl beschriftet sind, was aber im Folgenden meist mit 0 und 1 abgekürzt wird. Die Wahrscheinlichkeiten beider Münzen für 0 und 1 seien unbekannt. Für die erste Münze wird die Wahrscheinlichkeit für 1 mit p1 bezeichnet, für die zweite Münze mit p2. Entsprechend lauten die Wahrscheinlichkeiten für 0:
q1 = 1 - p1 und q2 = 1 - p2.
Bei dem folgenden Glücksspiel werden beide Münzen gleichzeitig geworfen und die Anzahl der 1 (Zahl) wird bestimmt. Die entsprechende Zufallsvariable werde mit Z bezeichnet; sie kann die Werte 0, 1 und 2 annehmen.
Man kann jetzt folgende Aufgabe formulieren:
Wie groß müssen die Wahrscheinlichkeiten für 0 und 1 der beiden Münzen sein, damit sich für die Werte von Z eine Gleichverteilung ergibt?
Man kann die Frage auch detaillierter formulieren:
- Gibt es eine Kombination der Wahrscheinlichkeiten p1 und p2, so dass die Werte von Z gleichverteilt sind?
- Falls ja: Wie lautet diese Kombination und ist sie eindeutig?
- Falls nein: warum ist eine derartige Kombination nicht möglich?
Modellierung des Zufallsexperimentes
Für die erste Münze wird ein Wahrscheinlichkeitsraum Ωx gewählt, auf dem die Zufallsvariable X definiert ist. Die Zufallsvariable X nimmt den Wert 0 an, wenn Kopf (= 0) geworfen wird und den Wert 1, wenn Zahl (= 1) geworfen wird.
Entsprechend wird der zweite Münzwurf durch einen Wahrscheinlichkeitsraum Ωy modelliert und das Ergebnis des Wurfes wird mit der Zufallsvariable Y beschrieben; sie nimmt die selben Werte an wie X. Allerdings unterscheiden sich die Münzen (und damit die Zufallsvariablen X und Y) in den Wahrscheinlichkeiten, mit denen die Werte 0 oder 1 angenommen werden.
In Abbildung 1 werden links die beiden Wahrscheinlichkeitsräume Ωx und Ωy sowie die Zufallsvariablen X und Y dargestellt. In die Wahrscheinlichkeitsräume sind die Wahrscheinlichkeiten der relevanten Ereignisse eingetragen, zum Beispiel
P(X = 0) = q1.
Das zusammengesetzte Experiment, bei dem beide Münzen geworfen werden, wird durch den Wahrscheinlichkeitsraum
Ω = Ωx × Ωy
beschrieben (siehe Abbildung 1 mitte). Die Zufallsvariable Z, die die Anzahl der geworfenen Zahl beschreibt, kann durch
Z = X + Y
ausgedrückt werden. Rechts in Abbildung 1 sind die relevanten Wahrscheinlichkeiten berechnet:
P(Z = 0), P(Z = 1), P(Z = 2).
Für ihre Berechnung verwendet man die Unabhängigkeit der beiden Münzwürfe.
Mit Hilfe dieser Modellierung lässt sich die oben gestellte Frage konkretisieren:
Lassen sich Werte für p1 und p2 finden, so dass P(Z = 0) = P(Z = 1) = P(Z = 2) = 1/3?
Aufgabe:
Setzt man die Wahrscheinlichkeiten aus Abbildung 1 rechts gleich 1/3, entsteht ein Gleichungssystem mit 2 Unbekannten. Gibt es dafür eine, mehrere oder keine Lösung?
Lässt sich das hier gestellte Problem einfacher lösen?
Erstes Beispiel: Augensumme beim zweimaligen Würfeln
Beschreiben die beiden Zufallsvariablen X1 und X2 das Ergebnis des ersten beziehungsweise zweiten Wurfes beim Würfeln, dann sind die Verbund-Wahrscheinlichkeiten
P(X1 = x1, X2 = x2)
in Tabelle 1 in Abbildung 2 dargestellt. Dabei werden zwei Voraussetzungen gemacht:
- Es handelt sich um einen Laplace-Würfel.
- Die beiden Würfe erfolgen unabhängig voneinander.
Möchte man jetzt berechnen, mit welchen Wahrscheinlichkeiten die Werte s der Zufallsvariable
S2 = X1 + X2
angenommen werden, so zeigt Abbildung 3 die Vorgehensweise. Dargestellt sind in Abbildung 3 die Elementarereignisse (x1, x2) beim zweimaligen Würfeln als rote Punkte. Gibt man sich jetzt einen Wert s von S2, so kann man die zugehörigen Elementarereignisse leicht identifizieren. So liegen etwa die Elementarereignisse zu s = 4 auf der blauen Gerade, es sind die Elementarereignisse:
(1, 3), (2, 2), (3, 1).
Die zugehörigen Wahrscheinlichkeiten kann man jetzt aus Tabelle 1 in Abbildung 2 ablesen. (Es ist klar, dass alle gleich 1/36 sind, aber im allgemeinen Fall müsste man jetzt die entsprechenden Verbund-Wahrscheinlichkeiten berechnen.) Die Wahrscheinlichkeit dafür, dass S2 den Wert 4 annimmt, ist somit 3/36 = 1/12.
Egal welchen Wert für s man sich vorgibt, die zugehörigen Elementarereignisse liegen in Abbildung 3 immer auf einer Geraden mit Steigung -1. Die meisten Kombinationen von Elementarereignissen gibt es für s = 7, nämlich 6, daher ist
P(S2 = 7) = 6/36 = 1/6.
In Abbildung 2 sind in den Gleichungen (3, 4, 5) einige Berechnungen derartiger Wahrscheinlichkeiten aufgeführt. Die allgemeine Formel zur Berechnung von P(S2 = s) zeigt Gleichung (2) in Abbildung 2. (Die Schreibweise suggeriert, dass es immer 6 Summanden gibt, aber die Wahrscheinlichkeiten einiger Ereignisse in der Summe können gleich 0 sein.)
In Abbildung 4 wird versucht, eine dreidimensionale Darstellung der Berechnung der Wahrscheinlichkeiten P(S2 = s) zu geben. Dazu werden die Verbund-Wahrscheinlichkeiten P(X1 = x1, X2 = x2) als Histogramm (Stabdiagramm) aufgetragen. Die unterschiedlichen Farben stehen dabei für die Werte s, die die Summe X1 + X2 annimmt.
Damit die "Nebendiagonalen" mit identischen s-Werten leichter nachzuvollziehen sind, werden die Balken in benachbarten Nebendiagonalen jeweils mit unterschiedlicher Dicke gezeichnet.
Addiert man jetzt in Abbildung 4 die Wahrscheinlichkeiten der "gleichfarbigen Elementarereignisse", erhält man die Wahrscheinlichkeiten P(S2 = s), die in Abbildung 5 dargestellt sind; dabei sind die Farben so gewählt, das man sofort die Beziehung zwischen den Elementarereignissen und dem Wert von S2 herstellen kann. (Diese Vorgehensweise entspricht Gleichung (2) in Abbildung 2.)
Aufgabe: Oben wurde als Aufgabe formuliert, ob man die Wahrscheinlichkeiten bei zwei Münzen so wählen kann, dass sich beim zweimaligen Werfen für die Anzahl von Zahl eine Gleichverteilung ergibt. Die entsprechende Frage kann man jetzt beim Würfeln stellen:
Kann man die Einzel-Wahrscheinlichkeiten der Augenzahlen zweier Würfel so wählen, dass die Augensumme gleichverteilt ist?
Falls ja: Wie lautet die Lösung und ist sie eindeutig?
Falls nein: Wie kann man möglichst einfach begründen, dass es keine Lösung gibt?
Zweites Beispiel: Augensumme beim n-maligen Würfeln
Die Vorgehensweise, wie man die Wahrscheinlichkeiten für gewisse Augensummen beim zweimaligen Würfeln berechnet, kann man natürlich beliebig fortsetzen und die Wahrscheinlichkeiten für Augensummen beim n-maligen Würfeln berechnen.
Dreimaliges Würfeln
Die Summe
S3 = X1 + X2 + X3
wird jetzt als
S3 = S2 + X3
geschrieben. Und da S2 und X3 unabhängig voneinander sind, kann die Vorgehensweise, die für die Berechnung der Verteilung von S2 entwickelt wurde, fortgeführt werden.
Abbildung 6 zeigt das Stabdiagramm für das dreimalige Würfeln; auf der x-Achse sind die Werte von S2 aufgetragen (sie laufen von s = 2 bis s = 12), auf der y-Achse die Werte von X3 (also das Ergebnis des dritten Wurfes).
Die Verbund-Wahrscheinlichkeiten P(S2 = s, X3 = x3) sind auf der z-Achse aufgetragen.
Abbildung 7 zeigt dann das Histogramm für
S3 = X1 + X2 + X3.
Aufgabe: Begründen Sie, warum die Zufallsvariablen S2 und X3 unabhängig voneinander sind.
Viermaliges Würfeln
Setzt man das Verfahren fort, so hat man für
S4 = X1 + X2 + X3 + X4
verschieden Möglichkeiten:
- man kann die Wahrscheinlichkeiten für S4 aus S2 und S2 berechnen, oder
- aus S3 und X4.
- Letzteres ist natürlich gleichwertig zu X1 und S3.
Abbildung 8 zeigt das "symmetrische" Diagramm, in dem auf der x- und y-Achse jeweils die Werte von S2 dargestellt sind. Abbildung 9 zeigt das zugehörige Stabdiagramm für die Wahrscheinlichkeiten von S4.
Abbildung 10 zeigt die Alternative: auf der x-Achse sind die Werte von S3 aufgetragen, auf der y-Achse die Werte von X4. Das Stabdiagramm, das für S4 entsteht, ist natürlich identisch zu dem in Abbildung 9.
Achtmaliges Würfeln
Die Berechnungen können – wie oben schon gesagt – beliebig fortgeführt werden, vor allem die Darstellung der Verbund-Wahrscheinlichkeiten wird aber immer unübersichtlicher. Zuletzt sollen noch die Diagramme für das achtmalige Würfeln gezeigt werden.
In Abbildung 11 sind auf der x- und y-Achse die Werte von S4 aufgetragen, die Wahrscheinlichkeiten der entsprechenden Kombinationen auf der z-Achse.
In Abbildung 12 das Histogramm für S8.
Um im Vergleich zu Abbildung 11 wieder eine übersichtliche Darstellung der Verbund-Wahrscheinlichkeiten zu erhalten, werden sie wie eine kontinuierliche Funktion (von zwei Variablen) aufgetragen. An den Gitterpunkten in Abbildung 13 befinden sich die "Stäbe" des Stabdiagramms, die dazwischen liegenden Flächen suggerieren, dass es sich um eine kontinuierliche Funktion handelt.
Was ist eine Faltung?
Welche Objekte werden bei einer Faltung verknüpft?
Bei den bisherigen Beispielen wurde betont, wie man bei der Berechnung einer Faltung vorgeht. Dazu wurde die Summe zweier unabhängiger Zufallsvariablen gebildet, Z = X + X, und die Formel motiviert, wie man zu einem gegebenen Wert z die Wahrscheinlichkeit P(Z = z) berechnet. Um zu einer Definition der Faltung zu gelangen, muss man zunächst klären, welche Voraussetzungen vorliegen müssen, um eine Faltung zu berechnen und welche Objekte bei der Operation Faltung eigentlich miteinander verknüpft werden.
Dazu ist in Abbildung 14 zunächst die Ausgangssituation gezeigt:
- Gegeben sind zwei reelle Zufallsvariablen X und Y, von denen angenommen wird, dass sie unabhängig voneinander sind.
- Damit X und Y tatsächlich Zufallsvariablen sind, muss es entsprechende Wahrscheinlichkeitsräume geben, also Mengen Ωx und Ωy, die mit Ereignisalgebren Ax und Ay ausgestattet sind.
- Laut Definition einer Zufallsvariable müssen Urbilder von Teilmengen der reellen Zahlen in der Ereignisalgebra enthalten sein.
- Ist auf den Ereignisalgebren ein Wahrscheinlichkeitsmaß Px beziehungsweise Py definiert, so induzieren die Zufallsvariablen X und Y Wahrscheinlichkeitsmaße auf den reellen Zahlen; diese Wahrscheinlichkeitsmaße werden mit PX beziehungsweise PY bezeichnet. Meist nennt man sie die Wahrscheinlichkeitsverteilungen der Zufallsvariablen X beziehungsweise Y.
Die Faltung soll jetzt aus diesen beiden Wahrscheinlichkeitsverteilungen PX und PY die Wahrscheinlichkeitsverteilung
PZ = PX + Y
der Zufallsvariable
Z = X + Y
berechnen. Dazu muss man aber erst klären, was die Summe der Zufallsvariablen X + Y bedeutet und welches Objekt PZ ist. In Abbildung 15 soll dies dargestellt werden.
Die Zufallsvariable Z = X + Y ist eigentlich auf dem Kreuzprodukt der beiden Wahrscheinlichkeitsräume Ωx und Ωy definiert:
Ω = Ωx × Ωy.
Dazu werden auch die Zufallsvariablen X und Y als Zufallsvariablen auf diesem Wahrscheinlichkeitsraum Ω betrachtet, der ein zusammengesetztes Zufallsexperiment beschreibt. Zu einem gegebenen Wert z der Zufallsvariable Z kann man jetzt alle Kombinationen (x, y) mit z = x + y aufsuchen und die Wahrscheinlichkeit P(Z = z) berechnen (dazu benötigt man die Unabhängigkeit der Zufallsvariablen X und Y; diese Vorgehensweise wurde in den Beispielen oben ausführlich diskutiert). Insgesamt wird damit die Wahrscheinlichkeitsverteilung PZ der Zufallsvariable Z berechnet.
Im Fall, dass sowohl X als auch Y eine Wertemenge mit endlich vielen Elementen besitzen, ist es sinnvoll zu fragen, welche Mächtigkeit die Wertemenge von Z hat. Es sind höchstens so viele Elemente wie man Kombinationen aus den Werten von X und Y bilden kann; es können aber auch weniger sein, wenn einige Kombinationen von x und y zur identischen Summe x + y führen. Dies wird im nächsten Unterabschnitt unter dem Stichwort Aggregation diskutiert.
Symbolisch wird die Faltung der gegebenen Wahrscheinlichkeitsverteilungen PX und PY durch den ∗-Operator ausgedrückt:
PZ = PX + Y = PX ∗ PY.
Wie wird eine Faltung berechnet?
Nachdem geklärt ist, welche Objekte eine Rolle spielen, um die Faltung zu definieren, kann man sich nochmal vergegenwärtigen, wie sie berechnet wird. Man sollte drei Schritte unterscheiden:
- Kombinationen bilden.
- Die Kombinationen mit Wahrscheinlichkeiten gewichten.
- Aggregation der Kombinationen.
Genauer:
- Kombinationen der Werte x und y bilden, wobei alle Elemente der entsprechenden Wertemengen WX und WX zugelassen sind.
- Jede Kombination (x, y) wird mit der Wahrscheinlichkeit P(X = x) · P(Y = y) gewichtet.
- Da unterschiedliche Kombinationen (x, y) zu identischem z = x + y führen können, ist eine Aggregation der Kombinationen nötig: Es werden zu gegebenem z alle Wahrscheinlichkeiten P(X = x) · P(Y = y) addiert, wenn z = x + y.
Damit ist P(Z = z) für jedes z aus der Wertemenge WZ bekannt und somit die Wahrscheinlichkeitsverteilung von Z.
Naheliegend ist es zu fragen, wie viele Werte Z annehmen kann, wenn die Mächtigkeiten der Wertemengen von X und Y bekannt sind – interessant ist diese Frage natürlich nur, wenn WX und WX endlich viele Elemente besitzen.
Da im ersten Schritt alle Kombinationen (x, y) gebildet werden, gibt es maximal |WX| · |WY| Kombinationen (Produkt der Mächtigkeiten). Durch die Aggregation aus dem dritten Schritt kann die Mächtigkeit von WZ aber kleiner werden. Die minimale Mächtigkeit von WZ wird erreicht, wenn eine der Zufallsvariablen X oder Y mit Wahrscheinlichkeit 1 den Wert 0 annimmt. Dann ist stimmt |WX| mit der größeren der beiden Mächtigkeiten |WX| beziehungsweise |WY| überein. Insgesamt gilt:
max(|WX|, |WX|) ≤ |WZ| ≤ |WX| · |WY|.
Beispiele:
1. Für den Fall
WX = {1, 2} und WY = {0},
gilt:
WZ = WX.
2. Den andere Grenzfall aus obigen Ungleichungen erhält man für:
WX = {1, 3} und WY = {1, 2},
denn jetzt ist
WZ = {2, 3, 4, 5}, also |WZ| = |WX| · |WY|.
3. Beim zweimaligen Würfeln gilt |WX| = 6 = |WY|, aber |WX + Y| = |{2, 3, ..., 12}| = 11,
womit keiner der Grenzfälle der Ungleichungen eintritt.
Eine R-Implementierung der Berechnung der Faltung für Zufallsvariablen mit endlicher Wertemenge findet sich inDie Familie der apply-Funktionen in R Teil 3: Weitere mit apply() verwandte Funktionen. Diese Implementierung realisiert die drei oben genannten Schritte in der Berechnung der Faltung.
Drittes Beispiel: Anzahl der Gewinne beim Glücksspiel
Die Invarianz-Eigenschaft der Faltung
Vergleicht man die Verteilungen der Augensumme für das einmalige, zweimalige oder n-malige Werfen eines Würfels (siehe Abbildungen oben), so erkennt man die typischen Züge der Verteilungen, die durch die wiederholte Summenbildung entstehen:
- Aus einer anfangs gleichverteilten Zufallsvariable entsteht eine Verteilung mit einem Maximum im Erwartungswert. Dies beschreibt die für die Summenbildung charakteristische "Tendenz zur Mitte". Mit den höchsten Wahrscheinlichkeiten werden Werte in der Nähe des Erwartungswertes angenommen, da es dafür die meisten Kombinationen gibt.
- Allerdings werden die Absolutwerte der Wahrscheinlichkeiten in der Nähe des Maximums mit zunehmender Anzahl von Würfen immer kleiner, da es mehr Möglichkeiten gibt, welche Summenwerte angenommen werden. Dies ist beim Vergleich der Abbildungen oben auf den ersten Blick nicht zu erkennen, da zur besseren Darstellung für jede Abbildung eine geeignete Skalierung der y-Achse vorgenommen wurde.
- Weiter ist zu erkennen, dass die "extremen Werte", also sehr kleine oder sehr große Summenwerte zwar immer noch vorkommen, ihre Wahrscheinlichkeiten (im Vergleich zu den Maximalwerten) aber sehr klein werden.
- Da sich die Varianzen der unabhängigen Würfe addieren, wachsen die Standardabweichungen langsamer als proportional zur Anzahl n der Würfe (genauer: sie wachsen proportional zur Wurzel aus n), das heißt die Standardabweichung wächst bei zunehmenden n langsamer als der Wertebereich (der ja proportional zu n größer wird).
Geht man davon aus, dass die n-fache Faltung einer Verteilung mit sich selbst zu Verteilungen führt, die immer mehr die "Tendenz zur Mitte" zeigen, so drängt sich eine Frage auf:
Gibt es eine – oder sogar mehrere – Verteilung, die schon eine Form besitzt wie es mit der "Tendenz zur Mitte" beschrieben wurde, und die bei Faltung mit sich selbst reproduziert wird?
Etwas abstrakter würde man diese Frage vielleicht so formulieren:
Gibt es Verteilungen, die unter der Faltung invariant sind?
Die folgenden Beispiele werden zeigen, dass die Binomialverteilung B(N, p, k) tatsächlich in folgendem Sinn invariant unter der Faltung ist: Sind zwei Zufallsvariablen X und Y binomialverteilt und unabhängig (gemäß B(N, p, k) beziehungsweise B(M, p, k), also mit gleicher Trefferwahrscheinlichkeit p), so ist die Summe X + Y wieder binomialverteilt gemäß B(N + M, p, k).
Anzahl der Treffer beim Glücksspiel
Ein Glücksspiel werde N mal nacheinander ausgeführt, wobei alle Ergebnisse unabhängig voneinander sind. Die Gewinnwahrscheinlichkeit bei einem Spiel betrage p und bleibe unverändert. Die Zufallsvariable X beschreibe die Anzahl der Gewinne (oder Treffer) bei N Spielen.
Die Zufallsvariable X kann die Werte 0, 1, 2, ..., N annehmen und die Wahrscheinlichkeit dafür, dass P(X = k) wird durch die Binomialverteilung B(N, p, k) berechnet (siehe Gleichung (1) in Abbildung 16
Die Zufallsvariable Y beschreibe die Anzahl der Gewinne einer weiteren Serie von M Spielen des selben Glücksspiels. Es ist klar, dass auch Y binomialverteilt ist gemäß B(M, p, k). Aber welche Verteilung besitzt die Zufallsvariable
Z = X + Y,
die die Anzahl der Gewinne bei N + M Realisierungen des Glücksspiels beschreibt?
In Abbildung 16 wird durch eine Faltung der Binomialverteilungen von X und Y (Ansatz in Gleichung (2)) die Verteilung der Zufallsvariable Z berechnet. Man setzt die Binomialverteilungen ein, vereinfacht so weit wie möglich und erhält schließlich eine Summation über Produkte von Binomialkoeffizienten (siehe Gleichung (3) links). Diese Summe kann wiederum durch einen Binomialkoeffizienten ausgedrückt werden (Gleichung (3), rechte Seite); dahinter verbirgt sich die sogenannte Vandermonde-Identität, siehe Gleichung (5). Dadurch entsteht für die Verteilung von Z die Binomialverteilung B(N + M, p, k) (siehe Gleichung (4)).
Der Beweis der Vandermonde-Identität soll hier nur angedeutet werden; er verwendet eine einfache kombinatorische Überlegung:
Der Binomialkoeffizient auf der linken Seite in Gleichung (5) beschreibt die Anzahl der Möglichkeiten, aus N + M Objekten genau k Objekte auszuwählen. Dazu stellt man sich vor, dass sich die N + M Objekte in zwei Gruppen einteilen lassen, eine Gruppe mit N und eine mit M Objekten. Werden insgesamt k Objekte ausgewählt, so kann man dies durch folgende – sich gegenseitig ausschließende – Möglichkeiten realisieren:
- 0 Objekte stammen aus der ersten und k Objekte aus der zweiten Gruppe oder
- 1 Objekt stammt aus der ersten Gruppe und k - 1 Objekte aus der zweiten Gruppe oder
- ...
- k Objekte stammen aus der ersten und kein Objekt aus der zweiten Gruppe.
Die Terme aus dieser Liste beschreiben gerade die k + 1 Summanden auf der rechten Seite in Gleichung (5).
Die folgende Abbildung versucht die Vandermonde-Identität im Pascalschen Dreieck darzustellen.
Die Frage, ob es neben der Binomialverteilung weitere diskrete Verteilungen gibt die unter der Faltung invariant sind, soll hier nicht weiter vertieft werden, sie ist aber relevant, um die oben beschriebene "Tendenz zur Mitte" besser zu verstehen. Stattdessen soll jetzt die Faltung von stetigen Wahrscheinlichkeitsverteilungen untersucht werden.
Faltung von stetigen Wahrscheinlichkeitsverteilungen
Der Übergang von diskreten zu stetigen Zufallsvariablen
Es wurde bereits an mehreren Stellen diskutiert, dass für viele Operationen in der Wahrscheinlichkeitsrechnung der Übergang von diskreten zu stetigen Zufallsvariablen leicht zu vollziehen ist. Paradebeispiel ist die Berechnung des Erwartungswertes einer Zufallsvariable, der im diskreten Fall durch eine Summe, im stetigen Fall durch eine Integration erfolgt.
Um diesen Übergang bei der Berechnung der Faltung zu vollziehen, werden unten in Abbildung 18 (ähnlich wie in Abbildung 13) die Verbund-Wahrscheinlichkeiten beim 32-maligen Würfeln dargestellt (also das Produkt der Wahrscheinlichkeiten P(S16 = x) · P(S16 = y), wobei S16 Werte von 16 bis 96 annehmen kann). Das Histogramm erscheint auf den ersten Blick wie die Darstellung einer kontinuierlichen zweidimensionalen Funktion.
Man kann aus Abbildung 18 leicht erraten, welche Integration zur Berechnung der Faltung von zwei stetigen Wahrscheinlichkeitsverteilungen durchzuführen ist: Sind f(x) und g(y) die Wahrscheinlichkeitsdichten der Zufallsvariablen X und Y, so wird die Funktion f(x) · g(y) als "Gebirge" über der xy-Ebene aufgetragen.
Bei der Faltung von diskreten Wahrscheinlichkeitsverteilungen wurden zur Berechnung von P(Z = z) Verbund-Wahrscheinlichkeiten entlang der Gerade z = x + y addiert, nämlich
P(Z = z) = ∑x ∈ W(X) P(X = x) · P(Y = z - x),
wobei x den Wertebereich W(X) der Zufallsvariable X durchläuft.
Um die Wahrscheinlichkeitsdichte h(z) der Faltung der Wahrscheinlichkeitsverteilungen zu berechnen, wird über den Wertebereich der Zufallsvariable X integriert und der Integrand ist das Produkt der Wahrscheinlichkeitsdichten
f(x) · g(z - x),
das heißt die Funktion f wird an der Stelle x und die Funktion g an der Stelle y = z - x ausgewertet, siehe Gleichung (1) in Abbildung 19.
Man beachte, dass hier kein Linienintegral entlang der Gerade y = z - x in der zweidimensionalen xy-Ebene berechnet wird, wie es vielleicht die Geraden in Abbildung 3 suggerieren. Denn so wie im diskreten Fall über den Wertebereich von X summiert wird, wird jetzt über die x-Werte integriert.
Alle nötigen Bezeichnungen, Voraussetzungen und Formeln sind in Abbildung 19 angegeben:
- Für die Zufallsvariablen X und Y wird wieder vorausgesetzt, dass sie unabhängig voneinander sind.
- Die Wahrscheinlichkeitsdichte der Zufallsvariable Z = X + Y wird mit h(z) bezeichnet und sie wird nach Gleichung (1) berechnet.
- Die Faltung ist eigentlich ein Operator, der zwei Wahrscheinlichkeitsverteilungen miteinander verknüpft (siehe Gleichung (2)), der ∗-Operator kann aber auch als Operator aufgefasst werden, der die Wahrscheinlichkeitsdichten miteinander verknüpft (siehe Gleichung (3) in Abbildung 19). Das Integral in Gleichung (1) wird daher auch als Faltungsintegral bezeichnet.
Viertes Beispiel: Faltung von Standard-Normalverteilungen
In der folgenden Abbildung 20 wird die Faltung zweier Standard-Normalverteilungen berechnet, also Gauß-Verteilungen mit Erwartungswert μ = 0 und Standardabweichung σ = 1. (Lediglich die Details der Integration sind nicht ausgeführt.) Die allgemeine Form der Normalverteilung ist in Gleichung (4) angegeben.
Das Ergebnis ist wieder eine Normalverteilung mit Erwartungswert 0, jetzt aber mit Standardabweichung σ = √2.
Dies legt die Vermutung nahe, dass sämtliche Normalverteilungen unter der Faltung invariant sind, was man mit ähnlichen Methoden wie der Berechnung des Faltungsintegrals zeigen kann.
Die folgenden Abbildungen sollen helfen, die Berechnungen in Abbildung 20 besser nachzuvollziehen:
- Abbildung 21 zeigt das "Gebirge" über der xy-Ebene, das entsteht, wenn man das Produkt f(x) · f(y) bildet, wobei für f jeweils die Wahrscheinlichkeitsdichte der Standard-Normalverteilung eingesetzt wird. Die Farben sollen wieder die Integranden andeuten: jedem z-Wert ist eine Farbe zugeordnet und der Integrand durchläuft die Werte auf der Geraden, wenn bei der Integration x den Wertebereich von X durchläuft.
- Die Darstellung in Abbildung 22 hat den Vorteil, dass immer noch das "Gebirge" zu sehen ist (unterschiedliche Höhen in z-Richtung sind mit unterschiedlichen Farben dargestellt), man jetzt aber den Definitionsbereich in der xy-Ebene besser erkennt. Insbesondere kann man die Integranden in den Faltungsintegralen besser veranschaulichen (siehe Aufgaben unten). Gezeichnet werden die Höhen für x- und y-Werte zwischen -3 und 3.
- In Abbildung 23 ist oben die Wahrscheinlichkeitsdichte der Standard-Normalverteilung gezeigt und unten die Wahrscheinlichkeitsdichte, die bei der Faltung von N(0, 1) mit sich selbst entsteht (Gleichung (3) in Abbildung 20).
Aufgaben:
1. Führen Sie die in Abbildung 20 angesetzte Berechnung des Faltungsintegrals aus; verwenden Sie dazu eine geeignete Substitution und das zutreffende Gauß-Integrale aus Wahrscheinlichkeitsverteilungen in R.
2. Für z = 0 ist die Berechnung der Faltung in Abbildung 20 besonders einfach. Überprüfen Sie diesen Fall und identifizieren Sie die Gerade z = 0 in der xy-Ebene in den Abbildungen 21 und 22.
3. Zeigen Sie mit ähnlichen Methoden, dass die Faltung zweier Normalverteilungen wieder eine Normalverteilung ergibt. (Hinweis: sowohl die Erwartungswerte als auch die Varianzen addieren sich.)
Fünftes Beispiel: Faltung von stetigen Gleichverteilungen
Um die Augensumme beim zweimaligen Würfeln zu berechnen, wird eine diskrete Gleichverteilung mit sich selbst gefaltet. Das kontinuierliche Analogon zeigt Abbildung 24: Die Faltung einer stetigen Gleichverteilung mit sich selbst. Dazu sind:
- Oben die Wahrscheinlichkeitsdichten der Gleichverteilungen gezeigt.
- In der Mitte die Skizze, die helfen soll, die Integration durchzuführen sowie die Ergebnisse der Berechnungen (um das Faltungsintegral zu berechnen, muss man eine Fallunterscheidung bezüglich z vornehmen).
- Unten ist die Wahrscheinlichkeitsdichte der Faltung gezeigt.
Aufgaben:
1. Die Integrationsgrenzen in den Faltungsintegralen zur Berechnung von h(z) in Abbildung 24 (mitte rechts) wurden nicht erklärt. Geben Sie eine Begründung für sie an und stellen Sie einen Zusammenhang mit den beiden Geraden (mit Steigung -1) in Abbildung 24 (mitte links) her.
2. Zu welchen z-Werten gehören die beiden eingezeichneten Geraden?
3. Welche Gerade erhält man für z = 1 und wie wird dann h(z) mit einem Faltungsintegral berechnet?