Grundbegriffe der Wahrscheinlichkeitsrechnung: Diskrete und stetige Zufallsvariablen

Zufallsvariablen k├Ânnen diskrete oder kontinuierliche Werte annehmen. Die mathematische Beschreibung unterscheidet sich, da die Wahrscheinlichkeiten der Werte der Zufallsvariable entweder mit Folgen oder indirekt ├╝ber eine Wahrscheinlichkeitsdichte angegeben werden. Diese Beschreibung wird an speziellen Verteilungen demonstriert: diskrete Gleichverteilung, Poisson-Verteilung, kontinuierliche Gleichverteilung, Standard-Normalverteilung.
Noch keine Stimmen abgegeben
Noch keine Kommentare

Einordnung des Artikels

Einf├╝hrung

In Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Zufallsvariable wurde versucht, eine allgemeine Definition des Begriffs Zufallsvariable zu geben. Allerdings wurde dort noch nicht auf die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen eingegangen (Letztere werden oft als kontinuierliche Zufallsvariablen bezeichnet).

Die Beispiele f├╝r Zufallsvariablen, die in Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Zufallsvariable besprochen wurden, waren allesamt diskrete Zufallsvariablen. Jetzt sollen auch f├╝r stetige Zufallsvariablen einige Beispiele gezeigt und erste Eigenschaften diskutiert werden. Insbesondere wird der Begriff der Verteilungsfunktion eingef├╝hrt.

Es soll hier schon darauf hingewiesen werden, dass eine "saubere" Definition der stetigen Zufallsvariablen mit hohem mathematischen Aufwand verbunden ist. Strenge Definitionen und eine Diskussion ihrer Schwierigkeiten werden in der Wahrscheinlichkeitstheorie oder Ma├čtheorie gegeben. Hier soll lediglich eine Einf├╝hrung in die Wahrscheinlichkeitsrechnung gegeben werden, die an den Umgang mit Zufallsvariablen heranf├╝hrt. In den hier besprochenen Beispielen ÔÇô wie in allen einfachen Anwendungen ÔÇô treten die angedeuteten Schwierigkeiten nicht auf.

Die folgende Tabelle gibt eine ├ťbersicht, welche speziellen Verteilungen hier besprochen werden; ausf├╝hrlicher werden sie erst diskutiert, wenn weitere Eigenschaften von Zufallsvariablen bekannt sind (wie Erwartungswert, Varianz und Standardabweichung).

diskrete Zufallsvariable mit endlich vielen Werten diskrete Zufallsvariable mit unendlich vielen Werten stetige Zufallsvariable
Gleichverteilung geometrische Verteilung Gleichverteilung
Strategien beim W├╝rfeln Poisson-Verteilung Standard-Normalverteilung

Tabelle 1: Einteilung der Zufallsvariablen in drei Gruppen und Beispiel, die sp├Ąter besprochen werden.

Die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen

Aus den Ausf├╝hrungen in Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Zufallsvariable sollte klar geworden sein, dass Wahrscheinlichkeiten eigentlich f├╝r Ereignisse definiert sind und dass Zufallsvariablen das geeignete Hilfsmittel sind, um Ereignisse auszudr├╝cken und deren Wahrscheinlichkeiten zu berechnen. Zufallsvariablen werden meist in diskrete und stetige (oder kontinuierliche) Zufallsvariable eingeteilt; ihre Eigenschaften werden in den folgenden Kapiteln untersucht und es werden spezielle Wahrscheinlichkeitsverteilungen angegeben.

Charakterisierung von diskreten Zufallsvariablen

Besitzt eine Ergebnismenge ╬ę endlich oder abz├Ąhlbar unendlich viele Elemente:

╬ę = {¤ë1, ¤ë2, ...},

so kann man problemlos ihre Potenzmenge P(╬ę) bilden; zur Erinnerung: die Potenzmenge P(╬ę) ist die Menge aller Teilmengen von ╬ę. Und jede Ereignisalgebra auf ╬ę stimmt entweder mit P(╬ę) ├╝berein oder ist eine echte Teilmenge von P(╬ę).

Aber dann definiert jede Folge nicht-negativer Zahlen (pn) mit

p1 + p2 + ... = 1, pn Ôëą 0,

ein Wahrscheinlichkeitsma├č P auf ╬ę, wenn

P(¤ën) = pn f├╝r alle n. Dabei sollen die Punkte ... in der Summe andeuten, dass die Summation

  • entweder abbricht, wenn ╬ę endlich viele Elemente hat,
  • oder die sich die Summation ins Unendliche erstreckt, wenn ╬ę abz├Ąhlbar viele Elemente hat.

Die Ergebnismenge ╬ę und die Folge der Wahrscheinlichkeiten (pn) sind in Abbildung 1 links dargestellt

Mit diesen Vorbereitungen l├Ąsst sich leicht ein Zusammenhang zu Zufallsvariablen herstellen (siehe Abbildung 1 oben): Eine reelle Zufallsvariable war definiert als eine Abbildung

X : ╬ę Ôćĺ R.

Ist durch eine Folge (pn) ein Wahrscheinlichkeitsma├č auf ╬ę gegeben, so kann man f├╝r jedes x aus der Wertemenge von X die Menge

X-1 (x)

bilden und kann dieser eine Wahrscheinlichkeit

P(X-1 (x))

zuordnen. Man muss dazu nur die Elementarereignisse ¤ëi aus X-1 (x) aufsuchen und deren Wahrscheinlichkeiten aufsummieren.

Falls X tats├Ąchlich jedem Elementarereignis ¤ë einen anderen Wert zuordnet (die Abbildung X ist injektiv), dann stimmt die von X induzierte Ereignisalgebra mit der Potenzmenge P(╬ę) ├╝berein. In diesem Fall hat die Wertemenge von X genau so viele Elemente wie ╬ę.

Gibt es dagegen zu einem Wert x von X mehrere Elementarereignisse (jetzt ist X nicht injektiv), wird eine kleinere Ereignisalgebra induziert (dies wurde unter als Vergr├Âberung in Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Zufallsvariable diskutiert). In diesem Fall kann die Wertemenge von X weniger Elemente als ╬ę haben.

Abbildung 1: Versuch einer graphischen Darstellung, wie eine Zufallsvariable X ein Ma├č auf der Wertemenge von X induziert. (Genauer m├╝sste man dazu eigentlich mit der zugeh├Ârigen Ereignisalgebra argumentieren; da diese im diskreten Fall unproblematisch ist, wird sie hier weggelassen.)Abbildung 1: Versuch einer graphischen Darstellung, wie eine Zufallsvariable X ein Ma├č auf der Wertemenge von X induziert. (Genauer m├╝sste man dazu eigentlich mit der zugeh├Ârigen Ereignisalgebra argumentieren; da diese im diskreten Fall unproblematisch ist, wird sie hier weggelassen.)

Und jetzt wird die Sichtweise lediglich umgekehrt:

Man spricht von einer diskreten Zufallsvariable X, wenn sie auf einem diskreten Ergebnisraum ╬ę definiert ist; dabei steht diskret f├╝r endlich oder abz├Ąhlbar unendlich. Die Anzahl der Werte, die X annehmen kann, ist entweder endlich oder abz├Ąhlbar unendlich.

Die Folge der Wahrscheinlichkeiten der Elementarereignisse (pn) induziert jetzt Wahrscheinlichkeiten der Art

P(X = x),

das hei├čt man kann den Werten der Zufallsvariable X Wahrscheinlichkeiten zuordnen.

Oder etwas abstrakter gesprochen: Die Abbildung X induziert ein Wahrscheinlichkeitsma├č auf der Wertemenge von X. Dieses Wahrscheinlichkeitsma├č wird oft als die Verteilung der Zufallsvariable X bezeichnet.

Paradebeispiel f├╝r eine diskrete Zufallsvariable auf einem endlichen ╬ę ist die Augenzahl X beim W├╝rfeln: Die Zufallsvariable X nimmt die Werte 1, 2, ..., 6 an ÔÇô bei einem Laplace-W├╝rfel jeweils mit Wahrscheinlichkeit 1/6 (siehe Abbildung 2 unten). Hier ist es schwer zwischen den Wahrscheinlichkeiten auf den Elementarereignissen und der Verteilung der Zufallsvariable zu unterscheiden, da die Zufallsvariable X gleich der identischen Abbildung ist. ├ťberzeugender ist dann das Beispiel unten mit den Strategien beim W├╝rfeln (siehe Abbildung 3).

Beispiele f├╝r diskrete Zufallsvariablen auf einer Ergebnismenge mit abz├Ąhlbar unendlich vielen Elemente werden weiter unten besprochen. Jetzt ben├Âtigt man eine gegen null konvergierende Folge nicht-negativer Zahlen (pn), die die Wahrscheinlichkeiten der Elementarereignisse beschreiben (siehe Abbildung 5 unten f├╝r die Poisson-Verteilung).

Charaktarisierung von stetigen Zufallsvariablen

Ist eine Zufallsvariable auf einem kontinuierlichen Ergebnisraum ╬ę definiert, spricht man von einer stetigen Zufallsvariable. Der Ergebnisraum k├Ânnte etwa ein Intervall, die Menge aller reellen Zahlen oder eine h├Âherdimensionale Menge sein.

Als Paradebeispiel kann das Schie├čen auf eine Zielscheibe mit Radius Z dienen. Es wird angenommen, dass jeder Schuss die Zielscheibe in einem Punkt (x, y) trifft, die Ergebnismenge ist folglich:

╬ę = {(x, y): x2 + y2 ÔëĄ Z2}.

Dabei wird angenommen, dass jeder Schuss die Zielscheibe trifft, zuf├Ąllig ist, wo er trifft.

Als Beispiel einer stetigen Zufallsvariable R kann man jetzt die Abbildung auf ╬ę betrachten, die einem Elementarereignis (x, y) den Abstand r vom Mittelpunkt der Zielscheibe zuordnet, also

R : ╬ę Ôćĺ [0; Z], (x, y) Ôćĺ r, mit r2 = x2 + y2.

Die Wertemenge dieser Zufallsvariable ist das Intervall [0; Z], also eine kontinuierliche Menge.

Die Vorgehensweise, die oben f├╝r die Charakterisierung von diskreten Zufallsvariablen beschrieben wurde, l├Ąsst sich auf diesen Fall nicht anwenden: Ordnet man jetzt jedem Elementarereignis ¤ë eine Wahrscheinlichkeit P(¤ë) zu, ergibt die Summe aller Wahrscheinlichkeiten nicht mehr 1. Somit ist vorerst v├Âllig unklar, wie man in diesem Fall Wahrscheinlichkeiten von Ereignissen der Art

P(R = r) oder P(R = I)

definieren soll; dabei ist r eine reelle Zahl (also ein spezieller Radius eines Kreises auf der Zielscheibe) und I ein reelles Intervall in [0; Z] (R = I steht also f├╝r das Ereignis, dass der Radius im Intervall I liegt).

Das Beispiel der Zielscheibe zeigt noch eine Schwierigkeit: Versucht man den Radius r zu messen, gibt es keine beliebig hohe Messgenauigkeit und daher gibt es eigentlich nur endlich viele m├Âgliche Werte: Man kann die Zielscheibe lediglich in endlich viele Kreisringe einteilen ÔÇô aber dann liegt eine diskrete Zufallsvariable vor. Die sp├Ąteren Untersuchungen zu Zufallsvariablen werden zeigen, dass oft stetige Zufallsvariablen verwendet werden, um diskrete Zufallsvariablen zu approximieren oder umgekehrt. In vielen Anwendungen entscheidet man sich nicht f├╝r das angemessene, sondern das mathematisch leichter zu bew├Ąltigende Modell. Daher ist es wichtig, beide Arten von Zufallsvariablen zu kennen, um ein geeignetes Modell auszuw├Ąhlen.

Die genauere Beschreibung der stetigen Zufallsvariablen folgt weiter unten; zun├Ąchst sollen die diskreten Zufallsvariablen untersucht werden, was den Zugang zu den stetigen Zufallsvariablen erleichtert.

Diskrete Zufallsvariablen

Diskrete Zufallsvariablen mit endlich vielen Werten

1. Beispiel: Augenzahl beim W├╝rfeln

Das Paradebeispiel einer diskreten Zufallsvariable mit endlich vielen Werten ist die Zufallsvariable X, die die Augenzahl beim W├╝rfeln angibt. Ihre Wertemenge ist

WX = {1, 2, 3, 4, 5, 6},

die zugleich mit der Ergebnismenge ╬ę ├╝bereinstimmt. Fasst man X als Funktion auf ╬ę auf, so ist X die identische Abbildung.

Beim Laplace-W├╝rfel wird angenommen, dass jede Augenzahl mit gleicher Wahrscheinlichkeit angenommen wird, also

P(X = x) = 1/6 f├╝r x Ôłł WX.

Man spricht in dem Fall, in dem jeder Wert einer Zufallsvariable mit gleicher Wahrscheinlichkeit angenommen wird, von einer Gleichverteilung.

Um die Eigenschaften einer Zufallsvariable pr├Ągnant darzustellen, w├Ąhlt man meist das Stabdiagramm, siehe Abbildung 2.

Abbildung 2: Darstellung der Verteilung der Zufallsvariable X (Augenzahl beim W├╝rfeln eines Laplace-W├╝rfels) im Stabdiagramm.Abbildung 2: Darstellung der Verteilung der Zufallsvariable X (Augenzahl beim W├╝rfeln eines Laplace-W├╝rfels) im Stabdiagramm.

Im Stabdiagramm sind auf der x-Achse die m├Âglichen Werte der Zufallsvariable aufgetragen, auf der y-Achse ihre Wahrscheinlichkeiten.

2. Beispiel: verschiedene Strategien beim W├╝rfeln

In Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Zufallsvariable wurden bereits zwei Strategien vorgestellt, die man beim W├╝rfeln anwenden kann:

  1. Herr Forsch setzt immer auf die 6 und gewinnt 5 EUR, wenn sie erscheint; andernfalls geht sein Einsatz von 1 EUR verloren.
  2. Herr Scheu setzt auf die geraden Zahlen 2, 4, 6 und gewinnt 1 EUR, wenn eine gerade Zahl erscheint; andernfalls geht sein Einsatz von 1 EUR verloren.

(Der angegebene Gewinn ist jeweils der Nettogewinn).

Die Strategien werden durch die Zufallsvariablen F und S beschrieben. Ihre Wertemengen sind:

WF = {-1, 5} und WS = {-1, 1}.

M├Âchte man noch nachvollziehen, wie das Elementarereignis den Wert der Zufallsvariable beschreibt, w├Ąhlt man folgende Darstellung:

¤ë 1 2 3 4 5 6
F(¤ë) -1 -1 -1 -1 -1 +5
S(¤ë) -1 +1 -1 +1 -1 +1

Tabelle 2: Der Nettogewinn f├╝r die Herren Forsch und Scheu ausgedr├╝ckt als Zufallsvariable F und S.

Ist man dagegen nur noch an den Werten der Zufallsvariablen und ihren Wahrscheinlichkeiten interessiert, stellt man sie wie in Tabelle 3 dar.

F -1 +5
P(F = x) 5/6 1/6
S -1 +1
S(F = x) 1/2 1/2

Tabelle 3: Die Werte der Zufallsvariablen F und S sowie die Wahrscheinlichkeiten, mit denen diese Werte angenommen werden (mit Laplace-Annahme f├╝r den W├╝rfel).

Tabelle 3 zeigt nur noch diejenige Information, die man auch in einem Stabdiagramm f├╝r die Zufallsvariablen F und S ablesen kann (siehe Abbildung 3); welches Elementarereignis beim W├╝rfeln eintritt, ist unmittelbar nicht mehr zu erkennen. Dargestellt ist nur die Verteilung der Zufallsvariablen F und S; diese Verteilungen werden aus den Wahrscheinlichkeiten f├╝r die Elementarereignisse durch die Zufallsvariablen induziert (siehe auch Abbildung 1).

Abbildung 3: Darstellung der Verteilungen der Zufallsvariablen F und S aus Tabelle 2 beziehungsweise 3; Erkl├Ąrung im Text.Abbildung 3: Darstellung der Verteilungen der Zufallsvariablen F und S aus Tabelle 2 beziehungsweise 3; Erkl├Ąrung im Text.

Diskrete Zufallsvariablen mit unendlich vielen Werten

Die geometrische Verteilung

In Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Axiome von Kolmogorov wurde bereits die geometrische Verteilung besprochen, aber dort wurden alle Aussagen mit Hilfe von Ereignissen und ohne Zufallsvariablen formuliert. Dort wurde zum Beispiel nach der Wahrscheinlichkeit des Ereignisses

"Nach n W├╝rfen erscheint die erste 6, mit n = 1, 2, 3, ..."

gefragt. Definiert man die Zufallsvariable X durch "die Anzahl der W├╝rfe, nach denen die erste 6 erscheint", so l├Ąsst sich die Wahrscheinlichkeit des obigen Ereignisses beschreiben durch:

P(X = n), n = 1, 2, 3, ... und es gilt P(X = n) = 5n-1 / 6n.

(Es wird n-1 mal keine 6 geworfen und anschlie├čend eine 6.)

Das Beispiel soll hier nicht weiter besprochen werden.

Aufgabe: ├ťbersetzen Sie die Aussagen in Grundbegriffe der Wahrscheinlichkeitsrechnung: Die Axiome von Kolmogorov in Aussagen ├╝ber die Zufallsvariable X.

Die Poisson-Verteilung

Als zweites Beispiel f├╝r eine Zufallsvariable X╬╗, die unendlich viele Werte annehmen kann, wird die Poisson-Verteilung gew├Ąhlt. Sie nimmt ganze Zahlen k = 0,1, 2, ... an, die beliebig gro├č sein k├Ânnen und besitzt einen Parameter ╬╗ > 0. Die Wahrscheinlichkeit f├╝r X╬╗ = k ist durch Gleichung (1) in Abbildung 4 gegeben. Gleichung (2) in Abbildung 4 zeigt, wie sich die Wahrscheinlichkeiten daf├╝r, dass X den Wert k annimmt, tats├Ąchlich zu 1 summieren; man verwendet dabei die Taylor-Entwicklung der Exponentialfunktion.

Abbildung 4: Die Berechnung der Wahrscheinlichkeiten der Poisson-Verteilung sowie ihre wichtigsten Eigenschaften.Abbildung 4: Die Berechnung der Wahrscheinlichkeiten der Poisson-Verteilung sowie ihre wichtigsten Eigenschaften.

F├╝r k = 0 nimmt die Poisson-Verteilung stets einen echt positiven Wert an (siehe Gleichung (3) in Abbildung 4).

Abbildung 5 zeigt die Wahrscheinlichkeiten der Poisson-Verteilung f├╝r verschiedene Werte des Parameters ╬╗.

Abbildung 5: Die Poisson-Verteilung jeweils f├╝r k = 0, 1, ..., 10 f├╝r 4 verschiedene Werte von ╬╗.Abbildung 5: Die Poisson-Verteilung jeweils f├╝r k = 0, 1, ..., 10 f├╝r 4 verschiedene Werte von ╬╗.

Die Poisson-Verteilung wird oft als N├Ąherung benutzt, wenn eine Zufallsvariable mit hoher Wahrscheinlichkeit kleine Werte annimmt, aber auch beliebig gro├če Werte vorkommen k├Ânnen. Etwa f├╝r die Anzahl der Anrufe, die pro Stunde in einer Notrufzentrale eingehen.

Die Verteilungsfunktion einer diskreten Zufallsvariable

Im Stabdiagramm lassen sich die Wahrscheinlichkeiten der Werte einer Zufallsvariable ablesen. In einer vergr├Âberten Sichtweise auf ein Zufallsexperiment begn├╝gt man sich oft mit der Frage nach der Wahrscheinlichkeit daf├╝r, dass eine Zufallsvariable X einen Wert kleiner oder gleich x annimmt:

P(X ÔëĄ x)

oder nach der Wahrscheinlichkeit daf├╝r, dass der Wert von X zwischen zwei Zahlen a und b liegt:

P(a ÔëĄ X ÔëĄ b).

Um diese Fragen schnell beantworten zu k├Ânnen, wird die Verteilungsfunktion einer Zufallsvariable F(x) eingef├╝hrt:

F(x) = P(X ÔëĄ x).

Man kann sich das Verfahren zur Berechnung von F(x) am Stabdiagramm leicht veranschaulichen:

  • Man beginnt bei x Ôćĺ - Ôł× mit F(x) = 0 und bewegt sich nach rechts.
  • Immer wenn man an einem Wert xi vorbeikommt, den die Zufallsvariable X annehmen kann, wird zu F(x) die entsprechende Wahrscheinlichkeit P(X = xi) addiert.
  • Da alle Wahrscheinlichkeiten in der Summe eins ergeben m├╝ssen, ist ab dem gr├Â├čten Wert, den die Zufallsvariable annimmt, F(x) = 1.

Die Verteilungsfunktion berechnet somit die kumulierten Summen der Wahrscheinlichkeiten, wobei die Summation immer von kleinsten zu den gr├Â├čten Werten der Zufallsvariable l├Ąuft.

Abbildung 6 zeigt die Verteilungsfunktion f├╝r die Zufallsvariable Augenzahl des Laplace--W├╝rfels.

Abbildung 6: Die Verteilungsfunktion der Zufallsvariable X (Augenzahl beim W├╝rfeln), die in Abbildung 2 als Stabdiagramm dargestellt war.Abbildung 6: Die Verteilungsfunktion der Zufallsvariable X (Augenzahl beim W├╝rfeln), die in Abbildung 2 als Stabdiagramm dargestellt war.

Vergleicht man Abbildung 2 mit Abbildung 6, so ist klar, dass die Verteilungsfunktion genau an den x-Werten eine Sprungstelle besitzt, die zur Wertemenge der Zufallsvariable X geh├Âren. Allerdings ist in Abbildung 6 nicht eindeutig zu erkennen, wie die Verteilungsfunktion an den Sprungstellen definiert ist: So wie oben die Konstruktion der Verteilungsfunktion aus dem Stabdiagramm beschrieben wurde, gilt:

Ist X = x, so ist F(x) = P(X ÔëĄ x) und somit ist F(x) an Sprungstellen rechtsseitig stetig (und linksseitig unstetig).

F├╝r zwei unterschiedliche Zahlen a und b mit a < b gilt:

P(a ÔëĄ X ÔëĄ b) = F(b) - F(a).

Ausblick: Die Verteilungsfunktion mag an dieser Stelle wenig hilfreich erscheinen, da sie die im Stabdiagramm enthaltene Information nur anders aufbereitet. Bei stetigen Zufallsvariablen wird die Verteilungsfunktion deutlich h├Ąufiger eingesetzt.

Wirklich relevant wird die Verteilungsfunktion, wenn man eine Generator f├╝r Zufallszahlen implementieren m├Âchte, die keinem Laplace-Experiment entsprechen. Denn f├╝r ein Laplace-Experiment bieten die meisten Programmiersprachen einen Generator von Zufallszahlen an; mit Hilfe der Verteilungsfunktion kann er schnell zu einem Generator f├╝r Zufallszahlen bez├╝glich beliebiger Wahrscheinlichkeiten umgebaut werden.

Warnung: Der Begriff Verteilung wird in der Wahrscheinlichkeitsrechnung in den unterschiedlichsten Bedeutungen eingesetzt ÔÇô und oft nicht streng definiert, sondern wie ein umgangssprachlicher Begriff mit vager Bedeutung verwendet. Verwenden Sie zumindest den Begriff der Verteilungsfunktion nur so, wie er hier eingef├╝hrt wurde. Gerade bei stetigen Zufallsvariablen kann es leicht zu einer Verwechslung der Wahrscheinlichkeitsdichte und der Verteilungsfunktion kommen ÔÇô im n├Ąchsten Abschnitt wird sofort erkl├Ąrt, worin sie sich unterscheiden.

Und achten Sie beim Umgang mit Literatur immer darauf, wie die Begriffe Verteilung und Verteilungsfunktion eingesetzt werden.

Aufgaben:

1. Diskussion der Poisson-Verteilung

In den Abbildungen 7 und 8 sind dargestellt:

  1. Die Verteilungsfunktionen zu den Poisson-Verteilungen aus Abbildung 5.
  2. Die selben Verteilungsfunktionen nochmals, jetzt sind aber (gestrichelt) die Einzel-Wahrscheinlichkeiten zu erkennen.

Abbildung 7: Die Verteilungsfunktion der Poisson-Verteilung f├╝r ╬╗ = 1, 2, 3, 4. Die rechtsseitige Stetigkeit der Verteilungsfunktion wird durch die Kreise an den Sprungstellen ausgedr├╝ckt.Abbildung 7: Die Verteilungsfunktion der Poisson-Verteilung f├╝r ╬╗ = 1, 2, 3, 4. Die rechtsseitige Stetigkeit der Verteilungsfunktion wird durch die Kreise an den Sprungstellen ausgedr├╝ckt.

Abbildung 8: Zus├Ątzlich zu den Verteilungsfunktionen der Poisson-Verteilung sind die Einzel-Wahrscheinlichkeiten (gestrichelt) eingezeichnet.Abbildung 8: Zus├Ątzlich zu den Verteilungsfunktionen der Poisson-Verteilung sind die Einzel-Wahrscheinlichkeiten (gestrichelt) eingezeichnet.

Diskutieren Sie anhand dieser Abbildungen die Eigenschaften der Verteilungsfunktion und der Poisson-Verteilung.

2. Die diskrete Gleichverteilung

Oben wurde als Beispiel f├╝r eine Gleichverteilung die Augenzahl beim W├╝rfeln vorgestellt.

Diskutieren Sie, ob es eine Gleichverteilung auf der Menge der nat├╝rlichen Zahlen oder einer anderen abz├Ąhlbaren Menge geben kann.

Stetige Zufallsvariablen

Wahrscheinlichkeitsdichte und Verteilungsfunktion

Bei diskreten Zufallsvariablen macht die Berechnung von Wahrscheinlichkeiten keine Schwierigkeiten, da man jedem Elementarereignis eine Wahrscheinlichkeit zuordnen kann. Oftmals ist dies gar nicht n├Âtig, da man nur an einer vergr├Âberten Sichtweise interessiert ist. Aber dann werden lediglich mehrere Elementarereignisse zu einem Ereignis zusammengefasst und die Berechnung von Wahrscheinlichkeiten ist ebenso problemlos.

Bei stetigen Zufallsvariablen ist die Situation grundlegend verschieden: Denkt man etwa an das oben genannte Beispiel "Schie├čen auf eine Zielscheibe", so ist ein Elementarereignis ein reelles Zahlenpaar (x, y). W├╝rde man dem Elementarereignis eine endliche Wahrscheinlichkeit zuordnen, kann die Gesamtwahrscheinlichkeit nicht mehr 1 betragen, da es ├╝berabz├Ąhlbar viele Elementarereignisse gibt. Das selbe Problem besteht f├╝r die Zufallsvariable R, die die Entfernung des Treffers vom Mittelpunkt der Zielscheibe angibt: Besitzt P(R = r) eine endliche Wahrscheinlichkeit und summiert man alle Wahrscheinlichkeiten P(R = r) auf, erh├Ąlt man nicht 1. Daran erkennt man, dass Wahrscheinlichkeitsma├če auf kontinuierlichen Ergebnismengen ╬ę und stetige Zufallsvariablen mathematisch anspruchsvoller sind als diskrete Ergebnismengen und diskrete Zufallsvariablen.

Aber es ist nicht n├Âtig, einem Elementarereignis eine Wahrscheinlichkeit zuzuordnen: Nur ein Intervall von Ergebnissen muss eine endliche Wahrscheinlichkeit besitzen. Beschreibt die Zufallsvariable R den Abstand des Treffers auf der Zielscheibe vom Mittelpunkt, so muss

P(a ÔëĄ R ÔëĄ b) f├╝r a < b

einen endlichen Wert besitzen.

Realisieren l├Ąsst sich dies mit Hilfe der Integralrechnung: Man definiert anstelle der Wahrscheinlichkeit der Elementarereignisse eine sogenannte Wahrscheinlichkeitsdichte und berechnet Wahrscheinlichkeiten als Integrale. In Abbildung 9 sind die entsprechenden Formeln zusammengestellt:

  1. Die Wahrscheinlichkeitsdichte einer reellen Zufallsvariable X wird hier mit f(x) bezeichnet; f ist eine Funktion auf der Menge der reellen Zahlen und darf nur nicht-negative Werte annehmen (Gleichung 1). Der Wert der Funktion f(x) wird nicht als Wahrscheinlichkeit interpretiert und kann daher auch gr├Â├čer als 1 sein.
  2. Integriert man die Wahrscheinlichkeitsdichte ├╝ber alle reellen Zahlen, muss sich 1 ergeben: dies ist die Normierung der Wahrscheinlichkeit.
  3. Wahrscheinlichkeiten der Art P(a ÔëĄ X ÔëĄ b) berechnen sich als Integrale (Gleichung 3).
  4. Die Verteilungsfunktion F(x) zur Wahrscheinlichkeitsdichte f(x) definiert man analog wie bei diskreten Zufallsvariablen: anstelle der Summation tritt jetzt die Integration (Gleichung 4).
  5. F├╝r die Verteilungsfunktion m├╝ssen dann die beiden Grenzwerte in Gleichung 5 gelten.

Abbildung 9: Eigenschaften von Wahrscheinlichkeitsdichte und Verteilungsfunktion einer stetigen Zufallsvariable X.Abbildung 9: Eigenschaften von Wahrscheinlichkeitsdichte und Verteilungsfunktion einer stetigen Zufallsvariable X.

Damit sollte auch verst├Ąndlich sein, woher der Name "stetige" Zufallsvariable kommt: Die Verteilungsfunktion entsteht aus einer Integration und muss daher stetig sein. Man beachte, dass die Wahrscheinlichkeitsdichte nicht stetig sein muss. Im folgenden Abschnitt ist eine der wichtigsten Wahrscheinlichkeitsdichten gezeigt: Die Indikatorfunktion; sie macht endliche Spr├╝nge und nimmt nur zwei Werte an. Ihre Verteilungsfunktion ist abschnittsweise durch Geraden definiert und stetig.

Die Gleichverteilung

Das kontinuierliche Analogon zum Laplace-W├╝rfel ist die Gleichverteilung auf einem Intervall. Angenommen eine Zufallsvariable X kann Werte in einem Intervall [a; b] annehmen, mit a < b, wobei jeder dieser Werte gleich wahrscheinlich sein soll. Werte au├čerhalb des Intervalls sollen nicht vorkommen (oder "mit Wahrscheinlichkeit 0 angenommen werden"). Dann muss die Wahrscheinlichkeitsdichte auf dem Intervall konstant und au├čerhalb gleich null sein.

Abbildung 10 zeigt oben den einfachsten Fall mit [a; b] = [0; 1]. Dabei wird die sogenannte Indikatorfunktion 1[0; 1] (x) f├╝r das Intervall [0; 1] eingesetzt: sie erlaubt eine kompakte Darstellung der Sprungfunktion mit Funktionswerten 0 und 1.

Abbildung 10: Wahrscheinlichkeitsdichte und Verteilungsfunktion einer stetigen Zufallsvariable X, die Werte in einem Intervall mit jeweils gleicher Wahrscheinlichkeit annimmt.Abbildung 10: Wahrscheinlichkeitsdichte und Verteilungsfunktion einer stetigen Zufallsvariable X, die Werte in einem Intervall mit jeweils gleicher Wahrscheinlichkeit annimmt.

In der Mitte wird die zugeh├Ârige Verteilungsfunktion angegeben, die durch Integration aus der Wahrscheinlichkeitsdichte entsteht. Insbesondere erkennt man hier, dass aus der unstetigen Wahrscheinlichkeitsdichte eine stetige Verteilungsfunktion entsteht.

F├╝r beliebige Zahlen a und b mit a < b, ist die Wahrscheinlichkeitsdichte der Gleichverteilung in Abbildung 10 unten gezeigt. Den Vorfaktor 1/(b-a) kann man sich leicht erkl├Ąren: Damit die Normierungsbedingung erf├╝llt ist, muss man die Funktion 1[a; b] (x) durch die Intervalll├Ąnge b - a teilen.

Die zugeh├Ârige Verteilungsfunktion ist 0 oder 1 auf der linken beziehungsweise rechten Seite des Intervalls [a; b] und eine ansteigende Gerade innerhalb des Intervalls (durch den Vorfaktor aber nicht mit Steigung 1).

Aufgabe: Berechnen Sie die Verteilungsfunktion zur Gleichverteilung auf dem Intervall [a; b].

Skizzieren Sie sowohl die Wahrscheinlichkeitsdichte als auch die Verteilungsfunktion.

Die Standard-Normalverteilung

Die Standard-Normalverteilung ist ein Spezialfall der Normalverteilung. Wie Letztere definiert ist und was man unter Standardisierung einer Zufallsvariable versteht, wird erst erkl├Ąrt, nachdem die Begriffe Erwartungswert und Varianz einer Zufallsvariable eingef├╝hrt werden.

Die Wahrscheinlichkeitsdichte der Standard-Normalverteilung ist in Abbildung 11 in Gleichung (1) zu sehen, ihre graphische Darstellung in Abbildung 12 links. Aufgrund ihrer Form nennt man sie Gau├čsche Glockenkurve; der Name Gau├č ist mit der Standard-Normalverteilung deswegen verbunden, weil er wichtige Arbeiten geliefert hat, die den universellen Charakter der Standard-Normalverteilung zeigen.

Obwohl die Wahrscheinlichkeitsdichte durch die Exponentialfunktion dargestellt werden kann, ist es nicht m├Âglich, ihre Verteilungsfunktion (siehe Gleichung (3) in Abbildung 11) als geschlossenen Ausdruck anzugeben. (Falls Sie es nicht glauben: Versuchen Sie eine Stammfunktion zur Wahrscheinlichkeitsdichte zu finden!)

Abbildung 11: Definition und Eigenschaften der Standard-Normalverteilung.Abbildung 11: Definition und Eigenschaften der Standard-Normalverteilung.

Die Verteilungsfunktion der Standard-Normalverteilung ist in Abbildung 12 rechts dargestellt. Die Wahrscheinlichkeitsdichte und die Verteilungsfunktion haben einfache Symmetrie-Eigenschaften (siehe Gleichung (4) in Abbildung 11):

  • Die Wahrscheinlichkeitsdichte ist symmetrisch zur y-Achse.
  • Die Verteilungsfunktion ist punktsymmetrisch zum Punkt x = 0, y = 1/2.

Abbildung 12: Die Wahrscheinlichkeitsdichte und die Verteilungsfunktion der Standard-Normalverteilung.Abbildung 12: Die Wahrscheinlichkeitsdichte und die Verteilungsfunktion der Standard-Normalverteilung.

Die universelle Bedeutung der Standard-Normalverteilung kann man hier nur andeuten. Man k├Ânnte sie zum Beispiel als Modell verwenden f├╝r obiges "Schie├čen auf eine Zielscheibe": M├Âchte man angeben, mit welcher Wahrscheinlichkeit ein Punkt auf der Zielscheibe mit x-Koordinate x getroffen wird, k├Ânnte man die Wahrscheinlichkeitsdichte einer "geeigneten" Normalverteilung verwenden. Was hier unter "geeignet" zu verstehen ist, kann erst im Zusammenhang mit der Standardisierung einer Zufallsvariable erkl├Ąrt werden. Aber man erkennt in Abbildung 12, was damit gemeint sein kann:

  • Die Wahrscheinlichkeitsdichte konzentriert sich in der Umgebung von x = 0, das hei├čt man wird mit hoher Wahrscheinlichkeit etwa die Mitte der Zielscheibe treffen.
  • In gro├čem Abstand von x = 0 geht die Wahrscheinlichkeitsdichte sehr schnell gegen null, das hei├čt gro├če Abweichungen vom Mittelpunkt sind sehr unwahrscheinlich.

Die Standardisierung muss daf├╝r sorgen, eine beliebige Zielscheibe und die Qualit├Ąten eines beliebige Sch├╝tzen mit der Wahrscheinlichkeitsdichte der Standard-Normalverteilung in Verbindung zu bringen.

Weitere Anwendungen der Standard-Normalverteilung sind:

  • In der kinetischen Gastheorie wird die Verteilung der Geschwindigkeiten eines Gases mit ihr beschrieben, genauer die Verteilung der Geschwindigkeitskomponenten (Maxwellsche Geschwindigkeitsverteilung).
  • Da bei jeder Messung einer physikalischen Gr├Â├če Messungenauigkeiten auftreten, die man etwa f├╝r eine Fehlerfortpflanzung berechnen m├Âchte, ben├Âtigt man ein Modell daf├╝r, mit welcher Wahrscheinlichkeit Messfehler einer bestimmten Gr├Â├če vorkommen.
  • Summen von Zufallsvariablen k├Ânnen unter bestimmten ÔÇô und zwar eher schwachen ÔÇô Voraussetzungen mit Hilfe der Normalverteilung approximiert werden.

Wegen ihrer Bedeutung sind die Wahrscheinlichkeitsdichte und die Verteilungsfunktion der Standard-Normalverteilung in nahezu allen Formelsammlungen tabelliert und man kann in allen Programmiersprachen oder Tabellenkalkulationsprogrammen leicht auf ihre Werte zugreifen.

Schie├čen auf die Zielscheibe

Damit soll endlich das bereits mehrfach zitierte Beispiel des Schie├čens auf eine Zielscheibe diskutiert werden; es wird vor allem einen ersten Eindruck vermitteln, wie die Integral- und Differentialrechnung in die Beschreibung von Verteilungen eingehen.

Abbildung 13 zeigt die Zielscheibe mit Radius Z. Nimmt man an, dass jeder Punkt der Zielscheibe mit gleicher Wahrscheinlichkeit getroffen wird und kein Schuss die Zielscheibe verfehlt, so kann man ansetzen: Die Wahrscheinlichkeit daf├╝r, einen Treffer innerhalb eines Kreises mit Radius R zu erzielen, ist gleich dem Verh├Ąltnis der Kreisfl├Ąchen, und zwar einmal mit Radius R und einmal mit Radius Z, siehe Abbildung 13.

Abbildung 13: Schie├čen auf die Zielscheibe: Anordnung, Verteilungsfunktion und Wahrscheinlichkeitsdichte.Abbildung 13: Schie├čen auf die Zielscheibe: Anordnung, Verteilungsfunktion und Wahrscheinlichkeitsdichte.

Aber diese ├ťberlegung liefert sofort die Verteilungsfunktion F(R) und die Wahrscheinlichkeitsdichte ¤ü(R), siehe Abbildung 13:

  • Das eben beschriebene Fl├Ąchenverh├Ąltnis ist zugleich die Verteilungsfunktion F(R).
  • Durch Ableitung erh├Ąlt man die Wahrscheinlichkeitsdichte ¤ü(R).

Aufgabe:

Wie m├╝ssen die y-Achsen in den Diagrammen in Abbildung 13 skaliert sein, damit hier tats├Ąchlich die beschriebene Wahrscheinlichkeitsdichte und Verteilungsfunktion dargestellt sind?