next up previous contents
Nächste Seite: Betrachtung in diskreten Zeitschritten Aufwärts: Der Poisson-Prozeß Vorherige Seite: Der Poisson-Prozeß   Inhalt

Poisson-Prozeß in kontinuierlicher Zeit

Der Poisson-Prozeß ist der einfachste Punktprozeß. Er findet in kontinuierlicher Zeit statt. Die Eintrittswahrscheinlichkeit eines Ereignisses im Zeitintervall $[t,t+dt]$ ist dabei eine Konstante $f(t)dt=\lambda\,dt$. Dann ist die Wahrscheinlichkeit dafür, daß ein solches Ereignis im Zeitintervall $[t_{1},t_{1}+dt]$ und im Zeitintervall $[t_{2},t_{2}+dt]$ auftritt, gegeben durch $f(t_{1},t_{2})\,dt_{1}\,dt_{2}=\lambda^{2}\,dt_{1}\,dt_{2}$. Die gemeinsame zweidimensionale Verteilung faktorisiert demnach in die eindimensionale Verteilung, und diese ist eine Konstante. Auch alle höherdimensionalen Wahrscheinlichkeitsfunktionen faktorisieren, so daß gilt $f(t_{1},t_{2},\cdots,t_{m}) \,dt_{1}\,dt_{2}
\cdots\, \,dt_{m} = \lambda^{m}$. Wie hoch ist nun die Wahrscheinlichkeit $p_{k}(t)$ dafür, daß im Zeitraum $[0,t]$ genau $k$ Ereignisse stattfinden? Um diese Frage (und alle damit zusammenhängenden) lösen zu können, muß die Master-Gleichung für den Prozeß aufgestellt werden. Die Master-Gleichung ist eine Differentialgleichung für $p_{k}(t)$. Auf ihre allgemeine Herleitung muß hier verzichtet werden, um nicht zu weit vom eigentlichen Ziel abzurücken. Die Wahrscheinlichkeit zur Zeit $t$ genau $k$ Ereignisse vorgefunden zu haben, ändert sich durch das Eintreten eines Ereignisses zur Zeit $t$. Falls also zur Zeit $t$ $\,k-1$ Ereignisse eingetreten waren, so ist die Wahrscheinlichkeit, daß sich die Anzahl auf $k$ erhöht, gerade $p_{k-1}(t)\cdot\lambda$. Andererseits können zur Zeit $t$ auch schon $k$ Ereignisse vorliegen. Dann führt das Eintreten eines Ereignisses zur Zeit $t$ zu einer Veringerung der Wahrscheinlichkeit $k$ Ereignisse vorzufinden. Für die Mastergleichung des Poisson-Prozesses folgt daher
\begin{displaymath}
\dot{p_{k}}(t)= \lambda p_{k-1}(t) - \lambda p_{k}(t).
\end{displaymath} (2.1)

Die Lösung dieser Gleichung ist
\begin{displaymath}
p_{k}(t) = \frac{(\lambda t)^{k}}{k!}\exp(-\lambda t).
\end{displaymath} (2.2)

Diese Lösung ist leicht zu verifizieren, indem man sie nach $t$ ableitet und in die linke Seite von Gleichung (2.1) einsetzt. Spätestens jetzt sollte dem interessierten Leser auffallen, warum der Prozeß Poisson-Prozeß heißt. Die Anzahl der in einem Zeitintervall der Länge $t$ auftretenden Ereignisse ist Poisson-verteilt. Das heißt insbesondere, daß diese Anzahl für jedes beliebige Intervall nicht von der Vorgeschichte abhängt. Aus Gleichung (2.2) kann man leicht berechnen, wie wahrscheinlich es ist, daß über einen Zeitraum der Länge $\Theta$ kein Ereignis eintritt. Diese Wahrscheinlichkeit ist gegeben durch $p_{0}(\Theta)$. Kennt man die Verteilung kann man deren Erwartungswert und Varianz berechnen. Für den Erwartungswert $<k(t)>$ gilt:
\begin{displaymath}
<k(t)> = \sum\limits_{k=0}^{\infty} k\, p_{k}(t).
\end{displaymath} (2.3)

Da der Summand für $k=0$ verschwindet, gilt weiter
\begin{displaymath}
\begin{array}{lcl}
<k(t)> & = & \sum\limits_{k=1}^{\infty}...
...bda\,t)^k}{k\,!} \exp(-\lambda\,t)= \lambda\,t.
\end{array}
\end{displaymath} (2.4)

Für die Varianz als zweites zentrales Moment gilt
\begin{displaymath}
\begin{array}{lcl}
<<k(t)>> & = & \sum\limits_{k=0}^{\inft...
...^{2}> + <k>^{2} - 2 <k> <k> = <k^{2}> - <k>^{2}.
\end{array}
\end{displaymath} (2.5)

Für das zweite (nichtzentrierte) Moment $<k^{2}>$ folgt
\begin{displaymath}
\begin{array}{lcl}
<k^{2}> & = & \sum\limits_{k=0}^{\infty...
...ght) =
\lambda\,t\left(\lambda\,t + 1\right).
\end{array}
\end{displaymath} (2.6)

Setzt man diesen Ausdruck in die Gleichung für die Varianz ein, so erhält man
\begin{displaymath}
<<k(t)>> = \lambda\,t
\end{displaymath} (2.7)

Nun stellt sich die Frage, wie lange man warten muß, bis ein Ereignis eintritt. Man beginnt also zu einem beliebigen Zeitpunkt $t_{0}$ und fragt nach dem Zeitraum $\Theta$, in dem kein Ereignis auftritt, während zwischen $\Theta$ und $\Theta + d\Theta$ ein Ereignis auftritt. Dieser Zeitraum ist naturgemäß selbst eine Zufallsvariable, deren Verteilung $g(t_{0},\Theta)\,d\Theta$ zu bestimmen ist. Dazu sind zwei Wahrscheinlichkeiten zu betrachten. Einerseits, die Wahrscheinlichkeit, daß im Intervall $[t_{0},t_{0}+\Theta]$ kein Ereignis stattfindet und andererseits soll dann im Intervall $[t_{0}+\Theta,t_{0}+\Theta+d\Theta]$ mindestens ein Ereignis stattfinden. Letzteres hat die Wahrscheinlichkeit $\lambda\,d\Theta$. Ersteres hat die Wahrscheinlichkeit $p_{k=0}(t_{0},t_{0}+\Theta)$. Demnach ist $g(t_{0},\Theta)d\Theta$ gegeben durch
\begin{displaymath}
g(t_{0},\Theta)d\Theta =
\frac{(\lambda\,(t_{0}+\Theta-t_{0}))^{0}}{0!}\exp(-\lambda\,\Theta)\cdot \lambda d\Theta.
\end{displaymath} (2.8)

Damit folgt, daß die Wartezeit auf das nächste Ereignis exponentialverteilt ist, mit
\begin{displaymath}
g(t_{0},\Theta) = \lambda \exp(-\lambda \Theta) = g(\Theta).
\end{displaymath} (2.9)

Für den Poisson-Prozeß hängt die Wartezeit auf das nächste Ereignis also nicht vom Startzeitpunkt ab. Daraus folgt insbesondere auch, daß die Wartezeit zwischen zwei Ereignissen genau so verteilt ist, wie die Wartezeit bei beliebigem Startzeitpunkt. Desweiteren sieht man daraus, daß die Wartezeit nicht von der Wartezeit auf vorherige Ereignisse abhängt. Man beachte auch die Eigenschaft der Exponentialverteilung, daß kürzeste Wartezeiten die höchste Wahrscheinlichkeitsdichte haben. Dies mag erschrecken, zumindest aber verwundern, denn Ereignisse können z.B. Katastrophen sein. Es ist, falls diese einem Poisson-Prozeß entstammen, dann wahrscheinlicher, daß sie morgen eintreten als erst übermorgen. Andererseits kann man sich dieses Verhalten am Beispiel des Würfelns verdeutlichen. Die Wahrscheinlichkeit bei einem Wurf eine sechs zu würfeln ist ein Sechstel. Die Wahrscheinlichkeit beim ersten Wurf keine sechs zu würfeln, aber beim zweiten Wurf, ist fünf Sechstel mal ein Sechstel und damit geringer. Interessant ist nun der Erwartungswert und die Varianz der Wartezeit. Der Erwartungswert (der in der Extremwertstatistik auch Wiederkehrzeit genannt wird) ist gegeben durch
\begin{displaymath}
\begin{array}{lll}
<\Theta> & = & \int\limits_{0}^{\infty}...
...right]_{0}^{\infty}\\
& = & \frac{1}{\lambda}
\end{array}
\end{displaymath} (2.10)

Für den Poissonprozeß ist demnach der Erwartungswert für die Wartezeit auf ein Ereignis gleich dem Reziproken der Eintrittswahrscheinlichkeit . Für die Varianz folgt
\begin{displaymath}
<<\Theta^{2}>> = <\Theta^{2}> - <\Theta>^{2} = \lambda
\in...
... \Theta^{2}\exp(-\lambda\,\Theta)\, d\Theta -
<\Theta>^{2}.
\end{displaymath} (2.11)

Mit
\begin{displaymath}
\lambda\,\int\limits_{0}^{\infty} \Theta^{2}\exp(-\lambda\,...
...mbda^{3}}
\right)\right]_{0}^{\infty} =\frac{2}{\lambda^{2}}
\end{displaymath} (2.12)

folgt daraus
\begin{displaymath}
<<\Theta^{2}>> = \frac{1}{\lambda^{2}}.
\end{displaymath} (2.13)


next up previous contents
Nächste Seite: Betrachtung in diskreten Zeitschritten Aufwärts: Der Poisson-Prozeß Vorherige Seite: Der Poisson-Prozeß   Inhalt
ich 2000-01-24