next up previous contents
Nächste Seite: Wie stark ist ein Aufwärts: Stochastische Zusammenhänge zweier Zufallsvariablen Vorherige Seite: Was bedeutet stochastische Unabhängigkeit?   Inhalt

Wie erkennt man stochastische Abhängigkeit?

Um stochastische Abhängigkeit zu erkennen, muß man zunächst die Hypothese stochastischer Unabhängigkeit aufstellen und dann testen, ob man diese Hypothese auf hohem Niveau ablehnen kann [1]. Dazu definiert man zuerst die Nullhypothese, nämlich daß die zwei Zufallsvariablen $X$ und $Y$ stochastisch unabhängig sind. Wenn dem so ist, muß für die bedingten Wahrscheinlichkeiten $p(x\vert y)$ und $p(y\vert x)$ gelten:

\begin{displaymath}
\begin{array}{ll}
p(x\vert y) & = p(x)\\ [1ex]
p(y\vert x) & = p(y)\\
\end{array}
\end{displaymath}

also auch
\begin{displaymath}
p(x,y) = p(x)\, p(y).
\end{displaymath} (3)

Diese Wahrscheinlichkeitsdichten sind nicht bekannt, können aber geschätzt werden. Dies geschieht durch Klasseneinteilung und die Kontingenztafel. Teilen wir also zunächst allgemein die Variable $X$ in $M$ Klassen und die Variable $Y$ in $R$ Klassen ein. Diese Einteilung sollte so gewählt sein, daß in jeder Klasse mindestens 5 Werte liegen [5]. Die Klassen müssen aber auf jeden Fall disjunkt sein. Die Wahrscheinlichkeiten aus Gleichung (3) können nun über die absoluten Häufigkeiten $H$ dieser zweidimensionalen Klasseneinteilung bestimmt werden. Es wird also geschätzt:

\begin{displaymath}
\left.
\begin{array}{ll}
p(x\in x_{m}) & \approx \frac{H_...
...\right\} \mbox{, f\uml {u}r }m=1,...,M \mbox{ und }r=1,...,R.
\end{displaymath}

Falls die Nullhypothese (d.h. Glg. (3)) richtig ist, dann ist die Antwort auf die Frage wieviel der insgesamt $n$ Realisierungen in der Klasse $m,r$ liegen, durch ein Bernoulli-Experiment gegeben. $z_{m,r}(k,n)$ ist dann die Zufallsvariable, die angibt, wie wahrscheinlich (unter der Bedingung der Nullhypothese) $k$ von $n$ Realisierungen in der Klasse $m,r$ liegen. Diese Variable ist binomial-verteilt mit dem Erwartungswert $E_{m,r}$:

\begin{displaymath}
\begin{array}{ll}
E_{m,r} & = n\,p(x\in x_{m},y\in y_{r})\...
...x{, f\uml {u}r }m=1,...,M \mbox{ und }r=1,...,R.
\end{array}
\end{displaymath}

Für die zugehörige Varianz $D_{m,r}^{2}$ gilt dann:

\begin{displaymath}
\begin{array}{ll}
D_{m,r}^{2} & = n\,p(x\in x_{m},y\in y_{...
...x{, f\uml {u}r }m=1,...,M \mbox{ und }r=1,...,R.
\end{array}
\end{displaymath}

Die normierte Variable von $z_{m,r}(k,n)$ ist dann für große $n$ näherungsweise normalverteilt, d.h.

\begin{displaymath}
\frac{z_{m,r}(k,n)-E_{m,r}}{D_{m,r}}=N(0,1).
\end{displaymath}

Damit ist die Summe der Quadrate dieser Normierten von $z_{m,r}(k,n)$ eine $\chi^{2}$-verteilte Variable:
\begin{displaymath}
\chi^{2}= n\sum_{m=1}^{M}\sum_{r=1}^{R}
\frac{\left(z_{m,r}(k,n)-\frac{H_{m}\,H_{r}}{n}\right)^{2}}{H_{m}\,H_{r}}
\end{displaymath} (4)

Diese $\chi^{2}$-verteilte Zufallsvariable hat die folgenden Freiheitsgrade. Da es $M\cdot R$ Klassen gibt ergibt dies schon mal $M\cdot R -1$ Freiheitsgrade. Die Anzahl der Freiheiten verringert sich jedoch um $M-1+R-1$, da die Wahrscheinlichkeiten $p(x\in x_{m})$ und $p(y\in y_{r})$ jeweils bis auf einen Wert (der sich ergibt, weil die Summe $1$ sein muß) geschätzt werden mußten. Damit ist der Freiheitsgrad der $\chi^{2}$-Verteilung $\Phi$ gegeben durch:

\begin{displaymath}
\Phi =M\cdot R -1 - (M+R-2)= (M-1)(R-1)
\end{displaymath}

Nun kann man mit Hilfe von Gleichung (4) testen, wie wahrscheinlich die vorliegende Realisation unter der Annahme der Nullhypothese ist. Dazu muß man nur für $z_{m,r}(k,n)$ in Gleichung (4) die absolute beobachtete Häufigkeit $H_{m,r}$ einsetzen. Wenn der damit berechnete Wert $\chi_{ber}^{2}$ einen zu einem bestimmten Signifikanzniveau vorgegebenen Wert überschreitet, dann ist es auf diesem Niveau unwahrscheinlich, daß die Nullhypothese wahr ist. Das Programm zus.for (s. Anhang C) geht noch einen Schritt weiter und berechnet zu $\chi_{ber}^{2}$ den genauen Wert des Signifikanzniveaus.
next up previous contents
Nächste Seite: Wie stark ist ein Aufwärts: Stochastische Zusammenhänge zweier Zufallsvariablen Vorherige Seite: Was bedeutet stochastische Unabhängigkeit?   Inhalt
ich 2000-01-25