next up previous contents index
Weiter: F-Test Oben: Statistische Tests Zurück: Statistische Tests

Unterabschnitte


t-Test

Der t-Test gibt eine Angabe über die Konsistenz zweier Mittelwerte. Er erlaubt eine Aussage, ob eine eigene Messung mit der eines ändern (aber auch eine frühere eigene Messung) konsistent ist. Damit kann getestet werden, ob eine Apparatur sich mit der Zeit verändert.

Man könnte zur Annahme gelangen, dass wenn zwei Mittelwerte $\left<x_1\right>$ und $\left<x_2\right>$ sich um weniger als eine Standardabweichung unterscheiden, dass sie dann zu einer identischen Grundgesamtheit gehören. Diese Beurteilung ist willkürlich.

Besser ist es, den erwarteten Fehler der Differenz $y=\left<x_1\right>-\left<x_2\right>$ zu berechnen. Mit Hilfe des Fehlerfortpflanzungsgesetzes (siehe auch Kapitel 7) ergibt sich

$\displaystyle s^2_{(\left<x_1\right>-\left<x_2\right>)}=s_{1,m}^2+s_{2,m}^2= \f...
...x_{2,j}-\left<x_2\right>\right)^2}{n_1+n_2-2}\cdot\frac{n_1+n_2}{n_1 \cdot n_2}$ (6.77)

dabei sind $\left<x_1\right>$ und $\left<x_1\right>$ die Mittelwerte zweier Messreihen, $n_{1}$ und $n_{2}$ die Anzahl Messungen mit den Fehlern $s_{l}$ und $s_{2}$. Für $s_{1,m}^2$ setzt man am besten $s_{12}^2/n_1$ ein, wobei die Varianz durch das Zusammenlegen aller Messreihen berechnet wurde. Ebenso ersetzt man $s_{2,m}^2$ mit $s_{12}^2/n_2$.

Für die $t$-Verteilung und den $t$-Test betrachtet man normalverteilte Zufallsvariablen $y$. Sind solche nicht vorhanden, dann muss mit Mittelwerten von Stichproben gerechnet werden. Wir berechnen den Mittelwert $m_{y}$ aus der Stichprobe $y$ und die Standardabweichung $s_{y}$, die auf $\nu$ Freiheitsgeraden beruht. Die $t$-Grösse ist dann

$\displaystyle t=\frac{y-m_y}{s_y}$ (6.78)

Die $t$-Variable gehorcht der Studentschen $t$-Verteilungsfunktion

$\displaystyle \phi(t,\nu)=\frac{\Gamma\left(\frac{\nu+1}{2}\right)}{\sqrt{\pi\n...
...ac{\nu}{2}\right) \cdot\left(1-\frac{t^2}{\nu^2}\right)^{\left(\nu+1\right)/2}}$ (6.79)

Diese Verteilungsfunktion besitzt die Kenngrössen
$\displaystyle \mu$ $\displaystyle = $ $\displaystyle 0$ (6.80)
$\displaystyle \sigma^2$ $\displaystyle = $ $\displaystyle \frac{\nu}{\nu+2}$  
$\displaystyle \gamma_1$ $\displaystyle = $ $\displaystyle 0$  
$\displaystyle \gamma_2$ $\displaystyle = $ $\displaystyle 3+\frac{6}{\nu-4}$  

Für $n\rightarrow \infty$ geht die Verteilung in die Normalverteilung über. Die integrale Verteilungsfunktion lautet

$\displaystyle T(t,\nu) = \int\limits_{-\infty}^{t}\phi(\tau,\nu)d\tau+\int\limits^{+\infty}_{t}\phi(\tau,\nu)d\tau= 2\int\limits^{+\infty}_{t}\phi(\tau,\nu)d\tau$ (6.81)

Sie ist die Wahrscheinlichkeit, dass bei Abwesenheit systematischer Fehler $t$-Werte auftreten, die ausserhalb des Konfidenzbereiches $\pm t$ liegen. Die Funktion $T(t,\nu)$ findet man in Tabellen. Für sehr umfangreiche Stichproben geht die $t$-Verteilung in die Normalverteilung über. Für die $(0,1)$ [d.h. Mittelwert 0, Varianz $1$] verteilte Testgrösse bekommt man

$\displaystyle t = \frac{\left< x_1\right>-\left<x_2\right>}{s_{(\left<x_1\right>-\left<x_2\right>)}}$ (6.82)

Wenn der Test erfüllt ist, dann sind die beiden Stichproben aus der gleichen Grundgesamtheit.

Beispiel

Zwei Mittelwerte mit $n_{1}=9$ und $n_{2}=7$ ergeben einen $t$-Wert von $1.74$. Es gibt insgesamt $\nu=n_1+n_2-2=9+7-2=14$ Freiheitsgrade. Man findet $T(t,\nu)=T(1.74,14) = 0.1$ (Die entsprechende Excel-Funktion =TVERT(1,74;14;2) liefert den Wert $0.103784377$) Die Interpretation sagt nun, dass

Üblicherweise verwendet man Vertrauensgrenzen (Signifikanz-Grenzen) von $5\%$ und $1\%$. Nur wenn der $t$-Test eine Wahrscheinlichkeit kleiner als diese Werte ergibt, nimmt man ein Fehlen der Konsistenz an. Grössere Signifikanz-Grenzen (z.B. $40\%$) bedeuten, dass man sehr oft die Hypothese der Gleichheit der Mittelwerte (oder der Konsistenz der Mittelwerte) verwerfen muss, obwohl die beiden Messreihen aus der gleichen Grundgesamtheit stammen. Mit sehr kleinen Signifikanzgrenzen läuft man Gefahr, Gleichheit anzunehmen, obwohl sie nicht da ist.


next up previous contents index
Next: F-Test Up: Statistische Tests Previous: Statistische Tests
Othmar Marti
Experimentelle Physik
Universiät Ulm