next up previous contents index
Weiter: Angabe von zufälligen Fehlern Oben: Fehlerfortpflanzung Zurück: Systematische Fehler

Unterabschnitte


Statistische Fehler

Unabhängigkeit von der Reihenfolge der Auswertung

Wir nehmen wieder an, dass die gesuchte Grösse $A$ aus den direkt gemessenen Grössen $a_1,\; a_2,\; a_3,\; \ldots a_n$ bestimmt sei. Diese seien mit zufälligen Fehlern behaftet. Wenn $a_k$ $n$-mal gemessen wurde, so bezeichnen wir die $j$-te Messung der $k$-ten Grösse mit $a_{kj}$. Der Mittelwert von $a_k$ ist

$\displaystyle \left< a_k \right> = \frac{1}{n} \sum\limits_{j=1}^n a_{kj}$ (7.94)

und die Varianz

$\displaystyle s_{a_k}^2 =\frac{1}{n-1}\sum\limits_{j=1}^n \left(a_{kj}-\left< a_k\right>\right)^2 =\frac{1}{n-1}\sum\limits_{j=1}^n \epsilon_{kj}^2$ (7.95)

wobei $\epsilon_{kj} = a_{kj}-\left< a_k\right>$ der Fehler von $a_{kj}$ bezüglich $\left< a_k\right>$ ist.

Es gibt nun zwei Wege, wie wir von den gemessenen Grössen auf das Endresultat kommen können. Sind die beiden Wege äquivalent?

Wir können zuerst jede einzelne Messung mitteln, und dann in unsere Funktion für das Endresultat einsetzen.

$\displaystyle A_m = A(\left< a_1\right>,\;\left< a_2\right>,\;\left< a_3\right>,\;\ldots,\;\left< a_n\right>)
$

Wir können auch jeweils die $j$-te Wiederholung der Messung einsetzen und dann mitteln.

$\displaystyle \left< A\right> = \frac{1}{n}\sum\limits_{j=1}^n A_j = \frac{1}{n}\sum\limits_{j=1}^n
A(a_{1,j},\;a_{2,j},\;a_{3,j},\;\ldots,\;a_{1,n})
$

Nun lässt sich der Wert von $A$, durch eine Taylor-Entwicklung angeben.
$\displaystyle A_j $ $\displaystyle = $ $\displaystyle A(\left< a_1\right>,\;\left< a_2\right>,\;\left< a_3\right>,\;\ld...
...imits_{j=1}^{n}\left(\frac{\partial A}{\partial a_k}\right)\cdot \epsilon_{kj}+$  
$\displaystyle $ $\displaystyle = $ $\displaystyle A_m+\sum\limits_{j=1}^{n}\left(\frac{\partial A}{\partial a_k}\right)\cdot \epsilon_{kj}+
$  

Wenn der Betrag der Abweichungen von den Mittelwerten klein sind gegen den Betrag der Mittelwerte, haben wir

$\displaystyle \left< A \right>= \frac{1}{n}\sum\limits_{j=1}^n A_j + \frac{1}{n...
...limits_{k=1}^n
\left(\frac{\partial A}{\partial a_k}\right)\cdot \epsilon_{kj}
$

Wenn wir nun im $2$. Glied die Reihenfolge der Summation vertauschen, dann finden wir

$\displaystyle \sum\limits_{k=1}^n
\left(\frac{\partial A}{\partial a_k}\right)\...
... =
\sum\limits_{k=1}^n \left(\frac{\partial A}{\partial a_k}\right)\cdot 0 = 0
$

Also gilt:

$\displaystyle \left< A \right>= \frac{1}{n}\sum\limits_{j=1}^n A_j =A_m = A(\le...
..._1\right>,\;\left< a_2\right>,\;\left< a_3\right>,\;\ldots,\;\left< a_n\right>)$ (7.96)

Die obige Formel gilt ziemlich allgemein, z.B. auch wenn nicht alle Teilresultate gleich häufig gemessen wurden.

Gausssches Fehlerfortpflanzungsgesetz

Wir nehmen an, dass die Varianzen $s_k^2$ der gemittelten Messwerte $a_k$ bekannt seien. Die Varianzen sind, nach der allgemeinen Definition,

$\displaystyle s_A^2$ $\displaystyle = $ $\displaystyle \frac{1}{n-1}\sum\limits_{j=1}^n\left(A_j-\left< A \right>\right)^2$ (7.97)
$\displaystyle $ $\displaystyle = $ $\displaystyle \frac{1}{n-1}\sum\limits_{j=1}^n\left(\sum\limits_{k=1}^N \left(\frac{\partial A}{\partial a_k}\right)\epsilon_{kj}\right)^2$  
$\displaystyle $ $\displaystyle = $ $\displaystyle \frac{1}{n-1}\sum\limits_{j=1}^n\left(\sum\limits_{k=1}^N \left(\...
...rac{\partial A}{\partial a_m}\right)
\cdot\epsilon_{\ell j}\epsilon_{mj}\right)$  
$\displaystyle $ $\displaystyle = $ $\displaystyle \sum\limits_{k=1}^N \left(\frac{\partial A}{\partial a_k}\right)^...
...tial a_m}\right)
\frac{\sum\limits_{j=1}^n \epsilon_{\ell j}\epsilon_{mj}}{n-1}$  

Wenn die Messungen der $a_k$ voneinander statistisch unabhängig sind, dann summieren sich alle Kreuzprodukte zu 0. Also lautet das Gausssche Fehlerfortpflanzungsgesetz

$\displaystyle s_{A}^2 = \sum\limits_{k=1}^N\left(\frac{\partial A}{\partial a_k}\right)^2 s_{a_k}^2$ (7.98)

Teilen wir beide Seiten mit $n$, erhält man das Fehlerfortpflanzungsgesetz für die mittleren Fehler der Mittelwerte, die in der Praxis am meisten angewandte Form.

$\displaystyle s_{\left< A \right>}^2 = \sum\limits_{k=1}^N\left(\frac{\partial A}{\partial a_k}\right)^2 s_{\left<a_k\right>}^2$ (7.99)

Statistische Unabhängigkeit

Wenn die Messwerte $a_k$ statistisch unabhängig sind, dann treten in

$\displaystyle \frac{\sum\limits_{j=1}^n \epsilon_{\ell j}\epsilon_{mj}}{n-1}
$

positive und negative Zeichen mit gleicher Häufigkeit auf. Wenn diese Summe null ist, nennt man die beiden Messgrössen $a_k$ und $a_{m}$ statistisch unabhängig. Dies wird mit dem Begriff der Kovarianz beschrieben

$\displaystyle \textrm{Kov}(x,y) = E\left\{\left(x-E(x)\right)\left(y-E(y)\right)\right\}$ (7.100)

wobei der Operator $E$ den Erwartungswert berechnet. Wieder gilt, dass wenn die Grössen $x$ und $y$ voneinander statistisch unabhängig sind, dass die Produkte in der Summe für den Erwartungswert mit gleicher Häufigkeit beide Vorzeichen annehmen.

Wenn wir eine vollständige Korrelation haben, also $\epsilon_{kj}=\eta\epsilon_{\ell j}$ ist, dann gilt

$\displaystyle \textrm{Kov}(\epsilon_k,\eta\epsilon_k) = E\left\{\epsilon_k \cdo...
...a\cdot E\left\{\epsilon_k^2\right\}=\eta\textrm{Var}(\epsilon_k)=\eta\sigma_k^2$ (7.101)

Die Kovarianz geht also im Falle einer vollständigen Korrelation in die Varianz über.

Das Gausssche Fehlerfortpflanzungsgesetz darf nicht angewandt werden, wenn Korrelationen existieren (angezeigt durch die Kovarianz)
  • Physikalische Korrelationen: zum Beispiel wenn gleichzeitig Strom und Spannung gemessen werden.
  • Algebraische Korrelationen: Die Physikalischen Grundkonstanten sind korreliert. Man muss in diesem Falle die Fehlermatrix berechnen (Siehe Gränicher[Grä81])


next up previous contents index
Next: Angabe von zufälligen Fehlern Up: Fehlerfortpflanzung Previous: Systematische Fehler
Othmar Marti
Experimentelle Physik
Universiät Ulm