Weiter: Angabe von zufälligen Fehlern
Oben: Fehlerfortpflanzung
Zurück: Systematische Fehler
Unterabschnitte
Wir nehmen wieder an, dass die gesuchte Grösse
aus den direkt gemessenen Grössen
bestimmt sei. Diese seien mit zufälligen Fehlern behaftet. Wenn
-mal gemessen wurde, so bezeichnen
wir die
-te Messung der
-ten Grösse mit
. Der Mittelwert von
ist
![$\displaystyle \left< a_k \right> = \frac{1}{n} \sum\limits_{j=1}^n a_{kj}$](img323.gif) |
(7.94) |
und die Varianz
![$\displaystyle s_{a_k}^2 =\frac{1}{n-1}\sum\limits_{j=1}^n \left(a_{kj}-\left< a_k\right>\right)^2 =\frac{1}{n-1}\sum\limits_{j=1}^n \epsilon_{kj}^2$](img324.gif) |
(7.95) |
wobei
der Fehler von
bezüglich
ist.
Es gibt nun zwei Wege, wie wir von den gemessenen Grössen auf das Endresultat kommen können. Sind die
beiden Wege äquivalent?
Wir können zuerst jede einzelne Messung mitteln, und dann in unsere Funktion für das Endresultat einsetzen.
Wir können auch jeweils die
-te Wiederholung der Messung einsetzen und dann mitteln.
Nun lässt sich der Wert von
, durch eine Taylor-Entwicklung angeben.
Wenn der Betrag der Abweichungen von den Mittelwerten klein sind gegen den Betrag der Mittelwerte, haben wir
Wenn wir nun im
. Glied die Reihenfolge der Summation vertauschen, dann finden wir
Also gilt:
![$\displaystyle \left< A \right>= \frac{1}{n}\sum\limits_{j=1}^n A_j =A_m = A(\le...
..._1\right>,\;\left< a_2\right>,\;\left< a_3\right>,\;\ldots,\;\left< a_n\right>)$](img334.gif) |
(7.96) |
Die obige Formel gilt ziemlich allgemein, z.B. auch wenn nicht alle Teilresultate gleich häufig gemessen wurden.
Wir nehmen an, dass die Varianzen
der gemittelten Messwerte
bekannt seien. Die Varianzen sind, nach der allgemeinen Definition,
Wenn die Messungen der
voneinander statistisch unabhängig sind, dann summieren sich alle Kreuzprodukte zu
0. Also lautet das Gausssche Fehlerfortpflanzungsgesetz
![$\displaystyle s_{A}^2 = \sum\limits_{k=1}^N\left(\frac{\partial A}{\partial a_k}\right)^2 s_{a_k}^2$](img341.gif) |
(7.98) |
Teilen wir beide Seiten mit
, erhält man das Fehlerfortpflanzungsgesetz für die mittleren Fehler der
Mittelwerte, die in der Praxis am meisten angewandte Form.
![$\displaystyle s_{\left< A \right>}^2 = \sum\limits_{k=1}^N\left(\frac{\partial A}{\partial a_k}\right)^2 s_{\left<a_k\right>}^2$](img342.gif) |
(7.99) |
Wenn die Messwerte
statistisch unabhängig sind, dann treten in
positive und negative Zeichen mit gleicher Häufigkeit auf. Wenn diese Summe null ist, nennt man die beiden
Messgrössen
und
statistisch unabhängig. Dies wird mit dem Begriff der Kovarianz beschrieben
![$\displaystyle \textrm{Kov}(x,y) = E\left\{\left(x-E(x)\right)\left(y-E(y)\right)\right\}$](img345.gif) |
(7.100) |
wobei der Operator
den Erwartungswert berechnet. Wieder gilt, dass wenn die Grössen
und
voneinander
statistisch unabhängig sind, dass die Produkte in der Summe für den Erwartungswert mit gleicher Häufigkeit beide
Vorzeichen annehmen.
Wenn wir eine vollständige Korrelation haben, also
ist, dann gilt
![$\displaystyle \textrm{Kov}(\epsilon_k,\eta\epsilon_k) = E\left\{\epsilon_k \cdo...
...a\cdot E\left\{\epsilon_k^2\right\}=\eta\textrm{Var}(\epsilon_k)=\eta\sigma_k^2$](img348.gif) |
(7.101) |
Die Kovarianz geht also im Falle einer vollständigen Korrelation
in die Varianz über.
Das Gausssche Fehlerfortpflanzungsgesetz darf nicht angewandt
werden, wenn Korrelationen existieren (angezeigt durch die Kovarianz)
- Physikalische Korrelationen: zum Beispiel wenn gleichzeitig Strom und Spannung gemessen werden.
- Algebraische Korrelationen: Die Physikalischen Grundkonstanten sind korreliert. Man muss in
diesem Falle die Fehlermatrix berechnen (Siehe Gränicher[Grä81])
|
Next: Angabe von zufälligen Fehlern
Up: Fehlerfortpflanzung
Previous: Systematische Fehler
Othmar Marti
Experimentelle Physik
Universiät Ulm