Unterabschnitte

Physikalische Grössen und Einheiten

Eine physikalische Grösse besteht aus der Masszahl und der Einheit

Beispiel: \includegraphics[width=0.3\textwidth]{einfuehrung-005}

Gleichungen müssen nicht nur für die Masszahlen sondern auch für Einheiten gelten, das heisst, dass man mit einer Einheitenbetrachtung feststellen kann, dass eine Gleichung falsch ist.

Beispiel:

Einheitensysteme

Internationales System (SI)



Grösse Symbol (Beispiel) Einheit Abkürzung
Länge: $ x$ Meter $ m$
Zeit $ t$ Sekunde $ s$
Masse $ m$ Kilogramm $ kg$
Temperatur $ T$ Kelvin $ K$
Strom $ I$ Ampère $ A$
Stoffmenge $ n$ Mol $ mol$
Lichtstärke $ I$ candela $ cd$
SI (Système Internationale) Grundeinheiten


Die SI-Einheiten sind die gesetzlichen Einheiten. Das SI ist überbestimmt, nur die Einheiten der Länge, der Zeit und der Masse wären notwendig.

Definition der Zeit

$\displaystyle 1s=9192631770$ Schwingungen von $\displaystyle ^{133}Cs$ (2.1)

Definition der Länge

$\displaystyle 1m\triangleq$Lichtweg in $\displaystyle \frac{1}{299792485}s$ (2.2)

d.h. Lichtgeschwindigkeit $ c$ ist definiert, nicht die Länge. Man könnte $ c=1$ setzen und die Länge in Sekunden messen.

cgs-System

Grössen werden im cgs-System durch $ cm$,$  g$,$  s$ ausgedrückt



Grösse Einheit
Länge $ cm$
Masse $ g$
Zeit $ s$
cgs-System: Grundeinheiten


Messen

Eine Grösse messen heisst, das zu messende Objekt mit der Masseinheit zu vergleichen.

Es gibt auch indirekte Messmethoden, z.B. bei Thermometern

Messunsicherheit

\includegraphics[height=10mm]{icon-exp} Versuch zur Vorlesung: Messunsicherheit (Versuchskarte M-183)

Bei jeder Messung gibt es eine Messunsicherheit



Wahrer Wert $ v_{w}$
gemessener Wert $ v_{g}$
Messunsicherheit (absolute Messunsicherheit) $ \Delta v=v_{g}-v_{\omega}$
Messunsicherheit (relative Messunsicherheit) $ \frac{\Delta v}{v_{g}}$
Arten der Messunsicherheit


Messunsicherheiten werden wie folgt kategorisiert

Fehlerfortpflanzung

Wir betrachten die Fehlerfortpflanzung anhand der Geschwindigkeitsmessung. Die Geschwindigkeit kann aus der Zeit $ t$, die zum Durchlaufen einer bestimmten Strecke $ x$ benötigt wird, berechnet werden. Wir nehmen an, dass wir $ n$ Messungen durchführen, und dabei die Messungen mit $ j=1\ldots n$ bezeichnen. Wir verwenden fernen den Mittelwert der Ortsmessung

$\displaystyle \left<x\right> = \overline{x} = \frac{1}{n}\sum\limits_{j=1}^n x_j$ (2.3)

und den Mittelwert der Zeitmessung

$\displaystyle \left< t \right> = \overline{t} = \frac{1}{n}\sum\limits_{j=1}^n t_j$ (2.4)

Die Abweichung der einzelnen Messwerte vom Mittelwert ist dann

$\displaystyle \Delta x_j$ $\displaystyle = x_j-\left< x\right>$    
$\displaystyle \Delta t_j$ $\displaystyle = t_j-\left< t\right>$    

Die Standardabweichung eines einzelnen Messwertes einer Grösse $ x$ bei $ n$ Messungen ist definiert durch

$\displaystyle \sigma_x = \sqrt{\frac{1}{n-1}\sum\limits_{i=1}^n \Delta x_i^2} = \sqrt{\frac{1}{n-1}\sum\limits_{i=1}^n \left(x_i-\left<x\right>\right)^2}$ (2.5)

Die Standardabweichung des Mittelwertes $ \left<x\right>$ einer Grösse $ x$ bei $ n$ Messungen ist

$\displaystyle \sigma_{\left<x\right>} = \sqrt{\frac{1}{n\left(n-1\right)}\sum\l...
...rac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left(x_i-\left<x\right>\right)^2}$ (2.6)

Die einzelnen Messwerte können dann auch als

$\displaystyle x_j$ $\displaystyle =\left<x\right>+\Delta x_{j}$    
$\displaystyle t_j$ $\displaystyle =\left<t\right>+\Delta t_{j}$    

Es gelten

$\displaystyle \sum\limits_{j=1}^n \Delta x_j$ $\displaystyle = 0$    
$\displaystyle \sum\limits_{j=1}^n \Delta t_j$ $\displaystyle = 0$    

Mit $ v_j = x_j/t_j$ wird

$\displaystyle \left<v\right>$ $\displaystyle = \frac{1}{n}\sum\limits_{j=1}^{n} v_j$ $\displaystyle = \frac{1}{n}\sum\limits_{j=1}^{n} \frac{x_j}{t_j}$    
  $\displaystyle = \frac{1}{n}\sum\limits_{j=1}^{n} \frac{\left<x\right>+\Delta x_{j}}{\left<t\right>+\Delta t_{j}}$    
  $\displaystyle = \frac{1}{n}\sum\limits_{j=1}^{n} \frac{\left<x\right>\left(1+\f...
...ht>}\right)} {\left<t\right>\left(1+\frac{\Delta t_{j}}{\left<t\right>}\right)}$    
  $\displaystyle = \frac{1}{n}\frac{\left<x\right>}{\left<t\right>}\sum\limits_{j=...
...}}{\left<x\right>}\right)} {\left(1+\frac{\Delta t_{j}}{\left<t\right>}\right)}$    
  $\displaystyle \approx \frac{1}{n}\frac{\left<x\right>}{\left<t\right>}\sum\limi...
..._{j}}{\left<x\right>}\right) \left(1-\frac{\Delta t_{j}}{\left<t\right>}\right)$    
  $\displaystyle = \frac{1}{n}\frac{\left<x\right>}{\left<t\right>}\sum\limits_{j=...
...{\Delta x_{j}}{\left<x\right>} -\frac{\Delta t_{j}}{\left<t\right>}+O(2)\right)$    
  $\displaystyle = \frac{1}{n}\frac{\left<x\right>}{\left<t\right>} \left(\sum\lim...
...x\right>} -\sum\limits_{j=1}^{n}\frac{\Delta t_{j}}{\left<t\right>}+O(2)\right)$    
  $\displaystyle = \frac{1}{n}\frac{\left<x\right>}{\left<t\right>} \left(n+ 0 - 0+O(2)\right)$    
  $\displaystyle = \frac{\left<x\right>}{\left<t\right>}+O(2)$    

Dies bedeutet, dass man für statistisch unabhängige Daten sowohl zuerst das Resultat ausrechnen kann und dann mitteln, oder zuerst die Messwerte Mitteln, und dann das Resultat berechnen kann. Die beiden Resultate werden bis auf Summanden der Ordnung $ 2$ in den Fehlern identisch sein.

Der Begriff $ O(2)$ sagt, dass Terme mit der Ordnung (Summe aller Exponenten) von 2 oder mehr vernachlässigt wurden.

Die Messunsicherheit von $ \left<v\right>$ wird durch

$\displaystyle \sigma_{\left<v\right>}$ $\displaystyle = \sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left(v_j-\left<v\right>\right)^2}$    

Ein einzelner berechneter Wert der Geschwindigkeit wird dann

$\displaystyle v_j=$ $\displaystyle \frac{x_j}{t_j}$    
$\displaystyle =$ $\displaystyle \frac{\left<x\right>+\Delta x_{j}}{\left<t\right>+\Delta t_{j}}$    
$\displaystyle =$ $\displaystyle \frac{\left<x\right>}{\left<t\right>}\left( \frac{1+\frac{\Delta x_{j}}{\left<x\right>}} {1+\frac{\Delta t_{j}}{\left<t\right>}}\right)$    
$\displaystyle \approx$ $\displaystyle \frac{\left<x\right>}{\left<t\right>}\left( 1+\frac{\Delta x_{j}}{\left<x\right>}\right) \left( 1-\frac{\Delta t_{j}}{\left<t\right>}\right)$    
$\displaystyle \approx$ $\displaystyle \left<v\right>\left( 1+\frac{\Delta x_{j}}{\left<x\right>}-\frac{\Delta t_{j} }{\left<t\right>}\right)$    
$\displaystyle =$ $\displaystyle \left<v\right>+\Delta v_{j}$    

Zufällige Fehler sind Gauss-verteilt. Der relative Fehler des Mittelwertes aller Messungen nimmt meist mit $ \sqrt{n}$ (wobei $ n$ die Anzahl Messungen ist) ab. Die Messunsicherheit von $ \left<v\right>$ wird durch

$\displaystyle \sigma_{\left<v\right>}$ $\displaystyle = \sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left(v_i-\left<v\right>\right)^2}$    
  $\displaystyle = \sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left(\Delta v_i\right)^2}$    
  $\displaystyle = \sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left<v\ri...
...ac{\Delta x_{i}} {\left<x\right>}-\frac{\Delta t_{i}}{\left<t\right>}\right)^2}$    
  $\displaystyle = \left<v\right>\sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1...
...2\frac{\Delta x_{i}}{\left<x\right>}\frac{\Delta t_{i}}{\left<t\right>}\right]}$    

Nun ist aber $ \Delta t_i$ und $ \Delta x_i$ nach unseren Annahmen statistisch unabhängig, also nicht korreliert. Daraus folgt, dass das Produkt $ 2\frac{\Delta x_{i}}{\left<x\right>}\frac{\Delta t_{i}}{\left<t\right>}$ sich zu null mittelt und weggelassen werden kann. Wir haben also

$\displaystyle \frac{\sigma_{\left<v\right>}}{\left<v\right>}$ $\displaystyle = \sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left[\lef...
...t<x\right>}\right)^2+\left(\frac{\Delta t_{i}}{\left<t\right>}\right)^2\right]}$    
  $\displaystyle =\sqrt{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \left(\frac...
...\right)}\sum\limits_{i=1}^n \left(\frac{\Delta t_{i}}{\left<t\right>}\right)^2}$    
  $\displaystyle =\sqrt{\frac{\frac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \Delt...
...rac{1}{n\left(n-1\right)}\sum\limits_{i=1}^n \Delta t_{i}^2}{\left<t\right>^2}}$    
  $\displaystyle =\sqrt{\left(\frac{\sigma_{\left<x\right>}}{\left<x\right>}\right)^2+\left(\frac{\sigma_{\left<t\right>}}{\left<t\right>}\right)^2}$    

Im besprochenen Falle haben wir eine Funktion, die als Polynom geschrieben werden kann. Deshalb lässt sich das Fehlerfortpflanzungsgesetz relativ schreiben. Im Allgemeinen gilt: wenn $ y=f\left( x_{1}\text{,} x_{2}\text{,} ...\right) $ ist, lautet das Gausssche Fehlerfortpflanzungsgesetz

Gausssche Fehlerfortpflanzungsgesetz

$\displaystyle \sigma_{\left<y\right>} = \sqrt{\sum\limits_{i=1}^{n}\left(\frac{\partial f}{\partial x_{i} }\sigma_{\left<x_i\right>}\right)^2}$ (2.7)

Andererseits könnte man auch so argumentieren: Wir ersetzen die Messwerte durch die Schätzwerte $ \sigma_x$ und $ \sigma_t$. Wir erhalten (ohne Berücksichtigung der Vorzeichen, da wir dies ja nicht kennen)

$\displaystyle \frac{\sigma_v}{\left<v\right>}=\frac{\sigma_x}{\left<x\right>}+\frac{\sigma_t}{\left<t\right>}
$

Allgemein gilt: wenn $ y=f\left( x_{1}\text{,} x_{2}\text{,} ...\right) $ ist, ist

$\displaystyle \sigma_y=\sum\limits_{j=1}^{n}\left\vert \frac{\partial f}{\partial x_{j} }\right\vert \sigma_x
$

Diese letzteren Rechnungen (Grösstfehlerabschätzung) sollten nicht verwendet werden. Sie liefern bis zu zehn mal zu hohe Fehlerschranken.

Othmar Marti
Experimentelle Physik
Universiät Ulm