next up previous contents
Next: Indirekt bestimmte Beobachtungsgrößen, Fehlerfortpflanzung Up: Rechnerische Erfassung zufälliger Fehler Previous: Rechnerische Erfassung zufälliger Fehler   Contents

18.3.1 Arithmetisches Mittel

Der wahre Wert $x_{\rm w}$ einer Beobachtungsgröße ist im allgemeinen nicht angebbar. Man kennt nur die nach einer bestimmten Meßvorschrift ermittelten $n$ Beobachtungswerte

\begin{displaymath}
x_1, \ x_2, \dots x_{\rm n} \qquad (n > 1) \ .
\end{displaymath}

Als Näherungswert für $x_{\rm w}$ benutzt man das arithmetische Mittel
\begin{displaymath}
\bar{x} = \frac{1}{n} \sum_{\rm i=1}^n \ x_{\rm i}.
\end{displaymath} (9)

Es erfüllt die GAUSSsche Bedingung der kleinsten Summe der Fehlerquadrate, d.h. die Summe der Quadrate der scheinbaren Fehler
\begin{displaymath}
v_{\rm i} = (x_{\rm i} - \bar{x})^2 \ ,
\end{displaymath} (10)

also
\begin{displaymath}
\sum_{\rm i=1}^n \ v_{\rm i} = \sum_{\rm i=1}^n \ (x_{\rm i}
- \bar{x})^2
\end{displaymath} (11)

ist ein Minimum. Aus der Extremalbedingung
\begin{displaymath}
\frac{{\rm d}}{{\rm d} \bar{x}} \ \sum_{\rm i=1}^n \ (x_i - \bar{x})^2 =
\ -2 \sum_{\rm i=1}^n \ (x_{\rm i} - \bar{x}) = 0
\end{displaymath} (12)

folgt nämlich

\begin{displaymath}
\sum_{\rm i=1}^n \ x_{\rm i} - n\bar{x} = 0
\end{displaymath}

und damit (9). Darüber hinaus erfüllt das arithmetische Mittel die Bedingung, daß die Summe der scheinbaren Fehler verschwindet.
\begin{displaymath}
\sum_{\rm i=1}^n \ v_{\rm i} \ = \ \sum_{\rm i=1}^n \ (x_{\rm i}
- \bar{x}) \ = \ 0 \ ,
\end{displaymath} (13)

was man aus (12) erkennt. Der Vergleich von (9) mit (3) zeigt, daß bei der Bildung des arithmetischen Mittels jedem Beobachtungswert $x_{\rm i}$ die gleiche Wahrscheinlichkeit $w(x_i) = 1/n$ zugeordnet wird. Für den Grenzfall unendlich vieler Beobachtungen $(n \to \infty )$ würde sich die Standardabweichung $\sigma_{\rm x}$ nach (5) zu
\begin{displaymath}
\sigma_{\rm x}^2 \ = \lim_{n\to\infty} \ \frac{1}{n} \ \sum...
...\lim_{n\to\infty} \ \frac{1}{n}
\sum_{\rm i=1}^n \ v_{\rm i}
\end{displaymath} (14)

ergeben. Grundsätzlich existieren aber immer nur endlich viele Beobachtungen. Um den Meßwert dennoch eine Standardabweichung $s_{\rm x}$ zuordnen zu können, definiert man
\begin{displaymath}
s_{\rm x}^2 \ = \ \frac{1}{n-1} \ \sum_{\rm i=1}^n \ (x_{\r...
...x})^2 \ = \
\frac{1}{n-1} \ \sum_{\rm i=1}^n \ v_{\rm i} \ .
\end{displaymath} (15)

Diese Festlegung sichert, daß im Grenzfall $s_{\rm x} \to \sigma_{\rm x}$ geht, und daß einem einzigen Beobachtungswert $(n=1)$ keine Standardabweichung zukommt. Dies wäre auch nicht sinnvoll, da ja bei einer einzigen Beobachtung keine Vergleichsmöglichkeiten existieren. $s_{\rm x}$ bezeichnet man als die Standardabweichung einer Einzelmessung oder als den mittleren quadratischen Fehler einer Einzelmessung. Bei einer genügend großen Anzahl von Beobachtungen und beim Vorliegen einer Normalverteilung läßt sich die statistische Sicherheit $P(\varepsilon)$ angeben, mit der die Messungen in dem Bereich $x \pm \varepsilon $ um den Mittelwert liegen. Sie entspricht den in der Tabelle 1 angegebenen Wahrscheinlichkeiten $w(\varepsilon )$, wenn man nur $\sigma_{\rm x}$ durch $s_{\rm x}$ ersetzt. Für $n \to \infty $ gilt $P(\varepsilon) \to w(\varepsilon )$ .
next up previous contents
Next: Indirekt bestimmte Beobachtungsgrößen, Fehlerfortpflanzung Up: Rechnerische Erfassung zufälliger Fehler Previous: Rechnerische Erfassung zufälliger Fehler   Contents
Juergen Weiprecht 2002-10-29