next up previous contents
Next: Systematische Fehler, Größtfehler Up: Lineare Ausgleichung von Beobachtungen Previous: Proportionalität von und   Contents

18.4.2 Allgemeine lineare Abhängigkeit von $x$ und $y$

Bei einer allgemeinen linearen Abhängigkeit zwischen den Beobachtungsgrößen $x$ und $y$ in der Form von (29) sind durch eine Ausgleichung die beiden Konstanten $a_0$ und $b_0$ zu ermitteln. Die GAUSSsche Bedingung

\begin{displaymath}
\sum\limits_{\rm i=1}^{n} (y_{\rm i} - a_{0}x_{\rm i} - b_{...
... \sum\limits_{\rm i=1}^{n}
v_{\rm i}^{2} \ = \ {\rm Minimum}
\end{displaymath}

führt auf die beiden Gleichungen
$\displaystyle \frac{\partial}{\partial a_0} \sum\limits_{\rm i=1}^{n}
(y_{\rm i} - a_{0}x_{\rm i} - b_{0})^2$ $\textstyle =$ $\displaystyle -2 \sum\limits_{\rm i=1}^{n}
x_{\rm i}
(y_{\rm i} - a_{0}x_{\rm i} - b_{0}) = 0$ (35)
$\displaystyle \frac{\partial}{\partial b_{0}} \sum\limits_{\rm i=1}^{n} (y_{\rm i}
- a_{0}x_{\rm i} -
b_{0})^2$ $\textstyle =$ $\displaystyle - 2 \sum\limits_{\rm i=1}^{n} (y_{\rm i} - a_{0}x_{\rm i}
- b_{0}) = 0 .$  

Löst man sie nach $a_{0}$ und $b_{0}$ auf, so erhält man

\begin{eqnarray*}
a_{0} & = & \frac{\sum\limits_{\rm i=1}^{n} x_{\rm i}
\sum\l...
...} \right) ^2 \
- \ n \sum\limits_{\rm i=1}^{n}
x_{\rm i}^2} .
\end{eqnarray*}



Schreibt man Gleichung (35) in

\begin{displaymath}
\sum\limits_{\rm i=1}^{n} y_{\rm i} - a_0 \sum\limits_{\rm i=1}^{n}
x_{\rm i} - nb_0 = 0
\end{displaymath}

um, so ergibt sich daraus

\begin{displaymath}
\frac{1}{n} \sum_{\rm i=1}^{n} y_{\rm i} - a_0 \frac{1}{n}
...
...=1}^{n}
x_{\rm i} - b_0 = \bar{y} - a_{0}\bar{x} - b_0 = 0 .
\end{displaymath}

Der Mittelpunkt $Q(\bar{x}, \bar{y})$ der $n$ Wertepaare $Q_{\rm i}(x_{\rm i}, y_{\rm i})$ liegt also auf der ausgleichenden Geraden. Hat man daher $\bar{x}$ und $\bar{y}$ sowie $a_0$ und $b_0$ berechnet, so müssen diese Werte die Gleichung (30) erfüllen. Zur Berechnung der Größe der Vertrauensintervalle $a_{0} \pm
\tilde{\varepsilon}_{\rm a_0}$ und $b_0 \pm \tilde{\varepsilon}_{\rm b_0}$ bei vorgegebener statistischer Sicherheit $P$ benötigt man die Standardabweichung $s_{\rm y}$ der $y$-Werte. Sie ist definiert durch

\begin{displaymath}
s_{\rm y}^2 \ = \ \frac{1}{n-2} \sum\limits_{\rm i=1}^{n} v_{\rm i}^2 .
\end{displaymath}

Dieser Ansatz bewirkt, daß $s_{\rm y}$ bereits unendlich groß wird, wenn nur zwei Beobachtungen, also zwei Wertepaare $Q_{1}(x_{1}, y_{1})$ und $Q_{2}(x_{2}, y_{2})$ vorliegen. Bei der Ausgleichung geht man ja davon aus, daß die Beobachtungswerte um eine ausgleichende Gerade streuen. Durch zwei Punkte in der $x$-$y$-Ebene wäre aber eine Gerade eindeutig festgelegt. Sie geht durch beide Punkte, so daß der Begriff der Standardabweichung sinnlos ist. Entsprechende Überlegungen haben bei der Definition (15) im übrigen zu dem Nenner $(n-1)$ geführt. Wenn in der Definition (33) von $s_{\rm y}$ auch im Nenner $(n-1)$ und nicht $(n-2)$ steht, so ist das dadurch bedingt, daß im Falle einer reinen Proportionalität zwischen $x$ und $y$ die ausgleichende Beobachtung $Q(x_1, y_1)$ (zusammen mit dem Nullpunkt) schon eine Gerade festlegt. Jede weitere Beobachtung (also auch schon die zweite) gibt die Möglichkeit zur Berechnung der Standardabweichung der ausgleichenden Geraden. Unter Anwendung des Fehlerfortpflanzungsgesetzes erhält man auf Grund eines analogen Verfahrens, das zu (34) geführt hat, für $\tilde{\varepsilon}_
{\rm a_0}$ und $\tilde{\varepsilon}_{\rm b_0}$

\begin{eqnarray*}
\tilde{\varepsilon}_{\rm a_0} & = & t(P, n-1) \sqrt{\frac{n}{...
...frac{1}{(n-2)} \cdot \sum\limits_{\rm i=1}^{n} v_{\rm i}^2} \ .
\end{eqnarray*}



In dem Korrekturfaktor $t(P, n-1)$ ist ebenfalls berücksichtigt, daß zur Berechnung der Standardabweichungen der Koeffizienten $a_0$ und $b_0$ jeweils eine Beobachtung weniger zur Verfügung steht. Setzt man wieder $t(P, n-1) = 1$, gehen formal $\tilde{\varepsilon}_
{\rm a_0}$ und $\tilde{\varepsilon}_{\rm b_0}$ in $s_{\rm a_0}$ und $s_{\rm b_0}$, die mittleren Fehler von $a_0$ und $b_0$, über.
next up previous contents
Next: Systematische Fehler, Größtfehler Up: Lineare Ausgleichung von Beobachtungen Previous: Proportionalität von und   Contents
Juergen Weiprecht 2002-10-29